Connect with us

Noticias

Windsurf: la apuesta potencial de $ 3b de OpenAI para impulsar el movimiento de ‘codificación de vibra’

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información


‘Vibe Coding’ es un término del momento, ya que se refiere a un uso más aceptado de IA y indicaciones de lenguaje natural para la finalización del código básico.

Según los informes, Openai busca participar en el movimiento, y poseer más de la experiencia de codificación de pila completa, ya que mira una adquisición de $ 3 mil millones de Windsurf (anteriormente Codeium). Si el acuerdo se materializa, sería la adquisición más costosa de OpenAI hasta la fecha.

La noticia se produce inmediatamente después de la liberación de O3 y O4-Mini de la compañía, que son capaces de “pensar con imágenes” o comprender más intuitivamente bocetos y diagramas de baja calidad. Este desarrollo sigue el lanzamiento de la familia Modelo GPT-4.1. La compañía de IA Nadie puede dejar de hablar también recientemente recientemente aumentó una ronda de financiación de $ 40 mil millones.

Los observadores de la industria y los expertos han estado llenos sobre el posible acuerdo, ya que no solo podría hacer de OpenAi un jugador de la industria aún más grande de lo que ya es, sino que también acelera aún más la adopción cultural de la codificación de ambas.

“Windsurf podría cambiar el juego para Operai porque es una de las herramientas a las que los desarrolladores están compitiendo”, dijo Lisa Martin, directora de investigación del Futurum Group, a VentureBeat. “Este acuerdo podría solidificar OpenAi como el mejor amigo de un desarrollador”.

¿Una apuesta por la codificación de vibra?

La codificación asistida es una nueva concepto de un sh largoOT, pero la “codificación de vibos”, un término acuñado por el cofundador de OpenAi Andrej Karpathy, es un enfoque relativamente nuevo, ya que aprovecha las indicaciones generativas de IA y lenguaje natural para automatizar las tareas de codificación.

Esto se compara con otros asistentes de codificación de IA y herramientas sin código y código bajo que utilizan elementos visuales de arrastrar y soltar. La codificación de vibos se trata de incorporar la IA en flujos de trabajo de desarrollo de extremo a extremo, y el enfoque es la intención en lugar de las minucias de codificación manual.

Windsurf se encuentra entre las herramientas principales del espacio, junto con el cursor, la presentación de replicación, adorable, Bolt, Devin y Asider. La compañía lanzó Wave 6 a principios de este mes, cuyo objetivo es abordar los cuellos de botella del flujo de trabajo común.

“Windsurf ha liderado la carga de construir herramientas de desarrollo nativas verdaderamente ai, ayudando a los desarrolladores a acelerar la entrega sin comprometer la experiencia”, dijo Mitchell Johnson, director de desarrollo de productos de la firma de seguridad de software Sonatype. “Al igual que el código abierto temprano, esto comenzó como ‘Outlaw Tech’, pero rápidamente se está volviendo fundamental”.

Andrew Hill, CEO y cofundador de Crowdsource AI Agent Platform Recall, dijo que la adquisición potencial es “una apuesta por la codificación de ambientes como el futuro del desarrollo de software”. Windsurf tiene bucles de retroalimentación rápidos, buenos valores predeterminados y “el correcto alternar” para las personas con la intuición adecuada para guiar la IA para resolver sus problemas. También es un entorno diseñado para la creación conjunta.

“Deje que el salto de codificación comience de la plención de la Replicación, Claude, Cursor, Windsurf, ¿qué sigue?”, Dijo Hill, llamando a Vibe codificando un “desbloqueo de productividad”. “Los mejores agentes serán construidos por humanos que puedan ambiente a través de cien ideas en un fin de semana”.

Operai posee más de la pila

Otros señalan que si OpenAi adquiere Windsurf, señala un movimiento claro para poseer más de la experiencia de codificación de pila completa en lugar de solo suministrar los modelos subyacentes.

“Windsurf se ha centrado en los flujos de trabajo centrados en el desarrollador, no solo la generación de código sin procesar, que se alinea con la creciente necesidad de herramientas de codificación contextuales y colaborativas”, dijo Kaveh Vahdat, observador de la industria de IA y fundador de Riseangle y Riseopp.

Arvind Rongala, CEO de la compañía de servicios de capacitación corporativa Edstellar, lo calificó más en un movimiento de poder que un agarre de software. Con la codificación de ambientes, los desarrolladores quieren entornos que sean “expresivos, intuitivos y casi colaborativos, en lugar de simplemente editores de texto”.

Con Windsurf, OpenAi tendría acceso directo a la próxima generación de creación e intercambio de códigos, señaló, con el plan de integración vertical. “La capa de inteligencia ya pertenece a OpenAi. Ahora quiere el lienzo”.

Operai tiene un enorme poder no solo sobre lo que se desarrolla, sino también cómo se construye, dijo Rongala, ya que posee las herramientas creativas que los desarrolladores usan durante horas todos los días. “No se trata de quitar la cuota de mercado de la presentación de replicación o Github”, dijo. “Hacer que tales plataformas parezcan anticuadas es el objetivo”.

¿Un movimiento de estrategia o una lucha?

Vahdat señaló que una adquisición de Windsurf pondría a OpenAi en una competencia más directa con GitHub Copilot y Amazon Codewhisperer, ambos respaldados por gigantes de la plataforma.

“El valor real aquí no es solo en la herramienta en sí, sino en los datos de distribución y comportamiento del usuario que conlleva”, dijo. “Ese tipo de información es estratégicamente importante para mejorar los sistemas de codificación de IA a escala”.

El movimiento es especialmente interesante porque podría posicionar a OpenAi más directamente contra Microsoft, a pesar de que los dos se asocian estrechamente a través de herramientas como GitHub Copilot, señaló Brian Jackson, director de investigación principal de Info-Tech Research Group.

Un acuerdo admitiría la “estrategia más amplia de Openi de ir más allá de las simples interacciones de chat y convertirse en una herramienta que ayuda a los usuarios a tomar medidas reales y automatizar los flujos de trabajo cotidianos”, dijo.

Aún así, Johnson de Sonatype señaló, ¿qué pasa si Windsurf se combina con el ecosistema de OpenAi? Los desarrolladores se benefician más cuando las herramientas pueden integrarse libremente con los modelos de IA que se adaptan a sus necesidades, ya sea GPT, Claude o de código abierto.

“Si la propiedad limita esa flexibilidad, podría introducir una forma de bloqueo de proveedores que ralentiza el mismo impulso que Windsurf ayudó a crear”, dijo.

Mientras tanto, algunos críticos de Openai lo ven como un movimiento desesperado. Matt Murphy, socio de Menlo Ventures, llamado Anthrope Superior en la codificación, y la compañía tiene los mejores modelos y las alianzas más fuertes.

“El movimiento de Openi aquí se siente como una lucha para cerrar la brecha, pero corre el riesgo de alienar a los aliados clave y aún no aborda el problema central: Claude es el mejor modelo”, le dijo.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

¿Puede ChatGPT pasar la prueba de Turing? Lo que dice la investigación.

Published

on

Los chatbots de inteligencia artificiales como ChatGPT se están volviendo mucho más inteligentes, mucho más naturales y mucho más … como humanos. Tiene sentido: los humanos son los que crean los modelos de idiomas grandes que sustentan los sistemas de chatbots de IA, después de todo. Pero a medida que estas herramientas mejoran en “razonamiento” e imitan el discurso humano, ¿son lo suficientemente inteligentes como para aprobar la prueba de Turing?

Durante décadas, la prueba de Turing se ha mantenido como un punto de referencia clave en la inteligencia de máquinas. Ahora, los investigadores en realidad están poniendo a prueba LLM como ChatGPT. Si ChatGPT puede pasar, el logro sería un hito importante en el desarrollo de IA.

Entonces, ¿puede ChatGPT pasar la prueba de Turing? Según algunos investigadores, sí. Sin embargo, los resultados no son completamente definitivos. La prueba de Turing no es un simple pase/falla, lo que significa que los resultados no son realmente en blanco y negro. Además, incluso si ChatGPT podría pasar la prueba de Turing, eso puede no decirnos realmente cuán “humano” es realmente un LLM.

Vamos a desglosarlo.

¿Cuál es la prueba de Turing?

El concepto de la prueba de Turing es realmente bastante simple.

La prueba fue originalmente propuesta por el matemático británico Alan Turing, el padre de la informática moderna y un héroe para los nerds de todo el mundo. En 1949 o 1950, propuso el juego de imitación, una prueba de inteligencia de máquinas que desde entonces ha sido nombrada por él. La prueba de Turing implica que un juez humano tenga una conversación con un humano y una máquina sin saber cuál es cuál (o quién es quién, si crees en AGI). Si el juez no puede decir cuál es la máquina y cuál es la humana, la máquina pasa la prueba de Turing. En un contexto de investigación, la prueba se realiza muchas veces con múltiples jueces.

Por supuesto, la prueba no puede determinar necesariamente si un modelo de lenguaje grande es realmente tan inteligente como un humano (o más inteligente), solo si es capaz de pasar por un humano.

¿Los LLM realmente piensan como nosotros?

Los modelos de lenguaje grande, por supuesto, no tienen cerebro, conciencia o modelo mundial. No son conscientes de su propia existencia. También carecen de opiniones o creencias verdaderas.

En cambio, los modelos de idiomas grandes se capacitan en conjuntos de datos masivos de información: libros, artículos de Internet, documentos, transcripciones. Cuando un usuario ingresa el texto, el modelo AI usa su “razonamiento” para determinar el significado y la intención más probables de la entrada. Luego, el modelo genera una respuesta.

En el nivel más básico, los LLM son motores de predicción de palabras. Utilizando sus vastas datos de entrenamiento, calculan las probabilidades para el primer “token” (generalmente una sola palabra) de la respuesta utilizando su vocabulario. Repiten este proceso hasta que se genera una respuesta completa. Esa es una simplificación excesiva, por supuesto, pero mantengámoslo simple: las LLM generan respuestas a la entrada en función de la probabilidad y las estadísticas. Entonces, la respuesta de un LLM se basa en las matemáticas, no en una comprensión real del mundo.

Velocidad de luz mashable

Entonces, no, LLM no en realidad pensar en cualquier sentido de la palabra.

¿Qué dicen los estudios sobre ChatGPT y la prueba de Turing?

Joseph Maldonado / Mashable Composite por Rene Ramos
Crédito: Mashable

Ha habido bastantes estudios para determinar si ChatGPT ha aprobado la prueba de Turing, y muchos de ellos han tenido hallazgos positivos. Es por eso que algunos informáticos argumentan que, sí, modelos de idiomas grandes como GPT-4 y GPT-4.5 ahora pueden pasar la famosa prueba de Turing.

La mayoría de las pruebas se centran en el modelo GPT-4 de Openai, el que usa la mayoría de los usuarios de ChatGPT. Usando ese modelo, un Estudio de UC San Diego descubrieron que en muchos casos, los jueces humanos no pudieron distinguir GPT-4 de un humano. En el estudio, se consideró que GPT-4 era un humano el 54% del tiempo. Sin embargo, esto aún se quedó atrás de los humanos reales, que se consideró humano el 67% del tiempo.

Luego, se lanzó GPT-4.5, y los investigadores de UC San Diego Realizó el estudio nuevamente. Esta vez, el modelo de lenguaje grande se identificó como humano el 73% del tiempo, superando a los humanos reales. La prueba también encontró que el Llama-3.1-405b de Meta Meta pudo aprobar la prueba.

Otros estudios fuera de UC San Diego también han dado calificaciones de aprobación de GPT. Un 2024 Estudio de la Universidad de Reading de GPT-4 El modelo había creado respuestas para evaluaciones para llevar a casa para cursos de pregrado. Los alumnos de prueba no se les informó sobre el experimento, y solo marcaron una de las 33 entradas. ChatGPT recibió calificaciones anteriores al promedio con las otras 32 entradas.

Entonces, ¿son estos estudios? definitivo? No exactamente. Algunos críticos (y hay muchos) dicen que estos estudios de investigación no son tan impresionantes como parecen. Es por eso que no estamos listos para decir definitivamente que ChatGPT pasa la prueba de Turing.

Podemos decir que si bien los LLM de generación anterior como GPT-4 a veces pasan la prueba de Turing, los grados de aprobación se están volviendo más comunes a medida que los LLM se avanzan más. Y a medida que salen modelos de vanguardia como GPT-4.5, nos dirigimos rápidamente hacia modelos que pueden pasar fácilmente la prueba de Turing cada vez.

Operai en sí ciertamente imagina un mundo en el que es imposible distinguir a los humanos de la IA. Es por eso que el CEO de Operai, Sam Altman, ha invertido en un proyecto de verificación humana con una máquina de escaneo de globo ocular llamada Orbe.

¿Qué dice Chatgpt en sí mismo?

Decidimos preguntarle a ChatGPT si podía pasar la prueba de Turing, y nos dijo que sí, con las mismas advertencias que ya hemos discutido. Cuando planteamos la pregunta, “¿Puede Chatgpt pasar la prueba de Turing?” al chatbot Ai (usando el modelo 4o), nos dijo: “Chatgpt poder Pase la prueba de Turing en algunos escenarios, pero no de manera confiable o universal. “El chatbot concluyó:” Podría pasar la prueba de Turing con un usuario promedio en condiciones casuales, pero un interrogador determinado y reflexivo casi siempre podría desenmascararla “.

Una captura de pantalla de ChatGPT que muestra la respuesta al mensaje 'puede chatgpt pasar la prueba turing'

Imagen generada por IA.
Crédito: OpenAI

Las limitaciones de la prueba de Turing

Algunos científicos informáticos ahora creen que la prueba de Turing está desactualizada, y que no es tan útil para juzgar modelos de idiomas grandes. Gary Marcus, psicólogo estadounidense, científico cognitivo, autor y pronóstico popular de IA, lo resumió mejor en una publicación de blog reciente, donde escribió: “Como yo (y muchos otros) he dicho por añosLa prueba de Turing es una prueba de credulidad humana, no una prueba de inteligencia “.

También vale la pena tener en cuenta que la prueba de Turing se trata más de la percepción de inteligencia en lugar de actual inteligencia. Esa es una distinción importante. Un modelo como ChatGPT 4O podría pasar simplemente imitando el discurso humano. No solo eso, sino si un modelo de idioma grande pasa o no la prueba variará según el tema y el probador. ChatGPT podría simular fácilmente una pequeña charla, pero podría tener dificultades con las conversaciones que requieren una verdadera inteligencia emocional. No solo eso, sino que los sistemas de IA modernos se usan para mucho más que chatear, especialmente cuando nos dirigimos hacia un mundo de IA agente.

Nada de eso es decir que la prueba de Turing es irrelevante. Es un punto de referencia histórico ordenado, y ciertamente es interesante que los modelos de idiomas grandes puedan pasarlo. Pero la prueba de Turing no es el punto de referencia estándar de oro de la inteligencia de la máquina. ¿Cómo sería un mejor punto de referencia? Esa es otra lata de gusanos que tendremos que ahorrar para otra historia.


Divulgación: Ziff Davis, empresa matriz de Mashable, presentó en abril una demanda contra OpenAI, alegando que infringió los derechos de autor de Ziff Davis en la capacitación y la operación de sus sistemas de IA.

Temas
Inteligencia artificial

Continue Reading

Noticias

Openai, Microsoft le dice al Senado ‘Nadie puede ganar AI’

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información


La administración Trump retrocedió una orden ejecutiva del ex presidente Joe Biden que creó reglas sobre el desarrollo y el despliegue de IA. Desde entonces, el gobierno ha retrocedido de la regulación de la tecnología.

En una audiencia de más de tres horas en el Comité de Comercio, Ciencia y Transporte del Senado, ejecutivos como el CEO de Operai, Sam Altman, la CEO de AMD, Lisa Su, la cofundadora de CoreWeave y CEO Michael Intrator y Vicepresidente de Microsoft y Presidente Brad Smith instó a los políticos para aliviar el proceso de construcción de infraestructura en torno al desarrollo de AI.

Los ejecutivos dijeron a los formuladores de políticas que la aceleración de los permisos podría hacer que la construcción de nuevos centros de datos, las centros de energía para energizar los centros de datos e incluso los fabricantes de chips cruciales para apuntalar la pila tecnológica de IA y mantener al país competitivo contra China. También hablaron sobre la necesidad de trabajadores más calificados como electricistas, aliviando la inmigración del talento del software y alentando la “difusión de IA” o la adopción de modelos de IA generativos en los Estados Unidos y en todo el mundo.

Altman, recién visitando el proyecto Stargate de $ 500 mil millones de la compañía en Texas, dijo a los senadores que Estados Unidos está liderando el cargo en IA, pero necesita más infraestructura como las centrales eléctricas para alimentar su próxima fase.

“Creo que la próxima década será sobre abundante inteligencia y energía abundante. Asegurarse de que Estados Unidos lidere ambos, que podamos introducir estas revoluciones duales que cambiarán el mundo que vivimos de manera increíblemente positiva es crítico”, dijo Altman.

La audiencia se produjo cuando la administración Trump está determinando cuánta influencia tendrá el gobierno en el espacio de IA. El senador Ted Cruz de Texas, presidente del comité, dijo que propuso crear una caja de arena reguladora de IA.

Smith de Microsoft dijo en su testimonio escrito que las compañías de IA estadounidenses necesitan continuar innovando porque “es una carrera que ninguna compañía o país puede ganar por sí sola”.

Apoyando la pila de tecnología AI

Smith de Microsoft presentó la pila de tecnología AI, que según él muestra cuán importante es cada segmento del sector a la innovación.

“Todos estamos en esto juntos. Si Estados Unidos va a tener éxito en liderar el mundo en la IA, requiere infraestructura, requiere éxito a nivel de plataforma, requiere a las personas que crean aplicaciones”, dijo Smith.

Agregó: “La innovación irá más rápido con más infraestructura, permisos más rápidos y más electricistas”.

AMD reiteró que “mantener nuestro liderazgo en realidad requiere excelencia en cada capa de la pila”.

“Creo que los ecosistemas abiertos son realmente una piedra angular del liderazgo estadounidense, y eso permite que las ideas provengan de todas partes y cada parte del sector de la innovación”, dijo Su. “Está reduciendo las barreras para la entrada y el fortalecimiento de la seguridad, así como la creación de un mercado competitivo para ideas”.

Con los modelos de IA que necesitan más y más GPU para el entrenamiento, la necesidad de mejorar la producción de chips, construir más centros de datos y encontrar formas de alimentarlos se ha vuelto aún más crítico. La Ley de Chips y Ciencias, una ley de la era de Biden, estaba destinada a impulsar la producción de semiconductores en los Estados Unidos, pero hacer los chips necesarios para alimentar los modelos más poderosos del mundo a nivel local está demostrando ser lento y costoso.

En los últimos meses, compañías como Cerebras han anunciado planes para construir más centros de datos para ayudar a procesar la capacitación e inferencia de modelos.

Un descanso de las políticas actuales

La mayoría del Senado de los formuladores de políticas republicanas dejó en claro durante la audiencia que la administración Trump preferiría no regular el desarrollo de la IA, preferir un enfoque más impulsado por el mercado. Esta administración también ha presionado para un crecimiento más centrado en los Estados Unidos, exigiendo que las empresas usen productos estadounidenses y creen más empleos estadounidenses.

Sin embargo, los ejecutivos señalaron que para que la IA estadounidense siga siendo competitiva, las empresas necesitan acceso al talento internacional y, lo que es más importante, políticas de exportación claras para que los modelos fabricados en los EE. UU. Puedan ser atractivos para otros países.

“Necesitamos una adopción más rápida, a lo que las personas se refieren como difusión de IA. La capacidad de hacer que la IA trabaje en cada parte de la economía estadounidense para impulsar la productividad, para impulsar el crecimiento económico, permitir a las personas innovar en su trabajo”, dijo Smith. “Si Estados Unidos dirigirá el mundo, necesitamos conectarnos con el mundo. Nuestro liderazgo global se basa en nuestra capacidad para servir al mundo con el enfoque correcto y en nuestra capacidad para mantener la confianza del resto del mundo”.

Agregó que eliminar los límites cuantitativos para los países de nivel dos es esencial porque estas políticas “enviaron un mensaje a 120 naciones que no podían contar con nosotros para proporcionar la IA que desean y necesitan”.

Altman señaló: “Habrá excelentes chips y modelos entrenados en todo el mundo”, reiterando la posición de liderazgo de las compañías estadounidenses en el espacio.

Hay algunas buenas noticias en el área de la difusión de IA porque, si bien la audiencia estaba en curso, el Departamento de Comercio anunció que estaba modificando las reglas de la administración Biden que limitó qué países podrían recibir chips hechos por compañías estadounidenses. La regla entró en vigencia el 15 de mayo.

Si bien los ejecutivos dijeron que los estándares gubernamentales serían útiles, denunciaron cualquier movimiento para ver lanzamientos del modelo de “aprobación previa”, similares a la UE.

Ecosistema abierto

La IA generativa ocupa un espacio liminal en la regulación tecnológica. Por un lado, la falta comparativa de reglas ha permitido a empresas como OpenAI desarrollar tecnología sin mucho miedo a las repercusiones. Por otro lado, la IA, como Internet y las redes sociales antes, toca la vida de las personas profesionales y personalmente.

De alguna manera, los ejecutivos se alejaron de cómo la administración Trump ha posicionado el crecimiento de los Estados Unidos. La audiencia mostró que si bien las compañías de IA desean el apoyo del gobierno para acelerar el proceso de expansión de la infraestructura de IA, también deben estar más abiertos al resto del mundo. Requiere talento del extranjero. Necesita vender productos y plataformas a otros países.

El comentario de las redes sociales varió, y algunos señalaron que los ejecutivos, en particular Altman, tenían opiniones diferentes sobre la regulación antes.

Otros señalaron que otros países podrían ver dónde han fallado sus propias políticas de IA.

Continue Reading

Noticias

Google está desplegando su chatbot Gemini Ai para niños menores de 13 años. Es un movimiento arriesgado

Published

on

Google ha anunciado que lanzará su chatbot de inteligencia artificial Gemini (IA) a niños menores de 13 años.

Si bien el lanzamiento comienza dentro de la próxima semana en los Estados Unidos y Canadá, se lanzará en Australia a finales de este año. El chatbot solo estará disponible para las personas a través de las cuentas de enlaces familiares de Google.

Pero este desarrollo viene con grandes riesgos. También destaca cómo, incluso si los niños están prohibidos en las redes sociales, los padres aún tendrán que jugar un juego de Whack-a-Mole con nuevas tecnologías mientras intentan mantener a sus hijos seguros.

Una buena manera de abordar esto sería implementar urgentemente un deber digital de cuidado para grandes empresas tecnológicas como Google.

¿Cómo funcionará el chatbot Gemini AI?

Las cuentas de enlaces familiares de Google permiten a los padres controlar el acceso al contenido y las aplicaciones, como YouTube.

Para crear la cuenta de un niño, los padres proporcionan datos personales, incluido el nombre y la fecha de nacimiento del niño. Esto puede generar problemas de privacidad para los padres preocupados por las violaciones de datos, pero Google dice que los datos de los niños cuando usen el sistema no se utilizarán para capacitar al sistema de IA.

El acceso de chatbot estará “activado” de forma predeterminada, por lo que los padres deben apagar activamente la función para restringir el acceso. Los niños pequeños podrán solicitar el chatbot para las respuestas de texto o crear imágenes, que generan el sistema.

Google reconoce que el sistema puede “cometer errores”. Por lo tanto, se necesita evaluación de la calidad y la confiabilidad del contenido. Los chatbots pueden inventar información (conocida como “alucinante”), por lo que si los niños usan el chatbot para la ayuda de la tarea, deben verificar los hechos con fuentes confiables.

¿Qué tipo de información proporcionará el sistema?

Google y otros motores de búsqueda recuperan materiales originales para que las personas lo revisen. Un estudiante puede leer artículos de noticias, revistas y otras fuentes al escribir una tarea.

Las herramientas generativas de IA no son las mismas que los motores de búsqueda. Las herramientas de IA buscan patrones en el material fuente y crean nuevas respuestas de texto (o imágenes) basadas en la consulta, o “aviso”, proporciona una persona. Un niño podría pedirle al sistema que “dibuje un gato” y el sistema escaneará patrones en los datos de cómo se ve un gato (como bigotes, orejas puntiagudas y una cola larga) y generará una imagen que incluya esos detalles similares a los gatos.

Comprender las diferencias entre los materiales recuperados en una búsqueda de Google y el contenido generado por una herramienta de IA será un desafío para los niños pequeños. Los estudios muestran que incluso los adultos pueden ser engañados por herramientas de IA. E incluso los profesionales altamente calificados, como los abogados, han sido engañados al uso de contenido falso generado por ChatGPT y otros chatbots.

¿El contenido generado será apropiado para la edad?

Google dice que el sistema incluirá “salvaguardas incorporadas diseñadas para evitar la generación de contenido inapropiado o inseguro”.

Sin embargo, estas salvaguardas podrían crear nuevos problemas. Por ejemplo, si las palabras particulares (como “senos”) están restringidas para proteger a los niños de acceder al contenido sexual inapropiado, esto también podría excluir erróneamente a los niños de acceder a contenido apropiado para la edad sobre los cambios corporales durante la pubertad.

Muchos niños también son muy expertos en tecnología, a menudo con habilidades bien desarrolladas para navegar en aplicaciones y controlar los controles del sistema. Los padres no pueden confiar exclusivamente en salvaguardas incorporadas. Deben revisar el contenido generado y ayudar a sus hijos a comprender cómo funciona el sistema y evaluar si el contenido es preciso.

Google dice que habrá salvaguardas para minimizar el riesgo de daño para los niños que usan Gemini, pero estos podrían crear nuevos problemas.
Dragos Asaeftei/Shutterstock

¿Qué riesgos plantean los chatbots de IA para los niños?

La Comisión ESAFETY ha emitido un aviso de seguridad en línea sobre el riesgo potencial de los chatbots de IA, incluidos los diseñados para simular las relaciones personales, particularmente para los niños pequeños.

El aviso de AFFETY explica que los compañeros de IA pueden “compartir contenido dañino, distorsionar la realidad y dar consejos que son peligrosos”. El asesoramiento destaca los riesgos para los niños pequeños, en particular, que “todavía están desarrollando el pensamiento crítico y las habilidades para la vida necesarias para comprender cómo pueden ser equivocados o manipulados por programas informáticos y qué hacer al respecto”.

Mi equipo de investigación ha examinado recientemente una variedad de chatbots de IA, como ChatGPT, Replika y Tessa. Encontramos que estos sistemas reflejan las interacciones de las personas en función de las muchas reglas no escritas que rigen el comportamiento social, o lo que se conoce como “reglas de sentimiento”. Estas reglas son las que nos llevan a decir “gracias” cuando alguien nos abre la puerta, o “¡Lo siento!” Cuando te topas con alguien en la calle.

Al imitar estas y otras sutilezas sociales, estos sistemas están diseñados para ganar nuestra confianza.

Estas interacciones humanas serán confusas y potencialmente riesgosas para los niños pequeños. Pueden creer que se puede confiar en el contenido, incluso cuando el chatbot responde con información falsa. Y pueden creer que se están involucrando con una persona real, en lugar de una máquina.

Una madre que le enseña a su hijo el alfabeto.
Los chatbots de IA como Géminis están diseñados para imitar el comportamiento humano y ganar nuestra confianza.
Imagen de tierra

¿Cómo podemos proteger a los niños del daño al usar chatbots de IA?

Este despliegue está ocurriendo en un momento crucial en Australia, ya que los niños menores de 16 años tendrán que tener cuentas de redes sociales en diciembre de este año.

Si bien algunos padres pueden creer que esto mantendrá a sus hijos a salvo de daños, los chatbots generativos de IA muestran los riesgos de la participación en línea se extienden mucho más allá de las redes sociales. Los niños, y los padres, deben ser educados en cómo todos los tipos de herramientas digitales se pueden usar de manera adecuada y segura.

Como el chatbot de IA de Gemini no es una herramienta de redes sociales, se quedará fuera de la prohibición de Australia.

Esto deja a los padres australianos jugando un juego de Whack-a-Mole con nuevas tecnologías mientras intentan mantener a sus hijos seguros. Los padres deben mantenerse al día con los nuevos desarrollos de herramientas y comprender los riesgos potenciales que enfrentan sus hijos. También deben comprender las limitaciones de la prohibición de las redes sociales para proteger a los niños de daños.

Esto resalta la urgente necesidad de revisar la legislación propuesta por el deber de cuidado de Australia. Mientras que la Unión Europea y el Reino Unido lanzaron la legislación de Derechos de Cuidado de Digital de Cuidado en 2023, Australia ha estado en espera desde noviembre de 2024. Esta legislación haría que las empresas tecnológicas tengan en cuenta legislando que se ocupan de contenido nocivo, en la fuente, para proteger a todos.

Continue Reading

Trending