Connect with us

Noticias

Cambiar la estructura sin fines de lucro de OpenAI plantearía dudas sobre su futuro

Published

on

NUEVA YORK — El fabricante de inteligencia artificial OpenAI puede enfrentar un ajuste de cuentas costoso e inconveniente con sus orígenes sin fines de lucro, incluso cuando su valoración recientemente se disparó a 157 mil millones de dólares.

Los expertos en impuestos sin fines de lucro han estado siguiendo de cerca a OpenAI, el creador de ChatGPT, desde noviembre pasado, cuando su junta destituyó y volvió a contratar al director ejecutivo Sam Altman. Ahora, algunos creen que la empresa puede haber alcanzado (o superado) los límites de su estructura corporativa, bajo la cual está organizada como una organización sin fines de lucro cuya misión es desarrollar inteligencia artificial para beneficiar a “toda la humanidad”, pero con subsidiarias con fines de lucro bajo su control. control.

Jill Horwitz, profesora de derecho y medicina en la Facultad de Derecho de UCLA que estudió OpenAI, dijo que cuando dos partes de una empresa conjunta entre una organización sin fines de lucro y una con fines de lucro entran en conflicto, el propósito caritativo siempre debe prevalecer.

“Primero es trabajo de la junta, y luego de los reguladores y el tribunal, garantizar que se cumpla la promesa que se hizo al público de perseguir el interés caritativo”, dijo.

Altman confirmó recientemente que OpenAI está considerando una reestructuración corporativa, pero no ofreció ningún detalle. Sin embargo, una fuente dijo a The Associated Press que la compañía está analizando la posibilidad de convertir OpenAI en una corporación de beneficio público. La junta no ha tomado ninguna decisión final y no se ha determinado el momento del cambio, dijo la fuente.

En caso de que la organización sin fines de lucro pierda el control de sus subsidiarias, algunos expertos creen que OpenAI podría tener que pagar por los intereses y activos que habían pertenecido a la organización sin fines de lucro. Hasta ahora, la mayoría de los observadores coinciden en que OpenAI ha orquestado cuidadosamente sus relaciones entre su organización sin fines de lucro y otras entidades corporativas para tratar de evitarlo.

Sin embargo, también ven a OpenAI maduro para el escrutinio de los reguladores, incluido el Servicio de Impuestos Internos y los fiscales generales estatales en Delaware, donde está constituida, y en California, donde opera.

Bret Taylor, presidente de la junta directiva de la organización sin fines de lucro OpenAI, dijo en un comunicado que la junta estaba enfocada en cumplir con su obligación fiduciaria.

“Cualquier posible reestructuración garantizaría que la organización sin fines de lucro continúe existiendo y prosperando, y reciba el valor total por su participación actual en OpenAI con una capacidad mejorada para llevar a cabo su misión”, dijo.

Estas son las principales preguntas que tienen los expertos en organizaciones sin fines de lucro:

Las organizaciones sin fines de lucro exentas de impuestos a veces deciden cambiar su estatus. Eso requiere lo que el IRS llama una conversión.

La ley tributaria requiere que el dinero o los activos donados a una organización exenta de impuestos permanezcan dentro del sector caritativo. Si la organización inicial se convierte en una organización con fines de lucro, generalmente se necesita una conversión en la que la organización con fines de lucro pague el valor justo de mercado de los activos a otra organización benéfica.

Incluso si la organización sin fines de lucro OpenAI continúa existiendo de alguna manera, algunos expertos sostienen que se le tendría que pagar el valor justo de mercado por cualquier activo que se transfiera a sus subsidiarias con fines de lucro.

En el caso de OpenAI, hay muchas preguntas: ¿Qué activos pertenecen a su organización sin fines de lucro? ¿Cuál es el valor de esos activos? ¿Incluyen propiedad intelectual, patentes, productos comerciales y licencias? Además, ¿cuál es el valor de ceder el control de las filiales con fines de lucro?

Si OpenAI disminuyera el control que su organización sin fines de lucro tiene sobre sus otras entidades comerciales, un regulador podría requerir respuestas a esas preguntas. Cualquier cambio en la estructura de OpenAI requerirá que navegue por las leyes que rigen a las organizaciones exentas de impuestos.

Andrew Steinberg, abogado de Venable LLP y miembro del comité de organizaciones sin fines de lucro de la Asociación de Abogados de Estados Unidos, dijo que sería una transacción “extraordinaria” cambiar la estructura de las subsidiarias corporativas de una organización sin fines de lucro exenta de impuestos.

“Sería un proceso complejo y complicado con numerosas consideraciones legales y regulatorias diferentes que resolver”, dijo. “Pero no es imposible”.

Para obtener el estatus de exención de impuestos, OpenAI tuvo que presentar una solicitud al IRS y explicar su propósito caritativo. OpenAI proporcionó a The Associated Press una copia de esa solicitud de septiembre de 2016, que muestra cuán significativamente han cambiado los planes de la organización para su tecnología y estructura.

La portavoz de OpenAI, Liz Bourgeois, dijo en un correo electrónico que las misiones y objetivos de la organización se mantuvieron constantes, aunque la forma en que lleva a cabo su misión ha evolucionado junto con los avances en la tecnología.

Cuando OpenAI se constituyó como una organización sin fines de lucro en Delaware, escribió que su propósito era “proporcionar financiación para la investigación, el desarrollo y la distribución de tecnología relacionada con la inteligencia artificial”. En las declaraciones de impuestos, también describe su misión como construir “inteligencia artificial (IA) de propósito general que beneficie de manera segura a la humanidad, sin las limitaciones de la necesidad de generar retorno financiero”.

Steinberg dijo que no hay problema con que los planes de la organización cambien siempre y cuando informen esa información en sus declaraciones de impuestos anuales, que es lo que tienen.

Pero algunos observadores, incluido Elon Musk, quien fue miembro de la junta directiva y uno de los primeros partidarios de OpenAI y demandó a la organización, se muestran escépticos de que haya sido fiel a su misión.

El “padrino de la IA” Geoffrey Hinton, que recibió el Premio Nobel de Física el martes, también ha expresado su preocupación por la evolución de OpenAI, alardeando abiertamente de que uno de sus antiguos alumnos, Ilya Sutskever, que luego cofundó la organización, ayudó a derrocar a Altman como director ejecutivo antes de traerlo de regreso.

“OpenAI se creó con gran énfasis en la seguridad. Su objetivo principal era desarrollar inteligencia artificial general y garantizar que fuera segura”, dijo Hinton, y agregó que “con el tiempo, resultó que Sam Altman estaba mucho menos preocupado por la seguridad que por las ganancias. Y creo que eso es desafortunado”.

Sutskever, quien dirigió un equipo centrado en la seguridad de la IA en OpenAI, dejó la organización en mayo y fundó su propia empresa de IA. OpenAI, por su parte, dice estar orgulloso de su historial de seguridad.

En última instancia, esta pregunta vuelve a la junta directiva de la organización sin fines de lucro OpenAI y al grado en que está actuando para promover la misión caritativa de la organización.

Steinberg dijo que cualquier regulador que observe la decisión de una junta sin fines de lucro estará más interesado en el proceso mediante el cual llegó a esa decisión, no necesariamente en si llegó a la mejor decisión.

Dijo que los reguladores “a menudo ceden ante el criterio comercial de los miembros de la junta directiva, siempre y cuando las transacciones no impliquen un conflicto de intereses para ninguno de los miembros de la junta. No pretenden obtener ningún beneficio económico con la transacción”.

Si algún miembro de la junta se beneficiaría financieramente de cualquier cambio en la estructura de OpenAI también podría ser de interés para los reguladores sin fines de lucro.

En respuesta a las preguntas sobre si a Altman se le podría otorgar capital en la subsidiaria con fines de lucro en cualquier posible reestructuración, el presidente de la junta de OpenAI, Taylor, dijo en un comunicado: “La junta ha tenido discusiones sobre si sería beneficioso para la compañía y nuestra misión de “Que Sam sea compensado con equidad, pero no se han discutido cifras específicas ni se ha tomado ninguna decisión”.

___

Associated Press y OpenAI tienen un acuerdo de licencia y tecnología que permite a OpenAI acceder a parte de los archivos de texto de AP.

___

La cobertura de Associated Press sobre filantropía y organizaciones sin fines de lucro recibe apoyo a través de la colaboración de AP con The Conversation US, con financiamiento de Lilly Endowment Inc. La AP es la única responsable de este contenido. Para conocer toda la cobertura filantrópica de AP, visite https://apnews.com/hub/philanthropy.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

¿Puede ChatGPT pasar la prueba de Turing? Lo que dice la investigación.

Published

on

Los chatbots de inteligencia artificiales como ChatGPT se están volviendo mucho más inteligentes, mucho más naturales y mucho más … como humanos. Tiene sentido: los humanos son los que crean los modelos de idiomas grandes que sustentan los sistemas de chatbots de IA, después de todo. Pero a medida que estas herramientas mejoran en “razonamiento” e imitan el discurso humano, ¿son lo suficientemente inteligentes como para aprobar la prueba de Turing?

Durante décadas, la prueba de Turing se ha mantenido como un punto de referencia clave en la inteligencia de máquinas. Ahora, los investigadores en realidad están poniendo a prueba LLM como ChatGPT. Si ChatGPT puede pasar, el logro sería un hito importante en el desarrollo de IA.

Entonces, ¿puede ChatGPT pasar la prueba de Turing? Según algunos investigadores, sí. Sin embargo, los resultados no son completamente definitivos. La prueba de Turing no es un simple pase/falla, lo que significa que los resultados no son realmente en blanco y negro. Además, incluso si ChatGPT podría pasar la prueba de Turing, eso puede no decirnos realmente cuán “humano” es realmente un LLM.

Vamos a desglosarlo.

¿Cuál es la prueba de Turing?

El concepto de la prueba de Turing es realmente bastante simple.

La prueba fue originalmente propuesta por el matemático británico Alan Turing, el padre de la informática moderna y un héroe para los nerds de todo el mundo. En 1949 o 1950, propuso el juego de imitación, una prueba de inteligencia de máquinas que desde entonces ha sido nombrada por él. La prueba de Turing implica que un juez humano tenga una conversación con un humano y una máquina sin saber cuál es cuál (o quién es quién, si crees en AGI). Si el juez no puede decir cuál es la máquina y cuál es la humana, la máquina pasa la prueba de Turing. En un contexto de investigación, la prueba se realiza muchas veces con múltiples jueces.

Por supuesto, la prueba no puede determinar necesariamente si un modelo de lenguaje grande es realmente tan inteligente como un humano (o más inteligente), solo si es capaz de pasar por un humano.

¿Los LLM realmente piensan como nosotros?

Los modelos de lenguaje grande, por supuesto, no tienen cerebro, conciencia o modelo mundial. No son conscientes de su propia existencia. También carecen de opiniones o creencias verdaderas.

En cambio, los modelos de idiomas grandes se capacitan en conjuntos de datos masivos de información: libros, artículos de Internet, documentos, transcripciones. Cuando un usuario ingresa el texto, el modelo AI usa su “razonamiento” para determinar el significado y la intención más probables de la entrada. Luego, el modelo genera una respuesta.

En el nivel más básico, los LLM son motores de predicción de palabras. Utilizando sus vastas datos de entrenamiento, calculan las probabilidades para el primer “token” (generalmente una sola palabra) de la respuesta utilizando su vocabulario. Repiten este proceso hasta que se genera una respuesta completa. Esa es una simplificación excesiva, por supuesto, pero mantengámoslo simple: las LLM generan respuestas a la entrada en función de la probabilidad y las estadísticas. Entonces, la respuesta de un LLM se basa en las matemáticas, no en una comprensión real del mundo.

Velocidad de luz mashable

Entonces, no, LLM no en realidad pensar en cualquier sentido de la palabra.

¿Qué dicen los estudios sobre ChatGPT y la prueba de Turing?

Joseph Maldonado / Mashable Composite por Rene Ramos
Crédito: Mashable

Ha habido bastantes estudios para determinar si ChatGPT ha aprobado la prueba de Turing, y muchos de ellos han tenido hallazgos positivos. Es por eso que algunos informáticos argumentan que, sí, modelos de idiomas grandes como GPT-4 y GPT-4.5 ahora pueden pasar la famosa prueba de Turing.

La mayoría de las pruebas se centran en el modelo GPT-4 de Openai, el que usa la mayoría de los usuarios de ChatGPT. Usando ese modelo, un Estudio de UC San Diego descubrieron que en muchos casos, los jueces humanos no pudieron distinguir GPT-4 de un humano. En el estudio, se consideró que GPT-4 era un humano el 54% del tiempo. Sin embargo, esto aún se quedó atrás de los humanos reales, que se consideró humano el 67% del tiempo.

Luego, se lanzó GPT-4.5, y los investigadores de UC San Diego Realizó el estudio nuevamente. Esta vez, el modelo de lenguaje grande se identificó como humano el 73% del tiempo, superando a los humanos reales. La prueba también encontró que el Llama-3.1-405b de Meta Meta pudo aprobar la prueba.

Otros estudios fuera de UC San Diego también han dado calificaciones de aprobación de GPT. Un 2024 Estudio de la Universidad de Reading de GPT-4 El modelo había creado respuestas para evaluaciones para llevar a casa para cursos de pregrado. Los alumnos de prueba no se les informó sobre el experimento, y solo marcaron una de las 33 entradas. ChatGPT recibió calificaciones anteriores al promedio con las otras 32 entradas.

Entonces, ¿son estos estudios? definitivo? No exactamente. Algunos críticos (y hay muchos) dicen que estos estudios de investigación no son tan impresionantes como parecen. Es por eso que no estamos listos para decir definitivamente que ChatGPT pasa la prueba de Turing.

Podemos decir que si bien los LLM de generación anterior como GPT-4 a veces pasan la prueba de Turing, los grados de aprobación se están volviendo más comunes a medida que los LLM se avanzan más. Y a medida que salen modelos de vanguardia como GPT-4.5, nos dirigimos rápidamente hacia modelos que pueden pasar fácilmente la prueba de Turing cada vez.

Operai en sí ciertamente imagina un mundo en el que es imposible distinguir a los humanos de la IA. Es por eso que el CEO de Operai, Sam Altman, ha invertido en un proyecto de verificación humana con una máquina de escaneo de globo ocular llamada Orbe.

¿Qué dice Chatgpt en sí mismo?

Decidimos preguntarle a ChatGPT si podía pasar la prueba de Turing, y nos dijo que sí, con las mismas advertencias que ya hemos discutido. Cuando planteamos la pregunta, “¿Puede Chatgpt pasar la prueba de Turing?” al chatbot Ai (usando el modelo 4o), nos dijo: “Chatgpt poder Pase la prueba de Turing en algunos escenarios, pero no de manera confiable o universal. “El chatbot concluyó:” Podría pasar la prueba de Turing con un usuario promedio en condiciones casuales, pero un interrogador determinado y reflexivo casi siempre podría desenmascararla “.

Una captura de pantalla de ChatGPT que muestra la respuesta al mensaje 'puede chatgpt pasar la prueba turing'

Imagen generada por IA.
Crédito: OpenAI

Las limitaciones de la prueba de Turing

Algunos científicos informáticos ahora creen que la prueba de Turing está desactualizada, y que no es tan útil para juzgar modelos de idiomas grandes. Gary Marcus, psicólogo estadounidense, científico cognitivo, autor y pronóstico popular de IA, lo resumió mejor en una publicación de blog reciente, donde escribió: “Como yo (y muchos otros) he dicho por añosLa prueba de Turing es una prueba de credulidad humana, no una prueba de inteligencia “.

También vale la pena tener en cuenta que la prueba de Turing se trata más de la percepción de inteligencia en lugar de actual inteligencia. Esa es una distinción importante. Un modelo como ChatGPT 4O podría pasar simplemente imitando el discurso humano. No solo eso, sino si un modelo de idioma grande pasa o no la prueba variará según el tema y el probador. ChatGPT podría simular fácilmente una pequeña charla, pero podría tener dificultades con las conversaciones que requieren una verdadera inteligencia emocional. No solo eso, sino que los sistemas de IA modernos se usan para mucho más que chatear, especialmente cuando nos dirigimos hacia un mundo de IA agente.

Nada de eso es decir que la prueba de Turing es irrelevante. Es un punto de referencia histórico ordenado, y ciertamente es interesante que los modelos de idiomas grandes puedan pasarlo. Pero la prueba de Turing no es el punto de referencia estándar de oro de la inteligencia de la máquina. ¿Cómo sería un mejor punto de referencia? Esa es otra lata de gusanos que tendremos que ahorrar para otra historia.


Divulgación: Ziff Davis, empresa matriz de Mashable, presentó en abril una demanda contra OpenAI, alegando que infringió los derechos de autor de Ziff Davis en la capacitación y la operación de sus sistemas de IA.

Temas
Inteligencia artificial

Continue Reading

Noticias

Openai, Microsoft le dice al Senado ‘Nadie puede ganar AI’

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información


La administración Trump retrocedió una orden ejecutiva del ex presidente Joe Biden que creó reglas sobre el desarrollo y el despliegue de IA. Desde entonces, el gobierno ha retrocedido de la regulación de la tecnología.

En una audiencia de más de tres horas en el Comité de Comercio, Ciencia y Transporte del Senado, ejecutivos como el CEO de Operai, Sam Altman, la CEO de AMD, Lisa Su, la cofundadora de CoreWeave y CEO Michael Intrator y Vicepresidente de Microsoft y Presidente Brad Smith instó a los políticos para aliviar el proceso de construcción de infraestructura en torno al desarrollo de AI.

Los ejecutivos dijeron a los formuladores de políticas que la aceleración de los permisos podría hacer que la construcción de nuevos centros de datos, las centros de energía para energizar los centros de datos e incluso los fabricantes de chips cruciales para apuntalar la pila tecnológica de IA y mantener al país competitivo contra China. También hablaron sobre la necesidad de trabajadores más calificados como electricistas, aliviando la inmigración del talento del software y alentando la “difusión de IA” o la adopción de modelos de IA generativos en los Estados Unidos y en todo el mundo.

Altman, recién visitando el proyecto Stargate de $ 500 mil millones de la compañía en Texas, dijo a los senadores que Estados Unidos está liderando el cargo en IA, pero necesita más infraestructura como las centrales eléctricas para alimentar su próxima fase.

“Creo que la próxima década será sobre abundante inteligencia y energía abundante. Asegurarse de que Estados Unidos lidere ambos, que podamos introducir estas revoluciones duales que cambiarán el mundo que vivimos de manera increíblemente positiva es crítico”, dijo Altman.

La audiencia se produjo cuando la administración Trump está determinando cuánta influencia tendrá el gobierno en el espacio de IA. El senador Ted Cruz de Texas, presidente del comité, dijo que propuso crear una caja de arena reguladora de IA.

Smith de Microsoft dijo en su testimonio escrito que las compañías de IA estadounidenses necesitan continuar innovando porque “es una carrera que ninguna compañía o país puede ganar por sí sola”.

Apoyando la pila de tecnología AI

Smith de Microsoft presentó la pila de tecnología AI, que según él muestra cuán importante es cada segmento del sector a la innovación.

“Todos estamos en esto juntos. Si Estados Unidos va a tener éxito en liderar el mundo en la IA, requiere infraestructura, requiere éxito a nivel de plataforma, requiere a las personas que crean aplicaciones”, dijo Smith.

Agregó: “La innovación irá más rápido con más infraestructura, permisos más rápidos y más electricistas”.

AMD reiteró que “mantener nuestro liderazgo en realidad requiere excelencia en cada capa de la pila”.

“Creo que los ecosistemas abiertos son realmente una piedra angular del liderazgo estadounidense, y eso permite que las ideas provengan de todas partes y cada parte del sector de la innovación”, dijo Su. “Está reduciendo las barreras para la entrada y el fortalecimiento de la seguridad, así como la creación de un mercado competitivo para ideas”.

Con los modelos de IA que necesitan más y más GPU para el entrenamiento, la necesidad de mejorar la producción de chips, construir más centros de datos y encontrar formas de alimentarlos se ha vuelto aún más crítico. La Ley de Chips y Ciencias, una ley de la era de Biden, estaba destinada a impulsar la producción de semiconductores en los Estados Unidos, pero hacer los chips necesarios para alimentar los modelos más poderosos del mundo a nivel local está demostrando ser lento y costoso.

En los últimos meses, compañías como Cerebras han anunciado planes para construir más centros de datos para ayudar a procesar la capacitación e inferencia de modelos.

Un descanso de las políticas actuales

La mayoría del Senado de los formuladores de políticas republicanas dejó en claro durante la audiencia que la administración Trump preferiría no regular el desarrollo de la IA, preferir un enfoque más impulsado por el mercado. Esta administración también ha presionado para un crecimiento más centrado en los Estados Unidos, exigiendo que las empresas usen productos estadounidenses y creen más empleos estadounidenses.

Sin embargo, los ejecutivos señalaron que para que la IA estadounidense siga siendo competitiva, las empresas necesitan acceso al talento internacional y, lo que es más importante, políticas de exportación claras para que los modelos fabricados en los EE. UU. Puedan ser atractivos para otros países.

“Necesitamos una adopción más rápida, a lo que las personas se refieren como difusión de IA. La capacidad de hacer que la IA trabaje en cada parte de la economía estadounidense para impulsar la productividad, para impulsar el crecimiento económico, permitir a las personas innovar en su trabajo”, dijo Smith. “Si Estados Unidos dirigirá el mundo, necesitamos conectarnos con el mundo. Nuestro liderazgo global se basa en nuestra capacidad para servir al mundo con el enfoque correcto y en nuestra capacidad para mantener la confianza del resto del mundo”.

Agregó que eliminar los límites cuantitativos para los países de nivel dos es esencial porque estas políticas “enviaron un mensaje a 120 naciones que no podían contar con nosotros para proporcionar la IA que desean y necesitan”.

Altman señaló: “Habrá excelentes chips y modelos entrenados en todo el mundo”, reiterando la posición de liderazgo de las compañías estadounidenses en el espacio.

Hay algunas buenas noticias en el área de la difusión de IA porque, si bien la audiencia estaba en curso, el Departamento de Comercio anunció que estaba modificando las reglas de la administración Biden que limitó qué países podrían recibir chips hechos por compañías estadounidenses. La regla entró en vigencia el 15 de mayo.

Si bien los ejecutivos dijeron que los estándares gubernamentales serían útiles, denunciaron cualquier movimiento para ver lanzamientos del modelo de “aprobación previa”, similares a la UE.

Ecosistema abierto

La IA generativa ocupa un espacio liminal en la regulación tecnológica. Por un lado, la falta comparativa de reglas ha permitido a empresas como OpenAI desarrollar tecnología sin mucho miedo a las repercusiones. Por otro lado, la IA, como Internet y las redes sociales antes, toca la vida de las personas profesionales y personalmente.

De alguna manera, los ejecutivos se alejaron de cómo la administración Trump ha posicionado el crecimiento de los Estados Unidos. La audiencia mostró que si bien las compañías de IA desean el apoyo del gobierno para acelerar el proceso de expansión de la infraestructura de IA, también deben estar más abiertos al resto del mundo. Requiere talento del extranjero. Necesita vender productos y plataformas a otros países.

El comentario de las redes sociales varió, y algunos señalaron que los ejecutivos, en particular Altman, tenían opiniones diferentes sobre la regulación antes.

Otros señalaron que otros países podrían ver dónde han fallado sus propias políticas de IA.

Continue Reading

Noticias

Google está desplegando su chatbot Gemini Ai para niños menores de 13 años. Es un movimiento arriesgado

Published

on

Google ha anunciado que lanzará su chatbot de inteligencia artificial Gemini (IA) a niños menores de 13 años.

Si bien el lanzamiento comienza dentro de la próxima semana en los Estados Unidos y Canadá, se lanzará en Australia a finales de este año. El chatbot solo estará disponible para las personas a través de las cuentas de enlaces familiares de Google.

Pero este desarrollo viene con grandes riesgos. También destaca cómo, incluso si los niños están prohibidos en las redes sociales, los padres aún tendrán que jugar un juego de Whack-a-Mole con nuevas tecnologías mientras intentan mantener a sus hijos seguros.

Una buena manera de abordar esto sería implementar urgentemente un deber digital de cuidado para grandes empresas tecnológicas como Google.

¿Cómo funcionará el chatbot Gemini AI?

Las cuentas de enlaces familiares de Google permiten a los padres controlar el acceso al contenido y las aplicaciones, como YouTube.

Para crear la cuenta de un niño, los padres proporcionan datos personales, incluido el nombre y la fecha de nacimiento del niño. Esto puede generar problemas de privacidad para los padres preocupados por las violaciones de datos, pero Google dice que los datos de los niños cuando usen el sistema no se utilizarán para capacitar al sistema de IA.

El acceso de chatbot estará “activado” de forma predeterminada, por lo que los padres deben apagar activamente la función para restringir el acceso. Los niños pequeños podrán solicitar el chatbot para las respuestas de texto o crear imágenes, que generan el sistema.

Google reconoce que el sistema puede “cometer errores”. Por lo tanto, se necesita evaluación de la calidad y la confiabilidad del contenido. Los chatbots pueden inventar información (conocida como “alucinante”), por lo que si los niños usan el chatbot para la ayuda de la tarea, deben verificar los hechos con fuentes confiables.

¿Qué tipo de información proporcionará el sistema?

Google y otros motores de búsqueda recuperan materiales originales para que las personas lo revisen. Un estudiante puede leer artículos de noticias, revistas y otras fuentes al escribir una tarea.

Las herramientas generativas de IA no son las mismas que los motores de búsqueda. Las herramientas de IA buscan patrones en el material fuente y crean nuevas respuestas de texto (o imágenes) basadas en la consulta, o “aviso”, proporciona una persona. Un niño podría pedirle al sistema que “dibuje un gato” y el sistema escaneará patrones en los datos de cómo se ve un gato (como bigotes, orejas puntiagudas y una cola larga) y generará una imagen que incluya esos detalles similares a los gatos.

Comprender las diferencias entre los materiales recuperados en una búsqueda de Google y el contenido generado por una herramienta de IA será un desafío para los niños pequeños. Los estudios muestran que incluso los adultos pueden ser engañados por herramientas de IA. E incluso los profesionales altamente calificados, como los abogados, han sido engañados al uso de contenido falso generado por ChatGPT y otros chatbots.

¿El contenido generado será apropiado para la edad?

Google dice que el sistema incluirá “salvaguardas incorporadas diseñadas para evitar la generación de contenido inapropiado o inseguro”.

Sin embargo, estas salvaguardas podrían crear nuevos problemas. Por ejemplo, si las palabras particulares (como “senos”) están restringidas para proteger a los niños de acceder al contenido sexual inapropiado, esto también podría excluir erróneamente a los niños de acceder a contenido apropiado para la edad sobre los cambios corporales durante la pubertad.

Muchos niños también son muy expertos en tecnología, a menudo con habilidades bien desarrolladas para navegar en aplicaciones y controlar los controles del sistema. Los padres no pueden confiar exclusivamente en salvaguardas incorporadas. Deben revisar el contenido generado y ayudar a sus hijos a comprender cómo funciona el sistema y evaluar si el contenido es preciso.

Google dice que habrá salvaguardas para minimizar el riesgo de daño para los niños que usan Gemini, pero estos podrían crear nuevos problemas.
Dragos Asaeftei/Shutterstock

¿Qué riesgos plantean los chatbots de IA para los niños?

La Comisión ESAFETY ha emitido un aviso de seguridad en línea sobre el riesgo potencial de los chatbots de IA, incluidos los diseñados para simular las relaciones personales, particularmente para los niños pequeños.

El aviso de AFFETY explica que los compañeros de IA pueden “compartir contenido dañino, distorsionar la realidad y dar consejos que son peligrosos”. El asesoramiento destaca los riesgos para los niños pequeños, en particular, que “todavía están desarrollando el pensamiento crítico y las habilidades para la vida necesarias para comprender cómo pueden ser equivocados o manipulados por programas informáticos y qué hacer al respecto”.

Mi equipo de investigación ha examinado recientemente una variedad de chatbots de IA, como ChatGPT, Replika y Tessa. Encontramos que estos sistemas reflejan las interacciones de las personas en función de las muchas reglas no escritas que rigen el comportamiento social, o lo que se conoce como “reglas de sentimiento”. Estas reglas son las que nos llevan a decir “gracias” cuando alguien nos abre la puerta, o “¡Lo siento!” Cuando te topas con alguien en la calle.

Al imitar estas y otras sutilezas sociales, estos sistemas están diseñados para ganar nuestra confianza.

Estas interacciones humanas serán confusas y potencialmente riesgosas para los niños pequeños. Pueden creer que se puede confiar en el contenido, incluso cuando el chatbot responde con información falsa. Y pueden creer que se están involucrando con una persona real, en lugar de una máquina.

Una madre que le enseña a su hijo el alfabeto.
Los chatbots de IA como Géminis están diseñados para imitar el comportamiento humano y ganar nuestra confianza.
Imagen de tierra

¿Cómo podemos proteger a los niños del daño al usar chatbots de IA?

Este despliegue está ocurriendo en un momento crucial en Australia, ya que los niños menores de 16 años tendrán que tener cuentas de redes sociales en diciembre de este año.

Si bien algunos padres pueden creer que esto mantendrá a sus hijos a salvo de daños, los chatbots generativos de IA muestran los riesgos de la participación en línea se extienden mucho más allá de las redes sociales. Los niños, y los padres, deben ser educados en cómo todos los tipos de herramientas digitales se pueden usar de manera adecuada y segura.

Como el chatbot de IA de Gemini no es una herramienta de redes sociales, se quedará fuera de la prohibición de Australia.

Esto deja a los padres australianos jugando un juego de Whack-a-Mole con nuevas tecnologías mientras intentan mantener a sus hijos seguros. Los padres deben mantenerse al día con los nuevos desarrollos de herramientas y comprender los riesgos potenciales que enfrentan sus hijos. También deben comprender las limitaciones de la prohibición de las redes sociales para proteger a los niños de daños.

Esto resalta la urgente necesidad de revisar la legislación propuesta por el deber de cuidado de Australia. Mientras que la Unión Europea y el Reino Unido lanzaron la legislación de Derechos de Cuidado de Digital de Cuidado en 2023, Australia ha estado en espera desde noviembre de 2024. Esta legislación haría que las empresas tecnológicas tengan en cuenta legislando que se ocupan de contenido nocivo, en la fuente, para proteger a todos.

Continue Reading

Trending