Connect with us

Noticias

Por qué ChatGPT es una herramienta exclusivamente terrible para los ministros del gobierno.

Published

on

Crédito: Dominio público de Pixabay/CC0

La noticia de que Peter Kyle, Secretario de Estado de Ciencia y Tecnología, había estado utilizando CHATGPT para obtener asesoramiento de políticas provocó algunas preguntas difíciles.

Kyle aparentemente usó la herramienta AI para redactar discursos e incluso le pidió sugerencias sobre qué podcasts debe aparecer. Pero también buscó consejos sobre su trabajo de política, aparentemente incluyendo preguntas sobre por qué las empresas en el Reino Unido no están adoptando la IA más fácilmente. Le pidió a la herramienta que definiera qué significa “inclusión digital”.

Un portavoz de Kyle dijo que su uso de la herramienta “no sustituye el consejo integral que recibe habitualmente de los funcionarios”, pero tenemos que preguntarnos si algún uso es adecuado. ¿ChatGPT da un consejo lo suficientemente bueno para tener algún papel en las decisiones que puedan afectar la vida de millones de personas?

Apuntalado por nuestra investigación sobre IA y Política Pública, encontramos que ChatGPT tiene una defecto de forma única como un dispositivo para los ministros del gobierno de varias maneras, incluido el hecho de que es un retroceso, cuando los gobiernos realmente deberían mirar hacia el futuro.

1. Mirando hacia atrás en lugar de avanzar

Donde los ministros del gobierno idealmente deberían buscar ideas nuevas y nuevas con vistas al futuro, la información que sale de un chatbot de IA es, por definición, del pasado. Es una forma muy efectiva de resumir lo que ya se ha pensado, pero no equipado, para sugerir formas de pensar genuinamente nuevas.

Las respuestas de ChatGPT no se basan en todo el pasado por igual. La digitalización cada vez mayor a lo largo de los años dirige el mecanismo de búsqueda de patrones de Chatgpt al pasado reciente. En otras palabras, cuando un ministro le pidió que brinde consejos sobre un problema específico en el Reino Unido, las respuestas de ChatGPT estarían más ancladas en los documentos producidos en el Reino Unido en los últimos años.

Y en particular, en el caso de Kyle, eso significa que un ministro de trabajo no solo accederá a un ministro de trabajo del pasado, sino que se le informará un algoritmo inclinado fuertemente sobre el consejo dado a los gobiernos conservadores. Ese no es el fin del mundo, por supuesto, pero es cuestionable dado que Labor ganó una elección prometiendo un cambio.

Kyle, o cualquier otro Ministro consultoría de ChatGPT, se le dará información basada en las tradiciones políticas que reflejan los Rishi Sunak, Boris Johnson, Theresa May y David Cameron Eras. Es menos probable que reciban información basada en el pensamiento de los nuevos años laborales, que fueron hace más tiempo.

Si Kyle pregunta qué significa la inclusión digital, es más probable que la respuesta refleje lo que estas administraciones tory creen que significa en lugar de los pensamientos de los gobiernos más alineados con sus valores.

En medio de todo el entusiasmo dentro del trabajo para aprovechar la IA, esta puede ser una razón para que se distancien de usar ChatGPT para obtener asesoramiento de políticas. Arriesgan la política tory, una que les gusta criticar, los zombisos en la suya.

2. Prejuicio

ChatGPT ha sido acusado de tener “alucinaciones”: las falsedades generadoras, extrañas, que sonan plausibles.

Hay una explicación técnica simple para esto, como se alude en un estudio reciente. El “modelo de verdad” para ChatGPT, como para cualquier modelo de lenguaje grande, es de consenso. Modela la verdad como algo en lo que todos aceptan ser verdad. Para ChatGPT, su verdad es simplemente el consenso de puntos de vista expresados ​​en los datos en los que ha sido entrenado.

Esto es muy diferente del modelo humano de la verdad, que se basa en la correspondencia. Para nosotros, la verdad es lo que mejor corresponde a la realidad en el mundo físico. La divergencia entre los modelos de verdad podría ser consecuente de muchas maneras.

Por ejemplo, la licencia de TV, un modelo que opera solo dentro de unas pocas naciones, no figuraría prominentemente dentro del modelo de consenso de ChatGPT construido en un conjunto de datos global. Por lo tanto, es poco probable que las sugerencias de ChatGPT sobre la política de medios de transmisión toquen sustancialmente las licencias de televisión.

Además de explicar las alucinaciones, los modelos de divergencias en la verdad tienen otras consecuencias. Los prejuicios sociales, incluido el sexismo y el racismo, se internalizan fácilmente bajo el modelo de consenso.

Considere buscar consejos de chatgpt para mejorar las condiciones para los trabajadores de la construcción, una profesión históricamente dominada por los hombres. El modelo de consenso de ChatGPT podría cegarlo de consideraciones importantes para las mujeres.

El modelo de verdad de correspondencia permite a los humanos participar continuamente en la deliberación y el cambio moral. Un experto en política humana que asesora a Peter Kyle podría iluminarlo sobre complejidades pertinentes del mundo real.

Por ejemplo, podrían resaltar cómo los éxitos recientes en el diagnóstico basado en IA podrían ayudar a abordar aspectos distintos de la carga de la enfermedad del Reino Unido sabiendo que una de las prioridades del trabajo es reducir los tiempos de espera del NHS.

3. Narrativas agradables

Herramientas como ChatGPT están diseñadas para dar narraciones atractivas y elegantes al responder a las preguntas. ChatGPT logró esto en parte eliminando el texto de mala calidad de sus datos de capacitación (con la ayuda de trabajadores mal pagados en África).

Estas piezas poéticas de escritura funcionan bien para el compromiso y ayudan a Operai a mantener a los usuarios enganchados a su producto. Los humanos disfrutan de una buena historia, y particularmente una que ofrece resolver un problema. Nuestra historia evolutiva compartida nos ha convertido en narradores y listones de historias a diferencia de cualquier otra especie.

Pero el mundo real no es una historia. Es un remolino constante de complejidades políticas, contradicciones sociales y dilemas morales, muchos de los cuales nunca se pueden resolver. El mundo real y las decisiones que los ministros del gobierno tienen que tomar en nuestro nombre son complejos.

Hay intereses en competencia y diferencias irreconciliables. Raramente hay una respuesta ordenada. La inclinación de Chatgpt por narraciones agradables está en desacuerdo con la política pública imperativa de abordar las condiciones desordenadas del mundo real.

Las características que hacen de ChatGPT una herramienta útil en muchos contextos son directamente incompatibles con las consideraciones de las políticas públicas, un reino que busca tomar decisiones políticas para abordar las necesidades de los ciudadanos de un país.

Proporcionado por la conversación

Este artículo se vuelve a publicar de la conversación bajo una licencia Creative Commons. Lea el artículo original.La conversación

Citación: Por qué ChatGPT es una herramienta única y terrible para los ministros del gobierno (2025, 7 de abril) recuperó el 7 de abril de 2025 de https://phys.org/news/2025-04-chatgpt-uniquely-terrible-tool-ministers.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

El chatgpt studio ghibli tendencia: hurir hacia el punto de no retorno

Published

on

METROY tío obtendría DVD de sus películas favoritas de los Estados Unidos cada vez que visitaba. Cuando tenía diez años, y él vino a nuestra casa, nos mostró algunas de sus selecciones de películas animadas. El primero de ellos fue Studio Ghibli’s Mi vecino Totoro. Antes de ver esta película, generalmente ignoraba el cine, prefiriendo Cartoon Network y Nickelodeon. Siempre pensé en las películas como aburridas, y si me hubieras preguntado yo de nueve años cuál era mi película favorita, probablemente habría dicho la versión de 2005 de Charlie y la fábrica de chocolate.

Después de mirar Mi vecino Totoro, algo cambió. Tal vez fue la banda sonora adictiva, o la canción principal, o la impresionante animación. Sin embargo, lo primero que me llegó fue el mensaje. La universalidad de la misma. Cuando dos niñas pequeñas se mudan a una casa en el campo japonés, su madre es hospitalizada. Si bien parecen felices, hay subvenciones de dolor. ¿Las niñas inventan la aventura, pasan tiempo con este troll gigante pero adorable y sus pequeños hijos? ¿Hermanos? En el fondo, están aterrorizados. Solo quieren que su madre regrese a casa.

Son hermosos, todos tienen bandas sonoras impresionantes, realismo mágico sin esfuerzo y fantasía, pero cuando despojas de todo, casi siempre hay un mensaje profundo.

Supongo que es por eso que las películas de Hayao Miyazaki y Studio Ghibli tocan un acorde en mí, y en numerosas personas en todo el mundo. Son hermosos, todos tienen bandas sonoras impresionantes, realismo mágico sin esfuerzo y fantasía, pero cuando despojas de todo, casi siempre hay un mensaje profundo. Una herida cruda, una necesidad de reivindicación, un sueño infantil, un miedo que se extiende sangre. Algo, cualquier cosa.

A fines de marzo, nos encontramos con una nueva moda AI. Había regresado a casa a la India para las vacaciones de Pascua, y fue especialmente viral allí. La gente no se había tomado tiempo para subirse al carro, muchos de ellos no están remotamente familiarizados con Studio Ghibli. En segundos, la gente daría indicaciones y obtendría una imagen “inspirada” del estudio generado por IA.

No soy ajeno al arte de IA, desde entonces 2021 con el lanzamiento de Dall-E, he visto demasiado. Desde personas de tres manos y de seis dedos hasta videos gráficos gratuitos de gatos antropomórficos. Soy en gran medida ambivalente hacia eso, saltando los videos y tratando de no pensar demasiado en ellos. Con Studio Ghibli, sin embargo, algo se rompió en mí. No solo porque estaba haciendo algo tan original en un cortador de galletas, no los dedos adicionales que agregaría, ni siquiera la forma en que eliminó las pecas de las personas o aligeró sus tonos de piel. Algo más profundo.

Dado que los modelos de IA están entrenados en arte preexistente, sin que los artistas lo supieran, nos sentimos obligados a preguntar si el arte de IA es simplemente una regurgitación de las obras de otras personas.

El productor Hirokatsu Kihara reveló en un video ahora eliminado el proceso que se dedicó a animar una película de Studio Ghibli. Habiendo trabajado en Castillo en el cielo, mi vecino Totoro, y Servicio de entrega de Kiki Durante 1985 a 1989, reveló cómo cada cuadro sería dibujado a mano y sería criticado por el cineasta Hayao Miyazaki antes de ser aprobado. Llamó al proceso “inimaginable”.

En 2020, el productor Toshio Suzuki compartió que llevó a Studio Gibli “un mes para completar solo un minuto de animación”, debido a la aversión de Miyazaki hacia la animación CGI. En un clip viral de 2016, cuando se muestra animación de inteligencia artificial, Miyazaki lo llamó “espeluznante” y “un insulto a la vida misma”.

El estilo artístico de Studio Gibli es único en su fluidez. Películas como Enérgico y el reciente El niño y la garza Mundos de presentación con grandes ámbitos, donde deben animarse varios personajes distintos. Dado que el estilo de animación es consistente en todas las películas y al nivel de la escena, las animaciones no tienden a comprometerse con la calidad. Además, el realismo mágico es un elemento integral en las películas de Studio Ghibli, esto también requeriría diseños y fondos de personajes intrincados.

Studio Ghibli aún no ha reaccionado a la situación, pero el argumento contra el arte de la IA ha sido ampliamente discutido. Los artistas y las personas contra el arte de la IA tienen problemas en gran medida con plagio. Dado que los modelos de IA están entrenados en arte preexistente, sin que los artistas lo supieran, nos sentimos obligados a preguntar si el arte de IA es simplemente una regurgitación de las obras de otras personas.

¿Qué tiene de real una recreación de un hombre y su perro que se genera en segundos? ¿Qué es una obra de arte sin el trabajo, el pensamiento y la consideración que se destina a hacerlo?

Una refutación predecible sería que la mayoría del arte se inspira en algún arte. Si bien no puedo refutar esta afirmación, puedo decir que si alguien hace una pintura al estilo de otro artista, y afirma que fue pionero en el estilo ellos mismos, se encontrarían con críticas. Cuando AI genera esa imagen de un gato antropomórfico con un sombrero de copa, no dice qué lo inspiró.

Con Studio Ghibli duele aún más porque sabemos lo que se dedica a hacer estas películas. Innumerables días, un mes para un minuto de animación, corazones y almas inconmensurables. Un quid. Algo real. ¿Qué tiene de real una recreación de un hombre y su perro que se genera en segundos? ¿Qué es una obra de arte sin el trabajo, el pensamiento y la consideración que se destina a hacerlo?

Decimos que tenemos miedo de que la IA se apodere del mundo, de hacer lo que hace que los humanos sean únicos mientras trabajamos en tareas mundanas. Hay una sensación de disonancia cognitiva que me preocupa, entonces. Si bien no me sorprende que los CEO ricos salgan a la tendencia, me sorprende ver a personas que pueden haberse opuesto a esto hace unas semanas. Me preocupa las “excepciones” que hacemos, porque una tendencia no es tan “profunda”. Creo que es tan profundo.

Pero me perdí el memorando, me perdí el punto cuando decidimos que estamos de acuerdo con dejar que entrara en lo humano, en las artes y las humanidades.

Cuando todos los que conocía temían IA en 2021, me calmé. Mantuve que las personas lo usarían para ayudarse a sí mismas, promover sus ideas, generar algoritmos y avanzar. Lo vi como una herramienta. Una herramienta para llegar a conclusiones a las que aún no habíamos llegado, para acelerar las innovaciones convincentes. Pero me perdí el memorando, me perdí el punto cuando decidimos que estamos de acuerdo con dejar que entrara en lo humano, en las artes y las humanidades.

Sin embargo, nunca es útil mirar a su alrededor y sentirse desesperado. Creo que es importante que pensemos un poco más antes de saltar a otra moda de arte de IA, para preguntarnos si vale la pena. Para preguntarse qué se suma a nuestras vidas a largo plazo. Si realmente estás en contra de la IA en las artes, idealmente no debería haber exclusiones en esta ecuación.

Primero vi Mi vecino Totoro En 2016, me sentí asustado cuando las chicas se sentían asustadas, me sentí fascinado cuando las chicas comenzaron a ir en sus aventuras en el bosque, me reí cuando su padre no tenía idea de todo lo que le rodeaba. Lo he visto innumerables veces desde entonces. El año pasado, lo vi proyectado en el cine de estudiantes, y me sorprendió aún más que la primera vez que lo vi. Cuando era niño, tenía miedo de su madre, pero como joven, sentí el miedo al dolor. El miedo a perder su infancia, de ser obligado a crecer demasiado pronto.

Cuando vi la primera interpretación de Studio Gibli Ai, sentí una sensación de renuncia. Sabía que una semana después todos estarían hartos de eso. Entonces, sentí miedo. Temeroso de que podamos precipitarnos hacia el punto de no retorno, y tal vez es hora de golpear los frenos y mirar a su alrededor por un segundo.

Continue Reading

Noticias

¿Debería optar por la función de memoria de OpenAI? 5 cosas cruciales que saber

Published

on

Memory Memory Mirrors Blockchain: una revolución en la confianza y las relaciones

Vi como un colega descubrió la función de memoria de OpenAI por primera vez. “Esto cambia todo”, dijo, después de que ChatGPT hizo referencia a un detalle del proyecto de hace tres conversaciones sin solicitar.

Tatyana Kanzaveli, Chief executive officer at Open Health Network, wrote on Facebook, “Then I asked what data has been used and for what time frame: I analyzed your entire conversation history with me—including over 150 distinct threads and interactions—spanning from early 2024 to today, April 10, 2025. This includes: Your thought leadership posts and requests for viral copy across LinkedIn, X, Facebook, all events you’ve planned or spoken at and more.”

Ese momento capturó perfectamente lo que está sucediendo en los lugares de trabajo en todo el mundo: AI está haciendo la transición de una herramienta a otra compañera, y la memoria será un catalizador más fuerte para este cambio.

Cuando Sam Altman anunció esta función, mencionó que lo mantuvo despierto toda la noche.

¿Por qué? La memoria transforma fundamentalmente la experiencia de IA de transaccional a relacional, creando enormes oportunidades y nuevas consideraciones sobre cómo interactuamos con estos sistemas.

Este cambio me recuerda los primeros días de Blockchain, cuando nos dimos cuenta de que los libros de contabilidad distribuidos podrían transformar las relaciones entre las partes que no confían inherentemente entre sí. Así como Blockchain creó un estado persistente y verificable en todas las transacciones, la memoria de OpenAI crea un contexto persistente en todas las conversaciones.

Top 5 grandes cosas sobre la memoria de Openai

1. Experiencia de IA verdaderamente personalizada
¡Realmente te atrapa! Eres muy amplio. Según Magecomp, ChatGPT mostró una aceptación rápida al tener más de 180 millones de usuarios activos en todo el mundo.

La memoria transforma el chatgpt de un extraño en un compañero familiar. Mencione una vez que trabaje en el cumplimiento de la salud, y semanas después, cuando discute los desafíos de documentación, naturalmente enmarca soluciones para su industria sin que tenga que explicar. Similar a cómo las billeteras Web3 recuerdan sus preferencias de transacción y sus tenencias de tokens, ChatGPT desarrolla un perfil persistente de sus necesidades e intereses. Al igual que Tatyana mencionada anteriormente en su publicación.

2. Fin de la configuración de contexto repetitivo
¿Recuerdas explicar toda la línea de tiempo de lanzamiento de su producto en cada conversación? Eso se acabó. Ahora puede simplemente decir: “¿Alguna actualización sobre el plan de marketing para nuestro lanzamiento?” Y ChatGPT recuerda que es la aplicación de fitness que se lanza en septiembre con la estrategia de Instagram primero que discutió hace tres semanas. Esto refleja cómo los contratos inteligentes en blockchain mantienen el estado sin requerir la reinicialización de los términos con cada interacción.

3. Inteligencia que funciona a lo largo del tiempo
En enero, mencionó luchar con la retención de clientes. En abril, preguntó sobre las herramientas de automatización de correo electrónico. Sin solicitar, ChatGPT podría sugerir: “Esta función de secuencia de correo electrónico podría ayudar con el desafío de retención que mencionó a principios de este año”. Esta conexión intermoral se asemeja a cómo las marcas de tiempo blockchain crean historias verificables que permiten nuevas ideas de los patrones históricos.

4. Continuación creciente de sus preferencias
Con cada interacción, la comprensión de ChatGPT de su estilo de comunicación, preferencias y necesidades se vuelve más matizada. A diferencia de los sistemas tradicionales que requieren capacitación explícita,

La memoria crea una ruta de aprendizaje implícita.

Puede notar que adopta gradualmente su terminología, priorizando la información de manera que coincida con su estilo de toma de decisiones y filtrando sugerencias basadas en sus comentarios pasados. Esta adaptación orgánica refleja cómo evolucionan las redes descentralizadas en función del comportamiento de los participantes en lugar del diseño central. El paralelo a los mecanismos de consenso de prueba de estaca es sorprendente: ambos sistemas mejoran su comprensión del valor a lo largo del tiempo a través de interacciones repetidas en lugar del trabajo computacional bruto.

5. Continuidad de proyecto sin problemas
La memoria crea hilos continuos en su trabajo. Comience a explorar una estrategia de proyecto Defi el lunes, vuelva a visitar el jueves, y no hay necesidad de recargar el contexto o recordarle a la IA sobre las decisiones anteriores.

El sistema mantiene una comprensión de dónde dejó y qué estaba tratando de lograr, similar a cómo blockchain mantiene el estado de consenso sin exigir a los participantes que rastreen individualmente toda la historia.

Top 5 cosas para pensar en la memoria de OpenAi

1. Cuando los comentarios pasados ​​resurgen

El uso del trabajo está aumentando para ChatGPT. Según un informe de 2024, el 20% de los encuestados usó CHATGPT para tareas relacionadas con el trabajo, el 17% lo utilizó para aprender algo nuevo y otro 17% comprometido con él con fines de entretenimiento.

Imagine que está en su escritorio revisando en privado su currículum con chatgpt. Usted menciona casualmente:

“No estoy contento en mi papel actual y pensando en hacer un cambio de carrera”.

ChatGPT reconoce esto brevemente:

“Entendido. Centrémonos en resaltar las habilidades transferibles en su currículum”.

Posteriormente, no piensa mucho en ello, suponiendo que esta información permanezca dentro del contexto de la conversación del currículum.

Varias semanas después, estás compartiendo tu pantalla durante una reunión de equipo virtual. Usted abre chatgpt para discutir las tendencias de la industria. Mid-Discussion, ChatGPT inesperadamente plantea una referencia relacionada pero contextualmente inapropiada:

“Dada su búsqueda de empleo e insatisfacción continuas en su rol actual, puede encontrar estas tendencias emergentes de la industria particularmente útiles”.

Sus colegas, al ver su pantalla compartida, ahora aprenden inadvertidamente sobre su insatisfacción laboral y búsqueda de empleo, una información que nunca tuvo la intención de divulgar públicamente.

Este escenario resalta por qué es crucial que los mecanismos de memoria de AI sean transparentes, controlables y contextualmente conscientes, evitando divulgaciones inadvertidas o sorpresas incómodas. A diferencia de la inmutabilidad pública de Blockchain, donde todas las transacciones son transparentes por diseño, la memoria de ChatGPT crea una persistencia inesperada sin la misma visibilidad.

2. Falso sentido de confidente
A medida que ChatGPT comienza a responder como alguien que realmente te conoce, es fácil olvidar su naturaleza fundamental. Imagine que ha mencionado anteriormente al pasar a ChatGPT que está explorando nuevos proveedores debido al aumento de los costos. Semanas después, durante una conversación sobre las tendencias generales de precios de la industria, ChatGPT responde inesperadamente con:

“Dado su interés en encontrar proveedores alternativos para reducir los costos, puede considerar estos puntos de referencia de la industria útiles”.

La repentina referencia a su estrategia comercial interna sirve como un fuerte recordatorio de que, a pesar de su familiaridad, está interactuando con AI, no con un asesor comercial de confianza.

Si bien Web3 enfatiza la auto-soberanía y la propiedad de su identidad digital, los sistemas de memoria de IA actualmente ofrecen un control menos transparente sobre cómo su información personal da forma a las interacciones futuras.

3. El costo real de cambiar
Después de seis meses de uso, ChatGPT conoce su estilo de escritura, historial de proyectos y preferencias profesionales. Esto crea bloqueo de plataforma que contradice la promesa central de Web3 de portabilidad de datos. A diferencia de las billeteras criptográficas donde sus activos e identidad pueden moverse libremente entre aplicaciones compatibles, su memoria de IA acumulada permanece aislada dentro del ecosistema de OpenAI.

4. Cuando la memoria crea sesgo
A medida que se acumula la memoria, ChatGPT forma un modelo implícito de sus preferencias y prioridades. Esto puede crear bucles de retroalimentación sutiles donde la IA comienza a filtrar información basada en suposiciones sobre lo que desea escuchar. Los sistemas de memoria de IA crean modelos invisibles que pueden reforzar los sesgos o crear burbujas de información sin una visibilidad clara de cómo se formaron esos modelos.

5. Mezcla de memoria personal y profesional
Muchos usuarios interactúan con ChatGPT para fines personales y profesionales. La memoria de ChatGPT actualmente no mantiene fuertes límites entre los diferentes modos de uso. Una conversación personal sobre los objetivos de salud podría influir inadvertidamente en cómo enmarca el análisis de negocios, creando un contexto inesperado colapso entre los dominios separados de su vida.

Hacia la memoria AI auto-soberana con OpenAi Chatgpt

Me encantaría que Operai y su función de memoria consideren un futuro que podría incluir la memoria de IA de propiedad de usuarios asegurada por blockchain, combinando lo mejor de ambos mundos para capacitar a los usuarios con conveniencia y control. Esta próxima frontera podría redefinir las relaciones digitales, al igual que Blockchain redefinió las transacciones financieras.

¿Estás dejando la memoria encendida o apagada para la función de memoria de OpenAI? Su elección depende de su comodidad con esta compensación entre conveniencia y control, haciéndose eco de los primeros días de la adopción de criptomonedas.

¿Disfrutaste esta historia sobre OpenAi? No te pierdas el próximo: usa el botón de Seguir azul en la parte superior del artículo cerca de mi byline para seguir más de mi trabajo.

Continue Reading

Noticias

Ex-Openai Personal File Amicus Brief oponiéndose a la transición con fines de lucro de la compañía

Published

on

Un grupo de ex empleados de Openai presentó el viernes un informe amicus propuesto en apoyo de Elon Musk en su demanda contra OpenAi, oponiéndose a la conversión planificada de OpenAi de una organización sin fines de lucro a una corporación con fines de lucro.

El breve nombra doce ex empleados de Operai: Steven Adler, Rosemary Campbell, Neil Chowdhury, Jacob Hilton, Daniel Kokotajlo, Gretchen Krueger, Todor Markov, Richard Ngo, Girish Sastry, William Saunders, Carrol Wainwright y Jeffrey Wu. Enfecta el caso de que, si la organización sin fines de lucro de OpenAI cedió el control de las operaciones comerciales de la organización, “violaría fundamentalmente su misión”.

Varios de los ex-personal han hablado en contra de las prácticas de OpenAi antes. Krueger ha pedido a la compañía que mejore su responsabilidad y transparencia, mientras que Kokotajlo y Saunders advirtieron previamente que OpenAi está en una carrera “imprudente” por el dominio de la IA. Wainwright ha dicho que Openai “no debería [be trusted] cuando promete hacer lo correcto más tarde “.

En un comunicado, un portavoz de OpenAI dijo que la organización sin fines de lucro de Openai “no va a ninguna parte” y que la misión de la organización “seguirá siendo la misma”.

“Nuestra junta ha sido muy clara”, dijo el portavoz a TechCrunch por correo electrónico. “Estamos convirtiendo nuestro brazo con fines de lucro existente en una Corporación de Beneficios Públicos (PBC), la misma estructura que otros laboratorios de IA como Anthrope, donde algunos de estos ex empleados ahora trabajan, y [Musk’s AI startup] xai. “

OpenAi fue fundada como una organización sin fines de lucro en 2015, pero se convirtió en una “fines de lucro limitada” en 2019, y ahora está tratando de reestructurarse una vez más en un PBC. Cuando hizo la transición a una perfil limitada, Operai retuvo su ala sin fines de lucro, que actualmente tiene una participación de control en el brazo corporativo de la organización.

La demanda de Musk contra Openai acusa a la startup de abandonar su misión sin fines de lucro, que tenía como objetivo garantizar que su investigación de IA beneficie a toda la humanidad. Musk había buscado una orden judicial preliminar para detener la conversión de Openai. Un juez federal negó la solicitud, pero permitió que el caso fuera a un juicio con jurado en la primavera de 2026.

Según la estructura actual de los ex empleados de los empleados abiertos, la estructura actual de OpenAI, una organización sin fines de lucro que controla a un grupo de otras subsidiarias, es una “parte crucial” de su estrategia general y “crítico” para la misión de la organización. La reestructuración que elimina el papel controlador de la organización sin fines de lucro no solo contradeciría la misión y los compromisos de la carta de OpenAi, sino que también “violaría la confianza de los empleados, los donantes y otras partes interesadas que se unieron y apoyaron a la organización en función de estos compromisos”, afirma el informe.

“OpenAi se comprometió con varios principios clave para ejecutar en [its] Misión en su documento charter “, dice el breve.” Estos compromisos fueron tomados extremadamente en serio dentro de la empresa y fueron comunicados y tratados repetidamente como vinculantes. El tribunal debe reconocer que mantener la gobernanza de la organización sin fines de lucro es esencial para preservar la estructura única de OpenAI, que fue diseñada para garantizar que la inteligencia general artificial beneficie a la humanidad en lugar de atender intereses financieros estrechos “.

La inteligencia general artificial, o AGI, se entiende ampliamente como IA que puede completar cualquier tarea que un humano pueda.

Según el breve, Operai a menudo usaba su estructura como herramienta de reclutamiento, y le aseguró repetidamente al personal que el control sin fines de lucro era “crítico” en la ejecución de su misión. El breve cuenta una reunión de OpenAI para todas las manos hacia fines de 2020 durante la cual el CEO de OpenAI, Sam Altman, supuestamente enfatizó que la gobernanza y la supervisión de las organizaciones sin fines de lucro fueron “primordiales” en “garantizar que la seguridad y los amplios beneficios sociales se priorizaran sobre las ganancias financieras a corto plazo”.

“Al reclutar conversaciones con candidatos, era común citar la estructura de gobernanza única de OpenAI como un factor de diferenciación crítico entre OpenAI y competidores como Google o Anthrope y una razón importante por la que deberían considerar unirse a la empresa”, se lee en el informe. “Esta misma razón también se usaba a menudo para persuadir a los empleados que estaban considerando irse para que los competidores se queden en OpenAI, incluidos algunos de nosotros”.

El breve advierte que, se debe permitir que se pueda convertir a una con fines de lucro, podría incentivarse a “[cut] esquinas “en el trabajo de seguridad y desarrollar una poderosa IA” concentrada entre sus accionistas “. Un OpenAI con fines de lucro tendría pocas razones para cumplir con la cláusula de “fusión y asistencia” en la carta actual de OpenAi, que promete que OpenAi dejará de competir y ayudará a cualquier proyecto de “valor alineado y consciente de la seguridad” que logra AGI antes de que lo haga, afirma el informe.

Los ex empleados de Openai, algunos de los cuales eran líderes de investigación y políticas de la compañía, se unen a una creciente cohorte que expresa una fuerte oposición a la transición de Openi.

A principios de esta semana, un grupo de organizaciones, incluidos organizaciones sin fines de lucro y grupos laborales como los Teamsters de California, solicitó al Fiscal General de California Rob Bonta que impida que Operai se convierta en un fin de lucro con fines de lucro. Afirmaron que la compañía “no ha podido proteger sus activos de caridad” y está “subvirtiendo activamente su misión caritativa para avanzar en la inteligencia artificial segura”.

ENCODE, una organización sin fines de lucro que copatrocinó la desafortunada legislación de seguridad SB 1047 AI SB 1047, citó preocupaciones similares en un informe Amicus presentado en diciembre.

Operai ha dicho que su conversión preservaría su brazo sin fines de lucro e infundiría con recursos que se gastarán en “iniciativas caritativas” en sectores como la atención médica, la educación y la ciencia. A cambio de su participación de control en la empresa de Operai, la organización sin fines de lucro supuestamente costaría miles de millones de dólares.

“En realidad, nos estamos preparando para construir la organización sin fines de lucro mejor equipada que el mundo haya visto, no la estamos convirtiendo”, escribió la compañía en una serie de publicaciones en X el miércoles.

Las apuestas son altas para OpenAI, que necesita completar su conversión con fines de lucro a fines de este año o al siguiente o arriesgar a renunciar a parte del capital que ha recaudado en los últimos meses, según los informes.

Continue Reading

Trending