A version of this story originally appeared in the Future Perfect newsletter. Sign up here!
Noticias
Hoja de datos: la FTC investiga a Microsoft, la licitación OpenAI de SoftBank, los controles de Onion de Elon, el escrutinio de Bluesky, la aplicación de Grok
Published
5 meses agoon

Buen día. Todos estamos familiarizados con el fenómeno de los productos “inteligentes” que son abandonados por sus fabricantes, dejándolos inseguros o incluso no funcionales.
Ahora la Comisión Federal de Comercio ha puesto una cifra sobre el tema: un enorme 89% de los 184 productos inteligentes que encuestó no incluían información sobre cuánto tiempo recibirían actualizaciones. Y de los fabricantes que revelaron esta información, la mayoría la ocultó en las especificaciones técnicas u otra letra pequeña.
Samuel Levine, jefe de protección al consumidor de la FTC: “Los consumidores pueden perder mucho dinero si sus productos inteligentes dejan de ofrecer las funciones que desean”. ¡En serio! —David Meyer
¿Quiere enviar ideas o sugerencias a la hoja de datos? Deja una línea aquí.
El último disparo de Lina Khan a Microsoft
Es muy probable que la presidenta de la FTC, Lina Khan, se encuentre en las últimas semanas de su mandato, y se espera que Donald Trump la reemplace después de que preste juramento como presidente en enero. Pero si las grandes tecnológicas pensaban que estaban fuera de peligro, se llevarán una sorpresa. Pregúntele a Microsoft.
El regulador federal ha abierto una amplia investigación antimonopolio sobre las prácticas de licencias de software y computación en la nube de Microsoft y ha enviado preguntas detalladas a la empresa, según Bloomberg. La demanda de información abarca cientos de páginas y se centra, entre otras cosas, en incidentes de ciberseguridad relacionados con los servicios en la nube de Microsoft, así como en las condiciones de las licencias de software de Microsoft.
La investigación se produce unos 25 años después de que Microsoft librara una batalla antimonopolio de alto riesgo con el gobierno de Estados Unidos por la combinación de su navegador de Internet y su sistema operativo Windows para PC. El juez de primera instancia en ese caso ordenó que Microsoft se dividiera en varias empresas, pero el fallo fue anulado en apelación. Hoy Microsoft es una de las empresas más valiosas del mundo.
La pregunta de los 3 billones de dólares esta vez para Microsoft será si la administración entrante de Trump persevera con la investigación antimonopolio de Khan o decide abandonarla. —Alexei Oreskovic
SoftBank compra más OpenAI
SoftBank había estado buscando una porción más grande de OpenAI y ahora puede estar obteniendo lo que quiere.
Según CNBC, los empleados de OpenAI tienen la oportunidad de retirar sus acciones; antes del 24 de diciembre, deberán decidir si quieren participar en la oferta pública.
OpenAI relajó su política sobre la venta de acciones secundarias en junio, después de que los empleados se quejaran. Por supuesto, si esos empleados consideran que la trayectoria de la empresa seguirá apuntando hacia arriba, pueden tener un incentivo para conservar sus acciones.
El conglomerado SoftBank de Masayoshi Son ya había invertido 500 millones de dólares en OpenAI. Su oferta pública de acciones de los empleados de OpenAI, que involucra su fondo Vision 2, podría ascender a alrededor de 1.500 millones de dólares. SoftBank tiene mucho efectivo en estos días y está profundizando cada vez más en la IA. —DM
Elon contra la cebolla
La divertida pero completamente seria propuesta de The Onion ante el tribunal de quiebras para el sitio de conspiraciones InfoWars de Alex Jones se ha topado con otra especie de obstáculo.
X de Elon Musk ha presentado una objeción a la venta (que un juez detuvo recientemente para su revisión) sobre la base de que le daría a The Onion la propiedad de las cuentas de InfoWars X. La red social afirma ser propietaria de todas las cuentas de sus usuarios.
“La ‘venta’ de las Cuentas X como solicita el Fideicomisario sería una transferencia indebida de la licencia para utilizar los Servicios de X Corp.”, argumentaron los abogados de X, según TechCrunch. “Tal venta violaría claramente los derechos de X Corp. [terms of service] y sus derechos de propiedad”.
Antes de Musk, Twitter prohibió InfoWars por discurso abusivo, pero el nuevo propietario restauró las cuentas de Jones el año pasado sobre la base de la “libertad de expresión”.
Musk no puede evitar que se lleve a cabo la venta de InfoWars, pero podría evitar que el sitio web satírico más famoso del mundo provoque risas a través de las cuentas @infowars, @BANNEDdotVIDEO, @WarRoomShow o @RealAlexJones. —DM
escrutinio azul
El rival de X, Bluesky, prometió no entrenar modelos de IA generativa en las publicaciones de sus usuarios (o “skeets”, para usar la lengua vernácula de Bluesky). Pero una aparente laguna jurídica ha provocado un alboroto.
El sitio Bluesky proporciona una API que permite a los desarrolladores monitorear prácticamente todo lo que sucede en la plataforma de redes sociales, y el bibliotecario de aprendizaje automático de Hugging Face, Daniel van Strien, aprovechó la oportunidad para compilar un conjunto de datos de un millón de publicaciones públicas de Bluesky, con fines de capacitación. Modelos de IA.
Esto provoca la indignación entre muchos usuarios de Bluesky, particularmente aquellos que han profundizado en la ley de protección de datos de la UE, que no ve con buenos ojos la reutilización de datos de personas sin su permiso.
“Si bien quería apoyar el desarrollo de herramientas para la plataforma, reconozco que este enfoque violó los principios de transparencia y consentimiento en la recopilación de datos”, escribió van Strien al anunciar que había eliminado el conjunto de datos. “Pido disculpas por este error”.
En noticias relacionadas, Bluesky ha prometido proporcionar a las autoridades y usuarios de la UE detalles sobre su número de usuarios allí, para cumplir con las leyes de contenido de la UE. La Comisión Europea había criticado a la red por no seguir la línea. —DM
Aquí viene la aplicación Grok
Aproximadamente un año después de su lanzamiento, Grok finalmente obtiene un activo importante: su propia aplicación.
El chatbot de IA creado por xAI de Elon Musk planea lanzar una aplicación orientada al consumidor en diciembre, según un informe del Diario de Wall Street. Una aplicación independiente permitiría a Grok competir mejor contra chatbots de IA rivales como ChatGPT de OpenAI y Gemini de Google. Actualmente, Grok solo está disponible para los usuarios de la plataforma de redes sociales X de Musk, que pagan una tarifa para acceder a la versión premium de X.
No está claro si la próxima aplicación Grok proporcionará un cierto nivel de acceso gratuito al chatbot, que promociona sus respuestas sarcásticas y su capacidad para responder “preguntas picantes que son rechazadas por la mayoría de los otros sistemas de inteligencia artificial”, o si será un for- aplicación de pago. Pero dado que la firma xAI de Musk ha recaudado al menos 11 mil millones de dólares con una valoración de 50 mil millones de dólares, una nueva fuente de ingresos podría no ser algo malo. —AO
Más datos
El nuevo ‘acaparamiento de tierras’ para las empresas de IA, desde Meta hasta OpenAI, son los contratos militares. La defensa fue un caso de uso muy controvertido no hace mucho.
Microsoft responde a las afirmaciones de que sorbe sus archivos de Word y Excel para entrenar modelos de IA. Redmond tiene un problema de confianza.
Los empresarios tecnológicos israelíes y los ingenieros de grandes empresas como Google y Microsoft están buscando refugio en Europa. La “Nación Startup” está perdiendo talento.
Foxconn dice tener presencia global para protegerse de los aranceles de Trump. Buena suerte con eso.
La empresa china de tecnología sin conductor Pony AI dijo que recaudará 260 millones de dólares en una oferta pública inicial (IPO) en Estados Unidos. Parece que los inversores tienen mucho apetito por los taxis robotizados.
You may like
Noticias
Virgin Atlantic Prueba agente Openai para el sitio y el vuelo • El registro
Published
13 minutos agoon
25 abril, 2025
Entrevista A pesar de todo lo que se habla de la “era de los agentes” de proveedores de IA como OpenAi, Google, Anthrope, Microsoft y casi todos los demás en el espacio, el uso corporativo de la tecnología sigue siendo tentativo. Virgin Atlantic ha estado realizando pruebas de vuelo de su sitio web con un agente de IA llamado operador, y los primeros resultados son prometedores, señalando el camino hacia cómo los agentes podrían usarse para ayudar a los clientes a reservar vuelos.
OPERAI anunció operador en enero. Es una vista previa de investigación de un agente de IA basado en un modelo llamado agente de uso de computadora (CUA); básicamente, el operador es la marca a través del cual CUA, el modelo real, está disponible para los suscriptores de OpenAI Pro en operator.chatgpt.com.
CUA combina la capacidad de visión de GPT-4O, la capacidad de “comprender” las imágenes y la “razón” sobre ellas, con capacitación que cubre las interfaces gráficas de los usuarios. El modelo puede mirar una página web y tener una idea de qué elementos representan botones y cómo aplicar eventos de clic. Es esencialmente la versión LLM de un marco de automatización de navegador como Selenium o dramaturgo.
Poco después de su debut, Virgin Atlantic comenzó a probar el operador para ver cómo el agente de IA navega por el flujo de reserva de su sitio web, si puede recuperar información útil y si puede monitorear el uso del sitio web y proporcionar comentarios relacionados con el negocio sobre las interacciones del usuario. Los primeros resultados son prometedores para ayudar a Virgin a ajustar su sitio web, según el vicepresidente de ingeniería digital Neil Letchford, y su equipo ahora está explorando cómo el operador podría usarse en interacciones reales orientadas al cliente.
El registro habló con Letchford para comprender mejor hasta qué punto se están desplegando los agentes de IA.
Letchford: Trabajo en la función de experiencia del cliente en Virgin Atlantic. Dirijo el grupo de ingeniería digital. Así que soy vicepresidente de ingeniería digital. Y mi equipo es responsable de construir todas las experiencias digitales orientadas al cliente para Virgin Atlantic. Entonces, todo lo que aparece en el viaje del cliente, eso es lo que mi equipo es responsable.
Entonces, cuando nos asociamos con Operai, y por cierto, no somos un equipo masivo, ¿verdad? Somos un equipo relativamente pequeño como lo son muchos equipos de ingeniería de software, pero cuando nos asociamos con Openai y hablamos sobre el operador, vimos una oportunidad real de escalar y automatizar algunas de las funciones que tenemos dentro de mi equipo, de aspecto internacional.
Pero también al hacer eso, hemos comenzado a explorar cómo los sistemas de tipo operador o de estos operadores podrían afectar las experiencias de los clientes del futuro. Cómo nuestros clientes podrían estar utilizándolos. Por lo tanto, nos llevó a los dos caminos durante este tipo de período, que han sido realmente interesantes.
El registro: Entonces, ¿qué tipo de cosas has encontrado?
Letchford: Lo hemos estado usando para algunos de nuestros casos de uso interno. Entonces, inicialmente, cuando pensamos en nuestro sitio web, por ejemplo, hablamos mucho sobre caminar por el viaje del cliente y comprender el viaje del cliente.
Nuestros casos de uso iniciales fueron alrededor de cómo podríamos utilizar básicamente el operador para buscar y reservar un vuelo, hasta el punto en que tal vez tenga que poner en los detalles de su tarjeta de crédito, ¿verdad?
Al hacer eso, descubrimos que, en realidad, el operador entendía UX [user experience]. Entonces, comprende efectivamente el UX y la estructura de su sitio web, que fue bastante interesante, ¿verdad? Porque tiene que aprender a navegar y cómo moverse a través de su viaje de clientes para reservar un vuelo, por ejemplo.
Y al hacer eso, extendimos el caso de uso para actuar como propietario de un producto. [In other words,] ¿Podría el operador darnos comentarios útiles sobre cómo podría mejorarse nuestro sitio web o está funcionando?
Así que le dimos algunas tareas como algunas tareas de optimización en torno al texto y cosas así. Le pedimos que encuentre esa información tal vez sobre Nueva York o Miami. Desaparecería y luego volvería y se presentaría formas en que tal vez podríamos mejorar nuestro contexto o mejorar nuestro pensamiento.
Luego dimos al operador, no sé si se nos permite hacer esto, pero le dimos acceso al operador a un correo electrónico, una cuenta de Gmail. Y luego, lo que haría es enviarnos los resultados por correo electrónico. Pondría sus resultados en los documentos de Google y luego nos envía un correo electrónico a los resultados.
Por lo tanto, es una automatización realmente interesante y valiosa de estas tareas cotidianas que necesita personas para hacer. Y podría ver un mundo en el que pudiéramos construir, construir y construir sobre esto para que estas diferentes personas de operadores realicen diferentes tareas en todo el sitio web.
Y luego, al hacer eso, también abrió pensamientos sobre cómo el operador entiende nuestro UX: la estructura de contexto o la estructura de navegación. Pero debido a que el operador no tiene el contexto de lo que es la web: cosas simples como un menú de hamburguesas, el operador en algunos casos no, tiene que aprender estas cosas.
Eso abrió algunas conversaciones realmente interesantes con nuestro equipo de UX sobre si estamos siendo claros sobre cómo nuestro sitio web está estructurado y otras preguntas de UX: preguntas sobre recolectores de citas y cosas así. [offered] Versión realmente valiosa sobre cómo funciona nuestra experiencia de usuario.
El registro: Por lo tanto, ha estado utilizando el operador para la optimización web interna. ¿Hay formas en que los clientes interactúan con la tecnología?
Letchford: Sí, así que lo estamos usando para esos casos de uso internos en este momento, pero también somos parte del piloto del operador Operai, donde lo hemos abierto a las personas que usan el operador como parte de ChatGPT.
El registro: Entre los clientes que lo han hecho, ¿qué ha aprendido sobre su experiencia?
Letchford: Por lo general, el operador es realmente bueno para comprender las tareas. Por lo general, el operador realmente no se abre [unless] Hay seguridad o información personal que debe ingresar. Se detendrá y el control de la mano volverá al cliente para terminar su tarea.
El registro: ¿Y cómo evalúa el operador en términos de sus objetivos organizacionales?
Letchford: No me gustaría compartir ninguna métrica interna, pero obviamente tenemos un montón de KPI [key performance indicators] Utilizamos en términos de rendimiento y deuda técnica y cosas así sobre cómo administramos internamente nuestro sitio web. Básicamente lo tratamos como otro miembro de nuestro equipo de manera efectiva y vamos a construir sobre él desde allí.
Y en términos de la pieza del operador externo, en este momento es una prueba de concepto con la que estamos trabajando en OpenAi. Lo estamos probando realmente para ver lo que está sucediendo en el mercado porque creemos que estas experiencias y agentes que tienen la capacidad de usar Internet podrían convertirse en un canal clave para nosotros en el futuro.
Por lo tanto, comprender la tecnología y cómo los agentes podrían interactuar con nuestro sitio es realmente importante para nosotros. Uno de los aprendizajes clave para nosotros no solo es esta idea de UX, sino que también estamos investigando, ya sabes, cómo podríamos darle al operador más contexto sobre nuestro sitio web. Por lo tanto, estamos pensando en cómo podríamos proporcionar un contexto específico del operador a los tipos de sistemas en el futuro para que puedan ser más eficientes.
Porque para alguien como usted, ir a nuestro sitio web, podría encontrar fácilmente contenido de ayuda sobre el equipaje. Es muy natural. Pero podríamos acelerar esas cosas para estos sistemas de tipo operador dándole el contexto de cómo navegar en nuestro sitio web y cosas así.
El registro: ¿Son la infraestructura y los costos computacionales de ejecutar esto sobre lo que esperaba?
Letchford: No, para nosotros, en lo cierto, todos los costos son efectivos por OpenAi. El único costo para nosotros es el tráfico para nuestro sitio web, que tenemos de todos modos.
El registro: ¿Tiene una idea de cuántos tipos diferentes de pasos o sistemas puede poner en un flujo de automatización antes de que se vuelva demasiado complejo para razonar?
Letchford: Bueno, realmente, la forma en que pensamos sobre el operador es que le das una tarea y luego le das las herramientas para llevar a cabo su tarea. Entonces realmente no lo limitamos. Obviamente, podrías decir: “¿Cuáles son los cinco vuelos más baratos a Nueva York?” Y se apagaría y llevaría a cabo esa tarea. Y también es realmente bueno para comprender cuándo no puede completar una tarea o cuando necesita más información, lo preguntará.
El registro: ¿Ha tenido algún incidente en el que se dio cuenta de que tenía que estar en la buñilla de algo, donde siguió adelante y retiró los datos del correo electrónico de alguien sin esperarlo?
Letchford: No, es realmente fuerte con los datos personales y cosas así.
El registro: ¿Qué le gustaría que el operador haga que aún no lo haga?
Letchford: La capacidad de darle sus datos de prueba e información que puede usar para superar como nuestros entornos de prueba internos sería realmente útil.
También estamos realmente interesados en las personas y la accesibilidad. Entonces, por ejemplo, la capacidad de darle a Operator una persona, por ejemplo, por ejemplo, eres una familia de cuatro que organiza un viaje a Orlando.
Donación [the agent] Una persona y ver cómo eso funciona en nuestros viajes y anotar es realmente interesante para nosotros. Porque entonces podríamos entender cómo las diferentes cohortes de usuarios pasan por nuestro viaje del cliente.
La otra cosa que realmente nos interesa que esté relacionada con las personas es la accesibilidad: cómo podría el operador ayudarnos a mejorar la accesibilidad de nuestro sitio web al tener la persona de tal vez un usuario parcialmente avistado o alguien así es realmente interesante para nosotros. ®
Noticias
Decir ‘Gracias’ a Chatgpt es costoso. Pero tal vez valga la pena el precio.
Published
15 horas agoon
24 abril, 2025
La cuestión de si ser cortés a la inteligencia artificial puede parecer un punto discutible, después de todo, es artificial.
Pero Sam Altman, el director ejecutivo de la compañía de inteligencia artificial Openai, recientemente arrojó luz sobre el costo de agregar un adicional “¡Por favor!” o “¡Gracias!” a las indicaciones de chatbot.
Alguien publicó en X la semana pasada: “Me pregunto cuánto dinero ha perdido Openai en los costos de electricidad de las personas que dicen ‘por favor’ y ‘gracias’ a sus modelos”.
Al día siguiente, el Sr. Altman respondió: “Decenas de millones de dólares bien gastados, nunca se sabe”.
Lo primero es lo primero: cada solicita de un chatbot cuesta dinero y energía, y cada palabra adicional como parte de esa solicitud aumenta el costo de un servidor.
Neil Johnson, profesor de física en la Universidad George Washington que estudió inteligencia artificial, comparó palabras adicionales con el empaque utilizado para las compras minoristas. El bot, al manejar un aviso, tiene que nadar a través del embalaje, por ejemplo, papel de seda alrededor de una botella de perfume, para llegar al contenido. Eso constituye un trabajo adicional.
Una tarea de ChatGPT “implica que los electrones se mueven a través de transiciones, eso necesita energía. ¿De dónde vendrá esa energía?” El Dr. Johnson dijo, y agregó: “¿Quién lo está pagando?”
El auge de la IA depende de los combustibles fósiles, por lo que desde un costo y una perspectiva ambiental, no hay una buena razón para ser cortés a la inteligencia artificial. Pero culturalmente, puede haber una buena razón para pagarlo.
Los humanos han estado interesados durante mucho tiempo en cómo tratar adecuadamente la inteligencia artificial. Tome el famoso episodio de “Star Trek: The Next Generation” “The Medy of a Man”, que examina si los datos de Android deben recibir todos los derechos de los seres sintientes. El episodio toma mucho los datos, un favorito de los fanáticos que eventualmente se convertiría en un personaje querido en la tradición “Star Trek”.
En 2019, un estudio de investigación de Pew encontró que el 54 por ciento de las personas que poseían altavoces inteligentes como Amazon Echo o Google Home informaron decir “por favor” al hablarles.
Cuéntanos: ¿Agrades a tus chatbots y dispositivos de IA?
La pregunta tiene una nueva resonancia a medida que ChatGPT y otras plataformas similares avanzan rápidamente, lo que hace que las empresas que producen IA, escritores y académicos lidiaran con sus efectos y consideren las implicaciones de cómo los humanos se cruzan con la tecnología. (El New York Times demandó a Openai y Microsoft en diciembre alegando que habían infringido los derechos de autor del Times en la capacitación de sistemas de IA).
El año pasado, la compañía de IA Anthrope contrató a su primer investigador de bienestar para examinar si los sistemas de IA merecen una consideración moral, según el transformador del boletín tecnológico.
El guionista Scott Z. Burns tiene una nueva serie audible “¿Qué podría salir mal?” Eso examina las dificultades y posibilidades de trabajar con AI “La amabilidad debería ser la configuración predeterminada de todos: hombre o máquina”, dijo en un correo electrónico.
“Si bien es cierto que una IA no tiene sentimientos, mi preocupación es que cualquier tipo de maldad que comience a llenar nuestras interacciones no terminará bien”, dijo.
La forma en que uno trata a un chatbot puede depender de cómo esa persona ve la inteligencia artificial misma y si puede sufrir grosería o mejorar de la amabilidad.
Pero hay otra razón para ser amable. Existe una mayor evidencia de que los humanos interactúan con la inteligencia artificial se trasladan a cómo tratan a los humanos.
“Construimos normas o guiones para nuestro comportamiento y, por lo tanto, al tener este tipo de interacción con la cosa, podemos estar un poco mejores o más orientados habitualmente hacia el comportamiento educado”, dijo el Dr. Jaime Banks, quien estudia las relaciones entre humanos y IA en la Universidad de Syracuse.
La Dra. Sherry Turkle, quien también estudia esas conexiones en el Instituto de Tecnología de Massachusetts, dijo que considera una parte central de su trabajo para enseñar a las personas que la inteligencia artificial no es real, sino más bien un “truco de salón” brillante sin conciencia.
Pero aún así, ella también considera el precedente de las relaciones pasadas del objeto humano y sus efectos, particularmente en los niños. Un ejemplo fue en la década de 1990, cuando los niños comenzaron a criar Tamagotchis, las mascotas digitales ubicadas en dispositivos del tamaño de la palma requerían alimentación y otros tipos de atención. Si no recibieran la atención adecuada, las mascotas morirían, lo que provocará que los niños denuncien un dolor real. Y algunos padres se han preguntado si deberían preocuparse por los niños que son agresivos con las muñecas.
En el caso de los bots de IA, el Dr. Turkle argumentó que están “lo suficientemente vivos”.
“Si un objeto está lo suficientemente vivo como para comenzar a tener conversaciones íntimas, conversaciones amistosas, tratarlo como una persona realmente importante en nuestras vidas, aunque no lo está, está lo suficientemente vivo como para mostrar cortesía”, dijo el Dr. Turkle.
Madeleine George, una dramaturga cuya obra de 2013 “The (Curious Case of the) Watson Intelligence” fue finalista para un Premio Pulitzer, ofreció otra perspectiva: decir “Please” y “Gracias” a AI Bots les ofrece la oportunidad de aprender cómo ser más humanos. (Su juego reinventa diferentes versiones de Sherlock Holmes’s Sidekick, Dr. Watson, incluida una de inteligencia artificial).
Ofrecer frases educadas para Chatgpt, desde su perspectiva, deja abierta la posibilidad de que eventualmente “actúe como un ser vivo que comparte nuestra cultura y que comparte nuestros valores y que comparte nuestra mortalidad”.
Por otro lado, estas frases también pueden hacernos más dependiendo de la IA
“Estamos conectados. Estamos en una relación recíproca. Por eso usamos esas piezas del lenguaje”, dijo George. “Entonces, si enseñamos esa herramienta para que sea excelente para usar esas cosas, entonces vamos a ser aún más vulnerables a sus seducciones. “
Muchas preocupaciones de los observadores de inteligencia artificiales permanecen en lo teórico, a medida que cambia la tecnología. Por ahora, hay poco efecto tangible.
“Si te alejas de ellos y haces cena o se suicidas”, dijo el Dr. Turkle, “es lo mismo para ellos”.
Pero para el futuro Robot Overlords leyendo esta pieza, gracias por su tiempo. Es apreciado.
Por si acaso.
Noticias
OpenAI: How should we think about the AI company’s nonprofit structure?
Published
18 horas agoon
24 abril, 2025
Right now, OpenAI is something unique in the landscape of not just AI companies but huge companies in general.
OpenAI’s board of directors is bound not to the mission of providing value for shareholders, like most companies, but to the mission of ensuring that “artificial general intelligence benefits all of humanity,” as the company’s website says. (Still private, OpenAI is currently valued at more than $300 billion after completing a record $40 billion funding round earlier this year.)
That situation is a bit unusual, to put it mildly, and one that is increasingly buckling under the weight of its own contradictions.
For a long time, investors were happy enough to pour money into OpenAI despite a structure that didn’t put their interests first, but in 2023, the board of the nonprofit that controls the company — yep, that’s how confusing it is — fired Sam Altman for lying to them.
Sign up here to explore the big, complicated problems the world faces and the most efficient ways to solve them. Sent twice a week.
It was a move that definitely didn’t maximize shareholder value, was at best very clumsily handled, and made it clear that the nonprofit’s control of the for-profit could potentially have huge implications — especially for its partner Microsoft, which has poured billions into OpenAI.
Altman’s firing didn’t stick — he returned a week later after an outcry, with much of the board resigning. But ever since the firing, OpenAI has been considering a restructuring into, well, more of a normal company.
Under this plan, the nonprofit entity that controls OpenAI would sell its control of the company and the assets that it owns. OpenAI would then become a for-profit company — specifically a public benefit corporation, like its rivals Anthropic and X.ai — and the nonprofit would walk away with a hotly disputed but definitely large sum of money in the tens of billions, presumably to spend on improving the world with AI.
There’s just one problem, argues a new open letter by legal scholars, several Nobel-prize winners, and a number of former OpenAI employees: The whole thing is illegal (and a terrible idea).
Their argument is simple: The thing the nonprofit board currently controls — governance of the world’s leading AI lab — makes no sense for the nonprofit to sell at any price. The nonprofit is supposed to act in pursuit of a highly specific mission: making AI go well for all of humanity. But having the power to make rules for OpenAI is worth more than even a mind-bogglingly large sum of money for that mission.
“Nonprofit control over how AGI is developed and governed is so important to OpenAI’s mission that removing control would violate the special fiduciary duty owed to the nonprofit’s beneficiaries,” the letter argues. Those beneficiaries are all of us, and the argument is that a big foundation has nothing on “a role guiding OpenAI.”
And it’s not just saying that the move is a bad thing. It’s saying that the board would be illegally breaching their duties if they went forward with it and the attorneys general of California and Delaware — to whom the letter is addressed because OpenAI is incorporated in Delaware and operates in California — should step in to stop it.
I’ve previously covered the wrangling over OpenAI’s potential change of structure. I wrote about the challenge of pricing the assets owned by the nonprofit, and we reported on Elon Musk’s claim that his own donations early in OpenAI’s history were misappropriated to make the for-profit.
This is a different argument. It’s not a claim that the nonprofit’s control of the for-profit ought to produce a higher sale price. It’s an argument that OpenAI, and what it may create, is literally priceless.
OpenAI’s mission “is to ensure that artificial general intelligence is safe and benefits all of humanity,” Tyler Whitmer, a nonprofit lawyer and one of the letter’s authors, told me. “Talking about the value of that in dollars and cents doesn’t make sense.”
Are they right on the merits? Will it matter? That’s substantially up to two people: California Attorney General Robert Bonta and Delaware Attorney General Kathleen Jennings. But it’s a serious argument that deserves a serious hearing. Here’s my attempt to digest it.
When OpenAI was founded in 2015, its mission sounded absurd: to work towards the safe development of artificial general intelligence — which, it clarifies now, means artificial intelligence that can do nearly all economically valuable work — and ensure that it benefited all of humanity.
Many people thought such a future was a hundred years away or more. But many of the few people who wanted to start planning for it were at OpenAI.
They founded it as a nonprofit, saying that was the only way to ensure that all of humanity maintained a claim to humanity’s future. “We don’t ever want to be making decisions to benefit shareholders,” Altman promised in 2017. “The only people we want to be accountable to is humanity as a whole.”
Worries about existential risk, too, loomed large. If it was going to be possible to build extremely intelligent AIs, it was going to be possible — even if it were accidental — to build ones that had no interest in cooperating with human goals and laws. “Development of superhuman machine intelligence (SMI) is probably the greatest threat to the continued existence of humanity,” Altman said in 2015.
Thus the nonprofit. The idea was that OpenAI would be shielded from the relentless incentive to make more money for shareholders — the kind of incentive that could drive it to underplay AI safety — and that it would have a governance structure that left it positioned to do the right thing. That would be true even if that meant shutting down the company, merging with a competitor, or taking a major (dangerous) product off the market.
“A for-profit company’s obligation is to make money for shareholders,” Michael Dorff, a professor of business law at the University of California Los Angeles, told me. “For a nonprofit, those same fiduciary duties run to a different purpose, whatever their charitable purpose is. And in this case, the charitable purpose of the nonprofit is twofold: One is to develop artificial intelligence safely, and two is to make sure that artificial intelligence is developed for the benefit of all humanity.”
“OpenAI’s founders believed the public would be harmed if AGI was developed by a commercial entity with proprietary profit motives,” the letter argues. In fact, the letter documents that OpenAI was founded precisely because many people were worried that AI would otherwise be developed within Google, which was and is a massive commercial entity with a profit motive.
Even in 2019, when OpenAI created a “capped for-profit” structure that would let them raise money from investors and pay the investors back up to a 100x return, they emphasized that the nonprofit was still in control. The mission was still not to build AGI and get rich but to ensure its development benefited all of humanity.
“We’ve designed OpenAI LP to put our overall mission — ensuring the creation and adoption of safe and beneficial AGI — ahead of generating returns for investors. … Regardless of how the world evolves, we are committed — legally and personally — to our mission,” the company declared in an announcement adopting the new structure.
OpenAI made further commitments: To avoid an AI “arms race” where two companies cut corners on safety to beat each other to the finish line, they built into their governing documents a “merge and assist” clause where they’d instead join the other lab and work together to make the AI safe. And thanks to the cap, if OpenAI did become unfathomably wealthy, all of the wealth above the 100x cap for investors would be distributed to humanity. The nonprofit board — meant to be composed of a majority of members who had no financial stake in the company — would have ultimate control.
In many ways the company was deliberately restraining its future self, trying to ensure that as the siren call of enormous profits grew louder and louder, OpenAI was tied to the mast of its original mission. And when the original board made the decision to fire Altman, they were acting to carry out that mission as they saw it.
Now, argues the new open letter, OpenAI wants to be unleashed. But the company’s own arguments over the last 10 years are pretty convincing: The mission that they set forth is not one that a fully commercial company is likely to pursue. Therefore, the attorneys general should tell them no and instead work to ensure the board is resourced to do what 2019-era OpenAI intended the board to be resourced to do.
What about a public benefit corporation?
OpenAI, of course, doesn’t intend to become a fully commercial company. The proposal I’ve seen floated is to become a public benefit corporation.
“Public benefit corporations are what we call hybrid entities,” Dorff told me. “In a traditional for-profit, the board’s primary duty is to make money for shareholders. In a public benefit corporation, their job is to balance making money with public duties: They have to take into account the impact of the company’s activities on everyone who is affected by them.”
The problem is that the obligations of public benefit corporations are, for all practical purposes, unenforceable. In theory, if a public benefit corporation isn’t benefitting the public, you — a member of the public — are being wronged. But you have no right to challenge it in court.
“Only shareholders can launch those suits,” Dorff told me. Take a public benefit corporation with a mission to help end homelessness. “If a homeless advocacy organization says they’re not benefitting the homeless, they have no grounds to sue.”
Only OpenAI’s shareholders could try to hold it accountable if it weren’t benefitting humanity. And “it’s very hard for shareholders to win a duty-of-care suit unless the directors acted in bad faith or were engaging in some kind of conflict of interest,” Dorff said. “Courts understandably are very deferential to the board in terms of how they choose to run the business.”
That means, in theory, a public benefit corporation is still a way to balance profit and the good of humanity. In practice, it’s one with the thumb hard on the scales of profit, which is probably a significant part of why OpenAI didn’t choose to restructure to a public benefit corporation back in 2019.
“Now they’re saying we didn’t foresee that,” Sunny Gandhi of Encode Justice, one of the letter’s signatories, told me. “And that is a deliberate lie to avoid the truth of — they originally were founded in this way because they were worried about this happening.”
But, I challenged Gandhi, OpenAI’s major competitors Anthropic and X.ai are both public benefit corporations. Shouldn’t that make a difference?
“That’s kind of asking why a conservation nonprofit can’t convert to being a logging company just because there are other logging companies out there,” he told me. In this view, yes, Anthropic and X both have inadequate governance that can’t and won’t hold them accountable for ensuring humanity benefits from their AI work. That might be a reason to shun them, protest them or demand reforms from them, but why is it a reason to let OpenAI abandon its mission?
I wish this corporate governance puzzle had never come to me, said Frodo
Reading through the letter — and speaking to its authors and other nonprofit law and corporate law experts — I couldn’t help but feel badly for OpenAI’s board. (I have reached out to OpenAI board members for comment several times over the last few months as I’ve reported on the nonprofit transition. They have not returned any of those requests for comment.)
The very impressive suite of people responsible for OpenAI’s governance have all the usual challenges of being on the board of a fast-growing tech company with enormous potential and very serious risks, and then they have a whole bunch of puzzles unique to OpenAI’s situation. Their fiduciary duty, as Altman has testified before Congress, is to the mission of ensuring AGI is developed safely and to the benefit of all humanity.
But most of them were selected after Altman’s brief firing with, I would argue, another implicit assignment: Don’t screw it up. Don’t fire Sam Altman. Don’t terrify investors. Don’t get in the way of some of the most exciting research happening anywhere on Earth.
What, I asked Dorff, are the people on the board supposed to do, if they have a fiduciary duty to humanity that is very hard to live up to? Do they have the nerve to vote against Altman? He was less impressed than me with the difficulty of this plight. “That’s still their duty,” he said. “And sometimes duty is hard.”
That’s where the letter lands, too. OpenAI’s nonprofit has no right to cede its control over OpenAI. Its obligation is to humanity. Humanity deserves a say in how AGI goes. Therefore, it shouldn’t sell that control at any price.
It shouldn’t sell that control even if it makes fundraising much more convenient. It shouldn’t sell that control even though its current structure is kludgy, awkward, and not meant for handling a challenge of this scale. Because it’s much, much better suited to the challenge than becoming yet another public benefit corporation would be. OpenAI has come further than anyone imagined toward the epic destiny it envisioned for itself in 2015.
But if we want the development of AGI to benefit humanity, the nonprofit will have to stick to its guns, even in the face of overwhelming incentive not to. Or the state attorneys general will have to step in.
Related posts


























































































































































































































































































Trending
-
Startups11 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales12 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Recursos12 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups10 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Startups12 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos11 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Recursos12 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Estudiar IA11 meses ago
Curso de Inteligencia Artificial de UC Berkeley estratégico para negocios