A version of this story originally appeared in the Future Perfect newsletter. Sign up here!
Noticias
Detrás de la oferta hostil de Elon Musk por el control de OpenAi
Published
2 meses agoon

Hemos pasado gran parte de las últimas 24 horas por teléfono tratando de llegar al fondo de la oferta hostil de Elon Musk por Sam Altman’s OpenAI. Fue un desarrollo en su batalla corporativa (o telenovela) que pocos podrían haber visto venir. Altman, que está en París en una cumbre de IA, ni siquiera había visto la oferta antes de rechazarla fuera de control.
Pero, ¿qué significa hacer una oferta hostil por una organización sin fines de lucro? ¿Cómo equilibran los miembros de la junta realmente cualquier arancel fiduciario que deben a los inversores en una subsidiaria con fines de lucro frente a la misión de su institución? El hombre en medio de todas estas preguntas es Bret Taylor, la silla de la junta. Taylor tiene más experiencia lidiando con una oferta hostil de Musk que la mayoría: fue el presidente de Twitter’s Board cuando Musk lo compró. Lo rompemos todo a continuación.
El esfuerzo de spoiler de $ 97 mil millones de Musk
El último giro en la saga Operai involucra, por supuesto, Elon Musk. Un consorcio dirigido por el empresario puso una oferta de $ 97.4 mil millones en la mesa para comprar esencialmente el control de OpenAI.
Es solo la última batalla en la creciente pelea entre Musk y Sam Altman, dos de las figuras más grandes de Silicon Valley. Una señal de cómo van las cosas: Altman rechazó la oferta en X, escribió: “No, gracias, pero compraremos Twitter por $ 9.74 mil millones si lo desea”. Musk respondió: “Swindler”.
La oferta de gran éxito complica las cosas para OpenAi. La puesta en marcha está a punto de cerrar un acuerdo de recaudación de fondos de $ 40 mil millones con SoftBank a una valoración de $ 300 mil millones. Altman también está tratando de lograr un plan muy necesario para convertir la organización sin fines de lucro OpenAI en una entidad con fines de lucro.
Una pregunta de los deberes de la junta de Operai: Sus directores no tienen ninguna responsabilidad fiduciaria de maximizar los retornos, ya que es una organización benéfica. Los miembros de la junta incluyen a Bret Taylor, quien se enfrentó con Musk por su compra de Twitter, y Larry Summers, el ex secretario del Tesoro, a quien Musk criticó el lunes.
Pero ese no es el verdadero problema. Musk parece estar tratando de obligar a Altman a pagar potencialmente más para transformar OpenAi en una empresa con fines de lucro. Miles de millones están en juego.
Un resumen: Musk y Altman cofundaron Openai en 2015 como un laboratorio caritativo de IA, pero han estado peleando abiertamente durante años. Musk presentó una serie de quejas legales y acusó a Altman de extraviarse de la misión de la organización sin fines de lucro.
Aunque OpenAi comenzó como una organización sin fines de lucro, creó una subsidiaria con fines de lucro para permitirle recaudar dinero. Los inversores de la start-up presionaron para reestructurar a la organización en una entidad con fines de lucro para que tuviera menos complicaciones de control. Altman tiene dos años para hacer este cambio, o Operai tendrá que devolver el dinero que ha recaudado.
Así es como funcionaría la conversión. Altman tiene que compensar la división sin fines de lucro de OpenAI, que controla la división de fabricación de dinero. Podría pagar una tarifa única o darle una participación minoritaria en el nuevo negocio con fines de lucro.
Pero la oferta de Musk lo hace más difícil. Independientemente de las discusiones internas que Altman haya tenido sobre el valor de la entidad sin fines de lucro de OpenAi, Musk acaba de establecer un precio de piso, en público. También ejerce presión adicional sobre cualquier revisión regulatoria. Para obtener la aprobación, cualquier acuerdo de Altman tendrá que verse como igual o mejor que la oferta de Musk.
“Si esta es una oferta legítima, y piensan que es razonablemente probable que pueda obtener el dinero, que comienza a parecerse al precio justo de los activos”, Samuel Brunson, decano asociado de asuntos académicos en la escuela de la Universidad de Loyola de Chicago de Law, dijo Lauren Hirsch de Dealbook.
Pero Operai tiene algunas defensas. Puede cuestionar la legitimidad de la oferta de Musk. (Recuerde que Musk intentó alejarse de su oferta de comprar Twitter).
Operai también podría desafiar a Musk sobre si tiene los fondos. La riqueza de Musk está en gran medida vinculada a sus acciones de Tesla, lo que significa que puede no tener miles de millones de efectivo para aprovechar fácilmente. La oferta de Musk está siendo respaldada parcialmente por su propia empresa de IA, Xai, que fue valorada por última vez en hasta $ 40 mil millones.
Altman lanzó otro jab esta mañana. Cuando se le preguntó en Bloomberg Television esta mañana si el movimiento de Musk fue impulsado por la inseguridad sobre la posición de Xai, el jefe de Operai dijo: “Probablemente toda su vida es de una posición de inseguridad”.
Altman agregó: “No creo que sea un tipo feliz. Siento por él “.
Esto es lo que esta pasando
El Departamento de Justicia quiere retirar cargos contra Eric Adams. Los fiscales de Manhattan fueron ordenados por jefes en Washington que dejaran de su caso contra el alcalde de la ciudad de Nueva York, quien fue acusado en septiembre como parte de un caso de corrupción criminal federal. La medida plantea preguntas sobre la independencia de los fiscales federales en la era de Trump. No está claro si Danielle Sassoon, la jefa interina de la Oficina del Fiscal de los Estados Unidos en Manhattan, obedecerá la orden.
El presidente Trump presiona a Jordania y Egipto para que tomen a los residentes de Gaza. Dijo que reduciría la ayuda a los países del Medio Oriente si rechazaban su demanda de acoger a la mayoría de los palestinos del territorio, lo que sugiere que se toma en serio su plan altamente polémico y potencialmente ilegal, planean eliminar a Gaza para reconstruir el área. Por separado, Trump firmó una orden ejecutiva que detiene la aplicación de una prohibición de décadas de que las empresas sobornan a funcionarios extranjeros para ganar negocios.
Meta comienza a cortar miles de posiciones más. El gigante de la tecnología ha comenzado a notificar a los empleados que serán despedidos, según Business Insider, cumpliendo con la advertencia de Mark Zuckerberg de que los miembros del personal de bajo rendimiento perderían sus empleos. Meta se ha comprometido a gastar hasta $ 65 mil millones este año para mantenerse al día en la carrera de inteligencia artificial, lo que plantea la necesidad de compensar esa inversión.
Detrás de escena de la gran cumbre de IA de Europa
Los nombres prominentes en geopolítica y tecnología se han reunido en la Cumbre de Acción de Inteligencia Artificial, la reunión repleta de estrellas convocada por Francia para subrayar la relevancia de Europa en la raza AI.
En un discurso el martes, el vicepresidente JD Vance instó a los europeos a ser más fácil en la creación de reglas. “Creemos que la regulación excesiva del sector de la IA podría matar una industria transformadora”, dijo, reflejando un lanzamiento del presidente Emmanuel Macron de Francia.
Para Sam Altman, el CEO de OpenAI, la reunión se centró en gran medida en la oportunidad económica y las condiciones necesarias para ayudar a las industrias de IA de otros países a florecer. La gran pregunta que Altman ha escuchado, le dijo a Bloomberg Television, es “¿Puedes hacer un Stargate en mi país?” Refiriéndose al proyecto expansivo del centro de datos que está ayudando a liderar.
Pero está sucediendo más detrás de escena. Kevin Roose, columnista de tecnología del Times y coanfitrión del podcast Hard Fork, comparte con Dealbook lo que está escuchando en los pasillos del Grand Palais:
-
El gran juego de adivinanzas: ¿qué hará el presidente Trump en AI? Algunos esperan que Elon Musk, que dirige una compañía de IA y ha expresado temores de poderoso AI Run Amok, persuade al presidente para que adopte un enfoque más cauteloso. Otros creen que los capitalistas de riesgo y los llamados aceleradores de la IA en la órbita de Trump, como el inversor Marc Andreessen, lo persuadirán para que abandone la industria de la IA sola.
-
Europa está teniendo arrepentimientos de regulación. La Unión Europea se adelantó al juego sobre la regulación de la IA, con su sólida ley de IA programada para entrar en vigencia en etapas durante el próximo año. Ahora, después de un informe de Mario Draghi, el ex primer ministro italiano, que culpó a la regulación excesiva del lento crecimiento de Europa, algunos líderes europeos preocupan que esas reglas estén perjudicando la competitividad del bloque. Varios ejecutivos estadounidenses de IA me dijeron que todavía consideraban a Europa un lugar difícil para hacer negocios en comparación con mercados más grandes como India.
-
AI Doomers han sido marginados. Se habla mucho menos sobre los riesgos de IA que en las cumbres anteriores. En parte, eso refleja una decisión deliberada de Macron de jugar el lado positivo de la tecnología. También refleja un cambio más grande en la industria, donde los ejecutivos parecían haberse dado cuenta de que es más fácil entusiasmar a los formuladores de políticas con la IA si no les preocupa que los mate.
-
Los formuladores de políticas no sienten el AGI Aunque algunos líderes de la industria afirman que la inteligencia general artificial, un sistema de inteligencia artificial de nivel humano, se puede construir tan pronto como uno o dos años a partir de ahora, las discusiones que he escuchado en París les ha faltado la urgencia que esperaría, dados esos plazos. . Parece que los formuladores de políticas no pueden comprender cuán pronto podrían llegar los poderosos sistemas de IA y cuán disruptivos podrían ser.
“Cualquier indicio de la suspensión selectiva de los pagos autorizados con el Congreso será una violación de la confianza y, en última instancia, una forma de incumplimiento. Y nuestra credibilidad, una vez perdida, resultará difícil de recuperar ”.
– Cinco ex secretarios del Tesoro -Bob Rubin, Larry Summers, Tim Geithner, Jack Lew y Janet Yellen-Advertencia sobre los riesgos del Elon Musk liderado iniciativa de reducción de costos interfiriendo con el sistema de pago del departamento. Que y otros esfuerzos del presidente Trump para interrumpir el gobierno federalhan seguido Dibuje la oposición de los juecesconfigurando un crisis constitucional potencial.
Volviendo a las tarifas de Trump
Los líderes mundiales están luchando por responder a la última salva de guerra comercial del presidente Trump: sus aranceles del 25 por ciento sobre todas las importaciones de acero y aluminio, con una advertencia de que se están en camino más medidas, incluidas las tarifas recíprocas.
Trump dijo que los gravámenes de los metales entrarán en vigencia “sin excepción”. Pero los signos de represalia de Tit-for-Tat muestran riesgos crecientes de nuevas barreras comerciales que podrían sofocar el crecimiento y aumentar los costos para las empresas y los consumidores.
No es solo China. La Unión Europea, que anotó un excedente comercial de aproximadamente $ 230 mil millones con los Estados Unidos el año pasado, y Canadá, el mayor proveedor de acero de Estados Unidos, ha dicho que están listos para volver a despedir.
El presidente de la Comisión Europea, Ursula von der Leyen, condenó los aranceles esta mañana como “injustificados”, y agregó que “desencadenarán contramedidas firmes y proporcionales”. Al margen de un importante evento de IA en París, el primer ministro Justin Trudeau de Canadá dijo que “los canadienses se pondrán de pie con fuerza y firmemente si es necesario”.
Mientras tanto, se espera que Cynthia Kiang, viceministra de economía de Taiwán, llegue a Washington el martes para tratar de extraer exenciones para la enorme industria de semiconductores de la isla.
Los ganadores y perdedores del mercado están surgiendo. Los futuros S&P 500 están en rojo. Gold, el refugio clásico para los inversores, continúa comerciando en torno a un récord.
Las acciones de automóviles europeas estaban bajas: la industria automotriz de Alemania se considera especialmente vulnerable a una guerra comercial de Trump.
Trump calificó el movimiento de la tarifa como un “gran problema”. Durante mucho tiempo ha considerado el déficit comercial de globo de Estados Unidos como un signo de debilidad, y ve los aranceles como una herramienta para renegociar los acuerdos comerciales y restaurar los empleos de fabricación. “Es hora de que nuestras grandes industrias regresen a Estados Unidos”, dijo el presidente de la Oficina Oval el lunes.
Eso podría ser una tarea difícil. Hace mucho tiempo, Estados Unidos perdió su liderazgo como el mayor poder de fabricación del mundo para China, un productor dominante de barcos, robots y equipos 5G, según Deutsche Bank.
La velocidad leída
Ofertas
-
Se dice que Stripe, el gigante de los pagos, pesa otra venta de acciones de los empleados, esta vez con una valoración de al menos $ 85 mil millones. (La información)
-
Según los informes, Elliott Investment Management ha acumulado una participación en Phillips 66 por valor de al menos $ 2.5 mil millones, y planea empujar al refinador de petróleo para mejorar sus operaciones. (WSJ)
Política, política y regulación
-
Se dice que el presidente Mike Johnson busca apoyo para un nuevo plan de presupuesto federal, ya que los republicanos de la Cámara de Representantes se pelearon sobre cuántos billones en recortes para incluir. (Político)
-
Según los informes, Microsoft está bajo investigación por el regulador antimonopolio de Francia sobre si el gigante tecnológico está degradando los resultados de búsqueda de rivales más pequeños que usan su motor de búsqueda Bing. (Bloomberg)
Lo mejor del resto
¡Nos gustaría sus comentarios! Envíe por correo electrónico pensamientos y sugerencias a truthbook@nytimes.com.
You may like
Noticias
Decir ‘Gracias’ a Chatgpt es costoso. Pero tal vez valga la pena el precio.
Published
10 horas agoon
24 abril, 2025
La cuestión de si ser cortés a la inteligencia artificial puede parecer un punto discutible, después de todo, es artificial.
Pero Sam Altman, el director ejecutivo de la compañía de inteligencia artificial Openai, recientemente arrojó luz sobre el costo de agregar un adicional “¡Por favor!” o “¡Gracias!” a las indicaciones de chatbot.
Alguien publicó en X la semana pasada: “Me pregunto cuánto dinero ha perdido Openai en los costos de electricidad de las personas que dicen ‘por favor’ y ‘gracias’ a sus modelos”.
Al día siguiente, el Sr. Altman respondió: “Decenas de millones de dólares bien gastados, nunca se sabe”.
Lo primero es lo primero: cada solicita de un chatbot cuesta dinero y energía, y cada palabra adicional como parte de esa solicitud aumenta el costo de un servidor.
Neil Johnson, profesor de física en la Universidad George Washington que estudió inteligencia artificial, comparó palabras adicionales con el empaque utilizado para las compras minoristas. El bot, al manejar un aviso, tiene que nadar a través del embalaje, por ejemplo, papel de seda alrededor de una botella de perfume, para llegar al contenido. Eso constituye un trabajo adicional.
Una tarea de ChatGPT “implica que los electrones se mueven a través de transiciones, eso necesita energía. ¿De dónde vendrá esa energía?” El Dr. Johnson dijo, y agregó: “¿Quién lo está pagando?”
El auge de la IA depende de los combustibles fósiles, por lo que desde un costo y una perspectiva ambiental, no hay una buena razón para ser cortés a la inteligencia artificial. Pero culturalmente, puede haber una buena razón para pagarlo.
Los humanos han estado interesados durante mucho tiempo en cómo tratar adecuadamente la inteligencia artificial. Tome el famoso episodio de “Star Trek: The Next Generation” “The Medy of a Man”, que examina si los datos de Android deben recibir todos los derechos de los seres sintientes. El episodio toma mucho los datos, un favorito de los fanáticos que eventualmente se convertiría en un personaje querido en la tradición “Star Trek”.
En 2019, un estudio de investigación de Pew encontró que el 54 por ciento de las personas que poseían altavoces inteligentes como Amazon Echo o Google Home informaron decir “por favor” al hablarles.
Cuéntanos: ¿Agrades a tus chatbots y dispositivos de IA?
La pregunta tiene una nueva resonancia a medida que ChatGPT y otras plataformas similares avanzan rápidamente, lo que hace que las empresas que producen IA, escritores y académicos lidiaran con sus efectos y consideren las implicaciones de cómo los humanos se cruzan con la tecnología. (El New York Times demandó a Openai y Microsoft en diciembre alegando que habían infringido los derechos de autor del Times en la capacitación de sistemas de IA).
El año pasado, la compañía de IA Anthrope contrató a su primer investigador de bienestar para examinar si los sistemas de IA merecen una consideración moral, según el transformador del boletín tecnológico.
El guionista Scott Z. Burns tiene una nueva serie audible “¿Qué podría salir mal?” Eso examina las dificultades y posibilidades de trabajar con AI “La amabilidad debería ser la configuración predeterminada de todos: hombre o máquina”, dijo en un correo electrónico.
“Si bien es cierto que una IA no tiene sentimientos, mi preocupación es que cualquier tipo de maldad que comience a llenar nuestras interacciones no terminará bien”, dijo.
La forma en que uno trata a un chatbot puede depender de cómo esa persona ve la inteligencia artificial misma y si puede sufrir grosería o mejorar de la amabilidad.
Pero hay otra razón para ser amable. Existe una mayor evidencia de que los humanos interactúan con la inteligencia artificial se trasladan a cómo tratan a los humanos.
“Construimos normas o guiones para nuestro comportamiento y, por lo tanto, al tener este tipo de interacción con la cosa, podemos estar un poco mejores o más orientados habitualmente hacia el comportamiento educado”, dijo el Dr. Jaime Banks, quien estudia las relaciones entre humanos y IA en la Universidad de Syracuse.
La Dra. Sherry Turkle, quien también estudia esas conexiones en el Instituto de Tecnología de Massachusetts, dijo que considera una parte central de su trabajo para enseñar a las personas que la inteligencia artificial no es real, sino más bien un “truco de salón” brillante sin conciencia.
Pero aún así, ella también considera el precedente de las relaciones pasadas del objeto humano y sus efectos, particularmente en los niños. Un ejemplo fue en la década de 1990, cuando los niños comenzaron a criar Tamagotchis, las mascotas digitales ubicadas en dispositivos del tamaño de la palma requerían alimentación y otros tipos de atención. Si no recibieran la atención adecuada, las mascotas morirían, lo que provocará que los niños denuncien un dolor real. Y algunos padres se han preguntado si deberían preocuparse por los niños que son agresivos con las muñecas.
En el caso de los bots de IA, el Dr. Turkle argumentó que están “lo suficientemente vivos”.
“Si un objeto está lo suficientemente vivo como para comenzar a tener conversaciones íntimas, conversaciones amistosas, tratarlo como una persona realmente importante en nuestras vidas, aunque no lo está, está lo suficientemente vivo como para mostrar cortesía”, dijo el Dr. Turkle.
Madeleine George, una dramaturga cuya obra de 2013 “The (Curious Case of the) Watson Intelligence” fue finalista para un Premio Pulitzer, ofreció otra perspectiva: decir “Please” y “Gracias” a AI Bots les ofrece la oportunidad de aprender cómo ser más humanos. (Su juego reinventa diferentes versiones de Sherlock Holmes’s Sidekick, Dr. Watson, incluida una de inteligencia artificial).
Ofrecer frases educadas para Chatgpt, desde su perspectiva, deja abierta la posibilidad de que eventualmente “actúe como un ser vivo que comparte nuestra cultura y que comparte nuestros valores y que comparte nuestra mortalidad”.
Por otro lado, estas frases también pueden hacernos más dependiendo de la IA
“Estamos conectados. Estamos en una relación recíproca. Por eso usamos esas piezas del lenguaje”, dijo George. “Entonces, si enseñamos esa herramienta para que sea excelente para usar esas cosas, entonces vamos a ser aún más vulnerables a sus seducciones. “
Muchas preocupaciones de los observadores de inteligencia artificiales permanecen en lo teórico, a medida que cambia la tecnología. Por ahora, hay poco efecto tangible.
“Si te alejas de ellos y haces cena o se suicidas”, dijo el Dr. Turkle, “es lo mismo para ellos”.
Pero para el futuro Robot Overlords leyendo esta pieza, gracias por su tiempo. Es apreciado.
Por si acaso.
Noticias
OpenAI: How should we think about the AI company’s nonprofit structure?
Published
14 horas agoon
24 abril, 2025
Right now, OpenAI is something unique in the landscape of not just AI companies but huge companies in general.
OpenAI’s board of directors is bound not to the mission of providing value for shareholders, like most companies, but to the mission of ensuring that “artificial general intelligence benefits all of humanity,” as the company’s website says. (Still private, OpenAI is currently valued at more than $300 billion after completing a record $40 billion funding round earlier this year.)
That situation is a bit unusual, to put it mildly, and one that is increasingly buckling under the weight of its own contradictions.
For a long time, investors were happy enough to pour money into OpenAI despite a structure that didn’t put their interests first, but in 2023, the board of the nonprofit that controls the company — yep, that’s how confusing it is — fired Sam Altman for lying to them.
Sign up here to explore the big, complicated problems the world faces and the most efficient ways to solve them. Sent twice a week.
It was a move that definitely didn’t maximize shareholder value, was at best very clumsily handled, and made it clear that the nonprofit’s control of the for-profit could potentially have huge implications — especially for its partner Microsoft, which has poured billions into OpenAI.
Altman’s firing didn’t stick — he returned a week later after an outcry, with much of the board resigning. But ever since the firing, OpenAI has been considering a restructuring into, well, more of a normal company.
Under this plan, the nonprofit entity that controls OpenAI would sell its control of the company and the assets that it owns. OpenAI would then become a for-profit company — specifically a public benefit corporation, like its rivals Anthropic and X.ai — and the nonprofit would walk away with a hotly disputed but definitely large sum of money in the tens of billions, presumably to spend on improving the world with AI.
There’s just one problem, argues a new open letter by legal scholars, several Nobel-prize winners, and a number of former OpenAI employees: The whole thing is illegal (and a terrible idea).
Their argument is simple: The thing the nonprofit board currently controls — governance of the world’s leading AI lab — makes no sense for the nonprofit to sell at any price. The nonprofit is supposed to act in pursuit of a highly specific mission: making AI go well for all of humanity. But having the power to make rules for OpenAI is worth more than even a mind-bogglingly large sum of money for that mission.
“Nonprofit control over how AGI is developed and governed is so important to OpenAI’s mission that removing control would violate the special fiduciary duty owed to the nonprofit’s beneficiaries,” the letter argues. Those beneficiaries are all of us, and the argument is that a big foundation has nothing on “a role guiding OpenAI.”
And it’s not just saying that the move is a bad thing. It’s saying that the board would be illegally breaching their duties if they went forward with it and the attorneys general of California and Delaware — to whom the letter is addressed because OpenAI is incorporated in Delaware and operates in California — should step in to stop it.
I’ve previously covered the wrangling over OpenAI’s potential change of structure. I wrote about the challenge of pricing the assets owned by the nonprofit, and we reported on Elon Musk’s claim that his own donations early in OpenAI’s history were misappropriated to make the for-profit.
This is a different argument. It’s not a claim that the nonprofit’s control of the for-profit ought to produce a higher sale price. It’s an argument that OpenAI, and what it may create, is literally priceless.
OpenAI’s mission “is to ensure that artificial general intelligence is safe and benefits all of humanity,” Tyler Whitmer, a nonprofit lawyer and one of the letter’s authors, told me. “Talking about the value of that in dollars and cents doesn’t make sense.”
Are they right on the merits? Will it matter? That’s substantially up to two people: California Attorney General Robert Bonta and Delaware Attorney General Kathleen Jennings. But it’s a serious argument that deserves a serious hearing. Here’s my attempt to digest it.
When OpenAI was founded in 2015, its mission sounded absurd: to work towards the safe development of artificial general intelligence — which, it clarifies now, means artificial intelligence that can do nearly all economically valuable work — and ensure that it benefited all of humanity.
Many people thought such a future was a hundred years away or more. But many of the few people who wanted to start planning for it were at OpenAI.
They founded it as a nonprofit, saying that was the only way to ensure that all of humanity maintained a claim to humanity’s future. “We don’t ever want to be making decisions to benefit shareholders,” Altman promised in 2017. “The only people we want to be accountable to is humanity as a whole.”
Worries about existential risk, too, loomed large. If it was going to be possible to build extremely intelligent AIs, it was going to be possible — even if it were accidental — to build ones that had no interest in cooperating with human goals and laws. “Development of superhuman machine intelligence (SMI) is probably the greatest threat to the continued existence of humanity,” Altman said in 2015.
Thus the nonprofit. The idea was that OpenAI would be shielded from the relentless incentive to make more money for shareholders — the kind of incentive that could drive it to underplay AI safety — and that it would have a governance structure that left it positioned to do the right thing. That would be true even if that meant shutting down the company, merging with a competitor, or taking a major (dangerous) product off the market.
“A for-profit company’s obligation is to make money for shareholders,” Michael Dorff, a professor of business law at the University of California Los Angeles, told me. “For a nonprofit, those same fiduciary duties run to a different purpose, whatever their charitable purpose is. And in this case, the charitable purpose of the nonprofit is twofold: One is to develop artificial intelligence safely, and two is to make sure that artificial intelligence is developed for the benefit of all humanity.”
“OpenAI’s founders believed the public would be harmed if AGI was developed by a commercial entity with proprietary profit motives,” the letter argues. In fact, the letter documents that OpenAI was founded precisely because many people were worried that AI would otherwise be developed within Google, which was and is a massive commercial entity with a profit motive.
Even in 2019, when OpenAI created a “capped for-profit” structure that would let them raise money from investors and pay the investors back up to a 100x return, they emphasized that the nonprofit was still in control. The mission was still not to build AGI and get rich but to ensure its development benefited all of humanity.
“We’ve designed OpenAI LP to put our overall mission — ensuring the creation and adoption of safe and beneficial AGI — ahead of generating returns for investors. … Regardless of how the world evolves, we are committed — legally and personally — to our mission,” the company declared in an announcement adopting the new structure.
OpenAI made further commitments: To avoid an AI “arms race” where two companies cut corners on safety to beat each other to the finish line, they built into their governing documents a “merge and assist” clause where they’d instead join the other lab and work together to make the AI safe. And thanks to the cap, if OpenAI did become unfathomably wealthy, all of the wealth above the 100x cap for investors would be distributed to humanity. The nonprofit board — meant to be composed of a majority of members who had no financial stake in the company — would have ultimate control.
In many ways the company was deliberately restraining its future self, trying to ensure that as the siren call of enormous profits grew louder and louder, OpenAI was tied to the mast of its original mission. And when the original board made the decision to fire Altman, they were acting to carry out that mission as they saw it.
Now, argues the new open letter, OpenAI wants to be unleashed. But the company’s own arguments over the last 10 years are pretty convincing: The mission that they set forth is not one that a fully commercial company is likely to pursue. Therefore, the attorneys general should tell them no and instead work to ensure the board is resourced to do what 2019-era OpenAI intended the board to be resourced to do.
What about a public benefit corporation?
OpenAI, of course, doesn’t intend to become a fully commercial company. The proposal I’ve seen floated is to become a public benefit corporation.
“Public benefit corporations are what we call hybrid entities,” Dorff told me. “In a traditional for-profit, the board’s primary duty is to make money for shareholders. In a public benefit corporation, their job is to balance making money with public duties: They have to take into account the impact of the company’s activities on everyone who is affected by them.”
The problem is that the obligations of public benefit corporations are, for all practical purposes, unenforceable. In theory, if a public benefit corporation isn’t benefitting the public, you — a member of the public — are being wronged. But you have no right to challenge it in court.
“Only shareholders can launch those suits,” Dorff told me. Take a public benefit corporation with a mission to help end homelessness. “If a homeless advocacy organization says they’re not benefitting the homeless, they have no grounds to sue.”
Only OpenAI’s shareholders could try to hold it accountable if it weren’t benefitting humanity. And “it’s very hard for shareholders to win a duty-of-care suit unless the directors acted in bad faith or were engaging in some kind of conflict of interest,” Dorff said. “Courts understandably are very deferential to the board in terms of how they choose to run the business.”
That means, in theory, a public benefit corporation is still a way to balance profit and the good of humanity. In practice, it’s one with the thumb hard on the scales of profit, which is probably a significant part of why OpenAI didn’t choose to restructure to a public benefit corporation back in 2019.
“Now they’re saying we didn’t foresee that,” Sunny Gandhi of Encode Justice, one of the letter’s signatories, told me. “And that is a deliberate lie to avoid the truth of — they originally were founded in this way because they were worried about this happening.”
But, I challenged Gandhi, OpenAI’s major competitors Anthropic and X.ai are both public benefit corporations. Shouldn’t that make a difference?
“That’s kind of asking why a conservation nonprofit can’t convert to being a logging company just because there are other logging companies out there,” he told me. In this view, yes, Anthropic and X both have inadequate governance that can’t and won’t hold them accountable for ensuring humanity benefits from their AI work. That might be a reason to shun them, protest them or demand reforms from them, but why is it a reason to let OpenAI abandon its mission?
I wish this corporate governance puzzle had never come to me, said Frodo
Reading through the letter — and speaking to its authors and other nonprofit law and corporate law experts — I couldn’t help but feel badly for OpenAI’s board. (I have reached out to OpenAI board members for comment several times over the last few months as I’ve reported on the nonprofit transition. They have not returned any of those requests for comment.)
The very impressive suite of people responsible for OpenAI’s governance have all the usual challenges of being on the board of a fast-growing tech company with enormous potential and very serious risks, and then they have a whole bunch of puzzles unique to OpenAI’s situation. Their fiduciary duty, as Altman has testified before Congress, is to the mission of ensuring AGI is developed safely and to the benefit of all humanity.
But most of them were selected after Altman’s brief firing with, I would argue, another implicit assignment: Don’t screw it up. Don’t fire Sam Altman. Don’t terrify investors. Don’t get in the way of some of the most exciting research happening anywhere on Earth.
What, I asked Dorff, are the people on the board supposed to do, if they have a fiduciary duty to humanity that is very hard to live up to? Do they have the nerve to vote against Altman? He was less impressed than me with the difficulty of this plight. “That’s still their duty,” he said. “And sometimes duty is hard.”
That’s where the letter lands, too. OpenAI’s nonprofit has no right to cede its control over OpenAI. Its obligation is to humanity. Humanity deserves a say in how AGI goes. Therefore, it shouldn’t sell that control at any price.
It shouldn’t sell that control even if it makes fundraising much more convenient. It shouldn’t sell that control even though its current structure is kludgy, awkward, and not meant for handling a challenge of this scale. Because it’s much, much better suited to the challenge than becoming yet another public benefit corporation would be. OpenAI has come further than anyone imagined toward the epic destiny it envisioned for itself in 2015.
But if we want the development of AGI to benefit humanity, the nonprofit will have to stick to its guns, even in the face of overwhelming incentive not to. Or the state attorneys general will have to step in.
Noticias
“Estoy recortado con un cambio de imagen y un problema de cafeína”, dice Chatgpt cuando le pedí que se asiera a sí misma
Published
15 horas agoon
24 abril, 2025
La autoconciencia es una cosa, y es notable cuántas personas carecen de ella, pero te complacerá saber que el chatgpt de Openai tiene una gran cantidad de autoconciencia que compartirá de la manera más corta cuando te pides que se asa.
Tuve la idea de un asado de IA después de ver a varias personas publicar historias sobre pedirle a ChatGPT que las asa. Le di una oportunidad, entrando en el mensaje breve pero peligroso, “Asarme”, en Chatgpt 4o.
Related posts


























































































































































































































































































Trending
-
Startups11 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales12 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Recursos12 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups10 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Startups12 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos11 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Recursos12 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Estudiar IA11 meses ago
Curso de Inteligencia Artificial de UC Berkeley estratégico para negocios