Noticias
OpenAI de Musk y Warren chocan para dirigir el futuro de la gobernanza de la IA

Un doble enfrentamiento (Elon Musk versus OpenAI y Musk versus la senadora Elizabeth Warren (demócrata por Massachusetts)) pone de relieve cuestiones cruciales sobre la combinación de propósitos organizacionales y el equilibrio del poder público y privado.
Musk está demandando a OpenAI, que él cofundó, alegando que su reorganización de una entidad sin fines de lucro a una con fines de lucro traiciona su misión original de garantizar que la IA beneficie a la humanidad.
Mientras tanto, Warren ha expresado su preocupación por la posible superposición de roles de Musk como empresario tecnológico (que resulta ser propietario de la mayoría de X.AI Corp., un competidor de OpenAI) y futuro funcionario gubernamental. Warren instó al presidente electo Donald Trump en una carta del 16 de diciembre a aplicar estrictamente un escrutinio de conflictos de intereses a Musk.
La forma en que se desarrollen estas dos confrontaciones dará forma a nuestro futuro tecnológico.
‘Franken-Gorgon’ de OpenAI
La demanda de Musk apunta a la matriz sin fines de lucro, OpenAI Inc., y esencialmente a todos los demás involucrados en la creación de una subsidiaria con ganancias limitadas, OpenAI LP. El llamado modelo híbrido permitió a los inversores de la filial obtener un retorno de la inversión de hasta 100 veces. Cualquier beneficio restante fluyó hacia la matriz. Musk sostiene que este cambio prioriza las ganancias sobre el bien público, convirtiendo a OpenAI en lo que él llama un Frankenstein.
Musk modificó su denuncia en noviembre para incluir acusaciones de que OpenAI Inc. se estaba reorganizando para convertirse en una corporación con fines de lucro en toda regla. En palabras de Musk (o de sus abogados), OpenAI pasó “de una organización benéfica exenta de impuestos a una gorgona con fines de lucro y que paraliza el mercado por valor de 157 mil millones de dólares, y en sólo ocho años”.
Dado que no existe una ley anti-Franken-Gorgon, las afirmaciones de Musk son una mezcla de supuestas violaciones de la ley antimonopolio, la ley de fideicomisos caritativos, la ley de agencia, fraude e incluso extorsión. Aunque Musk cita las promesas que le hizo Altman, no plantea un reclamo por incumplimiento de contrato.
OpenAI respondió el 13 de diciembre que el modelo de beneficio limitado es una solución innovadora que le permite competir con otras empresas de tecnología sin dejar de ser fiel a su misión. También argumentó que Musk carece de legitimación activa para demandar.
El modelo OpenAI plantea dudas sobre la transparencia y la gobernanza. ¿Puede servir a dos amos (su misión y sus inversores) sin comprometer a uno por el otro? Nadie ha descubierto cómo hacer que este tipo de teoría de las partes interesadas funcione en la práctica. Un objetivo a menudo es consumido por el otro, razón por la cual no existe una forma legal convencional de estructurar una llamada entidad híbrida.
Confusión del modelo híbrido
El modelo híbrido de OpenAI se hace eco de la reciente aparición de corporaciones de beneficio público, que están diseñadas para perseguir tanto ganancias como fines públicos. A diferencia de las corporaciones tradicionales, las PBC están obligadas por ley a considerar el impacto de sus decisiones en la sociedad y el medio ambiente, no sólo en los accionistas.
Esta estructura proporciona un modelo potencial para que organizaciones como OpenAI alineen la innovación con la responsabilidad. “Potencial” es la palabra clave aquí, porque la ley del PBC no contempla rendimientos máximos sobre la inversión.
Si bien el modelo de beneficio limitado es innovador, subraya la necesidad de marcos legales más claros para regir las entidades híbridas. Los formuladores de políticas deberían explorar la posibilidad de adaptar los principios del PBC para abordar los desafíos únicos que plantean la IA y otras industrias de alto riesgo. Quizás algún día los modelos de beneficio limitado puedan convertirse en una forma estándar.
Dilema de doble rol
Warren ha cuestionado públicamente si el doble papel de Musk como empresario privado de IA y copresidente del propuesto Departamento de Eficiencia Gubernamental crearía conflictos de intereses. Ha pedido estándares éticos más estrictos, particularmente dada la influencia de Musk sobre las políticas que afectan directamente sus empresas. Básicamente, ella respondió a su queja de que OpenAI no es ético devolviéndole la acusación.
Pero que los multimillonarios asesoren o participen en el gobierno no es un fenómeno nuevo. Desde la defensa de políticas impulsadas por la filantropía de Andrew Carnegie en el siglo XIX hasta el papel de Warren Buffett en el asesoramiento de políticas financieras durante la crisis económica de 2008, los líderes empresariales ricos a menudo han dado forma a las políticas públicas. La participación de Musk es parte de una larga tradición de aprovechar la experiencia del sector privado para la gobernanza pública.
Dicho esto, hay mucho en juego en la era de la IA. Como asesor gubernamental y empresario con intereses creados en el desarrollo de la IA, Musk debe afrontar este doble papel con cuidado. La transparencia y la rendición de cuentas son esenciales para mantener la confianza pública, especialmente cuando los límites entre la influencia privada y la responsabilidad pública se vuelven borrosos.
Debido a que Musk se está moviendo hacia lo que equivale a una casa de cristal de la atención de los medios, parece advertir Warren, tal vez no debería tirar piedras.
El futuro de la gobernanza de la IA
La disputa entre Musk y OpenAI es más que una batalla legal: es un caso de prueba de cómo gobernamos las organizaciones impulsadas por una misión en la era de la IA.
Los modelos híbridos, como la estructura Franken-Gorgon de OpenAI, desafían las leyes corporativas y sin fines de lucro existentes, lo que refuerza la necesidad de juntas directivas fuertes e independientes, actualizaciones regulatorias y una conducta ética superior a la junta. Las entidades híbridas necesitan tales juntas para garantizar que la misión siga siendo la prioridad.
La matriz sin fines de lucro de OpenAI ha enfrentado críticas por no brindar una supervisión suficiente de su subsidiaria con fines de lucro, lo que destaca la necesidad de estructuras de gobernanza más claras. En la medida en que los miembros de la junta directiva de la empresa sean beneficiarios financieros de los esfuerzos con fines de lucro, se encuentran en una posición sesgada al tomar decisiones sobre la misión sin fines de lucro.
Los formuladores de políticas deben reconocer que las leyes actuales no fueron diseñadas para híbridos. Adaptar los principios del PBC o crear marcos específicos para modelos híbridos podría proporcionar la claridad y la responsabilidad necesarias en la industria de la IA.
La confianza es clave. La transparencia es fundamental. Organizaciones como OpenAI deben comunicar claramente sus objetivos y estructuras para mantener la confianza con los donantes, los inversores y el público. Sin transparencia, los híbridos corren el riesgo de erosionar la confianza de la que dependen para operar con eficacia.
A medida que evoluciona el panorama de la IA, las decisiones que tomemos ahora guiarán no solo el futuro de la tecnología sino también los valores que sustentan su desarrollo. La historia de OpenAI es un microcosmos de estos desafíos: un recordatorio de que equilibrar las ganancias y el propósito tiene que ver tanto con la gobernanza como con la visión.
El caso es Musk v. Altman, ND Cal., No. 4:24-cv-04722, respuesta a la moción de orden judicial preliminar de los demandantes 13/12/24.
Este artículo no refleja necesariamente la opinión de Bloomberg Industry Group, Inc., el editor de Bloomberg Law y Bloomberg Tax, ni de sus propietarios.
Información del autor
Anat Alon-Beck es profesora asociada de derecho en la Facultad de Derecho de la Universidad Case Western Reserve.
Seth Oranburg es profesor de la Facultad de Derecho de la Universidad de New Hampshire y director del Programa de Organizaciones, Negocios y Mercados del Instituto Liberal Clásico de la Universidad de Nueva York.
Escríbanos: Pautas para el autor