Noticias
Microsoft tiene un problema con OpenAI
Foto-Ilustración: Intelligencer; Foto: Imágenes falsas
En términos puramente organizativos, OpenAI es una entidad extraña. Comenzó como una organización sin fines de lucro y recaudó más de 100 millones de dólares para gastar en investigación fundamental de IA, antes de transformarse en una corporación de “beneficios limitados”. gobernado por una organización sin fines de lucro y “legalmente obligado” a llevar a cabo la misión de la organización sin fines de lucro. En 2015, esa misión era “hacer avanzar la inteligencia digital de la manera que más probablemente beneficie a la humanidad en su conjunto, sin las limitaciones de la necesidad de generar retorno financiero”. En 2024, OpenAI dice que su “misión es garantizar que la inteligencia artificial general (AGI), es decir, sistemas altamente autónomos que superan a los humanos en la mayoría de los trabajos económicamente valiosos, beneficie a toda la humanidad”.
En retrospectiva, este fue un acuerdo bastante bueno para OpenAI, que ha gastado miles de millones de dólares en la construcción, capacitación y operación de modelos de IA. Primero, consiguió recaudar mucho dinero sin la presión normal para devolverlo. Luego, como empresa con fines de lucro envuelta en una organización sin fines de lucro, recaudó enormes cantidades de dinero de Microsoft sin el riesgo de ser controlada o absorbida por la empresa de casi 50 años. En el proceso de elevar su próximo ronda de financiación, que valora la startup en más de 150 mil millones de dólares, la compañía ha dicho a los inversores que hará la transición a una estructura con fines de lucro dentro de dos años, o recuperarán su dinero.
Si le tomamos la palabra a Sam Altman, este proceso no fue inevitable, pero resultó ser necesario: a medida que avanzaba la investigación de OpenAI, su liderazgo se dio cuenta de que sus costos serían más altos de lo que la financiación sin fines de lucro podría soportar, por lo que se volvió a los gigantes del sector privado. Si, como muchos de los cofundadores, primeros investigadores, ex miembros de la junta directiva y ejecutivos de alto rango de OpenAI, no está 100 por ciento convencido de la franqueza de Sam Altman, podría considerar esta secuencia de eventos como oportunista o estratégica. Si está a cargo de Microsoft, sería irresponsable no considerar al menos la posibilidad de que lo estén engañando. Según el Diario de Wall Street:
OpenAI y Microsoft MSFT aumentan un 0,14%; El triángulo verde que apunta hacia arriba se enfrentan en una negociación de alto riesgo sobre una pregunta sin precedentes: ¿Cómo debería traducirse una inversión de casi 14 mil millones de dólares en una organización sin fines de lucro en acciones en una empresa con fines de lucro?
Según se informa, ambas empresas han contratado bancos de inversión para ayudar a gestionar el proceso, lo que sugiere que este camino no estaba completamente esbozado en acuerdos anteriores. (¡Ups!) Antes de la ronda de financiación, la relación entre las empresas supuestamente se había vuelto tensa. “Durante el último año, OpenAI ha estado tratando de renegociar el acuerdo para ayudarle a asegurar más potencia informática y reducir gastos abrumadores, mientras que los ejecutivos de Microsoft están cada vez más preocupados de que su trabajo de IA dependa demasiado de OpenAI”, según el New York Times. Veces. “Señor. Nadella ha dicho en privado que el despido del señor Altman en noviembre lo sorprendió y preocupó, según cinco personas con conocimiento de sus comentarios”.
Microsoft se suma a la última ronda de inversión pero no la lidera; Mientras tanto, contrata personal de competidores de OpenAI, cubriendo su apuesta en la empresa y preparándose para un mundo en el que ya no tiene acceso preferencial a su tecnología. OpenAI, además de ampliar sus fuentes de financiación y computación, está presionando para comercializar su tecnología por su cuenta, por separado de Microsoft. Este es, por supuesto, el tipo de situación para la que las empresas se preparan: ambas partes habrán intentado anticipar, por escrito, algunos de los riesgos de esta asociación inusual. Sin embargo, una vez más, OpenAI podría pensar que tiene la posibilidad de alterar literalmente los términos de su acuerdo. Desde Veces:
El contrato contiene una cláusula que dice que si OpenAI construye inteligencia artificial general, o AGI (en términos generales, una máquina que iguala el poder del cerebro humano), Microsoft pierde el acceso a las tecnologías de OpenAI. La cláusula pretendía garantizar que una empresa como Microsoft no hiciera un mal uso de esta máquina del futuro, pero hoy los ejecutivos de OpenAI la ven como un camino hacia un mejor contrato, según una persona familiarizada con las negociaciones de la empresa. Según los términos del contrato, la junta directiva de OpenAI podría decidir cuándo llegará AGI.
Un problema con la conversación sobre AGI es que las personas no están de acuerdo sobre qué significa exactamente que una máquina “empareje” el cerebro humano y, en primer lugar, cómo evaluar tales habilidades. Este es el tema de un debate animado y de buena fe en la investigación de la IA y más allá. Otro problema es que algunas de las personas que más hablan de ello, o al menos de manera más visible, están motivadas por otros factores: dominar a sus competidores; atraer inversiones; apoyando una narrativa más amplia sobre la inevitabilidad de la IA y su propio éxito dentro de ella.
El hecho de que Microsoft haya aceptado tal laguna jurídica en AGI podría sugerir que la compañía se toma la perspectiva un poco menos en serio de lo que sus ejecutivos tienden a indicar: que considera que la inteligencia a nivel humano que surge de los LLM es inverosímil y que tal concesión es de bajo riesgo. Alternativamente, podría indicar que la empresa creía en la durabilidad del acuerdo sin fines de lucro de OpenAI y que su junta directiva evaluaría de manera responsable o al menos predecible la tecnología de la empresa mucho después de que Microsoft hubiera recuperado su dinero con cerca AGI; ahora, por supuesto, la junta ha sido depurada y reemplazada por personas leales a Sam Altman.
Esto genera la posibilidad de que Microsoft simplemente haya malinterpretado o subestimado qué socio tenía en OpenAI. Las teorías populares sobre el riesgo de la IA postulan que una máquina con suficiente inteligencia podría eventualmente descubrir que sus prioridades no se alinean con las de las personas que la crearon y podría usar su inteligencia humana y de mejora personal para competir, engañar o, en general, causar. daño a personas reales (dependiendo de quién hable, estas teorías pueden parecer una evaluación de riesgos razonada o algo más cercano a una proyección). Por ahora, sin embargo, Microsoft parece estar enfrentando un tipo de problema de alineación más pequeño y más familiar, en la forma del humano Sam Altman, quien emergerá de la reestructuración planificada de OpenAI con un control aún mayor sobre la organización. Habiendo dado a OpenAI los recursos para crecer, pero también el espacio para redefinirse de manera arbitraria y ventajosa, corre el riesgo de convertir lo que, en teoría, en el papel, era una buena inversión, en un enorme desastre. No quiero ser fatalista al respecto, pero: tal vez deberían haberlo sabido.
Ver todo