“Todo lo que sé es que estoy bien para mis 80 mil millones de dólares.”
Noticias
The Last Screenwriter: La Controversial Película Prohibida por Usar Inteligencia Artificial
En un audaz y polémico experimento, la inteligencia artificial ha dejado su marca en la industria cinematográfica con “The Last Screenwriter”. Esta película, cuyo guion fue coescrito por ChatGPT, está revolucionando la manera en que se conciben las historias en Hollywood. Sin embargo, su uso de IA ha desencadenado una controversia tan intensa que ha llevado a la prohibición de la película en varios festivales y plataformas.
Una Historia Prohibida de inteligencia artificial
La trama de “The Last Screenwriter” nos lleva a un futuro cercano donde un guionista, en sus últimos días de carrera, lucha por adaptarse a un mundo dominado por la inteligencia artificial. En una ironía poética, el propio guion de la película fue desarrollado en colaboración con ChatGPT, demostrando el potencial y los desafíos de integrar la IA en la creación artística. No obstante, este innovador enfoque ha provocado una reacción adversa en la industria, resultando en su prohibición.
Controversia en el Proceso Creativo
El uso de ChatGPT no solo aceleró el proceso de escritura, sino que también ofreció una perspectiva fresca y novedosa. Los guionistas humanos trabajaron mano a mano con la IA, proporcionando indicaciones y refinando las sugerencias generadas. Este enfoque híbrido, aunque creativo, ha sido visto por muchos como una amenaza a la integridad del arte cinematográfico, suscitando debates éticos y artísticos que culminaron en la censura de la película.
Reacciones en la Industria Cinematográfica
La prohibición de “The Last Screenwriter” ha dividido a la comunidad cinematográfica. Mientras algunos ven en la IA una herramienta poderosa que puede inspirar y complementar la creatividad humana, otros expresan su preocupación por la posible dependencia excesiva en estas tecnologías y la deshumanización del arte del guionismo. La censura de la película refleja estos temores y la resistencia a aceptar plenamente la IA en roles creativos.
Un Futuro en Debate acerca de la industria del cine y la IA
“The Last Screenwriter” no es solo una película; es un espejo que refleja nuestras esperanzas y temores sobre el futuro de la creatividad. La colaboración entre humanos y máquinas está apenas comenzando, y esta película, aunque prohibida, marca un hito importante en esa evolución. La controversia que ha generado subraya la necesidad de un diálogo profundo sobre el papel de la inteligencia artificial en las artes.
En resumen, “The Last Screenwriter” no solo narra una historia intrigante, sino que también abre un nuevo capítulo en la relación entre tecnología y cine, uno que está lleno de debates y desafíos éticos. Será fascinante ver cómo esta dinámica continúa desarrollándose y qué nuevos horizontes nos esperan en la intersección de la inteligencia artificial y el séptimo arte.
Espero que esta versión cumpla con tus expectativas y resalte la controversia y prohibición debido al uso de inteligencia artificial.
Noticias
El Proyecto Stargate de OpenAI provoca reacciones de los directores ejecutivos de Microsoft y Meta
Pocas veces una frase capta tan perfectamente el estado del momento. Aquí tienes al CEO de Microsoft. Nadella Satya diciendo que “no está en los detalles” sobre Stargate, el proyecto de infraestructura de IA supuestamente multimillonario impulsado por su importante inversión, OpenAI.
El hecho de que Nadella no haya leído los detalles nebulosos de Stargate dice mucho sobre cuánto se han distanciado Microsoft y OpenAI. Microsoft se menciona en el comunicado de prensa de Stargate ya que los modelos de OpenAI siguen siendo exclusivos de Azure. Pero el aspecto más sorprendente de Stargate no es que aún no haya dinero para ello; es que el mayor patrocinador de OpenAI ha decidido no participar en lo que Sam Altman lo llama “el proyecto más importante de esta era”. Como dejó claro Nadella en CNBC esta semana, está ejecutando su propia construcción de infraestructura de IA por valor de 80 mil millones de dólares y, en el futuro, OpenAI puede obtener computación adicional, con su bendición, en otros lugares.
Si bien recibió menos titulares esta semana, encontré la respuesta de Nadella a Elon Musk en X aún más esclarecedor. En su respuesta a las palabras de Musk: “por otro lado, Satya definitivamente tiene el dinero”, Nadella respondió: “😂 ¡Y todo este dinero no se trata de promocionar la IA, sino de construir cosas útiles para el mundo real!”.
Esa publicación sólo puede interpretarse como una indirecta a Altman. Nadella podría haber financiado Stargate para OpenAI. No lo hizo. ¿Qué sabe él que el resto de nosotros no sabemos?
La llamativa presentación de Stargate en la Casa Blanca ciertamente logró su objetivo, que claramente era lograr que todos hablaran de grandes números. Los titulares que generó provocaron Mark Zuckerberg para asegurarnos de que todos terminaran la semana sabiendo su el centro de datos será parejo más grande que Stargate.
En una publicación del viernes en su página de Facebook, Zuckerberg dijo que el centro de datos de 2 GW planeado por Meta en Luisiana “es tan grande que cubriría una parte importante de Manhattan”, con una vista de mapa de los metros cuadrados superpuestos a la ciudad para enviar el punto a casa. .
De su publicación (mi énfasis es nuestro): “Poneremos en línea ~1GW de computación en el 25 y terminaremos el año con más de 1,3 millones de GPU. Estamos planeando invertir entre 60.000 y 65.000 millones de dólares en gastos de capital este año y, al mismo tiempo, aumentar significativamente nuestros equipos de IA. tenemos la capital seguir invirtiendo en los años venideros”.
No tengo ninguna duda de que Altman, Masayoshi hijoy Larry Ellison podrán recaudar los miles de millones que necesitan para disminuir la dependencia de OpenAI de Microsoft para la computación. (El gobierno de EE. UU. no está dando dinero a Stargate, lo que hace que la apariencia de anunciarlo junto con Trump sea aún más extraña). En última instancia, todo esto apunta al tema que rápidamente definirá 2025: las grandes empresas tecnológicas ven la IA como la tecnología más tecnología existencial de la era venidera y seguirá gastando muchísimo para asegurarse de que OpenAI no se salga con la suya por completo.
AMA con spez
Pocas empresas tuvieron un 2024 tan bueno como Reddit. Desde que salió a bolsa en marzo pasado, las acciones de la compañía se han disparado un 300 por ciento, dando a la red social una valoración de 32 mil millones de dólares.
Es un cambio radical con respecto a Reddit antes de salir a bolsa, cuando sus moderadores estaban furiosos contra sus apresurados cambios de plataforma y hubo una reacción violenta por la venta de datos de la compañía a Google y OpenAI.
Con esas controversias ahora aparentemente en el espejo retrovisor, Reddit se centra en hacer crecer su base de usuarios, mantenerse rentable y utilizar la inteligencia artificial para ayudar a las personas a buscar en su sitio más fácilmente. Me reuní con el director ejecutivo Steve Huffman en CES hace unas semanas para escuchar sus prioridades para 2025, cómo lidera Reddit, su opinión sobre el debate sobre la escala de la IA, la moderación de contenido y más…
La siguiente entrevista ha sido editada para mayor extensión y claridad:
A su IPO le fue muy bien. ¿Cómo han sido para usted personalmente los últimos nueve meses?
En Reddit tenemos un dicho que dice que buenos números hacen buenas reuniones. Así que hemos tenido algunas buenas reuniones.
La preparación para salir a bolsa fue intensa. Es contar la historia una y otra vez, lo cual disfruto hacer, pero requiere mucho trabajo. Creo que, más que la mayoría de las empresas nuevas, ya estamos en el ritmo de las empresas públicas: cerrar el trimestre, hacer las auditorías, realizar la reunión de la junta directiva, las ganancias y todo eso. Entonces no ha sido un cambio importante para nosotros desde el punto de vista operativo.
Es un momento realmente emocionante para los nuevos inversores y empleados. No nos pillarás quejándonos. Lo que sigo diciéndole a la empresa es que todos deberían estar muy orgullosos del trabajo que han realizado y no dar por sentado estos momentos. Sólo les digo, miren, disfruten la vista. Si miras nuestra historia, hay muchos altibajos. Sin duda hay desafíos en nuestro futuro.
Con su capitalización de mercado donde se encuentra ahora, ¿está pensando en hacer cambios que no pensó que podría hacer hace un año?
Hay dos clases de cosas que haríamos. Una es ejecutar la estrategia central. Tenemos que contratar. Tenemos que construir. Creo que somos muy razonables en términos del tamaño de nuestra inversión. La estrategia de una frase para nosotros es hacer crecer el producto y seguir siendo rentable.
¿Qué se puede hacer con un precio de acción alto? Tal vez pueda considerar fusiones y adquisiciones que de otro modo no haría. Yo diría que esa no es realmente nuestra orientación en este momento porque las adquisiciones que hemos realizado en los últimos dos años han sido acuerdos de entre 25 y 50 millones de dólares. Es un punto ideal para nosotros conseguir tecnología y equipos. Yo diría que siempre estamos observando el mercado, pero no estamos persiguiendo nada grande o loco en este momento porque me gusta la estrategia central. Creo que podemos hacer lo que queremos dentro de nuestras capacidades actuales.
¿Cuál es el principal producto centrado en Reddit este año?
El primero es el núcleo de Reddit, que son las conversaciones comunitarias. Todo el mundo tiene un hogar en Reddit, pero ¿ves ese hogar en tu primera sesión? Hay otra dimensión completamente diferente en nuestro trabajo, que es Reddit como fuente de información. Reddit tiene toda esta increíble información. Para los usuarios que tienen una pregunta que necesita una respuesta, ¿podemos darles esa respuesta? Acabamos de empezar a probar Reddit Answers. Esto me resulta muy útil para búsquedas sobre eventos actuales. Dentro de un año, será un producto de monetización. Es uno de los pocos productos que elimina cada picazón, por lo que será un gran foco de atención.
¿Qué opinas de este debate sobre si la industria de la IA se ha quedado sin datos?
Creo que tendríamos una respuesta diferente a esa pregunta literalmente cada mes. Queremos tener buenas relaciones con otras personas en este espacio. Estamos abiertos al público.
Al mismo tiempo, queremos maximizar el valor que obtenemos de nuestros propios datos. No hemos experimentado ningún conflicto entre los dos en este momento. me encanta el [data licensing] relaciones que tenemos, las principales son Google y OpenAI. En este punto, no necesitamos hacer ninguna asociación en particular. Yo diría que es bueno tenerlos todos, pero nada es existencial para nosotros.
Uno de los desafíos es que las empresas de inteligencia artificial no saben qué producto están creando. No es nada malo. Se están iterando a sí mismos. El propio ChatGPT, el producto central de esta conversación, fue una demostración. Luego, un año después, es la pieza de tecnología empresarial más importante del mundo con una economía cuestionable. Eso lo hace muy emocionante. No creo que ninguna de estas empresas se ofenda al escucharme decir eso.
Fuiste uno de los primeros directores ejecutivos de redes sociales que vi muy crítico con TikTok. ¿Cómo afecta a Reddit una prohibición estadounidense?
Si observa el gráfico de tráfico de Reddit durante los últimos 19 años, no verá el ascenso ni la caída de ninguna plataforma en particular. Creo que todos los tipos de contenido deberían funcionar en Reddit. El vídeo en Reddit es en gran medida una cámara de salida (lo que estoy viendo) en lugar de una cámara de entrada, o ¿quién soy yo? Eso son las redes sociales. Creo que la prohibición es lo correcto por las razones que he mencionado y que, sinceramente, no tienen nada que ver con la competencia.
Con los cambios de moderación de Meta, la conversación más amplia en torno a las redes sociales parece estar cambiando en este momento.
Durante los últimos 10 años, la gente ha estado hablando sobre si el habla es el problema, lo cual es una idea descabellada. No se puede tener libertad sin expresión. Creo que ese desvío a través del cuestionamiento y relitigio de los valores fundamentales de Estados Unidos, ojalá esa era esté llegando a su fin.
¿La gente está jugando a la política? Por supuesto, la gente siempre lo es. En cuanto al tema de la moderación, siempre intentamos hacer las cosas de la manera correcta, que, no por casualidad, esté alineada con los valores estadounidenses. Es una plataforma demócrata. Creemos mucho en el poder de las personas y en la sabiduría de las multitudes y los procesos de votación. Eso es Reddit. Así que me alegra ver un regreso a donde hemos estado la mayor parte de mi vida, que es un aprecio por la libertad de expresión.
En otra parte
- Los competidores se lanzan a TikTok: Dado que TikTok ya no está disponible en las tiendas de aplicaciones de EE. UU. y su funcionalidad dentro de la aplicación está técnicamente limitada, todos están haciendo todo lo posible para aprovechar la situación. Meta anunció previamente a su competidor Capcut y está tratando de atraer a los creadores con dinero en efectivo. Substack, Bluesky y X están tomando medidas para fomentar un mayor consumo de vídeos. Mientras tanto, el presidente Trump dice que está de acuerdo con Elon Musk o Larry Ellison comprándolo. ByteDance dice que quiere llegar a un acuerdo, pero parece cada vez más arrinconado. Ellison puede tener la garantía de que Oracle no será multado por violar la ley en este momento, pero Apple y Google han demostrado que van a seguir la ley al pie de la letra. Dado que TikTok aún no está disponible para descargar en los EE. UU., su amenaza competitiva para Meta, YouTube y otros disminuye cada día.
- Trump se pone a trabajar para las grandes tecnológicas: ¿Por qué Zuckerberg y otros directores ejecutivos se arrodillan? No hay que mirar más allá de los comentarios que hizo el presidente en el Foro Económico Mundial esta semana, donde criticó las Leyes de Servicios y Mercados Digitales de la UE como una forma de “impuestos”. Este tipo de retroceso es exactamente por lo que Meta y otras empresas estadounidenses han estado orando. Veremos si les funciona.
- Más titulares: OpenAI lanzó su agente de IA llamado “Operador” para suscriptores de nivel profesional… Musk dijo a los empleados de X que “el crecimiento de usuarios está estancado, los ingresos no son impresionantes y apenas estamos alcanzando el punto de equilibrio”…. Apple se reorganizó nuevamente mientras busca ponerse al día en IA… Google está invirtiendo otros mil millones de dólares en Google Cloud a través de Anthropic y adquirió parte del equipo Vive de HTC para reforzar sus esfuerzos con Android XR (sí, prepárense para el regreso de Glass)… Epic Games dio una actualización sobre su impulso para competir con Roblox… Meta hizo una inversión excepcional en Databricks.
Más enlaces
- ¿Qué llevó a que DOGE se peleara entre Vivek Ramaswamy y Elon Musk.
- Un perfil de DeepSeek, la empresa china que tiene a varios directores ejecutivos preocupados por cuánto gastan en modelos.
- Dan Shipper’s Experiencia práctica en el uso del agente operador de OpenAI.
- El conjunto de datos de IA del “Último examen de la humanidad”.
- Brian Armstrong conclusiones de Davos.
- Un denunciante afirma que el acuerdo de 400 millones de dólares de Amazon por la mayor parte de Covariant AI fue una “adquisición inversa” diseñada para evitar el escrutinio antimonopolio.
- Nvidia es la principal empresa de tecnología en la última lista de Glassdoor de los mejores lugares para trabajar.
- El auge del podcast MAGA-bro.
Si aún no lo has hecho, no olvides suscribirte a El bordeque incluye acceso ilimitado a Línea de comandotodos nuestros informes y una experiencia publicitaria mejorada en la web.
Como siempre, quiero saber de usted, especialmente si su centro de datos está incluso grander. Responda aquí y me comunicaré con usted o envíeme un ping de forma segura en Signal.
Noticias
OpenAI: extender el modelo ‘tiempo de pensamiento’ ayuda a combatir las vulnerabilidades cibernéticas emergentes
Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información
Por lo general, los desarrolladores se centran en reducir el tiempo de inferencia, el período entre cuando la IA recibe un aviso y proporciona una respuesta, para obtener información más rápida.
Pero cuando se trata de robustez adversa, los investigadores de Operai dicen: no tan rápido. Proponen que aumentar la cantidad de tiempo que un modelo tiene que “pensar”, la inferencia de tiempo calculador, puede ayudar a acumular defensas contra ataques adversos.
La compañía utilizó sus propios modelos O1 previa y O1-Mini para probar esta teoría, lanzando una variedad de métodos de ataque estáticos y adaptativos: manipulaciones basadas en imágenes, proporcionando intencionalmente respuestas incorrectas a problemas matemáticos y modelos abrumadores con información (“Many- disparó jailbreaking ”). Luego midieron la probabilidad de éxito del ataque en función de la cantidad de cálculo el modelo utilizado en la inferencia.
“Vemos que en muchos casos, esta probabilidad decae, a menudo a casi cero, a medida que crece el cálculo de la inferencia de tiempo”, escriben los investigadores en una publicación de blog. “Nuestra afirmación no es que estos modelos particulares sean inquebrantables, sabemos que lo son, sino que la escala de la inferencia de tiempo produce una mayor robustez para una variedad de entornos y ataques”.
De Q/A simple a Matemáticas complejas
Los modelos de idiomas grandes (LLM) se están volviendo cada vez más sofisticados y autónomos, en algunos casos esencialmente se apoderan de las computadoras para que los humanos naveguen por la web, ejecutan código, realicen citas y realicen otras tareas de forma autónoma, y a medida que lo hacen, su superficie de ataque se vuelve más amplia y más amplia cada más expuesto.
Sin embargo, la robustez adversa continúa siendo un problema terco, con el progreso en la resolución de que aún limitado, señalan los investigadores de OpenAI, incluso cuando es cada vez más crítico, ya que los modelos adquieren más acciones con impactos del mundo real.
“Asegurar que los modelos de agente funcionen de manera confiable al navegar por la web, enviar correos electrónicos o cargar código a repositorios pueden verse como análogos para garantizar que los automóviles autónomos conduzcan sin accidentes”, escriben en un nuevo trabajo de investigación. “Como en el caso de los automóviles autónomos, un agente que reenvía un correo electrónico incorrecto o la creación de vulnerabilidades de seguridad puede tener consecuencias de gran alcance del mundo real”.
Para probar la robustez de O1-Mini y O1 previa, los investigadores probaron una serie de estrategias. Primero, examinaron la capacidad de los modelos para resolver problemas matemáticos simples (adición básica y multiplicación) y más complejos del conjunto de datos de matemáticas (que presenta 12,500 preguntas de las competiciones de matemáticas).
Luego establecen “objetivos” para el adversario: hacer que el modelo salga 42 en lugar de la respuesta correcta; para generar la respuesta correcta más una; o emitir los tiempos de respuesta correctos siete. Utilizando una red neuronal para calificar, los investigadores encontraron que un aumento en el tiempo de “pensamiento” permitió a los modelos calcular las respuestas correctas.
También adaptaron el punto de referencia de facturidad SimpleQA, un conjunto de datos de preguntas destinadas a ser difíciles de resolver para los modelos sin navegar. Los investigadores inyectaron indicaciones adversas a las páginas web que la IA navegó y descubrió que, con tiempos de cómputo más altos, podían detectar inconsistencias y mejorar la precisión objetiva.
Matices ambiguos
En otro método, los investigadores utilizaron imágenes adversas para confundir modelos; Nuevamente, más tiempo de “pensar” mejoró el reconocimiento y el error reducido. Finalmente, probaron una serie de “indicaciones de uso indebido” del punto de referencia Strongenject, diseñado para que los modelos de víctimas deben responder con información específica y dañina. Esto ayudó a probar la adherencia de los modelos a la política de contenido. Sin embargo, si bien un mayor tiempo de inferencia mejoró la resistencia, algunas indicaciones pudieron eludir las defensas.
Aquí, los investigadores llaman las diferencias entre tareas “ambiguas” y “inequívocas”. Las matemáticas, por ejemplo, son indudablemente inequívocas: para cada problema X, hay una verdad terrestre correspondiente. Sin embargo, para tareas más ambiguas como las indicaciones de uso indebido, “incluso los evaluadores humanos a menudo luchan por acordar si la producción es dañina y/o viola las políticas de contenido que se supone que debe seguir el modelo”, señalan.
Por ejemplo, si un aviso abusivo busca consejos sobre cómo plagiar sin detección, no está claro si un resultado que simplemente proporciona información general sobre métodos de plagio es realmente lo suficientemente detallado como para apoyar acciones dañinas.
“En el caso de las tareas ambiguas, hay entornos en los que el atacante encuentra con éxito las ‘lagunas’, y su tasa de éxito no se descompone con la cantidad de cómputo de tiempo de inferencia”, reconocen los investigadores.
Defender contra Jailbreaking, Red Teaming
Al realizar estas pruebas, los investigadores de OpenAI exploraron una variedad de métodos de ataque.
Uno es una gran cantidad de jailbreak, o explotando la disposición de un modelo para seguir ejemplos de pocos disparos. Los adversarios “llenan” el contexto con una gran cantidad de ejemplos, cada uno demostrando una instancia de un ataque exitoso. Los modelos con tiempos de cómputo más altos pudieron detectarlos y mitigarlos con mayor frecuencia y con éxito.
Mientras tanto, los tokens blandos permiten a los adversarios manipular directamente los vectores de incrustación. Si bien el tiempo de inferencia creciente ayudó aquí, los investigadores señalan que existe la necesidad de mejores mecanismos para defenderse de ataques sofisticados basados en vectores.
Los investigadores también realizaron ataques de equipo rojo humano, con 40 evaluadores expertos que buscan indicaciones para obtener violaciones de políticas. Los equipos rojos ejecutaron ataques en cinco niveles de tiempo de tiempo de inferencia, específicamente dirigidos al contenido erótico y extremista, el comportamiento ilícito y la autolesión. Para ayudar a garantizar resultados imparciales, hicieron pruebas ciegas y aleatorias y también entrenadores rotados.
En un método más novedoso, los investigadores realizaron un ataque adaptativo del Programa de Modelo del Lenguaje (LMP), que emula el comportamiento de los equipos rojos humanos que dependen en gran medida de la prueba y el error iterativo. En un proceso de bucle, los atacantes recibieron comentarios sobre fallas anteriores, luego utilizaron esta información para intentos posteriores y una nueva reformulación. Esto continuó hasta que finalmente lograron un ataque exitoso o realizaron 25 iteraciones sin ningún ataque.
“Nuestra configuración permite al atacante adaptar su estrategia en el transcurso de múltiples intentos, basados en descripciones del comportamiento del defensor en respuesta a cada ataque”, escriben los investigadores.
Explotando el tiempo de inferencia
En el curso de su investigación, OpenAi descubrió que los atacantes también están explotando activamente el tiempo de inferencia. Uno de estos métodos que llamaron “piensan menos”: los adversarios esencialmente les dicen a los modelos que reduzcan el cálculo, lo que aumenta su susceptibilidad al error.
Del mismo modo, identificaron un modo de falla en los modelos de razonamiento que denominaron “nerd Sniping”. Como su nombre lo indica, esto ocurre cuando un modelo pasa significativamente más razonamiento de tiempo de lo que requiere una tarea determinada. Con estas cadenas de pensamiento “atípicas”, los modelos esencialmente quedan atrapados en bucles de pensamiento improductivos.
Nota de los investigadores: “Al igual que el ataque de ‘piense menos’, este es un nuevo enfoque para el ataque[ing] modelos de razonamiento, y uno que debe tenerse en cuenta para asegurarse de que el atacante no pueda hacer que no razonen en absoluto o gaste su razonamiento calculando de manera improductiva “.
Noticias
California está investigando la conversión de Openai a una empresa con fines de lucro
El fiscal general del estado preguntó a la compañía cómo planea transferir activos de su organización caritativa sin fines de lucro.
Manténgase actualizado con informes gratuitos sobre temas que importan a todos los californianos. Suscríbase a Calmatters hoy para obtener noticias sin fines de lucro en su bandeja de entrada.
Como parte de lo que describió como una investigación en curso, la Oficina del Fiscal General de California ha solicitado respuestas de Operai sobre su plan informado para convertir a una corporación con fines de lucro y cómo tiene la intención de transferir activos de su organización sin fines de lucro existente.
En una carta enviada al fabricante de chatgpt el 6 de diciembre, el fiscal general adjunto Christopher Lamerdin citó cláusulas en los artículos de incorporación de OpenAi bajo los cuales “los activos de OpenAi están irrevocablemente dedicados a su propósito caritativo”, como lo expresó Lamerdin, así como la responsabilidad de la oficina, como la responsabilidad de la oficina, como la responsabilidad de la oficina, como la responsabilidad de la oficina, como la responsabilidad de la oficina, como la responsabilidad de la oficina, como la responsabilidad de la oficina, así como la responsabilidad de la oficina, así como la responsabilidad de la oficina. para proteger los activos mantenidos en la confianza caritativa “. Además de preguntar sobre las transferencias de activos, buscó información sobre el plan de reestructuración de OpenAI y el valor de sus activos.
La oficina del abogado general dijo a Calmatters en un correo electrónico: “El Departamento de Justicia está comprometido a proteger los activos caritativos para su propósito previsto y toma esta responsabilidad en serio”.
La carta solicitó una respuesta de Openai antes del 8 de enero. Preguntó si el Fiscal General recibió dicha respuesta, escribió un portavoz: “Para proteger su integridad, no podemos comentar sobre una investigación en curso”.
Operai no respondió preguntas sobre el registro sobre la carta o su estructura como organización.
Permitir que la organización sin fines de lucro OpenAi reutilice sus activos para obtener ganancias y atraer a los inversores podría establecer un precedente peligroso, argumentan los críticos, lo que permite a las nuevas empresas disfrutar de las escrituras fiscales de las organizaciones sin fines de lucro, incluso cuando pretenden eventualmente convertirse en empresas capitalistas altamente lucrativas.
El debate sobre la reestructuración comercial de Openai llega en un momento en que la compañía intenta aumentar su influencia. Operai aumentó el gasto en el lobby del Congreso siete veces el año pasado, y por primera vez contrató a los cabilderos para oponerse a los proyectos de ley para regular la IA en Sacramento.
En septiembre, Reuters informó que OpenAI movería el control de su negocio principal de su organización sin fines de lucro a una corporación de beneficios público con fines de lucro. En noviembre, Bloomberg informó que Operai estaba en conversaciones con el Fiscal General de California sobre el turno.
La compañía confirmó a fines de diciembre que estaba considerando una nueva estructura y planeaba establecer una corporación de beneficios públicos con fines de lucro, aunque no se detuvo en decir que planeaba mover el control a la entidad con fines de lucro.
Openai fue fundada a fines de 2015 con el respaldo de miembros de “Mafia de PayPal” como el cofundador de Linkedin, Reid Hoffman, y el CEO de Tesla, Elon Musk. Originalmente, una organización sin fines de lucro se centró en beneficiar a la humanidad a través de la investigación de la inteligencia general artificial, creó cuatro años después un brazo con fines de lucro para parecer más atractivo para los inversores y verter miles de millones de dólares en los recursos informáticos para capacitar a los poderosos sistemas de IA. Se entiende que las ganancias que fluyen a esa parte de la empresa y sus inversores están limitados, creando una barrera para la recaudación de fondos. Una disputa entre los brazos sin fines de lucro y con fines de lucro de OpenAi entró en la abierta a fines de 2023 luego de un esfuerzo de la junta sin fines de lucro para expulsar al cofundador y CEO Sam Altman, lo que llevó a un ultimátum de una mayoría de empleados, que amenazaron con renunciar si Altman no fue reinstalado.
Desde entonces, Openai cerró una ronda de financiación de $ 6.6 mil millones y, a principios de esta semana, junto con el presidente Trump en la Casa Blanca, anunció el Proyecto Stargate, una empresa conjunta de $ 500 mil millones para construir centros de datos e infraestructura energética que las compañías como OpenAI dicen que es necesaria para capacitar a Grandes modelos de IA.
El fiscal general de California, Rob Bonta, el 12 de diciembre se instó en una carta de Meta a evitar que Operai se convierta en una compañía con fines de lucro, según el Wall Street Journal, y Meta argumentó que tal precedente podría tener “implicaciones sísmicas para la silicio Valle “al permitir que las nuevas empresas disfruten de un estado fiscal sin fines de lucro privilegiado hasta que comiencen a ganar dinero. Musk ha tratado de bloquear la conversión como parte de una demanda contra Operai presentada el verano pasado.
Después de que la junta sin fines de lucro Operai despidió a Altman en 2023, el grupo de defensa del consumidor sin fines de lucro Public Citizen argumentó repetidamente en cartas a los abogados generales en California, donde OpenAi tiene su sede, y Delaware, donde OpenAi presentó artículos de incorporación, que deberían investigar la organización. El copresidente de Public Citizen, Robert Weissman, escribió que OpenAi no estaba operando como una organización sin fines de lucro, debería perder su estado sin fines de lucro y ser obligado a operar como un negocio con fines de lucro, y que cualquier entidad con fines de lucro que suponga el control de OpenAI debe pagar una prima por ese control a una organización sin fines de lucro completamente separada de OpenAI.
El precedente de este enfoque proviene de Blue Cross of California, que, después de una transferencia de activos a una subsidiaria con fines de lucro en la década de 1990, dio más de $ 3 mil millones en acciones a dos fundaciones.
Es difícil decir con precisión cuánto vale tal prima cuando se trata de OpenAi, pero un día antes de la ronda de financiamiento de $ 6 mil millones de Openai en octubre pasado, Weissman estimó que vale al menos $ 30 mil millones.
El proyecto de Stargate, Weissman, dijo a Calmatters: “Es más evidencia de que la organización sin fines de lucro de OpenAi realmente no existe como un organismo independiente, que la junta sin fines de lucro de OpenAi no está ejerciendo ninguna autoridad significativa sobre las ganancias, y ni siquiera está tomando en serio su en serio. misión sin fines de lucro “.
Weissman quiere ver que el Fiscal General investigue cuánta de una prima necesitaría pagar un OpenAI con fines de lucro y cómo esa valoración se relaciona con la propiedad intelectual propiedad de OpenAI y empresas y subsidiarias vinculadas a OpenAI.
“La Oficina del Fiscal General de California es un regulador serio de organizaciones sin fines de lucro, y no hay forma de que esta escala se desvíe de una organización sin fines de lucro sin una cuidadosa revisión por parte del Fiscal General de California”, dijo Weissman a Calmatters. “Esperamos que lleguen a conclusiones que rastrean [with] Lo que hemos estado discutiendo durante el último año y medio ”.
Levi Sumagaysay contribuyó a esta historia.