Noticias
Sora es el bot más publicitado desde ChatGPT
Durante más de dos años, cada nuevo anuncio de IA ha vivido a la sombra de ChatGPT. Ningún modelo de ninguna empresa ha eclipsado o igualado esa fiebre inicial. Pero quizás lo más cerca que alguna empresa estuvo de replicar el rumor fue en febrero pasado, cuando OpenAI mostró por primera vez su modelo de IA de generación de video, Sora. Clips tentadores (mamuts lanudos levantando nubes de nieve, animaciones al estilo Pixar de adorables bichos esponjosos) prometían un futuro deslumbrante, uno en el que cualquiera puede crear clips de alta calidad escribiendo mensajes de texto simples en un programa de computadora.
Pero Sora, que no estuvo inmediatamente disponible para el público, se quedó sólo en eso: un adelanto. La presión sobre OpenAI ha aumentado. En los meses intermedios, varias otras empresas tecnológicas importantes, incluidas Meta, Google y Amazon, han presentado sus propios modelos de generación de vídeos. Hoy, OpenAI finalmente respondió. “Este es un lanzamiento que hemos estado entusiasmando durante mucho tiempo”, dijo el director ejecutivo de la nueva empresa, Sam Altman, en un vídeo de anuncio. “Vamos a lanzar Sora, nuestro producto de vídeo”.
En el anuncio, la compañía dijo que los suscriptores pagos de ChatGPT en los Estados Unidos y varios otros países podrán usar Sora para generar sus propios videos. A diferencia de los modelos de generación de vídeos de otras empresas de tecnología, que siguen siendo vistas previas o están disponibles únicamente a través de plataformas empresariales en la nube, Sora es el primer producto de generación de vídeos que una importante empresa de tecnología pone directamente en manos de los usuarios. Los chatbots y los generadores de imágenes como DALL-E de OpenAI ya han hecho que cualquiera pueda crear y compartir contenido detallado en tan solo unos segundos, amenazando industrias enteras y precipitando cambios profundos en la comunicación en línea. Ahora, la era de los modelos de IA que generan videos hará que esos cambios sean más profundos, rápidos y extraños.
La palabra clave de OpenAI esta tarde fue producto. La compañía está presentando a Sora no como un avance en la investigación sino como una experiencia para el consumidor, parte de la continua sacudida comercial de la compañía. En su fundación, en 2015, OpenAI era una organización sin fines de lucro con la misión de desarrollar inteligencia digital “para beneficiar a la humanidad en su conjunto, sin las limitaciones de la necesidad de generar retorno financiero”. Hoy en día, produce productos y acuerdos comerciales como cualquier otra empresa de tecnología que busca ingresos. OpenAI agregó una rama con fines de lucro en 2019 y, a partir de septiembre, supuestamente está considerando revocar por completo el control de su junta sin fines de lucro. El marketing de Sora supone incluso un cambio respecto a febrero, cuando OpenAI presentó el modelo de generación de vídeo como un paso hacia la elevada misión de la empresa de crear tecnología más inteligente que los humanos. Bill Peebles, uno de los investigadores principales de Sora, me dijo en mayo que el video permitiría “un par de vías hacia AGI”, o inteligencia artificial general, al permitir que los programas de la compañía simulen la física e incluso los pensamientos humanos. Para generar un vídeo de un partido de fútbol, es posible que Sora necesite modelar tanto la aerodinámica como la psicología de los jugadores.
Mientras tanto, el anuncio de hoy fue precedido por una reseña de Marques Brownlee, un YouTuber famoso por sus reseñas de dispositivos como iPhones y cascos de realidad virtual. Altman llevaba una sudadera con capucha adornada con la palabra sora. Altman y el equipo de producto de Sora hablaron durante más de 17 minutos; Peebles y otro investigador hablaron durante un minuto y 45 segundos, principalmente elogiando cómo la compañía está lanzando una versión “turbo” de Sora que es “mucho más rápida y más barata” para lanzar una “nueva experiencia de producto”.
El lanzamiento de Sora se produce en el tercero de los “12 días de OpenAI”, un período de lanzamiento o demostración de un nuevo producto para los usuarios todos los días. Lo que la compañía ha anunciado ciertamente se parece más a un producto que a un avance en informática: una interfaz elegante para crear y editar videos, con funciones como “Remix”, “Loop” y “Blend”. Hasta ahora, muchas de las producciones de Sora han sido impresionantes, incluso asombrosas. La compañía no ha creado un bot nuevo y más inteligente sino una interfaz al estilo de iMovie y Premiere Pro.
Los videos que el personal de OpenAI y los usuarios de acceso temprano generaron con Sora ya están llegando a las redes sociales, y seguirá una avalancha de usuarios de todo el mundo. Durante más de dos años, modelos de IA generativa baratos y fáciles de usar han convertido a todos en ilustradores potenciales; Pronto cualquiera podría convertirse también en animador. Esto plantea una amenaza obvia para los ilustradores y animadores humanos, muchos de los cuales llevan mucho tiempo dando la alarma contra la IA generativa que les quita el sustento. Sora y programas similares también plantean el espectro de campañas de desinformación. (Los videos de Sora vienen con una marca de agua visual, pero con el nivel más alto de suscripción de OpenAI, que cuesta $200 al mes, los clientes pueden crear clips sin una).
Pero el desplazamiento laboral y la desinformación pueden no ser las consecuencias más inmediatas o significativas del tercer día de OpenAI. Ambos estaban sucediendo sin Sora, incluso si el programa acelera cada problema: los estudios de producción ya estaban experimentando con productos de inteligencia artificial empresarial para generar videos, como un reciente comercial navideño de Coca-Cola. Y los métodos baratos y de baja tecnología para crear y difundir información falsa han tenido mucho éxito por sí solos.
Lo que la adopción masiva de productos de inteligencia artificial que generan videos podría cambiar significativamente es la forma en que las personas se expresan en línea. Durante el año pasado, memes, dibujos animados, caricaturas y otras imágenes generadas por IA, a veces llamadas “bazobra”, han saturado Internet. Este contenido, en gran parte claramente generado por IA en lugar de destinado a engañar (un medio de autoexpresión burdo, no un subterfugio sofisticado), puede haber sido el mayor impacto de la tecnología en las elecciones presidenciales de 2024. El hecho de que cualquiera pueda generar tales imágenes proporciona una manera de expresar inmediatamente sentimientos incipientes sobre un mundo incipiente a través de una imagen inmediatamente digerible. Como ha escrito mi colega Charlie Warzel, dicho contenido debe consumirse “de forma fugaz y con poca o ninguna reflexión más allá de la respuesta inicial del sistema límbico”.
Una avalancha de videos generados por IA podría proporcionar formas aún más poderosas de comunicar visualmente confusión, sentimientos cargados o propaganda persuasiva; tal vez una versión mucho más realista del reciente video de baja calidad generado por IA de Donald Trump y Jill Biden en un pelea a puñetazos, por ejemplo. Sora podría hacerse cargo de TikTok y plataformas similares de videos cortos justo cuando los modelos de generación de imágenes de IA han deformado Facebook y alterado la forma en que las personas muestran su apoyo en X a los candidatos políticos.
La adquisición de la web por parte de Sora no está garantizada. En mayo, Tim Brooks, otro investigador de Sora que desde entonces se unió a Google, comparó el estado actual del programa con GPT-1, la primera versión de los programas subyacentes a ChatGPT, que actualmente se encuentran en su cuarta generación. OpenAI repitió la analogía hoy. Esa comparación se ha roto a medida que la empresa se ha vuelto cada vez más orientada a las ganancias: GPT-1 fue una investigación altamente preliminar, un concepto antes de una prueba de concepto, y faltaron cuatro años para el lanzamiento de ChatGPT. Puede que Sora esté tan poco desarrollado como una vía para AGI, pero se ha convertido en un producto completo casi 10 meses después de que OpenAI se burlara del modelo. Es posible que una tecnología en etapa temprana no suponga un progreso significativo hacia la curación del cáncer, la solución de la crisis climática u otras formas en que la empresa emergente ha afirmado que la IA podría beneficiar a la humanidad en su conjunto. Pero podría ser todo lo que OpenAI necesita para mejorar sus resultados.
Noticias
La mamá de Suchir Balaji habla sobre su vida, muerte y opiniones sobre OpenAI
- El ex empleado de OpenAI, Suchir Balaji, alegó que la startup viola las leyes de derechos de autor.
- Su muerte en noviembre reavivó un debate sobre cómo las principales empresas de inteligencia artificial afectan a la humanidad.
- En una entrevista con BI, la madre de Balaji compartió sus esperanzas iniciales sobre la IA y por qué se frustraron.
En octubre, Suchir Balaji causó sensación cuando habló en contra de OpenAI.
En una entrevista con The New York Times, habló de cómo las poderosas empresas de inteligencia artificial podrían estar infringiendo las leyes de derechos de autor.
Los modelos de OpenAI se entrenan con información de Internet. Balaji ayudó a recopilar y organizar esos datos, pero llegó a sentir que la práctica era injusta. Renunció en agosto. Y en noviembre, los abogados del NYT lo nombraron como alguien que podría tener “documentos únicos y relevantes” para su caso de infracción de derechos de autor contra OpenAI.
“Si crees en lo que yo creo, simplemente tienes que irte”, dijo al Times.
El 26 de noviembre, el joven ingeniero fue encontrado muerto en su apartamento. La tragedia tocó una fibra sensible, avivando teorías de conspiración, dolor y debate. ¿Qué perdemos cuando ganan los modelos de IA?
En una entrevista exclusiva con Business Insider, la madre de Balaji, Poornima Ramarao, ofreció pistas.
Balaji se unió a OpenAI debido al potencial de la IA para hacer el bien, dijo. Al principio, le encantó que los modelos fueran de código abierto, es decir, que estuvieran disponibles gratuitamente para que otros los usaran y estudiaran. A medida que la empresa adquirió más impulso financiero y se lanzó ChatGPT, esas esperanzas se desvanecieron. Balaji pasó de creer en la misión a temer sus consecuencias para los editores y la sociedad en su conjunto, dijo a BI.
“Sintió que la IA es perjudicial para la humanidad”, dijo Ramarao.
Un portavoz de OpenAI compartió que Balaji era un miembro valioso del equipo y que su fallecimiento afectó profundamente a quienes trabajaron estrechamente con él.
“Quedamos devastados al enterarnos de esta trágica noticia y nos hemos puesto en contacto con la familia de Suchir para ofrecerles todo nuestro apoyo durante este momento difícil”, escribió el portavoz en un comunicado. “Nuestra prioridad es seguir haciendo todo lo posible para ayudarles”.
“Nos dimos cuenta de sus preocupaciones por primera vez cuando The New York Times publicó sus comentarios y no tenemos constancia de ninguna interacción adicional con él”, añadió el portavoz de OpenAI. “Respetamos su derecho y el de otros a compartir opiniones libremente. Nuestros corazones están con los seres queridos de Suchir y extendemos nuestro más sentido pésame a todos los que están de luto por su pérdida”.
Reclutado por OpenAI
Cuando era niño, el padre de Balaji pensaba que era “más que el promedio”, dijo Ramarao. Pero ella pensaba que su hijo era un prodigio. A los dos años ya podía formar oraciones complejas, recordó.
“Cuando era niño, cuando tenía cinco años, nunca cometió errores. Era perfecto”, dijo Ramarao.
A los 11 años, empezó a aprender a codificar utilizando Scratch, un lenguaje de programación dirigido a niños. Pronto, le estaba haciendo a su madre, que es ingeniera de software, preguntas que se le pasaban por alto. A los 13 años construyó su propia computadora. A los 14 años, escribió un artículo científico sobre diseño de chips.
“Papá decía: no te concentres demasiado. No lo presiones demasiado”, dijo Ramarao.
Cambiaron de distrito escolar para encontrarle más desafíos. En su último año, fue el campeón estadounidense en un concurso nacional de programación para estudiantes de secundaria, lo que lo llevó a ser reclutado, a los 17 años, por Quora, el popular foro en línea para compartir conocimientos. Su madre estaba en contra, así que le mintió sobre la solicitud. Pero tuvo que confesar el primer día de trabajo porque todavía no sabía conducir.
“Tuve que llevarlo a su oficina en Mountain View”, dijo Ramarao.
Le preocupaba cómo manejaría él a “tantos adultos”, pero hizo amigos con quienes jugar al póquer y disfrutó de la abundante cafetería de Quora.
Lo vio como una lección para aprender a confiar en su Balaji.
“Entonces entendí, está bien, mi hijo es realmente una persona avanzada. No puedo ser un obstáculo para él”, dijo Ramarao.
Después de trabajar durante aproximadamente un año, fue a UC Berkeley y pronto ganó 100.000 dólares en un desafío patrocinado por la TSA para mejorar sus algoritmos de control de pasajeros.
Todo fue suficiente para ser reclutado por OpenAI. Hizo una pasantía en la empresa en 2018, según su LinkedIn, luego se unió a tiempo completo en 2021 después de graduarse.
Un destacado temprano
Durante sus casi cuatro años en OpenAI, Balaji se destacó y eventualmente hizo contribuciones significativas a los métodos de capacitación e infraestructura de ChatGPT, escribió John Schulman, cofundador de OpenAI, en una publicación en las redes sociales sobre Balaji.
“Pensaba en los detalles de las cosas cuidadosa y rigurosamente. Y también tenía una ligera vena contraria que lo hacía alérgico al ‘pensamiento de grupo’ y ansioso por encontrar dónde estaba mal el consenso”, dijo Schulman en la publicación. Schulman no respondió a las solicitudes de comentarios de BI.
Sin embargo, Balaji se había unido a la empresa en un momento crítico.
OpenAI comenzó como una organización sin fines de lucro en 2015 con la misión explícita de garantizar que la IA beneficiara a toda la humanidad. A medida que la startup se alejó de sus raíces de código abierto y sin fines de lucro, Balaji se preocupó más, dijo Ramarao.
Cuando lanzó ChatGPT públicamente en noviembre de 2022, reconsideró las implicaciones de derechos de autor, dijo.
A principios de ese año, una gran parte del papel de Balaji era recopilar datos digitales (de todos los rincones de Internet de habla inglesa) para GPT-4, un modelo que pronto impulsaría ChatGPT, según la entrevista del Times. Balaji pensó en esto como si fuera un proyecto de investigación.
Utilizar los datos de otras personas para la investigación era una cosa, escribió en un ensayo posterior. Usarlo para crear un producto que pudiera restar ingresos o tráfico a esos creadores era otra.
OpenAI no comentó sobre las preocupaciones de Balaji a Business Insider. Ante el tribunal, ha argumentado que la doctrina legal del “uso justo” protege cómo sus modelos ingieren contenido de Internet disponible públicamente.
“Demasiado ingenuo e inocente”
A finales de 2023 y principios de 2024, el entusiasmo de Balaji por OpenAI se había desvanecido por completo y comenzó a criticar al director ejecutivo Sam Altman en conversaciones con amigos y familiares, dijo Ramarao.
Solía decirle a su madre cuando estaba trabajando en “algo interesante”, pero cada vez más no tenía nada que decir sobre su trabajo, le dijo a BI.
Cuando renunció en agosto, Ramarao no insistió en el tema.
En octubre, cuando vio su explosiva entrevista con el Times, desató un torrente de ansiedad hacia Balaji. Al destacar lo que él pensaba que eran irregularidades corporativas, estaba asumiendo todo sobre sus hombros, dijo.
“Literalmente lo criticé”, dijo sobre su conversación. “‘No deberías ir solo. ¿Por qué diste tu fotografía? ¿Por qué diste tu nombre? ¿Por qué no permaneces en el anonimato? ¿Cuál es la necesidad de que proporciones tu fotografía?'”
“Tienes que ir en grupo. Tienes que ir junto con otras personas que tienen ideas afines. Luego dijo: ‘Sí, sí, sí. Me estoy conectando con personas de ideas afines. Estoy formando un equipo”. ”, continuó. “Creo que era demasiado ingenuo e inocente para comprender este sucio mundo empresarial”.
Los padres de Balaji piden una investigación
Cuando Balaji dejó OpenAI en agosto, se tomó un descanso.
“Él dijo: ‘No voy a aceptar otro trabajo. No me pregunten'”, dijo Ramarao.
Desde el punto de vista de los padres de Balaji, todo parecía estar bien con el joven codificador. Era financieramente estable, con suficientes acciones de OpenAI para comprar una casa algún día, dijo. Tenía planes de construir una organización sin fines de lucro de aprendizaje automático en el campo médico.
“Quería hacer algo por la sociedad”, dijo su madre.
El jueves 21 de noviembre, Balaji celebró su cumpleaños número 26 con amigos mientras estaba de vacaciones. Al día siguiente, le avisó a su mamá cuando despegó su vuelo a casa y habló con su papá por teléfono antes de cenar. Su papá le deseó un feliz cumpleaños y dijo que le enviaría un regalo.
Según Ramarao, el médico forense dijo que Balaji murió esa noche, o posiblemente a la mañana siguiente.
“Estaba optimista y feliz”, dijo. “¿Qué puede salir mal a las pocas horas de perder la vida?”
El sábado y el domingo, Ramarao no supo nada de su hijo. Ella pensó que tal vez había perdido su teléfono o había salido a caminar. Pero el lunes fue y llamó a su puerta. Él no respondió. Pensó en presentar una denuncia por desaparición. Pero, sabiendo que él tendría que ir en persona para quitárselo, dudó. “Él se enojará conmigo”, dijo sobre su pensamiento en ese momento.
A la mañana siguiente llamó a la policía de San Francisco. Encontraron su cuerpo poco después de la 1:00 p.m. PST, según un portavoz del departamento. Pero a Ramarao no le dijeron ni le permitieron entrar, dijo. Cuando los oficiales llegaron, ella les suplicó que verificaran si faltaban su computadora portátil y su cepillo de dientes, le dijo a BI; de esa manera sabría si él había viajado.
“No me dieron la noticia”, dijo Ramaro. “Todavía estoy sentado pensando: ‘Mi hijo está viajando. Se ha ido a alguna parte’. Es un momento tan patético”.
Alrededor de las 2 de la tarde le dijeron que se fuera a su casa. Ella se negó.
“Me senté allí con firmeza”, dijo Ramarao a BI.
Luego, alrededor de las 3:20 pm, una larga camioneta blanca se detuvo con las luces encendidas.
“Estaba esperando ver ayuda médica, enfermeras o alguien que saliera de la camioneta”, dijo. “Pero llegó una camilla. Una simple camilla. Corrí y le pregunté a la persona. Me dijo: ‘Tenemos un cadáver en ese apartamento'”.
Aproximadamente una hora más tarde, un médico forense y la policía pidieron hablar con Ramarao personalmente dentro de la oficina del apartamento. Dijeron que Balaji se había suicidado y que, según las imágenes de CCTV, estaba solo, según Ramarao. No hubo evidencia inicial de juego sucio, dijo el portavoz del departamento a BI.
Los padres de Balaji no están convencidos. Hicieron arreglos para que se realizara una autopsia privada, que se completó a principios de diciembre. Ramarao dijo que los resultados fueron atípicos, pero se negó a compartir más detalles. BI no ha visto una copia del informe.
Los padres de Balaji están trabajando con un abogado para presionar a la policía de San Francisco para que reabra el caso y realice una “investigación adecuada”, dijo Ramarao.
Mientras tanto, ellos y miembros de su comunidad están tratando de crear conciencia sobre su caso a través de las redes sociales y una petición en Change.org. Además de buscar respuestas, quieren invocar una discusión más amplia sobre la vulnerabilidad y la falta de protección de los denunciantes, dijeron a BI Ramarao y un amigo de la familia, que está ayudando a organizar un evento sobre Balaji el 27 de diciembre.
“Queremos dejar la cuestión abierta”, dijo Ramarao. “No parece una situación normal”.
BI compartió un relato detallado de las preocupaciones y el recuerdo de Ramarao del 26 de noviembre con portavoces de la policía de San Francisco y de la Oficina del Médico Forense Jefe. Estos funcionarios no respondieron ni ofrecieron comentarios.
Ramarao enfatizó a BI que la familia no está señalando a OpenAI.
‘Sí, mamá’
Ramarao dijo que compartía un vínculo estrecho con su hijo. Él no comía suficiente fruta, así que cada vez que ella lo visitaba, organizaba los envíos a su departamento desde Costco. Él solía saltarse el desayuno, por lo que ella le llevaba barras de granola y galletas.
Balaji rara vez expresaba sus emociones y siempre pagaba por todo. Pero el 7 de noviembre, durante su última comida juntos, algo hizo que Ramarao se esforzara más en pagar, llevarlo a casa y buscar consuelo. Aún así pagó la comida y llamó a un Uber. Pero sí le ofreció a su madre dos palabras de aliento.
“Le pregunté: ‘Suchir, esta es la dificultad. Así es como te crié, y si tuvieras que elegir padres ahora, ¿me elegirías a mí como mamá?’ No pensó ni por un segundo'”, dijo. “‘Sí, mamá’. ¿Y sabes qué? Como madre, eso me permitirá seguir adelante mientras esté viva”.