Noticias
La mamá de Suchir Balaji habla sobre su vida, muerte y opiniones sobre OpenAI
- El ex empleado de OpenAI, Suchir Balaji, alegó que la startup viola las leyes de derechos de autor.
- Su muerte en noviembre reavivó un debate sobre cómo las principales empresas de inteligencia artificial afectan a la humanidad.
- En una entrevista con BI, la madre de Balaji compartió sus esperanzas iniciales sobre la IA y por qué se frustraron.
En octubre, Suchir Balaji causó sensación cuando habló en contra de OpenAI.
En una entrevista con The New York Times, habló de cómo las poderosas empresas de inteligencia artificial podrían estar infringiendo las leyes de derechos de autor.
Los modelos de OpenAI se entrenan con información de Internet. Balaji ayudó a recopilar y organizar esos datos, pero llegó a sentir que la práctica era injusta. Renunció en agosto. Y en noviembre, los abogados del NYT lo nombraron como alguien que podría tener “documentos únicos y relevantes” para su caso de infracción de derechos de autor contra OpenAI.
“Si crees en lo que yo creo, simplemente tienes que irte”, dijo al Times.
El 26 de noviembre, el joven ingeniero fue encontrado muerto en su apartamento. La tragedia tocó una fibra sensible, avivando teorías de conspiración, dolor y debate. ¿Qué perdemos cuando ganan los modelos de IA?
En una entrevista exclusiva con Business Insider, la madre de Balaji, Poornima Ramarao, ofreció pistas.
Balaji se unió a OpenAI debido al potencial de la IA para hacer el bien, dijo. Al principio, le encantó que los modelos fueran de código abierto, es decir, que estuvieran disponibles gratuitamente para que otros los usaran y estudiaran. A medida que la empresa adquirió más impulso financiero y se lanzó ChatGPT, esas esperanzas se desvanecieron. Balaji pasó de creer en la misión a temer sus consecuencias para los editores y la sociedad en su conjunto, dijo a BI.
“Sintió que la IA es perjudicial para la humanidad”, dijo Ramarao.
Un portavoz de OpenAI compartió que Balaji era un miembro valioso del equipo y que su fallecimiento afectó profundamente a quienes trabajaron estrechamente con él.
“Quedamos devastados al enterarnos de esta trágica noticia y nos hemos puesto en contacto con la familia de Suchir para ofrecerles todo nuestro apoyo durante este momento difícil”, escribió el portavoz en un comunicado. “Nuestra prioridad es seguir haciendo todo lo posible para ayudarles”.
“Nos dimos cuenta de sus preocupaciones por primera vez cuando The New York Times publicó sus comentarios y no tenemos constancia de ninguna interacción adicional con él”, añadió el portavoz de OpenAI. “Respetamos su derecho y el de otros a compartir opiniones libremente. Nuestros corazones están con los seres queridos de Suchir y extendemos nuestro más sentido pésame a todos los que están de luto por su pérdida”.
Reclutado por OpenAI
Cuando era niño, el padre de Balaji pensaba que era “más que el promedio”, dijo Ramarao. Pero ella pensaba que su hijo era un prodigio. A los dos años ya podía formar oraciones complejas, recordó.
“Cuando era niño, cuando tenía cinco años, nunca cometió errores. Era perfecto”, dijo Ramarao.
A los 11 años, empezó a aprender a codificar utilizando Scratch, un lenguaje de programación dirigido a niños. Pronto, le estaba haciendo a su madre, que es ingeniera de software, preguntas que se le pasaban por alto. A los 13 años construyó su propia computadora. A los 14 años, escribió un artículo científico sobre diseño de chips.
“Papá decía: no te concentres demasiado. No lo presiones demasiado”, dijo Ramarao.
Suchir Balaji y su madre, Poornima Ramarao. Poornima Ramarao
Cambiaron de distrito escolar para encontrarle más desafíos. En su último año, fue el campeón estadounidense en un concurso nacional de programación para estudiantes de secundaria, lo que lo llevó a ser reclutado, a los 17 años, por Quora, el popular foro en línea para compartir conocimientos. Su madre estaba en contra, así que le mintió sobre la solicitud. Pero tuvo que confesar el primer día de trabajo porque todavía no sabía conducir.
“Tuve que llevarlo a su oficina en Mountain View”, dijo Ramarao.
Le preocupaba cómo manejaría él a “tantos adultos”, pero hizo amigos con quienes jugar al póquer y disfrutó de la abundante cafetería de Quora.
Lo vio como una lección para aprender a confiar en su Balaji.
“Entonces entendí, está bien, mi hijo es realmente una persona avanzada. No puedo ser un obstáculo para él”, dijo Ramarao.
Después de trabajar durante aproximadamente un año, fue a UC Berkeley y pronto ganó 100.000 dólares en un desafío patrocinado por la TSA para mejorar sus algoritmos de control de pasajeros.
Todo fue suficiente para ser reclutado por OpenAI. Hizo una pasantía en la empresa en 2018, según su LinkedIn, luego se unió a tiempo completo en 2021 después de graduarse.
Un destacado temprano
Suchir Balaji de vacaciones antes de su muerte. Poornima Ramarao
Durante sus casi cuatro años en OpenAI, Balaji se destacó y eventualmente hizo contribuciones significativas a los métodos de capacitación e infraestructura de ChatGPT, escribió John Schulman, cofundador de OpenAI, en una publicación en las redes sociales sobre Balaji.
“Pensaba en los detalles de las cosas cuidadosa y rigurosamente. Y también tenía una ligera vena contraria que lo hacía alérgico al ‘pensamiento de grupo’ y ansioso por encontrar dónde estaba mal el consenso”, dijo Schulman en la publicación. Schulman no respondió a las solicitudes de comentarios de BI.
Sin embargo, Balaji se había unido a la empresa en un momento crítico.
OpenAI comenzó como una organización sin fines de lucro en 2015 con la misión explícita de garantizar que la IA beneficiara a toda la humanidad. A medida que la startup se alejó de sus raíces de código abierto y sin fines de lucro, Balaji se preocupó más, dijo Ramarao.
Cuando lanzó ChatGPT públicamente en noviembre de 2022, reconsideró las implicaciones de derechos de autor, dijo.
A principios de ese año, una gran parte del papel de Balaji era recopilar datos digitales (de todos los rincones de Internet de habla inglesa) para GPT-4, un modelo que pronto impulsaría ChatGPT, según la entrevista del Times. Balaji pensó en esto como si fuera un proyecto de investigación.
Utilizar los datos de otras personas para la investigación era una cosa, escribió en un ensayo posterior. Usarlo para crear un producto que pudiera restar ingresos o tráfico a esos creadores era otra.
OpenAI no comentó sobre las preocupaciones de Balaji a Business Insider. Ante el tribunal, ha argumentado que la doctrina legal del “uso justo” protege cómo sus modelos ingieren contenido de Internet disponible públicamente.
“Demasiado ingenuo e inocente”
A finales de 2023 y principios de 2024, el entusiasmo de Balaji por OpenAI se había desvanecido por completo y comenzó a criticar al director ejecutivo Sam Altman en conversaciones con amigos y familiares, dijo Ramarao.
Solía decirle a su madre cuando estaba trabajando en “algo interesante”, pero cada vez más no tenía nada que decir sobre su trabajo, le dijo a BI.
Cuando renunció en agosto, Ramarao no insistió en el tema.
En octubre, cuando vio su explosiva entrevista con el Times, desató un torrente de ansiedad hacia Balaji. Al destacar lo que él pensaba que eran irregularidades corporativas, estaba asumiendo todo sobre sus hombros, dijo.
“Literalmente lo criticé”, dijo sobre su conversación. “‘No deberías ir solo. ¿Por qué diste tu fotografía? ¿Por qué diste tu nombre? ¿Por qué no permaneces en el anonimato? ¿Cuál es la necesidad de que proporciones tu fotografía?'”
“Tienes que ir en grupo. Tienes que ir junto con otras personas que tienen ideas afines. Luego dijo: ‘Sí, sí, sí. Me estoy conectando con personas de ideas afines. Estoy formando un equipo”. ”, continuó. “Creo que era demasiado ingenuo e inocente para comprender este sucio mundo empresarial”.
Los padres de Balaji piden una investigación
Cuando Balaji dejó OpenAI en agosto, se tomó un descanso.
“Él dijo: ‘No voy a aceptar otro trabajo. No me pregunten'”, dijo Ramarao.
Desde el punto de vista de los padres de Balaji, todo parecía estar bien con el joven codificador. Era financieramente estable, con suficientes acciones de OpenAI para comprar una casa algún día, dijo. Tenía planes de construir una organización sin fines de lucro de aprendizaje automático en el campo médico.
“Quería hacer algo por la sociedad”, dijo su madre.
El jueves 21 de noviembre, Balaji celebró su cumpleaños número 26 con amigos mientras estaba de vacaciones. Al día siguiente, le avisó a su mamá cuando despegó su vuelo a casa y habló con su papá por teléfono antes de cenar. Su papá le deseó un feliz cumpleaños y dijo que le enviaría un regalo.
Suchir Balaji con amigos de vacaciones. Poornima Ramarao
Según Ramarao, el médico forense dijo que Balaji murió esa noche, o posiblemente a la mañana siguiente.
“Estaba optimista y feliz”, dijo. “¿Qué puede salir mal a las pocas horas de perder la vida?”
El sábado y el domingo, Ramarao no supo nada de su hijo. Ella pensó que tal vez había perdido su teléfono o había salido a caminar. Pero el lunes fue y llamó a su puerta. Él no respondió. Pensó en presentar una denuncia por desaparición. Pero, sabiendo que él tendría que ir en persona para quitárselo, dudó. “Él se enojará conmigo”, dijo sobre su pensamiento en ese momento.
A la mañana siguiente llamó a la policía de San Francisco. Encontraron su cuerpo poco después de la 1:00 p.m. PST, según un portavoz del departamento. Pero a Ramarao no le dijeron ni le permitieron entrar, dijo. Cuando los oficiales llegaron, ella les suplicó que verificaran si faltaban su computadora portátil y su cepillo de dientes, le dijo a BI; de esa manera sabría si él había viajado.
“No me dieron la noticia”, dijo Ramaro. “Todavía estoy sentado pensando: ‘Mi hijo está viajando. Se ha ido a alguna parte’. Es un momento tan patético”.
Alrededor de las 2 de la tarde le dijeron que se fuera a su casa. Ella se negó.
“Me senté allí con firmeza”, dijo Ramarao a BI.
Luego, alrededor de las 3:20 pm, una larga camioneta blanca se detuvo con las luces encendidas.
“Estaba esperando ver ayuda médica, enfermeras o alguien que saliera de la camioneta”, dijo. “Pero llegó una camilla. Una simple camilla. Corrí y le pregunté a la persona. Me dijo: ‘Tenemos un cadáver en ese apartamento'”.
Aproximadamente una hora más tarde, un médico forense y la policía pidieron hablar con Ramarao personalmente dentro de la oficina del apartamento. Dijeron que Balaji se había suicidado y que, según las imágenes de CCTV, estaba solo, según Ramarao. No hubo evidencia inicial de juego sucio, dijo el portavoz del departamento a BI.
Los padres de Balaji no están convencidos. Hicieron arreglos para que se realizara una autopsia privada, que se completó a principios de diciembre. Ramarao dijo que los resultados fueron atípicos, pero se negó a compartir más detalles. BI no ha visto una copia del informe.
Los padres de Balaji están trabajando con un abogado para presionar a la policía de San Francisco para que reabra el caso y realice una “investigación adecuada”, dijo Ramarao.
Mientras tanto, ellos y miembros de su comunidad están tratando de crear conciencia sobre su caso a través de las redes sociales y una petición en Change.org. Además de buscar respuestas, quieren invocar una discusión más amplia sobre la vulnerabilidad y la falta de protección de los denunciantes, dijeron a BI Ramarao y un amigo de la familia, que está ayudando a organizar un evento sobre Balaji el 27 de diciembre.
“Queremos dejar la cuestión abierta”, dijo Ramarao. “No parece una situación normal”.
BI compartió un relato detallado de las preocupaciones y el recuerdo de Ramarao del 26 de noviembre con portavoces de la policía de San Francisco y de la Oficina del Médico Forense Jefe. Estos funcionarios no respondieron ni ofrecieron comentarios.
Ramarao enfatizó a BI que la familia no está señalando a OpenAI.
Suchir Balaji con sus padres. Poornima Ramarao
‘Sí, mamá’
Ramarao dijo que compartía un vínculo estrecho con su hijo. Él no comía suficiente fruta, así que cada vez que ella lo visitaba, organizaba los envíos a su departamento desde Costco. Él solía saltarse el desayuno, por lo que ella le llevaba barras de granola y galletas.
Balaji rara vez expresaba sus emociones y siempre pagaba por todo. Pero el 7 de noviembre, durante su última comida juntos, algo hizo que Ramarao se esforzara más en pagar, llevarlo a casa y buscar consuelo. Aún así pagó la comida y llamó a un Uber. Pero sí le ofreció a su madre dos palabras de aliento.
“Le pregunté: ‘Suchir, esta es la dificultad. Así es como te crié, y si tuvieras que elegir padres ahora, ¿me elegirías a mí como mamá?’ No pensó ni por un segundo'”, dijo. “‘Sí, mamá’. ¿Y sabes qué? Como madre, eso me permitirá seguir adelante mientras esté viva”.
Noticias
El chatgpt de un gran bufete de abogados falla

Bienvenido Jurisdicción originalla última publicación legal de mí, David Lat. Puede obtener más información sobre la jurisdicción original leyendo su Acerca de la páginay puedes enviarme un correo electrónico a [email protected]. Esta es una publicación respaldada por el lector; Puede suscribirse haciendo clic en aquí.
Todos estamos familiarizados con la infame historia de los abogados que Archivó un breve Lleno de casos inexistentes: curso de ChatGPT, la herramienta AI que compensó alias “alucinadas” las citas falsas. Al final, el juez Kevin Castel (SDNY) sancionado a los abogadospor una suma de $ 5,000, pero la notoriedad nacional seguramente fue mucho peor.
Los abogados ofensivos, Steven Schwartz y Peter Loduca, trabajaron en un pequeño bufete de abogados de Nueva York llamado Levidow, Levidow y Oberman. Y parece que su atornillado surgió en parte de las limitaciones de recursos, con las que las pequeñas empresas frecuentemente luchan. Como le explicaron al juzgar a Castel en el Audiencia de sancionesen el momento en que su empresa no tenía acceso a Westlaw o Lexisnexis, que son, como todos sabemos, extremadamente caros, y el tipo de suscripción que tenían para Fastcase no les proporcionó acceso completo a casos federales.
Pero, ¿qué pasa con los abogados que trabajan para una de las firmas de abogados más grandes del país? No deberían tener ninguna excusa, ¿verdad?
Ya sea que tengan una excusa o no, parece que ellos también pueden cometer el mismo error. Ayer, la jueza Kelly Rankin del distrito de Wyoming emitió un para mostrar causa en Wadsworth v. Walmart Inc. (énfasis en el original):
Este asunto está ante el tribunal por su propia notificación. El 22 de enero de 2025, los demandantes presentaron su Movimientos en limine. [ECF No. 141]. Allí, los demandantes citaron nueve casos totales:
1. Wyoming v. Departamento de Energía de EE. UU.2006 WL 3801910 (D. Wyo. 2006);
2. Holanda v. Keller2018 WL 2446162 (D. Wyo. 2018);
3. Estados Unidos v. Hargrove2019 WL 2516279 (D. Wyo. 2019);
4. Meyer v. Ciudad de Cheyenne2017 WL 3461055 (D. Wyo. 2017);
5. US v. Caraway534 F.3d 1290 (10th Cir. 2008);
6. Benson v. Estado de Wyoming2010 WL 4683851 (D. Wyo. 2010);
7. Smith v. Estados Unidos2011 WL 2160468 (D. Wyo. 2011);
8. Woods v. Bnsf Railway Co.2016 WL 165971 (D. Wyo. 2016); y
9. Fitzgerald v. Ciudad de Nueva York2018 WL 3037217 (SDNY 2018).
Ver [ECF No. 141].
El problema con estos casos es que Ninguno existeexcepto Estados Unidos v. Caraway534 F.3d 1290 (10th Cir. 2008). Los casos no son identificables por su cita Westlaw, y el tribunal no puede localizar el distrito de los casos de Wyoming por su nombre de caso en su sistema local de presentación de la corte electrónica. Los acusados promueven a través de un abogado de que “al menos algunos de estos casos mal citados se pueden encontrar en ChatGPT”. [ECF No. 150] (Proporcionar una imagen de la ubicación de chatgpt “Meyer v. Ciudad de Cheyenne“A través del identificador falso de Westlaw).
Como es de esperar, el juez Rankin está … no está contento:
Cuando se enfrentan a situaciones similares, los tribunales ordenaron que los abogados de presentación muestren por qué las sanciones o la disciplina no deberían emitir. Mata v. AviancaInc., No. 22-CV-1461 (PKC), 2023 WL 3696209 (SDNY 4 de mayo de 2023); Estados Unidos v. HayesNo. 2: 24-CR-0280-DJC, 2024 WL 5125812 (Ed Cal. 16 de diciembre de 2024); Estados Unidos v. CohenNo. 18-CR-602 (JMF), 2023 WL 8635521 (SDNY 12 de diciembre de 2023). En consecuencia, el tribunal ordena de la siguiente manera:
Se ordena que al menos uno de los tres abogados proporcione una copia verdadera y precisa de todos los casos utilizados en apoyo de [ECF No. 141]excepto por Estados Unidos v. Caraway534 F.3d 1290 (10th Cir. 2008), a más tardar a las 12:00 p.m., Tiempo estándar de montaña, ON 10 de febrero de 2025.
Y si no pueden proporcionar los casos en cuestión, los abogados “mostrarán por separado la causa por escrito por qué no debe ser sancionado de conformidad con: (1) alimentado. R. Civ. P. 11 (b), (c); (2) 28 USC § 1927; y (3) el poder inherente del tribunal para ordenar sanciones por citar casos inexistentes al tribunal “. Y esta presentación por escrito, que se debe el 13 de febrero, “tomará la forma de una declaración jurada” que contiene “una explicación exhaustiva de cómo se generaron la moción y los casos falsos”, así como una explicación de cada abogado de “su papel en redactar o supervisar la moción “.
¿Quiénes son los abogados detrás de este aparente ANSNAFU? Se llaman por nombre en la página tres del pedido:
Los tres abogados subsignados a [ECF No. 141] son:
Como puede ver en las firmas en el ofensiva movimiento en liminaTaly Goody trabaja en Grupo de leyes de Goodyuna empresa con sede en California que parece tener tres abogados. Pero Rudwin Ayala y Michael Morgan trabajan en el gigante Morgan y Morganque se describe en su sitio web como “el bufete de abogados de lesiones más grande de Estados Unidos”. De acuerdo a El abogado estadounidenseMorgan y Morgan cuenta con más de 1,000 abogados, lo que la convierte en la empresa #42 en el país basada en el personal.
Moraleja de la historia: los abogados de las grandes empresas pueden mal uso del chatgpt tan bien como cualquier persona. And although Morgan and Morgan is a plaintiff’s firm—which might cause snobby attorneys at big defense firms to say, with a touch of hauteur, “Of course it is”—I think it’s only a matter of time before a defense-side, Am La firma de la Ley 100 hace un paso en falso similar en una presentación pública.
Estas historias de “abogados se dedican a Chatgpt Fail” tienden a ser populares entre los lectores, lo cual es una de las razones por las que he escrito este, pero no quiero exagerar su importancia. Como le dije a Bridget McCormack y Zach Abramowitz en el Podcast AAAI“ChatGPT no participa en estos atornillados; Los humanos que usan incorrectamente Chatgpt se involucran en estos atornillados “. Pero las historias todavía se vuelven virales a veces porque tienen un cierto valor de novedad: la IA es, al menos en el mundo de la práctica legal, todavía (relativamente) nueva.
Sin embargo, el peligro es que las historias de “Fail ChatGPT” podrían tener un efecto escalofriante, en términos de disuadir a los abogados de (responsablemente) explorar cómo la IA y otras tecnologías transformadoras pueden ayudarlos a servir a sus clientes de manera más eficiente y efectiva. Como dijo McCormack en el podcast AAAI después de mencionar la debacle de SDNY: “Todavía estoy enojado con ese abogado del distrito sur de Nueva York porque siento que ha retrasado toda la profesión en dos años. Estoy literalmente tan enojado con ese tipo “.
Me puse en contacto con Ayala, Goody y Morgan por correo electrónico, pero aún no he tenido noticias; Si y cuando lo haga, actualizaré esta publicación. De lo contrario, sintonice la próxima semana, cuando presentarán sus respuestas a la orden de mostrar causa.
Y mientras tanto, si confía en ChatGPT u otra herramienta de IA para la investigación legal, por favor, por favor Use una plataforma de investigación legal real para confirmar que (1) existen los casos y (2) los ha citado con precisión. Eso no es demasiado para preguntar, ¿verdad?
Gracias por leer Jurisdicción originaly gracias a mis suscriptores pagados por hacer posible esta publicación. Los suscriptores obtienen (1) acceso a Aviso judicialmi resumen semanal que ahorra tiempo de las noticias más notables en el mundo legal; (2) historias adicionales reservadas para suscriptores pagados; (3) transcripciones de entrevistas de podcast; y (4) la capacidad de comentar publicaciones. Puede enviarme un correo electrónico a [email protected] con preguntas o comentarios, y puede compartir esta publicación o suscribirse con los botones a continuación.