Noticias
Cambiar la estructura sin fines de lucro de OpenAI plantearía dudas sobre su futuro
NUEVA YORK (AP) — El fabricante de inteligencia artificial OpenAI podría enfrentar un ajuste de cuentas costoso e inconveniente con sus orígenes sin fines de lucro, incluso cuando su valoración recientemente se disparó a 157 mil millones de dólares.
Los expertos en impuestos sin fines de lucro han estado siguiendo de cerca a OpenAI, el creador de ChatGPT, desde noviembre pasado, cuando su junta destituyó y volvió a contratar al director ejecutivo Sam Altman. Ahora, algunos creen que la empresa puede haber alcanzado (o superado) los límites de su estructura corporativa, bajo la cual está organizada como una organización sin fines de lucro cuya misión es desarrollar inteligencia artificial para beneficiar a “toda la humanidad”, pero con subsidiarias con fines de lucro bajo su control. control.
Jill Horwitz, profesora de derecho y medicina en la Facultad de Derecho de UCLA que estudió OpenAI, dijo que cuando dos partes de una empresa conjunta entre una organización sin fines de lucro y una con fines de lucro entran en conflicto, el propósito caritativo siempre debe prevalecer.
“Primero es trabajo de la junta, y luego de los reguladores y el tribunal, garantizar que se cumpla la promesa que se hizo al público de perseguir el interés caritativo”, dijo.
Altman confirmó recientemente que OpenAI está considerando una reestructuración corporativa, pero no ofreció ningún detalle. Sin embargo, una fuente dijo a The Associated Press que la compañía está analizando la posibilidad de convertir OpenAI en una corporación de beneficio público. La junta no ha tomado ninguna decisión final y no se ha determinado el momento del cambio, dijo la fuente.
En caso de que la organización sin fines de lucro pierda el control de sus subsidiarias, algunos expertos creen que OpenAI podría tener que pagar por los intereses y activos que habían pertenecido a la organización sin fines de lucro. Hasta ahora, la mayoría de los observadores coinciden en que OpenAI ha orquestado cuidadosamente sus relaciones entre su organización sin fines de lucro y otras entidades corporativas para tratar de evitarlo.
Sin embargo, también ven a OpenAI maduro para el escrutinio de los reguladores, incluido el Servicio de Impuestos Internos y los fiscales generales estatales en Delaware, donde está constituida, y en California, donde opera.
Bret Taylor, presidente de la junta directiva de la organización sin fines de lucro OpenAI, dijo en un comunicado que la junta estaba enfocada en cumplir con su obligación fiduciaria.
“Cualquier posible reestructuración garantizaría que la organización sin fines de lucro continúe existiendo y prosperando, y reciba el valor total por su participación actual en OpenAI con una capacidad mejorada para llevar a cabo su misión”, dijo.
Estas son las principales preguntas que tienen los expertos en organizaciones sin fines de lucro:
Las organizaciones sin fines de lucro exentas de impuestos a veces deciden cambiar su estatus. Eso requiere lo que el IRS llama una conversión.
La ley tributaria requiere que el dinero o los activos donados a una organización exenta de impuestos permanezcan dentro del sector caritativo. Si la organización inicial se convierte en una organización con fines de lucro, generalmente se necesita una conversión en la que la organización con fines de lucro pague el valor justo de mercado de los activos a otra organización benéfica.
Incluso si la organización sin fines de lucro OpenAI continúa existiendo de alguna manera, algunos expertos sostienen que se le tendría que pagar el valor justo de mercado por cualquier activo que se transfiera a sus subsidiarias con fines de lucro.
En el caso de OpenAI, hay muchas preguntas: ¿Qué activos pertenecen a su organización sin fines de lucro? ¿Cuál es el valor de esos activos? ¿Incluyen propiedad intelectual, patentes, productos comerciales y licencias? Además, ¿cuál es el valor de ceder el control de las filiales con fines de lucro?
Si OpenAI disminuyera el control que su organización sin fines de lucro tiene sobre sus otras entidades comerciales, un regulador podría requerir respuestas a esas preguntas. Cualquier cambio en la estructura de OpenAI requerirá que navegue por las leyes que rigen a las organizaciones exentas de impuestos.
Andrew Steinberg, abogado de Venable LLP y miembro del comité de organizaciones sin fines de lucro de la Asociación de Abogados de Estados Unidos, dijo que sería una transacción “extraordinaria” cambiar la estructura de las subsidiarias corporativas de una organización sin fines de lucro exenta de impuestos.
“Sería un proceso complejo y complicado con numerosas consideraciones legales y regulatorias diferentes que resolver”, dijo. “Pero no es imposible”.
Para obtener el estatus de exención de impuestos, OpenAI tuvo que presentar una solicitud al IRS y explicar su propósito caritativo. OpenAI proporcionó a The Associated Press una copia de esa solicitud de septiembre de 2016, que muestra cuán significativamente han cambiado los planes de la organización para su tecnología y estructura.
La portavoz de OpenAI, Liz Bourgeois, dijo en un correo electrónico que las misiones y objetivos de la organización se mantuvieron constantes, aunque la forma en que lleva a cabo su misión ha evolucionado junto con los avances en la tecnología.
Cuando OpenAI se constituyó como una organización sin fines de lucro en Delaware, escribió que su propósito era “proporcionar financiación para la investigación, el desarrollo y la distribución de tecnología relacionada con la inteligencia artificial”. En las declaraciones de impuestos, también describe su misión como construir “inteligencia artificial (IA) de propósito general que beneficie de manera segura a la humanidad, sin las limitaciones de la necesidad de generar retorno financiero”.
Steinberg dijo que no hay problema con que los planes de la organización cambien siempre y cuando informen esa información en sus declaraciones de impuestos anuales, que es lo que tienen.
Pero algunos observadores, incluido Elon Musk, quien fue miembro de la junta directiva y uno de los primeros partidarios de OpenAI y demandó a la organización, se muestran escépticos de que haya sido fiel a su misión.
El “padrino de la IA” Geoffrey Hinton, que recibió el Premio Nobel de Física el martes, también ha expresado su preocupación por la evolución de OpenAI, alardeando abiertamente de que uno de sus antiguos alumnos, Ilya Sutskever, que luego cofundó la organización, ayudó a derrocar a Altman como director ejecutivo antes de traerlo de regreso.
“OpenAI se creó con gran énfasis en la seguridad. Su objetivo principal era desarrollar inteligencia artificial general y garantizar que fuera segura”, dijo Hinton, y agregó que “con el tiempo, resultó que Sam Altman estaba mucho menos preocupado por la seguridad que por las ganancias. Y creo que eso es desafortunado”.
Sutskever, quien dirigió un equipo centrado en la seguridad de la IA en OpenAI, dejó la organización en mayo y fundó su propia empresa de IA. OpenAI, por su parte, dice estar orgulloso de su historial de seguridad.
En última instancia, esta pregunta vuelve a la junta directiva de la organización sin fines de lucro OpenAI y al grado en que está actuando para promover la misión caritativa de la organización.
Steinberg dijo que cualquier regulador que observe la decisión de una junta sin fines de lucro estará más interesado en el proceso mediante el cual llegó a esa decisión, no necesariamente en si llegó a la mejor decisión.
Dijo que los reguladores “a menudo ceden ante el criterio comercial de los miembros de la junta directiva, siempre y cuando las transacciones no impliquen un conflicto de intereses para ninguno de los miembros de la junta. No pretenden obtener ningún beneficio económico con la transacción”.
Si algún miembro de la junta se beneficiaría financieramente de cualquier cambio en la estructura de OpenAI también podría ser de interés para los reguladores sin fines de lucro.
En respuesta a las preguntas sobre si a Altman se le podría otorgar capital en la subsidiaria con fines de lucro en cualquier posible reestructuración, el presidente de la junta de OpenAI, Taylor, dijo en un comunicado: “La junta ha tenido discusiones sobre si sería beneficioso para la compañía y nuestra misión de “Que Sam sea compensado con equidad, pero no se han discutido cifras específicas ni se ha tomado ninguna decisión”.
___
Associated Press y OpenAI tienen un acuerdo de licencia y tecnología que permite a OpenAI acceder a parte de los archivos de texto de AP.
___
La cobertura de Associated Press sobre filantropía y organizaciones sin fines de lucro recibe apoyo a través de la colaboración de AP con The Conversation US, con financiamiento de Lilly Endowment Inc. La AP es la única responsable de este contenido. Para conocer toda la cobertura filantrópica de AP, visite https://apnews.com/hub/philanthropy.
Noticias
La demanda de Elon Musk podría ser el menor de los problemas de OpenAI: su conversión planificada costará una fortuna
Una buena regla general en la vida es nunca ponerse del lado malo de un centibillonario feliz con los litigios y con un Rolodex de firmas de abogados a su entera disposición.
Pero la segunda demanda de Elon Musk contra OpenAI, a quien hizo donaciones caritativas por un total de más de 50 millones de dólares, puede ser la menor de sus preocupaciones inmediatas. Hay una autoridad que todavía tiene mayores recursos a su alcance que el hombre propuesto para ser el primer billonario del mundo: el gobierno.
Y puede hacer que la vida de OpenAI sea un infierno si decide investigar y procesar cualquier paso en falso mientras el creador de ChatGPT intenta deshacerse de su caparazón sin fines de lucro y emerger como una corporación de beneficio público capaz de algún día enriquecer a sus accionistas.
De hecho, el Estado es realmente la única entidad capaz de implementar medidas legales para garantizar que las organizaciones sin fines de lucro no engañen al sistema. Y en cuestión de semanas las palancas del poder del gobierno estarán en manos de un aliado cercano de Musk, Donald Trump.
“Si yo fuera OpenAI y me preguntaras qué me debería preocupar más”, dice Luís Calderón Gómez, profesor asistente de la Universidad Yeshiva especializado en política fiscal Fortuna“No sería la demanda de Musk, sería la conversión”.
En una declaración a Fortunael presidente de OpenAI, Bret Taylor, prometió que la junta directiva de la organización sin fines de lucro cumpliría con su obligación fiduciaria garantizando que la empresa permanezca bien posicionada para cumplir su misión declarada.
“Si bien nuestro trabajo continúa mientras continuamos consultando a asesores financieros y legales independientes”, dijo, “cualquier reestructuración potencial garantizaría que la organización sin fines de lucro continúe existiendo y prosperando, y reciba el valor total por su participación actual en OpenAI con fines de lucro con una capacidad mejorada para llevar a cabo su misión”.
La filial con fines de lucro de Open-AI ya está valorada en 157 mil millones de dólares
Lo que está en juego es inusualmente alto para el sector de las organizaciones sin fines de lucro estadounidenses, que de otro modo estaría adormecido y que se estima representa 3,3 billones de dólares de la producción económica anual de Estados Unidos. A pesar de su importancia como empresa detrás del auge de la inteligencia artificial generativa, una presentación de OpenAI al IRS esta semana revela cuán poco valor se asigna realmente a la organización sin fines de lucro.
Gracias a la fiebre del oro provocada por el lanzamiento comercial de ChatGPT hace casi dos años, una reciente ronda de recaudación de fondos valoró a OpenAI Global, LLC, la empresa operadora, en la asombrosa cifra de 157 mil millones de dólares. A principios de este año, uno de los principales expertos de Asia en este campo, Kai-fu Lee, incluso sugirió que podría hacer historia como la primera empresa privada con un valor de 1 billón de dólares.
Para todos los efectos, opera como una empresa normal, contando con Microsoft junto con Khosla Ventures y el cofundador de LinkedIn, Reid Hoffman, como principales inversores.
Sin embargo, su accionista mayoritario, OpenAI, Inc., está clasificado como una corporación 501(c)(3) según el código tributario del Servicio de Impuestos Internos (IRS). Quedó exento de contribuir al erario público después de comprometerse a “promover la inteligencia digital de la manera que más probablemente beneficie a la humanidad en su conjunto, sin las limitaciones de la necesidad de generar un retorno financiero”.
El sector de la atención sanitaria abrió el camino para las organizaciones sin fines de lucro híbridas
Esta estructura corporativa híbrida aparentemente extraña, adoptada por OpenAI en marzo de 2019, fue el resultado principalmente de los desarrollos en el sector de la salud.
Para evitar que cerraran clínicas con dificultades financieras, lo que podría cortar el suministro de servicios médicos en su comunidad local, en 1998 el IRS comenzó a permitirles asociarse con competidores con fines de lucro siempre que la organización sin fines de lucro mantuviera el control final.
Cortesía de OpenAI
Sin embargo, el fallo sigue siendo controvertido. En agosto del año pasado, Elizabeth Warren se unió a tres de sus colegas del Senado en un esfuerzo bipartidista para acabar con esta práctica después de que un estudio reciente descubriera que tres de cada cuatro clínicas sin fines de lucro gastaban menos en atención caritativa de lo que recibían en exenciones fiscales.
Como fundador y director ejecutivo de la consultora sin fines de lucro Altruist, Donald Summers sostiene que los problemas de gobernanza y la falta de un escrutinio adecuado se deben en parte a que el público en general trabaja bajo una noción anticuada e ingenua del sector caritativo.
“La gente piensa que las organizaciones sin fines de lucro son comedores de beneficencia y refugios para personas sin hogar. Pueden ser organizaciones poderosas, multimillonarias, que pueden poseer subsidiarias con fines de lucro y endeudarse”, dice Donald Summers, fundador y director ejecutivo de Altruist. Fortuna. “Simplemente no se pueden comprar ni vender en beneficio de particulares”.
Como una organización benéfica de la selva tropical que decide talar el Amazonas
El director ejecutivo de OpenAI, Sam Altman, ha atribuido sus planes de convertirse en una organización con fines de lucro (probablemente el próximo año según Fortunafuentes) como una evolución orgánica de su estructura jurídica en el tiempo. Como las donaciones no lograron seguir el ritmo de los crecientes costos para entrenar su red neuronal, la gerencia decidió que la única opción que quedaba para cumplir su misión caritativa era comenzar a recaudar dinero privado.
Desde entonces, sin embargo, ha sido más prudente con las investigaciones que publica, sin información disponible públicamente que revele todas las capacidades técnicas de su modelo GPT-4, lanzado por primera vez en 2023. También ha firmado acuerdos exclusivos con socios comerciales que los expertos decir, va en contra de los ideales que dice defender.
“Es ilegal y OpenAI es un castillo de naipes”, criticó Musk, quien cortó todos los vínculos con la empresa hace cuatro años. Describió los planes de OpenAI de renunciar a su condición de organización sin fines de lucro como una traición shakesperiana y los comparó con donar dinero a una organización benéfica para salvar la selva amazónica solo para que decidiera talar árboles para obtener madera era una idea más rentable.
Si bien el propósito principal de una organización sin fines de lucro debe ser brindar un beneficio a la sociedad en su conjunto, eso significa, por extensión, que la búsqueda de motivos capitalistas no tiene por qué estar en conflicto con su misión.
“No son necesariamente excluyentes entre sí”, dice Darryll Jones, profesor de derecho en la Universidad Florida A&M y coeditor del Blog de profesores de derecho sin fines de lucro, en una entrevista con Fortuna.
Y cuando lo son, añade, esto no tiene por qué ser un problema, siempre y cuando el objetivo de la organización sin fines de lucro tenga prioridad. “Esa es probablemente una de las razones por las que no hemos escuchado [publicly] sobre un fiscal general o el IRS desafiando OpenAI”.
“No creo que sentemos un precedente aquí”
El argumento ha sido que el cambio de OpenAI en la estructura corporativa podría dar a otras startups la misma idea, en otras palabras, con el lanzamiento como organizaciones sin fines de lucro exentas de impuestos, solo para convertirse en propiedad normal una vez que su modelo de negocio haya sido resuelto y se pueda lanzar un producto comercialmente exitoso. lanzado.
Hablando en marzo a principios de este año, Altman refutó la idea de que sus acciones incentivarían efectivamente a las empresas a jugar rápido y libremente con el código tributario a costa del público.
“Desaconsejaría fuertemente a cualquier startup que estuviera pensando en comenzar como una organización sin fines de lucro y agregar una rama con fines de lucro más adelante”, dijo. “No creo que sentemos un precedente aquí. Si hubiéramos sabido lo que iba a pasar, también lo habríamos hecho”.
La transición es complicada porque implica privatizar lo que alguna vez fue creado para el bien público. Cualquier error puede dar lugar a cuantiosas obligaciones tributarias si se viola la regla de oro de que los activos deben intercambiarse dólar por dólar.
“El principio básico es que la entidad transformadora tiene que pagar al sector caritativo una cantidad equivalente a lo que retira”, dice a esta publicación Robert Weissman, presidente de un grupo de defensa de la responsabilidad corporativa, Public Citizen. “Pero en este caso no es obvio cuál es el valor de OpenAI sin fines de lucro”.
Errar por el lado generoso
Según su declaración de impuestos 990 para el año fiscal 2023 que acaba de presentar este mes, sus activos netos sin fines de lucro cotizan por valor de unos miserables 21 millones de dólares.
Ese es el mínimo absoluto que las empresas con fines de lucro tendrían que ofrecer al Estado a cambio, pero sigue siendo una gota en el océano en comparación con la valoración de 157 mil millones de dólares de las empresas con fines de lucro.
Weissman sostiene, sin embargo, que cualquier conversión significa que el público contribuyente también debe ser compensado por el pérdida del controluna vez que la empresa es propiedad de accionistas.
Estima que la prima por renunciar a esto debería valer el 20% de la entidad con fines de lucro sobre la que tiene la última palabra. En otras palabras, desembolsarían más de 30 mil millones de dólares.
Estos fondos que OpenAI Global LLC tendría que pagar permanecerán legítimamente en manos del público y luego podrán usarse para la donación de una nueva fundación benéfica, posiblemente dedicada a la seguridad de la IA, por ejemplo.
Por ahora, sin embargo, sigue siendo un juego de adivinanzas que los banqueros de inversión tendrán que resolver en última instancia en una evaluación de un tercero. Jones, de Florida A&M, cree que OpenAI y Microsoft tendrán cuidado de pecar de generosos.
Cualquier intento potencial de estafar a los contribuyentes podría desencadenar una investigación y una posible demanda por parte del gobierno que limita la capacidad de gestión y consume tiempo y recursos, algo que el dúo no puede permitirse en la carrera con competidores de rápido movimiento como xAI de Musk.
“Después de que OpenAI hablara de lo excelente que es su tecnología, les resultará difícil reducir el precio”, argumenta Jones.
Un montón de abogados bien pagados golpeándose la cabeza
Después de años de avanzar tanto en tecnología como en legislación tributaria, la conversión resuelve un tema espinoso y es el riesgo de que ya esté incumpliendo sus obligaciones sin fines de lucro. Weissman, de Public Citizen, ha escrito repetidamente al fiscal general de California, donde se encuentra su sede, para presionarlo sobre este mismo tema.
Delaware, domicilio legal de OpenAI, parece estar tomando medidas iniciales para garantizar que no se engañe a los contribuyentes. axios informó recientemente que la fiscal general del estado, Kathleen Jennings, había presentado una solicitud oficial a la empresa para obtener información adicional con respecto a su plan de conversión.
“Es importante que mi oficina tenga la oportunidad de revisar los términos de cualquier transacción de este tipo antes de su consumación”, escribió Jennings en octubre. “Los actuales beneficiarios de OpenAI tienen interés en garantizar que los activos caritativos no se transfieran a intereses privados sin la debida consideración”.
La oficina de Delaware AG no respondió a una solicitud de Fortuna para hacer comentarios, pero su contraparte en la oficina de California ha dicho que, en principio, no comenta sobre la existencia o el progreso de una investigación.
Gómez está de acuerdo con la evaluación de Altman de que OpenAI no creará un modelo de negocio completamente nuevo para las nuevas empresas debido a la facilidad con la que podría entrar en conflicto con el gobierno si los funcionarios sienten que se ha engañado al erario público.
“No hay muchas maneras de hacer esto sin incurrir en una gran obligación tributaria y sin ser demandado por el estado, ya sea Delaware, California, el Departamento de Justicia o el IRS”, dice. Fortuna. “Así que estoy muy seguro de que hay muchos abogados a los que se les paga lote de dinero para trabajar en esto ahora mismo”.
Noticias
Investigadores chinos presentan LLaVA-o1 para desafiar el modelo o1 de OpenAI
Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder en la industria. Más información
El modelo o1 de OpenAI ha demostrado que el escalado del tiempo de inferencia (usar más computación durante la inferencia) puede mejorar significativamente las capacidades de razonamiento de un modelo de lenguaje. LLaVA-o1, un nuevo modelo desarrollado por investigadores de varias universidades de China, lleva este paradigma a los modelos de lenguaje de visión (VLM) de código abierto.
Los primeros VLM de código abierto suelen utilizar un enfoque de predicción directa, generando respuestas sin razonar sobre el mensaje y los pasos necesarios para resolverlo. Sin un proceso de razonamiento estructurado, son menos eficaces en tareas que requieren razonamiento lógico. Las técnicas de estimulación avanzadas, como las de cadena de pensamiento (CoT), donde se anima al modelo a generar pasos de razonamiento intermedios, producen algunas mejoras marginales. Pero los VLM suelen producir errores o alucinar.
Los investigadores observaron que un problema clave es que el proceso de razonamiento en los VLM existentes no es suficientemente sistemático y estructurado. Los modelos no generan cadenas de razonamiento y muchas veces se quedan estancados en procesos de razonamiento donde no saben en qué etapa se encuentran y qué problema específico deben resolver.
“Observamos que los VLM a menudo inician respuestas sin organizar adecuadamente el problema y la información disponible”, escriben los investigadores. “Además, con frecuencia se desvían de un razonamiento lógico para llegar a conclusiones, en lugar de presentar una conclusión prematuramente y luego intentar justificarla. Dado que los modelos de lenguaje generan respuestas token por token, una vez que se introduce una conclusión errónea, el modelo generalmente continúa por un camino de razonamiento defectuoso”.
Razonamiento de varias etapas
OpenAI o1 utiliza escala de tiempo de inferencia para resolver el problema de razonamiento sistemático y estructurado y permite que el modelo haga una pausa y revise sus resultados a medida que resuelve gradualmente el problema. Si bien OpenAI no ha publicado muchos detalles sobre el mecanismo subyacente de o1, sus resultados muestran direcciones prometedoras para mejorar las capacidades de razonamiento de los modelos fundamentales.
Inspirándose en o1, los investigadores diseñaron LLaVA-o1 para realizar un razonamiento etapa por etapa. En lugar de generar una cadena de razonamiento directa, LLaVA-o1 divide el proceso de razonamiento en cuatro etapas distintas:
Resumen: El modelo primero proporciona un resumen de alto nivel de la pregunta, delineando el problema central que debe abordar.
Subtítulo: Si hay una imagen presente, el modelo describe las partes relevantes, centrándose en elementos relacionados con la pregunta.
Razonamiento: A partir del resumen, el modelo realiza un razonamiento lógico y estructurado para derivar una respuesta preliminar.
Conclusión: Finalmente, el modelo presenta un resumen conciso de la respuesta basada en el razonamiento anterior.
Sólo la etapa de conclusión es visible para el usuario; las otras tres etapas representan el proceso de razonamiento interno del modelo, similar al rastro de razonamiento oculto de o1. Este enfoque estructurado permite a LLaVA-o1 gestionar su proceso de razonamiento de forma independiente, lo que conduce a un mejor rendimiento en tareas complejas.
“Este enfoque estructurado permite al modelo gestionar de forma independiente su proceso de razonamiento, mejorando su adaptabilidad y rendimiento en tareas de razonamiento complejas”, escriben los investigadores.
LLaVA-o1 también introduce una novedosa técnica de escalado de tiempo de inferencia llamada “búsqueda de haz a nivel de etapa”. La búsqueda de haces a nivel de etapa genera múltiples resultados candidatos en cada etapa de razonamiento. Luego selecciona al mejor candidato en cada etapa para continuar el proceso de generación. Esto contrasta con el enfoque clásico del mejor de N, en el que se solicita al modelo que genere múltiples respuestas completas antes de seleccionar una.
“En particular, es el diseño de salida estructurado de LLaVA-o1 lo que hace que este enfoque sea factible, permitiendo una verificación eficiente y precisa en cada etapa”, escriben los investigadores. “Esto valida la eficacia de la producción estructurada para mejorar la escala de tiempo de inferencia”.
Entrenamiento LLaVA-o1
Para entrenar LLaVA-o1, los investigadores compilaron un nuevo conjunto de datos de alrededor de 100.000 pares de imagen-pregunta-respuesta obtenidos de varios conjuntos de datos VQA ampliamente utilizados. El conjunto de datos cubre una variedad de tareas, desde la respuesta a preguntas de varios turnos hasta la interpretación de gráficos y el razonamiento geométrico.
Los investigadores utilizaron GPT-4o para generar procesos de razonamiento detallados de cuatro etapas para cada ejemplo, incluidas las etapas de resumen, título, razonamiento y conclusión.
Luego, los investigadores ajustaron Llama-3.2-11B-Vision-Instruct en este conjunto de datos para obtener el modelo LLaVA-o1 final. Los investigadores no han publicado el modelo, pero planean publicar el conjunto de datos, llamado LLaVA-o1-100k.
LLaVA-o1 en acción
Los investigadores evaluaron LLaVA-o1 en varios puntos de referencia de razonamiento multimodal. A pesar de haber sido entrenado en solo 100.000 ejemplos, LLaVA-o1 mostró mejoras de rendimiento significativas con respecto al modelo Llama base, con un aumento promedio en la puntuación de referencia del 6,9%.
Además, la búsqueda de haces a nivel de etapa generó mejoras adicionales en el rendimiento, lo que demuestra la eficacia del escalamiento del tiempo de inferencia. Debido a limitaciones de recursos computacionales, los investigadores solo pudieron probar la técnica con un tamaño de haz de 2. Esperan mejoras aún mayores con tamaños de haz más grandes.
Sorprendentemente, LLaVA-o1 superó no sólo a otros modelos de código abierto del mismo tamaño o más grandes, sino también a algunos modelos de código cerrado como GPT-4-o-mini y Gemini 1.5 Pro.
“LLaVA-o1 establece un nuevo estándar para el razonamiento multimodal en VLM, ofreciendo un rendimiento sólido y escalabilidad, especialmente en tiempo de inferencia”, escriben los investigadores. “Nuestro trabajo allana el camino para futuras investigaciones sobre el razonamiento estructurado en VLM, incluidas posibles expansiones con verificadores externos y el uso del aprendizaje por refuerzo para mejorar aún más las capacidades complejas de razonamiento multimodal”.
Noticias
Tribunales bonaerenses adoptan ChatGPT para redactar sentencias
En mayo, el Ministerio Público de la Ciudad de Buenos Aires comenzó a utilizar IA generativa para predecir fallos en algunos casos de empleo público relacionados con demandas salariales.
Desde entonces, los funcionarios de justicia de la oficina de lo contencioso administrativo y tributario de la ciudad de Buenos Aires suben los documentos del caso al ChatGPT, que analiza patrones, ofrece una clasificación preliminar a partir de un catálogo de plantillas y redacta una decisión. Hasta ahora, ChatGPT se ha utilizado en 20 sentencias legales.
Según estudios recientes realizados por la oficina, el uso de IA generativa ha reducido el tiempo que lleva redactar una oración de una hora a aproximadamente 10 minutos.
“Nosotros, como profesionales, ya no somos los personajes principales. Nos hemos convertido en editores”, dijo Juan Corvalán, fiscal general adjunto en lo contencioso administrativo y tributario. Resto del mundo.
La introducción de herramientas de IA generativa ha mejorado la eficiencia en la oficina, pero también ha generado preocupaciones dentro del poder judicial y entre expertos legales independientes sobre posibles sesgos, el tratamiento de datos personales y la aparición de alucinaciones. Preocupaciones similares han resonado más allá de las fronteras de Argentina.
“Cualquier uso inconsistente, como compartir información sensible, podría tener un costo legal considerable”, dijo Lucas Barreiro, abogado especializado en protección de datos personales y miembro de Privaia, asociación civil dedicada a la defensa de los derechos humanos en la era digital. dijo Resto del mundo.
Los jueces de EE. UU. han expresado su escepticismo sobre el uso de la IA generativa en los tribunales, y el juez federal de Manhattan, Edgardo Ramos, dijo a principios de este año que “Se ha demostrado que ChatGPT es un recurso poco confiable”. En Colombia y los Países Bajos, el uso de ChatGPT por parte de los jueces fue criticado por expertos locales. Pero no todo el mundo está preocupado: un juez de un tribunal de apelaciones del Reino Unido que utilizó ChatGPT para redactar parte de una sentencia dijo que era “muy útil”.
Para Corvalán, el paso a la IA generativa es la culminación de una transformación de años dentro de la Fiscalía General de la Ciudad de Buenos Aires. En 2017, Corvalán reunió a un grupo de desarrolladores para entrenar un sistema impulsado por inteligencia artificial llamado PROMETEA, cuyo objetivo era automatizar tareas judiciales y acelerar los procedimientos de los casos. El equipo utilizó más de 300.000 fallos y expedientes de casos relacionados con protección de vivienda, bonificaciones de empleo público, ejecución de multas impagas y denegación de licencias de taxi a personas con antecedentes penales.
Los casos en los que se utilizaba no variaban mucho y las resoluciones tendían a estandarizarse. Aún se requería que el personal legal revisara las decisiones del programa. En poco tiempo, la productividad en la oficina aumentó casi un 300%, y los profesionales jurídicos podían procesar alrededor de 490 casos por mes, frente a unos 130.
“Nunca tuvo la intención de reemplazar a los humanos. Siempre hay supervisión. Más bien, es una forma de repensar nuestros trabajos”, afirmó Corvalán.
PROMETEA podría predecir resultados con un 90% de precisión en menos de 20 segundos, según un informe de la fiscalía de la ciudad. La implementación de PROMETEA fue un punto de inflexión, dijo Melisa Rabán, secretaria de la procuraduría general adjunta para asuntos contenciosos administrativos y tributarios.
“Llegaron casos más complejos y pudimos trabajar en ellos adecuadamente en lugar de realizar trabajos automatizables”, dijo Rabán Resto del mundo.
Pero la eficiencia del programa tuvo un costo: cada nueva categoría de delito para la que se implementó PROMETEA requirió capacitación adicional y desarrollo de algoritmos. A principios de este año, Corvalán comenzó a eliminar PROMETEA en favor de ChatGPT. Las 20 sentencias que ha redactado han sido revisadas por un abogado y aprobadas por el fiscal adjunto. El poder judicial ahora está ampliando el programa a otras unidades, incluida la oficina de adquisiciones, que gestiona las quejas de los ciudadanos.
“Este proyecto trata de democratizar la IA generativa”, dijo Sofia Tammaro, empleada de la fiscalía general adjunta y desarrolladora principal del proyecto. Resto del mundo. En Argentina, que se ha quedado atrás del mundo desarrollado en el acceso a avances tecnológicos de vanguardia, eso no es poca cosa.
A los expertos les preocupa que muchos usuarios no tengan la capacitación y la alfabetización digital necesarias para implementar la tecnología que cambia rápidamente, lo que podría generar prejuicios contra las comunidades subrepresentadas, entre otras cuestiones.
“Si bien algunos pueden mitigarse, otros surgirán, porque en el corazón mismo de los desarrolladores hay valoraciones subjetivas que permean el diseño del modelo”, afirmó Barreiro.
El equipo de Corvalán está tratando de frenar algunos de los riesgos asociados con los modelos de IA, incluida la prevalencia del robo y la piratería de datos. “Todavía estamos trabajando en un proceso de anonimización de los datos confidenciales encontrados en los casos”, dijo Tammaro.
Las alucinaciones también podrían plantear importantes riesgos legales. Los casos en los que los sistemas de IA generan información falsa o irrelevante ocurren alrededor del 17% de las veces en herramientas legales de generación de IA, según un estudio de Stanford de 2024. Para Corvalán, estos sólo pueden mitigarse mediante el uso de programas que tengan un menor margen de error, como PROMETEA, para casos sensibles, incluidos los relacionados con la violencia de género y doméstica.
“PROMETEA está integrada en nuestros procesos. Su huella nunca desaparecerá”, dijo Roberto Betancur, director de TI y modernización del Ministerio Público de Buenos Aires. Resto del mundo. “Nos dio una guía para entender cómo se toman las decisiones legales”.
Por ahora, PROMETEA se utiliza para fallos relacionados con el empleo público y para gestionar investigaciones que involucren material de abuso sexual infantil. Es probable que su uso disminuya con el tiempo.
“PROMETEA es como Blockbuster en un mundo donde Netflix está surgiendo. Estas transformaciones están sucediendo a escala global”, afirmó Corvalán.
-
Recursos6 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Recursos6 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups6 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Recursos6 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Eventos6 meses ago
La nueva era de la inteligencia artificial por el Washington Post – Mayo 2024
-
Noticias4 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo
-
Estudiar IA6 meses ago
Curso de Inteligencia Artificial de UC Berkeley estratégico para negocios
-
Tutoriales6 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes