Noticias
¿La IA reemplazará a los abogados? O1 de OpenAI y el panorama legal en evolución
Published
6 meses agoon

Un paso de “pensamiento, rápido y lento” hacia la IA neurosimbólica
El difunto Daniel Kahneman recibió el Premio del Banco de Suecia en Ciencias Económicas de manos del Rey Carl … [+] Gustavo de Suecia durante una ceremonia en la Sala de Conciertos de Estocolmo, el 10 de diciembre de 2002. (Foto de JONAS EKSTROMER/POOL/AFP vía Getty Images)
POOL/AFP vía Getty Images
Mientras los cuerpos se presionaban contra las barreras de acero, 97 personas perdieron la vida en medio de una aglomeración de aficionados al fútbol. El desastre de Hillsborough de 1989, la tragedia deportiva más mortífera de Gran Bretaña, provocó una avalancha de juicios: se culpó a los hooligans del fútbol, el azote de los deportes ingleses en la década de 1980. Fueron necesarias décadas de batallas legales para revelar que la verdadera causa fue la mala gestión policial, no el comportamiento de los fanáticos.
Esta culpa inicial es la que el premio Nobel Daniel Kahneman, en Pensar, rápido y lentollamado pensamiento “Sistema 1 (rápido)”, que es intuitivo. “La intuición es pensar que sabes sin saber por qué lo sabes”, escribió.
Pero la verdad salió a la luz gracias a las familias que exigieron respuestas. Años de batallas legales descubrieron evidencia de mala gestión policial. Este análisis metódico (el pensamiento del “Sistema 2 (lento)” de Kahneman) finalmente exoneró a los fanáticos.
La profesión jurídica exige tanto una intuición rápida como un razonamiento cuidadoso. Los abogados frecuentemente dependen de juicios rápidos para evaluar los casos, pero el análisis detallado es igualmente importante, reflejando cómo pensar con lentitud fue vital para descubrir la verdad en Hillsborough. Ahora, la IA está evolucionando para emular esta dualidad, lo que podría remodelar el trabajo jurídico.
Aquí es donde entra en juego la IA neurosimbólica: un enfoque híbrido que combina las fortalezas de las redes neuronales (intuición) con la precisión de la IA simbólica (lógica).
Pero, ¿qué es exactamente la IA neurosimbólica y en qué se diferencia de la que tenemos ahora?
IA neurosimbólica: fusionando intuición y lógica
Las redes neuronales aprenden analizando patrones en grandes cantidades de datos, como las neuronas del cerebro humano, que sustentan los sistemas de inteligencia artificial que utilizamos a diario, como ChatGPT y la Búsqueda de Google.
Las redes neuronales son sistemas informáticos inspirados en la estructura neuronal del cerebro humano, diseñados para … [+] reconocer patrones y aprender de los datos. Los ejemplos incluyen modelos de IA como ChatGPT de OpenAI y Gemini de Google.
getty
Este procesamiento basado en datos se alinea con el “pensamiento rápido” de Kahneman: pensamiento rápido e intuitivo. Si bien las redes neuronales destacan por encontrar patrones y tomar decisiones rápidas, a veces pueden provocar errores, conocidos como “alucinaciones” en el mundo de la IA, debido a sesgos o datos insuficientes.
A diferencia del enfoque intuitivo y basado en patrones de las redes neuronales, la IA simbólica opera según la lógica y las reglas (“pensar lento”). Este procesamiento deliberado y metódico es esencial en ámbitos que exigen un estricto cumplimiento de reglas y procedimientos predefinidos, muy parecido al análisis cuidadoso necesario para descubrir la verdad en Hillsborough.
La IA simbólica se basa en reglas y lógica explícitas para procesar información y tomar decisiones, como … [+] representado por el flujo estructurado de este diagrama. A diferencia de las redes neuronales, los sistemas de IA simbólica resuelven problemas mediante un razonamiento paso a paso basado en caminos claros e interpretables.
getty
Watson de IBM es un ejemplo de esto, al derrotar a los grandes maestros del ajedrez Garry Kasparov y Vladimir Kramnik. El ajedrez, con sus reglas intrincadas y sus vastos movimientos posibles, necesita un enfoque estratégico impulsado por la lógica: precisamente la fuerza de la IA simbólica.
De manera similar, el software de preparación de impuestos como TurboTax y H&R Block depende en gran medida de la IA simbólica para navegar por la intrincada red de regulaciones legales y garantizar cálculos precisos. Este enfoque meticuloso y basado en reglas garantiza que cada paso se ejecute de acuerdo con las pautas establecidas.
Cadena de pensamientos: cómo o1-preview imita el razonamiento humano
El modelo o1 de OpenAI no es técnicamente una IA neurosimbólica, sino más bien una red neuronal diseñada para “pensar” más tiempo antes de responder. Utiliza indicaciones de “cadena de pensamiento” para dividir los problemas en pasos, como lo haría un humano. Aunque parezca pensar, o1 no es consciente ni sintiente. Está ejecutando algoritmos complejos para producir este razonamiento similar al humano, lo que resulta en mayores capacidades de resolución de problemas.
ChatGPT o1-preview: una red neuronal que utiliza indicaciones de cadena de pensamiento para analizar problemas y … [+] razonar de manera más efectiva. Si bien parece “pensar”, en realidad utiliza algoritmos para procesar información y generar texto.
J.Dupuy
Según OpenAI, o1 “se desempeña de manera similar a los estudiantes de doctorado en tareas desafiantes de referencia en física, química y biología”. En un examen de calificación simulado para la Olimpiada Internacional de Matemáticas, o1 resolvió correctamente el 83 % de los problemas, una mejora espectacular con respecto a la tasa de éxito del 13 % de GPT-4.
El o1 de OpenAI no sólo demuestra un razonamiento avanzado sino que también insinúa el potencial futuro de la inteligencia artificial general. AGI se refiere a sistemas de IA que pueden comprender, aprender y aplicar inteligencia de manera amplia, al igual que los humanos.
Además, o1 muestra elementos de IA agente, donde los sistemas pueden actuar de forma independiente para lograr objetivos. Esto significa que, en lugar de limitarse a responder a indicaciones, los agentes de IA pueden establecer objetivos, planificar pasos y actuar para alcanzarlos.
Al analizar los problemas sistemáticamente, o1 imita los procesos de pensamiento humano, considerando estrategias y reconociendo errores. En última instancia, esto conduce a una capacidad más sofisticada para analizar información y resolver problemas complejos.
En esencia, o1 aprende a razonar con el ejemplo, paso a paso. Sirve como puente entre los conceptos de Kahneman de pensar rápido y pensar lento, con el objetivo de ofrecer un mejor razonamiento con menos errores. Este enfoque allana el camino para sistemas más avanzados como AlphaGeometry que realmente fusionan enfoques neuronales y simbólicos.
El salto neurosimbólico de DeepMind al razonamiento deductivo
Si bien OpenAI ha atraído una amplia atención con su nuevo sistema híbrido de IA, Google DeepMind también está dando pasos significativos en este campo con AlphaGeometry, anunciado a principios de 2024 en Nature.
En las pruebas, AlphaGeometry resolvió el 83% de los problemas de geometría de la Olimpiada Internacional de Matemáticas, igualando el desempeño de o1 y casi alcanzando el de los medallistas de oro humanos.
A diferencia de o1, que es una red neuronal que emplea razonamiento extendido, AlphaGeometry combina una red neuronal con un motor de razonamiento simbólico, creando un verdadero modelo neurosimbólico. Su aplicación puede ser más especializada, pero este enfoque representa un paso crítico hacia modelos de IA que pueden razonar y pensar más como humanos, capaces tanto de intuición como de análisis deliberado.
De la geometría a la justicia: la próxima frontera de la IA neurosimbólica
El éxito de AlphaGeometry subraya el potencial más amplio de la IA neurosimbólica, extendiendo su alcance más allá del ámbito de las matemáticas hacia dominios que exigen lógica y razonamiento intrincados, como el derecho. Así como los abogados descubrieron meticulosamente la verdad en Hillsborough, la IA neurosimbólica puede aportar tanto una intuición rápida como una deliberación cuidadosa a las tareas legales.
Este enfoque innovador, que combina la precisión de la IA simbólica con la adaptabilidad de las redes neuronales, ofrece una solución convincente a las limitaciones de las herramientas legales de IA existentes.
El análisis de contratos hoy en día es un proceso tedioso plagado de posibilidades de error humano. Los abogados deben analizar minuciosamente los acuerdos, identificar conflictos y sugerir optimizaciones, una tarea que requiere mucho tiempo y que puede dar lugar a descuidos. La IA neurosimbólica podría abordar este desafío analizando meticulosamente los contratos, identificando activamente conflictos y proponiendo optimizaciones.
Al comprender las interdependencias lógicas dentro de los acuerdos, propone estructuras que se alinean perfectamente tanto con los requisitos legales como con los objetivos comerciales.
En el ámbito del análisis de precedentes jurídicos, podría captar los principios jurídicos subyacentes, hacer interpretaciones matizadas y predecir resultados con mayor precisión. El resultado sería una evaluación más consciente del contexto y lógicamente coherente, mejorando la calidad de la toma de decisiones legales.
El elemento humano en la era de la IA: pensar, rápido y lento
A medida que las tecnologías de inteligencia artificial automatizan la investigación y el análisis jurídico, es fácil sucumbir a juicios rápidos (pensar rápido), suponiendo que la profesión jurídica se remodele hasta quedar irreconocible. Sin embargo, como sugiere Kahneman, “Nada en la vida es tan importante como crees cuando piensas en ello”. Al tomarnos un momento para reflexionar deliberadamente, podríamos darnos cuenta de que tal vez la transformación no sea tan trascendental como parece, o tal vez lo sea.
De cualquier manera, un enfoque mesurado es aconsejable. Sin duda, será crucial que los abogados dominen las herramientas de inteligencia artificial, pero estas herramientas son más efectivas cuando las manejan aquellos con fortalezas exclusivamente humanas.
John J. Hopfield y Geoffrey E. Hinton, pioneros en redes neuronales y ganadores del Premio Nobel de Física 2024 por sus contribuciones a la IA, se hacen eco de esta advertencia.
El estadounidense John Hopfield y el británico-canadiense Geoffrey Hinton ganaron el Premio Nobel de Física el … [+] 8 de octubre de 2024 por su trabajo pionero en el desarrollo de la inteligencia artificial. (Foto de Jonathan NACKSTRAND/AFP) (Foto de JONATHAN NACKSTRAND/AFP vía Getty Images)
AFP vía Getty Images
El Dr. Hinton, a menudo llamado el “padrino de la IA”, advierte que a medida que los sistemas de IA comienzan a exceder las capacidades intelectuales humanas, enfrentamos desafíos sin precedentes para controlarlos. Compara el impacto de la IA con el de la Revolución Industrial y enfatiza la necesidad de una supervisión cuidadosa.
El Dr. Hopfield destaca que los avances tecnológicos como la IA pueden traer consigo importantes beneficios y riesgos. Sus ideas subrayan la importancia del juicio humano y las consideraciones éticas, especialmente en campos críticos como el derecho, donde hay mucho en juego.
El futuro del derecho en la era de la IA neurosimbólica está lleno de posibilidades. Si bien no podemos predecir exactamente lo que sucederá, una cosa es segura: requerirá tanto la lógica aguda de las máquinas como la comprensión matizada de los humanos.
Después de todo, como observó el ex juez de la Corte Suprema de los Estados Unidos, Oliver Wendell Holmes Jr., hace más de un siglo: “Un buen abogado conoce la ley; un gran abogado conoce al juez”.
Esta sabiduría sigue siendo pertinente en la era de la IA, a menos, por supuesto, que el juez sea una máquina.
LONDRES, INGLATERRA – 11 DE OCTUBRE: Ai-Da Robot, el primer artista robot humanoide ultrarrealista del mundo, … [+] Aparece en una sesión fotográfica en una sala del comité de la Cámara de los Lores el 11 de octubre de 2022 en Londres, Inglaterra.
Imágenes falsas
You may like
Noticias
La postura ‘poco ética’ de OpenAI en Studio Ghibli podría llevar a las marcas a ‘rechazar’ la gen ai
Published
1 hora agoon
3 abril, 2025
La película de 2024 Hayao Miyazaki y The Heron cuenta la historia de Miyazaki, el fundador del estudio de animación Ghibli, y documenta cómo su trabajo minucioso lo consume; Su película The Boy and the Heron tardó siete años en hacer.
Vale la pena tener esto en cuenta al recordar cómo la semana pasada, después de la actualización de generación de imágenes 4O de Chatgpt, se soltó en el mundo y una tendencia surgió rápidamente. Los usuarios comenzaron a crear imágenes al estilo de los personajes animados de Studio Gibli.
Los resultados fueron principalmente personas que se metían y creaban un personaje a su propia imagen o personas famosas en situaciones de memes, lo que, mientras que en la superficie parecía lo suficientemente inofensivo, también provocó críticas de aquellos que explican que el universo de Studio Ghibli está cuidadosamente seleccionado y recurre al mundo natural. La ironía de esto también se planteó, dados los recursos energéticos que AI atrae.
¿Quieres profundizar? Preguntar el tambor
Luego estaban los usos bastante oscuros y sorprendentes, como el gobierno de los Estados Unidos que lo que impulsa esto de mal gusto.
https://t.co/pvdinmshxs pic.twitter.com/bw5yuci2xl
– La Casa Blanca (@WhiteBouse) 27 de marzo de 2025
Las consecuencias fueron rápidas y fuertes, impulsadas en particular por un comentario resurgido de Miyazaki, registrado en el documental de 2016 Never-Man: Hayao Miyazaki, donde él dice que dice: “Estoy completamente disgustado … Creo firmemente que esto es un insuficiente en sí mismo”, cuando se muestra un ejemplo de las capacidades de AI.
De acuerdo, esto fue hace algún tiempo y AI se ha movido de alguna manera, pero es bastante poco probable que Miyazaki haya estado aplaudiendo y riendo junto con la tendencia que es esencialmente un filtro de redes sociales.
Con los recursos y el alcance de Operai, es poco probable que la marca de ChatGPT haya sido dañada por el episodio de Ghibli y probablemente continuará entrenándose en todo lo que se ha creado al tiempo que mejora su precisión para intentar materializar el hiperrealismo rápido o un estilo afectado a pedido.
Simon Manchipp, experto en estrategia de marca y socio fundador de la agencia de diseño de alguien, llama a la última actualización de OpenAI “un vacío ético en el corazón de la IA generativa”. Él dice: “Esto no es innovación, es imitación a escala, con la reputación de Studio Gibli, basada en décadas de dominio artístico, reducida a un moderno truco de IA”.
¿La cultura ‘rechazará AI’?
Manchipp plantea la pregunta: “¿Cuánto tiempo más se arriesgarán las principales marcas de la reacción que viene con ‘arte’ generado por IA?
“Si Operai continúa por este camino sin control, corre el riesgo de más que solo un daño reputacional. Contiene el riesgo de crear un paisaje cultural donde el público rechaze activamente el contenido generado por la IA a favor del arte real. Y si las marcas se prevé, reconocerán que la asociación con artistas reales, no perseguir la última tendencia de la IA, es la única forma de garantizar que su trabajo sea valioso y respectado”. “..”..
A pesar de este desarrollo sin control, ChatGPT todavía no puede hacer lo que los artistas, animadores y estudios pueden, lo que es crear un cuerpo de trabajo con un punto de vista humano, que se muestra en toda su sutileza y caos.
El contexto legal
Sin embargo, en última instancia, esto no detendrá su progreso. Esta semana, observé el panorama legal para los creadores y cómo la ley de derechos de autor les está fallando en diferentes regiones del mundo (excepto Japón, posiblemente). Optar fuera es la única opción en este momento, pero dado que los modelos de idiomas grandes (LLM) ya han estudiado la mayoría de la información histórica, el daño ya está hecho.
Studio Ghibli ahora es, como muchos otros, a merced de LLM. Jon Cockley es el cofundador de la agencia de ilustración Handsome Frank, que tiene a personajes como Jean Jullien y Malika Favre en los libros y ofrecen servicios de animación. Su punto de vista es mixto, pero tiene claro cuán “salvaje” es la tendencia de Gibli y cómo está haciendo que los ilustradores “se sientan muy expuestos por ella”.
En el punto del estilo Chibli Chatgpt, Cockley refleja que “el estilo no es solo cómo dibujas, la textura y la paleta de colores, también es el tema, la idea y el punto de vista, el ángulo y el uso de la luz”.
Marcas que buscan artistas reales
A medida que Chatgpt continúa a un ritmo tan agresivo sin consideraciones éticas, Cockley, como Manchipp, siente que alejará a algunas marcas de la IA.
“Lo que estoy viendo de las marcas premium y de lujo (moda, hoteles y restaurantes) es que están reaccionando a la inundación de cosas de IA tratando de encargar el trabajo que se ve y se siente dirigido por artistas y claramente tiene la mano del creador en él”, dice Cockley, y agrega: “La IA es el mercado masivo, se percibe barato y eso lo devalúa”.
La tendencia de Ghibli Chatgpt está “completamente en desacuerdo con la tendencia en las redes sociales donde se requiere que los artistas salgan de detrás de su trabajo”, dice. Esto ha llevado a una mayor inversión en autenticidad realizada por los clientes. “Quieren videos de trabajo en progreso, contenido social y para que los artistas muestren sus caras. La marca no solo invierte en la obra de arte; quiere que el contenido muestre que ha funcionado con un artista, lo que obviamente no puede hacer”.
Este deseo de ser visto para trabajar con los creadores viene en conjunto con un rechazo de la estética que ai a menudo produce. La “apariencia de IA”, que él llama “una súper realidad”, generalmente “no es para clientes de lujo” que lo descartan, ya que se siente desastre.
Cockley contribuyó a una reciente revisión de derechos de autor del gobierno del Reino Unido sobre la IA y la propiedad, pero no tiene mucha esperanza en el frente legislativo, sino que aboga por los modelos propiedad de artistas, por lo que tiene un “optimismo cauteloso”.
La pelea
Recientemente hablé con Tonia Samsonova de Exacti.Ai, lo que brinda a los creadores la propiedad de su propio modelo para que puedan usarlo para sus propios fines iterativos, por ejemplo, en el trabajo del cliente, o hacerla pública para que se pueda pagar cuando un usuario hace algo en su estilo.
Después de las últimas actualizaciones de ChatGPT, Samsonova es inequívoco en su opinión de que el enfoque de Openii es “imprudente y poco ético” y ha obligado a muchas agencias de diseño y editores a adoptar políticas de AI.
Ella dice: “Me parece profundamente preocupante que una empresa que debería acelerar la innovación la está obstruyendo. La liberación de la función de transferencia de estilo de OpenAI hizo que sea completamente predecible que los usuarios comenzaran a disparar la pantalla del trabajo de otros para generar imágenes derivadas. Eso no es innovación, es un robo. imágenes.
“Aún más preocupante es la afirmación de OpenAI de que los usuarios tienen la propiedad sobre el contenido generado con sus herramientas, una afirmación que ignora por completo los derechos de los creadores originales”.
Ella ve su plataforma como en oposición directa a los productos OpenAI. “Estamos limpiando activamente el desorden creado por el enfoque de OpenAI y mostrando a la industria que la innovación ética no solo es posible, es esencial”.
Boletines sugeridos para ti
Marketing semanal
Viernes
Manténgase al día con un resumen curado de las historias de marketing más importantes y las ideas expertas de nuestro equipo global.
Noticias
El estudio sugiere que Openai no está esperando la exención de derechos de autor • El registro
Published
8 horas agoon
3 abril, 2025
El magnate del libro de texto tecnológico Tim O’Reilly afirma que OpenAi minó los tomos protegidos por derechos de autor de su editorial para los datos de capacitación y lo alimentó con su modelo GPT-4O de primer nivel sin permiso.
Esto se produce cuando el advenedizo generativo de IA enfrenta demandas sobre su uso de material con derechos de autor, supuestamente sin el debido consentimiento o compensación, para capacitar a su familia de redes neuronales GPT. Openai niega cualquier irregularidad.
O’Reilly (el hombre) es uno de los tres autores de un estudio [PDF] Titulado “Más allá del acceso público en los datos de pre-entrenamiento de LLM: contenido de libros no públicos en los modelos de OpenAI”, emitido por el Proyecto de Divulgaciones de AI.
Por no público, los autores significan libros que están disponibles para humanos detrás de un muro de pago, y no están disponibles públicamente para leer de forma gratuita a menos que cuente sitios que piratean ilegalmente este tipo de material.
El trío se propuso determinar si GPT-4O tenía, sin el permiso del editor, haber ingerido 34 libros de medios O’Reilly de derechos de autor. Para sondear el modelo, que impulsa el chatgpt de fama mundial, realizaron los llamados ataques de inferencia de copas descritos en este documento previo a la presencia 2024.
Así es como funcionó: el equipo planteó el modelo de OpenAI una serie de preguntas de opción múltiple. Cada pregunta pidió al software que seleccionara de un grupo de párrafos, etiquetado A a D, el que es un paso de texto literal de un libro de O’Reilly (el editor). Una de las opciones se levantó directamente del libro, las otras parafrases generadas por ametralladoras del original.
Si el modelo OpenAI tendía a responder correctamente e identificar los párrafos literales, eso sugirió que probablemente estaba entrenado en ese texto con derechos de autor.
Más específicamente, las opciones del modelo se usaron para calcular lo que se denomina un área bajo la puntuación operativa del receptor (AUROC), con cifras más altas que indican una mayor probabilidad de que la red neuronal se entrenara en pasajes de los 34 libros de Reesilles. Mientras tanto, los puntajes más cercanos al 50 por ciento se consideraron una indicación de que el modelo no había sido entrenado en los datos.
Pruebas de modelos OpenAI GPT-3.5 Turbo y GPT-4O Mini, así como GPT-4O, en 13,962 párrafos descubiertos resultados mixtos.
GPT-4O, que se lanzó en mayo de 2024, obtuvo un 82 por ciento, una fuerte señal de que probablemente fue entrenada en el material del editor. Los investigadores especularon que OpenAI puede haber entrenado el modelo utilizando la base de datos de LibGen, que contiene los 34 libros probados. Puede recordar que Meta también ha sido acusado de capacitar a sus modelos de llama utilizando este notorio conjunto de datos.
El papel de los datos no públicos en los datos de pre-entrenamiento modelo de OpenAI ha aumentado significativamente con el tiempo
La puntuación AUROC para el modelo GPT-3.5 de 2022 llegó a poco más del 50 por ciento.
Los investigadores afirmaron que el puntaje más alto para GPT-4O es evidencia de que “el papel de los datos no públicos en los datos de pre-entrenamiento modelo de OpenAI ha aumentado significativamente con el tiempo”.
Sin embargo, el trío también encontró que el modelo GPT-4O más pequeño, también lanzado en 2024 después de un proceso de entrenamiento que terminó al mismo tiempo que el modelo GPT-4O completo, no aparentemente no estaba entrenado en los libros de O’Reilly. Piensan que no es un indicador que sus pruebas son defectuosas, pero que el recuento de parámetros más pequeño en el mini modelo puede afectar su capacidad de “recordar” el texto.
“Estos resultados resaltan la necesidad urgente de una mayor transparencia corporativa con respecto a las fuentes de datos de pre-entrenamiento como un medio para desarrollar marcos formales de licencia para la capacitación de contenido de IA”, escribieron los autores.
“Aunque la evidencia presente aquí sobre las violaciones de acceso al modelo es específica para los libros de medios de OpenAi y O’Reilly, este es probablemente un problema sistemático”, agregaron.
El trío, que incluyó a Sruly Rosenblat e Ilan Strauss, también advirtió que no podría resultar en compensar adecuadamente a los creadores por sus obras, y si puede perdonar la jerga, la presentación de todo Internet.
“Si las compañías de IA extraen valor de los materiales producidos de un creador de contenido sin compensar justicios al creador, corren el riesgo de agotar los recursos de los cuales dependen sus sistemas de IA”, argumentaron. “Si no se abordan, los datos de capacitación no compensados podrían conducir a una espiral descendente en la calidad y diversidad de contenido de Internet”.
Los datos de capacitación no compensados podrían conducir a una espiral descendente en la calidad y diversidad de contenido de Internet
Los gigantes de IA parecen saber que no pueden confiar en el raspado de Internet para encontrar el material que necesitan para entrenar modelos, ya que han comenzado a firmar acuerdos de licencia de contenido con editores y redes sociales. El año pasado, Operai Tinked acuerdos con Reddit y Time Magazine para acceder a sus archivos con fines de capacitación. Google también hizo un acuerdo con Reddit.
Recientemente, sin embargo, Operai ha instado al gobierno de los Estados Unidos a relajar las restricciones de derechos de autor de manera que facilitaría la capacitación de modelos de IA.
El mes pasado, el Super-Lab presentó una carta abierta a la Oficina de Ciencia y Tecnología de la Casa Blanca en la que argumentó que “las reglas rígidas de derechos de autor reproducen innovación e inversión”, y que si no se toma medidas para cambiar esto, los constructores de modelos chinos podrían superar a las empresas estadounidenses.
Mientras que los fabricantes de modelos aparentemente luchan, los abogados están bien. Como informamos recientemente, Thomson Reuters ganó un juicio sumario parcial contra Ross Intelligence después de que un tribunal de EE. UU. Descubrió que la startup había infringido los derechos de autor utilizando los notas de los Westlaw de Newswire para capacitar su sistema de IA.
Mientras que los entrenadores de redes neuronales presionan para un acceso sin restricciones, otros en el mundo tecnológico están introduciendo obstáculos para proteger el material con derechos de autor. El mes pasado, Cloudflare lanzó una IA de botes de bot diseñada para hacer la vida miserable para raspadores que ignoran las directivas de robots.txt.
El “laberinto de IA de AI” de Cloudflare funciona atrayendo a Rogue Crawler a los bots de Rogue en un laberinto de páginas de señuelo, desperdiciando su tiempo y calculando recursos mientras protege el contenido real.
Operai no respondió de inmediato a una solicitud de comentarios; Te avisaremos si escuchamos algo. ®
Noticias
La ronda de financiamiento de $ 40 mil millones de OpenAI desafía el momento profundo y cements su dominance de IA
Published
1 día agoon
2 abril, 2025
La semana pasada, los procesadores de GPU de Openai “derretidos”, como lo expresaron el fundador y CEO Sam Altman. La razón: el modelo actualizado de generación de imágenes de la compañía, integrado en CHATGPT, entregó un salto significativo en las capacidades de comprensión, entrada y salida en comparación con modelos similares en el mercado. En poco tiempo, el modelo encendió un fenómeno en línea, con usuarios que generan versiones de imágenes familiares al estilo del legendario estudio de animación Ghibli. La demanda del software era tan alta que Openai se vio obligada a imponer restricciones de uso, a pesar de que el modelo estaba disponible solo para pagar a los usuarios.
Este evento ofrece una explicación clara de por qué, incluso después de que el momento profundo de Deepseek sacudió la industria de la IA en enero, los inversores siguen seguros de que el dominio de OpenAI no es cuestionado. ¿Qué tan seguro? Lo suficientemente seguro de respaldar a la compañía con una ronda de financiación récord de $ 40 mil millones, valorando a Openai en $ 300 mil millones después del dinero.
1 Ver galería
Sam Altman
(Foto: Joel Saget/AFP)
Anunciado el martes, la ronda casi duplica la valoración de Operai de su aumento anterior y es el más grande para una empresa privada. Según OpenAI, los fondos acelerarán el desarrollo de la inteligencia general artificial (AGI). “[The funding] Nos permite impulsar las fronteras de la investigación de IA aún más, escalar nuestra infraestructura de cómputo y ofrecer herramientas cada vez más poderosas para los 500 millones de personas que usan CHATGPT cada semana “, dijo la compañía en un comunicado de prensa.” Estamos emocionados de trabajar en asociación con SoftBank Group: las compañías completan cómo escalar tecnología transformadora como lo hacen. Su apoyo nos ayudará a continuar construyendo sistemas de IA que impulsen el descubrimiento científico, permitan la educación personalizada, mejoren la creatividad humana y allanen el camino hacia AGI que beneficie a toda la humanidad “.
La ronda está dirigida por el SoftBank de Japón, el socio clave de OpenAI en el Proyecto Stargate, una ambiciosa iniciativa para construir una infraestructura informática de IA en los Estados Unidos con una inversión total de $ 500 mil millones. Según Bloomberg, en la primera fase, SoftBank invertirá $ 7.5 mil millones, mientras que un sindicato de inversores, incluidos Microsoft, Coatue Management, Altimeter Capital Management y Thrive Capital, contribuirá con $ 2.5 mil millones. La segunda fase, que cerrará a fin de año, hará que SoftBank invierta otros $ 22.5 mil millones, con el sindicato de inversores agregando $ 7.5 mil millones. Las conversaciones también están en marcha con el capital de Magnetar de Peter Thiel y los fundadores para unirse al sindicato.
La inversión completa de SoftBank depende de que Operai complete su transición a una estructura con fines de lucro para fin de año (actualmente está controlada por una organización sin fines de lucro). Si la transición no se completa, SoftBank tendrá la opción de reducir su inversión de $ 30 mil millones a $ 20 mil millones, lo que permite a OpenAI buscar inversores adicionales para cerrar la brecha.
Al finalizar la ronda de financiación, OpenAI se convertirá en la segunda compañía privada respaldada por la empresa más grande del mundo por capitalización de mercado, según la firma de investigación Pitchbook. Solo seguirá el SpaceX de Elon Musk, valorado en $ 350 mil millones, y superará a la empresa matriz de Tiktok Bytedance, que está valorada en $ 220 mil millones. La ronda de $ 40 mil millones también es la cantidad más grande jamás recaudada en una sola ronda por una empresa privada, eclipsando el récord anterior establecido por el grupo de hormigas de China, que recaudó $ 14 mil millones en 2018.
The Deepseek Moment: Un desafío que no pudo sacudir OpenAi
Hace solo dos meses, un aumento tan ambicioso parecía mucho menos seguro. El 20 de enero, la compañía china Deepseek presentó su modelo de razonamiento R1 AI, que ofreció un rendimiento comparable a los modelos líderes de OpenAI y sus competidores, pero según los informes, a una fracción de la potencia y el costo informático. Esta revelación envió ondas de choque a través de la industria de la IA (NVIDIA, por ejemplo, vio una pérdida de $ 1 billón en la capitalización de mercado), lo que generó dudas sobre la estrategia de alto costo que OpenAi había seguido.
El dominio de OpenAI se ha basado en inversiones masivas en desarrollo de modelos, capacitación e implementación, mejor ejemplificado por el ambicioso proyecto Stargate. La ventaja competitiva de la compañía también se ha basado en ensamblar un equipo de investigación de IA de primer nivel capaz de producir avances de vanguardia. Sin embargo, el momento de Deepseek calificó esta estrategia: si una empresa china relativamente pequeña podría lograr resultados similares con mucha menos inversión, el foso competitivo de OpenAi parecía estar en riesgo. Lógicamente, su valoración debería haber disminuido. En cambio, con la última ronda, Operai casi ha duplicado su valoración en solo seis meses.
Tres factores clave explican por qué los inversores siguen siendo optimistas en OpenAi a pesar del desafío Deepseek:
1. Las capacidades de Deepseek pueden haber sido exageradas. Después de que el bombo inicial se desvaneció, quedó claro que los costos de desarrollo de Deepseek no eran tan bajos como se creía inicialmente. Además, hay indicios de que Deepseek puede haber aprovechado los propios modelos de OpenAI en su desarrollo, lo que el gobierno de los Estados Unidos ha referido como robo de propiedad intelectual. Si esto es cierto, Operai puede tomar medidas para bloquear la explotación futura, reforzando su foso.
2. Confianza de los inversores en el liderazgo de Altman y OpenAi. La fortaleza financiera de Operai es solo una parte de su éxito; Su equipo de liderazgo, dirigido por Altman, es igualmente crucial. Los inversores confían en la capacidad del equipo para adaptarse a los cambios de mercado, como incorporar métodos de capacitación más baratos mientras asignan el poder informático a tareas más avanzadas.
3. La interrupción de Deepseek en realidad puede beneficiarse de OpenAi. Al demostrar que los modelos de IA pueden ser entrenados de manera más eficiente, Deepseek ha aumentado la demanda general del mercado de IA avanzada. Los inversores creen que Openai está mejor posicionado para capitalizar esta demanda, aprovechando tanto sus modelos existentes como sus iteraciones futuras desarrolladas con métodos más eficientes inspirados en el enfoque de Deepseek.
La revolución de IA que OpenAi encendió hace dos años y medio ahora se está acelerando aún más, y los inversores están convencidos de que la compañía permanecerá a la vanguardia. Su voto de confianza de $ 40 mil millones lo dice todo.
Related posts


















































































































































































































































Trending
-
Startups11 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales11 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Startups9 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Recursos11 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups11 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos11 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Recursos10 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Noticias9 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo