Connect with us

Noticias

Operai tiene poco recurso legal contra Deepseek, dicen los expertos en derecho tecnológico.

Published

on

  • Operai y la Casa Blanca han acusado a Deepseek de usar ChatGPT para entrenar a bajo precio a su nuevo chatbot.
  • Los expertos en derecho tecnológico dicen que OpenAi tiene poco recurso bajo la propiedad intelectual y el derecho contractual.
  • Los términos de uso de OpenAI pueden aplicarse, pero son en gran medida poco aplicados, dicen los expertos.

Esta semana, Openai y la Casa Blanca acusaron a Deep Speek de algo similar al robo.

En una ráfaga de declaraciones de prensa, dijeron que el advenedizo con sede en China había bombardeado los chatbots de OpenAi con consultas, aumentando los datos resultantes para entrenar de manera rápida y económica un modelo que ahora es casi tan bueno.

El “zar” de IA de la administración Trump, dijo que este proceso de capacitación, llamado “destilación”, equivale al robo de propiedad intelectual. Mientras tanto, Openai le dijo a Business Insider y otros puntos de venta que está investigando si “Deepseek puede haber destilado inapropiadamente nuestros modelos”.

Operai no dice que si la compañía planea seguir acciones legales, en lugar de prometer lo que un portavoz llamó “contramedidas agresivas y proactivas para proteger nuestra tecnología”.

¿Pero podrían? ¿Podrían demandar a Deepseek por los terrenos de “Robaste nuestros contenidos”, al igual que los terrenos Openai fue demandado en un reclamo de derechos de autor de 2023 presentado por el New York Times y otros medios de comunicación?

Business Insider planteó esta pregunta a los expertos en derecho de tecnología, quienes dijeron que desafiar a Deepseek en los tribunales sería una batalla cuesta arriba para OpenAi, ahora que el zapato de apropiación de contenido está en el otro pie.

Operai tendría dificultades para demostrar una propiedad intelectual o un reclamo de derechos de autor, dijeron estos abogados.

“La pregunta es si los salidas de ChatGPT”, lo que significa que las respuestas que genera en respuesta a las consultas, “son con derechos de autor en absoluto”, dijo Mason Kortz de Harvard Law School.

Eso es porque no está claro que las respuestas chatgpt escupen calificaciones como “creatividad”, dijo.

“Hay una doctrina que dice que la expresión creativa es con derechos de autor, pero los hechos e ideas no lo son”, explicó Kortz, quien enseña en la Clínica Cyberlaw de Harvard.

“Hay una gran pregunta en la ley de propiedad intelectual en este momento sobre si los resultados de una IA generativa pueden constituir una expresión creativa o si son necesariamente hechos sin protección”.

Podría abrir los dados de todos modos de todos modos, y afirmar que sus salidas en realidad son ¿protegido?

Eso sería poco probable, dijeron los abogados.

Operai ya está en el registro en el caso de derechos de autor del New York Times argumentando que la AI de capacitación es una excepción permitida de “uso justo” a la protección de derechos de autor.

Si hacen un 180 y dicen a Deepseek que el entrenamiento no es un uso justo, “eso podría volver a morderlos”, dijo Kortz. “Deepseek podría decir: ‘Oye, ¿no sabías que el entrenamiento es de uso justo?'”

Podría decirse que hay una distinción entre los casos de los tiempos y los profundos, agrega Kortz.

“Tal vez sea más transformador convertir los artículos de noticias en un modelo”, como el Times acusa a Openi de hacer, “que convertir los resultados de un modelo en otro modelo” como lo ha hecho Deepseek, dijo Kortz.

“Pero esto todavía pone a Openai en una situación bastante complicada con respecto a la línea de que ha sido remolcado con respecto al uso justo”.

Es más probable que un incumplimiento de la demanda por contrato sea

Una demanda por incumplimiento de contrato es mucho más probable que una demanda basada en IP, aunque viene con su propio conjunto de problemas, dijo Anupam Chander, quien enseña ley de tecnología en la Universidad de Georgetown.

Los términos de servicio para chatbots tecnológicos grandes como los desarrollados por OpenAI y Anthopic prohíben usar su contenido como forraje de capacitación para un modelo de IA competidores.

“Entonces, tal vez esa sea la demanda que posiblemente podría presentar, un reclamo basado en contratos, no un reclamo basado en IP”, dijo Chander.

“No ‘copiaste algo de mí’, pero que te beneficiaste de mi modelo para hacer algo que no se le permitió hacer bajo nuestro contrato”.

Hay un posible enganche, Chander y Kortz dicen. Los términos de servicio de OpenAI requieren que la mayoría de las reclamaciones se resuelvan mediante arbitraje, no demandas. Hay una excepción para las demandas “para detener el uso o abuso no autorizados del servicio o infracción de propiedad intelectual o apropiación indebida.

Sin embargo, hay un enganche más grande, dicen los expertos.

“Debe saber que el brillante erudito Mark Lemley y un coautor argumentan que los términos de uso de IA probablemente no sean ejecutables”, dijo Chander. Se refería a un artículo del 10 de enero, el espejismo de las restricciones de términos de uso de inteligencia artificial, por Mark A. Lemley de Stanford Law, y Peter Henderson del Centro de Tecnología de la Información de la Universidad de Princeton.

Hasta la fecha, “ningún creador de modelos ha tratado de hacer cumplir estos términos con sanciones monetarias o medidas cautelares”, dice el periódico.

“Esto es probable por una buena razón: creemos que la ejecución legal de estas licencias es cuestionable”, dice. Esto se debe en parte a que los resultados del modelo “no son en gran medida con derechos de autor” y porque las leyes como la Ley de Derechos de Autor Digital Millennium y la Ley de Fraude y Abuso de la Computadora “ofrecen un recurso limitado”, argumenta.

“Creo que probablemente no sean envejecidos”, dijo Lemley a BI de los términos de servicio de OpenAi, “porque Deepseek no tomó nada con derechos de autor por OpenAi, y porque los tribunales generalmente no harán cumplir los acuerdos para no competir en ausencia de un derecho IP que evitaría esa competencia “.

Las demandas entre las partes en diferentes naciones, cada una con sus propios sistemas legales y de aplicación, siempre son complicadas, dijo Kortz.

Incluso si OpenAi despejó todos los obstáculos anteriores y ganó un juicio de un tribunal o árbitro de los Estados Unidos, “para que se vea profundamente para entregar dinero o dejar de hacer lo que está haciendo, la aplicación se reduciría al sistema legal chino”, dijo. .

Aquí, Openai estaría a merced de otra área de derecho extremadamente complicada, la aplicación de los juicios extranjeros y el equilibrio de los derechos individuales y corporativos y la soberanía nacional, que se remonta antes de la fundación de los Estados Unidos.

“Así que este es, un proceso largo, complicado y tenso”, agregó Kortz.

¿Podría OpenAi haberse protegido mejor de una incursión en destilación?

“Podrían haber usado medidas técnicas para bloquear el acceso repetido a su sitio”, dijo Lemley. “Pero hacerlo también interferiría con los clientes normales”.

Agregó: “No creo que puedan, o deberían, tener un reclamo legal válido contra la búsqueda de información que no se puede ver con el sitio público”.

Los representantes de Deepseek no respondieron de inmediato a una solicitud de comentarios.

“Sabemos que los grupos de la RPC están trabajando activamente para usar métodos, incluida lo que se conoce como destilación, para tratar de replicar modelos avanzados de IA US”, dijo la portavoz de OpenAi, Rhianna Donaldson, a BI en una declaración enviada por correo electrónico.

“Somos conscientes y revisando las indicaciones de que Deepseek puede haber destilado inapropiadamente nuestros modelos y compartirá información como sabemos más”, dijo el comunicado. “Tomamos contramedidas agresivas y proactivas para proteger nuestra tecnología y continuaremos trabajando estrechamente con el gobierno de los Estados Unidos para proteger los modelos más capaces que se están construyendo aquí”.

Continue Reading

Noticias

Operai trae GPT-4.1 y 4.1 mini a Chatgpt-Lo que las empresas deben saber

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información


Operai está implementando GPT-4.1, su nuevo modelo de lenguaje grande (LLM) no inicial que equilibra el alto rendimiento con menor costo, para los usuarios de ChatGPT. La compañía está comenzando con sus suscriptores que pagan en ChatGPT Plus, Pro y Equipo, con el acceso a los usuarios de la empresa y la educación esperada en las próximas semanas.

También está agregando GPT-4.1 Mini, que reemplaza a GPT-4O Mini como el valor predeterminado para todos los usuarios de ChatGPT, incluidos los de nivel gratuito. La versión “Mini” proporciona un parámetro a menor escala y, por lo tanto, una versión menos potente con estándares de seguridad similares.

Ambos modelos están disponibles a través de la selección desplegable “Más modelos” en la esquina superior de la ventana de chat dentro de ChatGPT, dando a los usuarios flexibilidad para elegir entre modelos GPT-4.1, GPT-4.1 mini y razonamiento como O3, O4-Mini y O4-Mini-High.

Inicialmente destinado a usar solo por el software de terceros y los desarrolladores de IA a través de la interfaz de programación de aplicaciones (API) de OpenAI, se agregó GPT-4.1 a ChatGPT siguiendo fuertes comentarios de los usuarios.

El líder de investigación de la capacitación posterior de Operai, Michelle Pokrass, confirmó en X, el cambio fue impulsado por la demanda, escribiendo: “Inicialmente estábamos planeando mantener esta API de modelo solo, pero todos lo querían en Chatgpt 🙂 ¡feliz codificación!”

El director de productos de Operai, Kevin Weil, publicó en X diciendo: “Lo construimos para los desarrolladores, por lo que es muy bueno para la codificación e instrucciones siguientes, ¡hágalo un intento!”

Un modelo centrado en la empresa

GPT-4.1 fue diseñado desde cero para la practicidad de grado empresarial.

Lanzado en abril de 2025 junto con GPT-4.1 Mini y Nano, esta familia modelo priorizó las necesidades de los desarrolladores y los casos de uso de producción.

GPT-4.1 ofrece una mejora de 21.4 puntos sobre GPT-4O en el punto de referencia de ingeniería de software verificado SWE-Bench, y una ganancia de 10.5 puntos en tareas de seguimiento de instrucciones en el punto de referencia MultiChallenge de Scale. También reduce la verbosidad en un 50% en comparación con otros modelos, un rasgo de los usuarios de la empresa elogió durante las pruebas tempranas.

Contexto, velocidad y acceso al modelo

GPT-4.1 admite el contexto estándar Windows para ChatGPT: 8,000 tokens para usuarios gratuitos, 32,000 tokens para usuarios más y 128,000 tokens para usuarios de Pro.

Según el desarrollador Angel Bogado Publicing en X, estos límites coinciden con los utilizados por los modelos de CHATGPT anteriores, aunque los planes están en marcha para aumentar aún más el tamaño del contexto.

Si bien las versiones API de GPT-4.1 pueden procesar hasta un millón de tokens, esta capacidad ampliada aún no está disponible en ChatGPT, aunque el soporte futuro se ha insinuado.

Esta capacidad de contexto extendida permite a los usuarios de la API alimentar las bases de código enteras o grandes documentos legales y financieros en el modelo, útil para revisar contratos de documentos múltiples o analizar grandes archivos de registro.

Operai ha reconocido cierta degradación del rendimiento con entradas extremadamente grandes, pero los casos de prueba empresarial sugieren un rendimiento sólido de hasta varios cientos de miles de tokens.

Evaluaciones y seguridad

Operai también ha lanzado un sitio web de Safety Evaluations Hub para brindar a los usuarios acceso a métricas clave de rendimiento en todos los modelos.

GPT-4.1 muestra resultados sólidos en estas evaluaciones. En las pruebas de precisión de hecho, obtuvo 0.40 en el punto de referencia SimpleQA y 0.63 en Personqa, superando a varios predecesores.

También obtuvo 0.99 en la medida “no insegura” de OpenAI en las pruebas de rechazo estándar, y 0.86 en indicaciones más desafiantes.

Sin embargo, en la prueba de jailbreak Strongject, un punto de referencia académico para la seguridad en condiciones adversas, GPT-4.1 obtuvo 0.23, detrás de modelos como GPT-4O-Mini y O3.

Dicho esto, obtuvo un fuerte 0.96 en indicaciones de jailbreak de origen humano, lo que indica una seguridad más robusta del mundo real bajo el uso típico.

En la adhesión de instrucciones, GPT-4.1 sigue la jerarquía definida de OpenAI (sistema sobre desarrollador, desarrollador sobre mensajes de usuario) con una puntuación de 0.71 para resolver conflictos de mensajes del sistema frente a usuario. También funciona bien para proteger frases protegidas y evitar regalos de soluciones en escenarios de tutoría.

Contextualización de GPT-4.1 contra predecesores

El lanzamiento de GPT-4.1 se produce después del escrutinio alrededor de GPT-4.5, que debutó en febrero de 2025 como una vista previa de investigación. Ese modelo enfatizó un mejor aprendizaje sin supervisión, una base de conocimiento más rica y alucinaciones reducidas, que caían del 61.8% en GPT-4O al 37.1%. También mostró mejoras en los matices emocionales y la escritura de forma larga, pero muchos usuarios encontraron las mejoras sutiles.

A pesar de estas ganancias, GPT-4.5 generó críticas por su alto precio, hasta $ 180 por millón de tokens de producción a través de API, y por un rendimiento decepcionante en matemáticas y puntos de referencia de codificación en relación con los modelos O-Series O de OpenAi. Las cifras de la industria señalaron que si bien GPT-4.5 era más fuerte en la conversación general y la generación de contenido, tuvo un rendimiento inferior en aplicaciones específicas del desarrollador.

Por el contrario, GPT-4.1 se pretende como una alternativa más rápida y más enfocada. Si bien carece de la amplitud de conocimiento de GPT-4.5 y un modelado emocional extenso, está mejor sintonizado para la asistencia de codificación práctica y se adhiere de manera más confiable a las instrucciones del usuario.

En la API de OpenAI, GPT-4.1 tiene un precio de $ 2.00 por millón de tokens de entrada, $ 0.50 por millón de tokens de entrada en caché y tokens de salida de $ 8.00 por millón.

Para aquellos que buscan un saldo entre velocidad e inteligencia a un costo más bajo, GPT-4.1 Mini está disponible en $ 0.40 por millón de tokens de entrada, $ 0.10 por millón de tokens de entrada en caché y tokens de salida de $ 1.60 por millón.

Los modelos Flash-Lite y Flash de Google están disponibles a partir de $ 0.075– $ 0.10 por millón de tokens de entrada y $ 0.30– $ 0.40 por millón de tokens de salida, menos de una décima parte del costo de las tasas base de GPT-4.1.

Pero si bien GPT-4.1 tiene un precio más alto, ofrece puntos de referencia de ingeniería de software más fuertes y una instrucción más precisa después, lo que puede ser crítico para los escenarios de implementación empresarial que requieren confiabilidad sobre el costo. En última instancia, el GPT-4.1 de OpenAI ofrece una experiencia premium para el rendimiento de precisión y desarrollo, mientras que los modelos Gemini de Google atraen a empresas conscientes de costos que necesitan niveles de modelos flexibles y capacidades multimodales.

Lo que significa para los tomadores de decisiones empresariales

La introducción de GPT-4.1 aporta beneficios específicos a los equipos empresariales que administran la implementación de LLM, la orquestación y las operaciones de datos:

  • Ingenieros de IA Supervisando la implementación de LLM puede esperar una velocidad mejorada e instrucción de adherencia. Para los equipos que administran el ciclo de vida LLM completo, desde el modelo de ajuste hasta la resolución de problemas, GPT-4.1 ofrece un conjunto de herramientas más receptivo y eficiente. Es particularmente adecuado para equipos Lean bajo presión para enviar modelos de alto rendimiento rápidamente sin comprometer la seguridad o el cumplimiento.
  • La orquestación de IA conduce Centrado en el diseño de tuberías escalable apreciará la robustez de GPT-4.1 contra la mayoría de las fallas inducidas por el usuario y su fuerte rendimiento en las pruebas de jerarquía de mensajes. Esto facilita la integración en los sistemas de orquestación que priorizan la consistencia, la validación del modelo y la confiabilidad operativa.
  • Ingenieros de datos Responsable de mantener una alta calidad de datos e integrar nuevas herramientas se beneficiará de la tasa de alucinación más baja de GPT-4.1 y una mayor precisión objetiva. Su comportamiento de salida más predecible ayuda a construir flujos de trabajo de datos confiables, incluso cuando los recursos del equipo están limitados.
  • Profesionales de seguridad de TI La tarea de integrar la seguridad en las tuberías de DevOps puede encontrar valor en la resistencia de GPT-4.1 a jailbreaks comunes y su comportamiento de salida controlado. Si bien su puntaje académico de resistencia de jailbreak deja espacio para mejorar, el alto rendimiento del modelo contra las exploits de origen humano ayuda a apoyar la integración segura en herramientas internas.

En estos roles, el posicionamiento de GPT-4.1 como un modelo optimizado para mayor claridad, cumplimiento y eficiencia de implementación lo convierte en una opción convincente para empresas medianas que buscan equilibrar el rendimiento con las demandas operativas.

Un nuevo paso adelante

Mientras que GPT-4.5 representaba un hito de escala en el desarrollo del modelo, GPT-4.1 se centra en la utilidad. No es el más caro o el más multimodal, pero ofrece ganancias significativas en áreas que importan para las empresas: precisión, eficiencia de implementación y costo.

Este reposicionamiento refleja una tendencia de la industria más amplia, alejada de la construcción de los modelos más grandes a cualquier costo y hacia los modelos capaces más accesibles y adaptables. GPT-4.1 cumple con esa necesidad, ofreciendo una herramienta flexible y lista para la producción para equipos que intentan integrar la IA más profundamente en sus operaciones comerciales.

A medida que OpenAI continúa evolucionando sus ofertas de modelos, GPT-4.1 representa un paso adelante en la democratización de IA avanzada para entornos empresariales. Para la capacidad de equilibrio de los tomadores de decisiones con el ROI, ofrece un camino más claro hacia el despliegue sin sacrificar el rendimiento o la seguridad.

Continue Reading

Trending