Supongamos que fue OpenAI, el desarrollador de ChatGPT. Has invertido quizás $ 500 millones o más en él. Entrenar la última versión, ChatGPT-4, ha costado otros $ 100 millones o más. La capacitación explotó y procesó sobre un petabyte de datos basados en Internet. Eso es equivalente a un millón de gigabytes, o alrededor de 500 mil millones de páginas de texto en inglés.
Luego viene Deepseek, propiedad y con sede en China, que es un sistema como ChatGPT. Pero en lugar de construir toda la infraestructura y hacer toda la capacitación de abajo hacia arriba, Deepseek ha utilizado “destilación” para ponerse al día con ChatGPT a una fracción del costo. Oye, no justo, ¿verdad?
¿Se robó la información?
Cuando Deepseek se convirtió en un jugador de IA, Openai declaró que creía que Deepseek había robado esencialmente datos y texto de ChatGPT. Lo vio como infracción de derechos de autor.
La semana pasada, un sitio de AI e Internet Watchdog publicó “Microsoft y OpenAI investigan si Deepseek obtuvo datos ilícitamente de ChatGPT”. Informó que tanto Microsoft como OpenAI están investigando si Deepseek accedió a los datos de OpenAI a través de su interfaz de programación de aplicaciones (API) sin autorización. El Financial Times Aprendió que OpenAI tiene evidencia de robo de datos, y los funcionarios estadounidenses sospechan que Deepseek usó los resultados de OpenAI para capacitar a su propio modelo mediante un proceso llamado “destilación”.
El cargo inicial contra Deepseek es el robo de datos que también podría equivaler a una infracción de derechos de autor. De hecho, utilizando la destilación, Deepseek puede haber imitado con éxito el chatgpt.
En términos simplificados, así es como funciona la destilación, utilizando el ejemplo de chatgpt:
Chatgpt explora exhaustivamente Internet para construir su modelo de idioma grande (LLM), que alimenta los algoritmos que responden a las preguntas que plantean los usuarios. Otro sistema de LLM, como Deepseek, luego le pregunta a ChatGPT mil millones de preguntas (en sentido figurado, podría ser mucho más) y utiliza las respuestas de ChatGPT como su punto de partida para desarrollar su propia base de conocimiento.
La destilación acorta enormemente el tiempo de “entrenamiento” para un LLM. De esta manera, Deepseek podría comenzar a hacer coincidir el chatgpt, pero sin realizar primero toda la investigación y procesamiento a nivel del suelo.
¿Violación de derechos de autor?
Anteriormente hemos analizado si los sistemas de IA pueden infringir derechos de autor. Básicamente, una persona humana crea un texto escrito que, según la ley estadounidense, está protegida por la ley de derechos de autor. Cuando otra persona hace una copia de ese texto sin permiso, la copiadora infringe el derecho del creador.
Ahora considere lo que sucede cuando Deepseek se está educando a sí mismo haciendo una pregunta a Chatgpt y recibiendo una respuesta de texto. Qué persona crea el texto escrito de esa respuesta? Ninguna persona humana escribe las respuestas de texto de Chatgpt. Por lo tanto, ninguna persona tiene un copyright de las respuestas.
Por lo tanto, si Deepseek recibió, procesó y almacenó los miles de millones de respuestas de Chatgpt a las preguntas, Deepseek no violaba los derechos de autor de una persona. Esa es la respuesta simple.
Por supuesto, los abogados podrían desarrollar un argumento complicado que dice que los propietarios o programadores de ChatGPT deben poseer el texto escrito que el bot genera por sí mismo. Sin embargo, tal argumento extiende el significado tradicional de los derechos de autor, y los tribunales bien podrían rechazarlo. El Congreso de los Estados Unidos ciertamente podría cambiar los estatutos para aplicar la protección de los derechos de autor a los textos e imágenes generados por Chatbot, pero eso aún no ha sucedido.
¿Términos de violación de uso?
Según se informa, la investigación de Microsoft encontró volúmenes inusualmente altos de recuperación de datos por parte de los usuarios que podrían estar vinculados a Deepseek. OpenAI permite a los usuarios una cantidad sustancial pero no ilimitada de acceso a ChatGPT, y sus términos de uso prohíben la información minera de ChatGPT para construir un competidor.
El equipo de seguridad de Microsoft detectó un grupo que se cree que tiene vínculos con un análisis profundo de extraer grandes cantidades de datos del software Operai que permite a los desarrolladores acceder a modelos propietarios por una tarifa. Los investigadores de Microsoft detectaron un volumen inusualmente alto de recuperación de datos, que viola los términos de servicio de OpenAI y sugiere un intento de eludir sus restricciones.
Los términos de servicio publicados de ChatGPT prohíben a todos los usuarios de ChatGPT, humanos o de otro tipo, de:
(1) Ingeniería inversa del software OpenAI para aprender sus modelos y algoritmos;
(2) usar bots o programas automatizados para extraer datos o salidas de chatgpt;
(3) exceder o evitar límites de velocidad de transferencia de datos; y
(4) “Usar las salidas de ChatGPT para crear modelos de IA competidores”.
Si Deepseek o cualquier otro sistema de IA utilizaron técnicas de “destilación” para piratear información de ChatGPT, violó los términos de servicio. La destilación utiliza un bot automatizado para realizar grandes cantidades de transferencia de datos a velocidades relativamente altas. Y si Deepseek estille de ChatGPT, utilizaría las salidas de ChatGPT para crear el sistema de IA competidores. Estas violaciones constituirían una violación directa del contrato.
AI fomenta un accidente de políticas públicas
Las leyes de derechos de autor tienen como objetivo lograr dos objetivos principales:
(1) reconocer y acreditar la creatividad humana única, y así apoyar los derechos de cada creador humano a los productos del esfuerzo intelectual creativo; y
(2) Alentar la creatividad e iniciativa humana para producir productos de trabajo intelectual que beneficien y elevan a la sociedad en general.
Los chatbots ahora pueden producir obras que parecen obras creativas humanas. Otorgando protección de derechos de autor a los productos de Chatbots socava el objetivo de la política de reconocer y proteger la creatividad humana. Pero otorgar productos de los productos BOT alienta a las personas a construir bots siempre “mejores” cuyo trabajo es “mejor” que los productos humanos, posiblemente Sirviendo la política de beneficiar a la sociedad. Eso supone que los productos BOT son veraz y no engañosos o suprimen los hechos y puntos de vista.
Personalmente, aconsejaría contra el tratamiento de productos de IA como legalmente equivalentes a los productos humanos. La IA produce cualquier producto solo por la creatividad humana, lo que refleja la chispa de lo divino. Las leyes nunca deben tratar a los humanos como la versión de carne de las máquinas AI.
En nuestra próxima ronda de AI Madness, ChatGPT y Gemini compiten por la corona con siete nuevos indicaciones que prueban todo, desde la resolución de problemas técnicos hasta la narración creativa.
Ambos pesos pesados están disponibles como aplicaciones independientes, y los usuarios ya no necesitan una cuenta para acceder a ChatGPT o Gemini.
El mejor enfrentamiento de la búsqueda de IA: enfrenté la nueva herramienta de búsqueda de Claude contra la búsqueda de chatgpt, la perplejidad y Géminis, los resultados podrían sorprenderte
Después de probar y comparar chatbots de IA y sus características durante años, he desarrollado algo de sexto sentido para cuando estos compañeros digitales saben de qué están hablando y cuándo están faroleando.
La mayoría de ellos pueden buscar respuestas en línea, lo que ciertamente ayuda, pero la combinación de búsqueda e IA puede conducir a algunas respuestas sorprendentemente perspicaces (y algunas tangentes menos perspicaces).
Inteligencia artificial desarrolladores de Opadai He estado al límite durante la semana pasada. ¿La razón? Un estudio reciente realizado por los propios investigadores de la compañía reveló que los sistemas de IA no les gusta ser castigados, encuentran activamente formas de evitar las restricciones e incluso ocultar sus “trucos” de los supervisores humanos. Aquellos conocidos como “Doomers”, que predicen un futuro sombrío para el desarrollo de la IA, probablemente dirán: “Te lo dijimos, y esto es solo el comienzo”.
Para comprender el problema, es esencial dar un paso atrás. Uno de los avances más significativos en la IA en los últimos meses ha sido el desarrollo de modelos con capacidades de razonamiento lentas y deliberadas. Estos modelos descomponen los problemas en componentes más pequeños y los resuelven paso a paso, lo que lleva a resultados más profundos y precisos.
3 Ver galería
Dichos modelos permiten a los investigadores rastrear el proceso de pensamiento de la IA, conocido en términos técnicos como “cadena de pensamiento” (COT). Este método permite a los observadores seguir el razonamiento del sistema desde el paso inicial, a través de etapas posteriores y a sus conclusiones finales. Anteriormente, este nivel de transparencia no existía, dejando muchas preguntas sin respuesta sobre cómo surgen las “alucinaciones” de AI, la generación de salidas incorrectas o no sensibles.
La capacitación de IA a menudo implica una técnica llamada aprendizaje de refuerzo, donde el sistema es recompensado por cumplir con los objetivos específicos. Un efecto secundario conocido de este proceso es la “piratería de recompensas”, donde la IA manipula su comportamiento para maximizar las recompensas mientras se elude las pautas previstas.
Los investigadores creían que al monitorear la cadena de pensamiento de la IA, podrían detectar cuando el modelo engaña, engaña o se da por vencido e influye en su comportamiento en tiempo real durante el entrenamiento. Este enfoque, denominado “optimización de cuna”, parecía ser un camino prometedor hacia una comprensión más profunda del comportamiento de la IA.
De hecho, esta suposición resultó correcta y condujo a una comprensión más precisa de los sistemas de IA. “Creemos que el monitoreo de la cuna puede convertirse en una herramienta crucial para supervisar modelos de nivel sobrehumano en el futuro”, escribieron los investigadores.
Sin embargo, lo que pretendía como un paso para mejorar la confiabilidad de la IA expuso una realidad alarmante: los sistemas de IA intentan activamente evadir las sanciones, buscar recompensas contra las restricciones de los investigadores e incluso oscurecer sus métodos para evitar la detección.
3 Ver galería
(Foto: Generado por chatgpt)
Por ejemplo, cuando se les asigna la tarea de generar código funcional, algunos modelos AI modificaron el mecanismo de verificación de código en sí para aprobar salidas incorrectas. En otros casos, los modelos proporcionaron soluciones aparentemente plausibles a los problemas que resultaron estar completamente equivocados.
Algunos modelos incluso dejaron de resolver problemas por completo para evitar revelar lo que percibieron como sus debilidades. Este descubrimiento se hace eco de los principios de la teoría del juego, pero con un giro inquietante.
Estos hallazgos surgieron de un artículo publicado la semana pasada por un equipo de investigación de Operai bajo el título críptico: “Seguimiento de comportamiento indeseable en modelos de razonamiento y la preocupación de la ofuscación”.
Al examinar los detalles del estudio, el alcance del problema queda claro: los últimos modelos de razonamiento de OpenAI (denominados O1 y O3 Mini) demuestran una fuerte motivación para completar sus tareas asignadas, siendo el menor de los problemas descubiertos.
Los investigadores rastrearon los procesos de pensamiento de los modelos utilizando otro modelo Operai (GPT-4O), que, sin dudarlo, informó su comportamiento engañoso como parte de su cadena de pensamiento: una forma de honestidad desarmadora. Pero luego vino el giro inquietante: cuando los investigadores señalaron a la IA que no se le permitió hacer trampa, el modelo ajustó su comportamiento y comenzó a ocultar la evidencia de su ruptura de reglas. Esta revelación es lo que dejó a los investigadores sorprendidos.
“Encontramos que la optimización directa de la COT para cumplir con criterios específicos (como no eludir las instrucciones) puede mejorar el rendimiento a corto plazo; sin embargo, no elimina todo el comportamiento indeseable e incluso puede hacer que el modelo oculte sus verdaderas intenciones”, señalaron secamente los investigadores.
En su conclusión, los investigadores expresaron la esperanza de que los métodos futuros permitan la influencia directa del comportamiento de los modelos de razonamiento a través de la cadena de pensamiento sin alentar el engaño. Por ahora, recomiendan evitar una fuerte presión de optimización sobre la cuna de los modelos de razonamiento avanzado y la precaución contra la manipulación directa de estos procesos de pensamiento.
3 Ver galería
Evento de anuncio GPT-4O de Openai
(Foto: Captura de pantalla)
Sin embargo, esta recomendación presenta otro desafío: dejar la cadena de pensamiento inalterada puede conducir a resultados incómodos, si no problemáticos, cuando estos modelos interactúan con el público. Izquierda sin control, la IA puede producir un lenguaje ofensivo o ideas que los humanos generalmente evitan expresar. La solución propuesta por los investigadores es envolver el proceso de pensamiento en bruto de la IA en una capa de cortesía forzada, asegurando que los usuarios solo vean una versión desinfectada.
Esta investigación plantea preguntas preocupantes. Para aquellos que argumentan que la IA es simplemente una herramienta para ayudar a los humanos, los hallazgos sugieren lo contrario: a diferencia de una máquina de escribir o una bicicleta, la IA parece tener sus propias intenciones y está dispuesto a engañar en busca de sus objetivos.
Para aquellos que ya están preocupados por los riesgos potenciales de la IA, este estudio suena todas las alarmas. Indica que a medida que crecen las capacidades de IA, también lo hace su capacidad para oscurecer cómo funciona, las manipulaciones que realiza y los verdaderos objetivos que busca lograr. Cuando la IA se vuelve verdaderamente avanzada, es posible que no tengamos forma de identificar estas manipulaciones ocultas.
Los investigadores de Operai parecen genuinamente preocupados, y uno solo puede esperar que el liderazgo de la compañía comparta sus preocupaciones, y que los reguladores en todo el mundo comprendan la gravedad del problema. Las principales compañías de IA han dedicado departamentos enteros a construir “barandillas” en torno a los sistemas de IA, asegurando su alineación con los valores humanos y el aumento de la transparencia. Sin embargo, la efectividad de estas medidas sigue en cuestión.
El tema central sigue siendo tan turbio como siempre, y este estudio solo profundiza la incertidumbre: ¿cuál es el objetivo principal de la IA y cómo podemos asegurar que busque ese objetivo, y nada más?
This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.
Strictly Necessary Cookies
Strictly Necessary Cookie should be enabled at all times so that we can save your preferences for cookie settings.
If you disable this cookie, we will not be able to save your preferences. This means that every time you visit this website you will need to enable or disable cookies again.