Connect with us

Noticias

¿Deepseek de China violó los derechos legales de Openai?

Published

on

Supongamos que fue OpenAI, el desarrollador de ChatGPT. Has invertido quizás $ 500 millones o más en él. Entrenar la última versión, ChatGPT-4, ha costado otros $ 100 millones o más. La capacitación explotó y procesó sobre un petabyte de datos basados ​​en Internet. Eso es equivalente a un millón de gigabytes, o alrededor de 500 mil millones de páginas de texto en inglés.

Luego viene Deepseek, propiedad y con sede en China, que es un sistema como ChatGPT. Pero en lugar de construir toda la infraestructura y hacer toda la capacitación de abajo hacia arriba, Deepseek ha utilizado “destilación” para ponerse al día con ChatGPT a una fracción del costo. Oye, no justo, ¿verdad?

¿Se robó la información?

Cuando Deepseek se convirtió en un jugador de IA, Openai declaró que creía que Deepseek había robado esencialmente datos y texto de ChatGPT. Lo vio como infracción de derechos de autor.

La semana pasada, un sitio de AI e Internet Watchdog publicó “Microsoft y OpenAI investigan si Deepseek obtuvo datos ilícitamente de ChatGPT”. Informó que tanto Microsoft como OpenAI están investigando si Deepseek accedió a los datos de OpenAI a través de su interfaz de programación de aplicaciones (API) sin autorización. El Financial Times Aprendió que OpenAI tiene evidencia de robo de datos, y los funcionarios estadounidenses sospechan que Deepseek usó los resultados de OpenAI para capacitar a su propio modelo mediante un proceso llamado “destilación”.

El cargo inicial contra Deepseek es el robo de datos que también podría equivaler a una infracción de derechos de autor. De hecho, utilizando la destilación, Deepseek puede haber imitado con éxito el chatgpt.

En términos simplificados, así es como funciona la destilación, utilizando el ejemplo de chatgpt:

Chatgpt explora exhaustivamente Internet para construir su modelo de idioma grande (LLM), que alimenta los algoritmos que responden a las preguntas que plantean los usuarios. Otro sistema de LLM, como Deepseek, luego le pregunta a ChatGPT mil millones de preguntas (en sentido figurado, podría ser mucho más) y utiliza las respuestas de ChatGPT como su punto de partida para desarrollar su propia base de conocimiento.

La destilación acorta enormemente el tiempo de “entrenamiento” para un LLM. De esta manera, Deepseek podría comenzar a hacer coincidir el chatgpt, pero sin realizar primero toda la investigación y procesamiento a nivel del suelo.

¿Violación de derechos de autor?

Anteriormente hemos analizado si los sistemas de IA pueden infringir derechos de autor. Básicamente, una persona humana crea un texto escrito que, según la ley estadounidense, está protegida por la ley de derechos de autor. Cuando otra persona hace una copia de ese texto sin permiso, la copiadora infringe el derecho del creador.

Ahora considere lo que sucede cuando Deepseek se está educando a sí mismo haciendo una pregunta a Chatgpt y recibiendo una respuesta de texto. Qué persona crea el texto escrito de esa respuesta? Ninguna persona humana escribe las respuestas de texto de Chatgpt. Por lo tanto, ninguna persona tiene un copyright de las respuestas.

AI CHATBOT Concepto de aplicación de servicio al cliente digital inteligente, la aplicación móvil de computadora utiliza chatbots de inteligencia artificial respondiendo automáticamente mensajes en línea para ayudar a los clientes

Por lo tanto, si Deepseek recibió, procesó y almacenó los miles de millones de respuestas de Chatgpt a las preguntas, Deepseek no violaba los derechos de autor de una persona. Esa es la respuesta simple.

Por supuesto, los abogados podrían desarrollar un argumento complicado que dice que los propietarios o programadores de ChatGPT deben poseer el texto escrito que el bot genera por sí mismo. Sin embargo, tal argumento extiende el significado tradicional de los derechos de autor, y los tribunales bien podrían rechazarlo. El Congreso de los Estados Unidos ciertamente podría cambiar los estatutos para aplicar la protección de los derechos de autor a los textos e imágenes generados por Chatbot, pero eso aún no ha sucedido.

¿Términos de violación de uso?

Según se informa, la investigación de Microsoft encontró volúmenes inusualmente altos de recuperación de datos por parte de los usuarios que podrían estar vinculados a Deepseek. OpenAI permite a los usuarios una cantidad sustancial pero no ilimitada de acceso a ChatGPT, y sus términos de uso prohíben la información minera de ChatGPT para construir un competidor.

El equipo de seguridad de Microsoft detectó un grupo que se cree que tiene vínculos con un análisis profundo de extraer grandes cantidades de datos del software Operai que permite a los desarrolladores acceder a modelos propietarios por una tarifa. Los investigadores de Microsoft detectaron un volumen inusualmente alto de recuperación de datos, que viola los términos de servicio de OpenAI y sugiere un intento de eludir sus restricciones.

Los términos de servicio publicados de ChatGPT prohíben a todos los usuarios de ChatGPT, humanos o de otro tipo, de:

(1) Ingeniería inversa del software OpenAI para aprender sus modelos y algoritmos;

(2) usar bots o programas automatizados para extraer datos o salidas de chatgpt;

(3) exceder o evitar límites de velocidad de transferencia de datos; y

(4) “Usar las salidas de ChatGPT para crear modelos de IA competidores”.

Si Deepseek o cualquier otro sistema de IA utilizaron técnicas de “destilación” para piratear información de ChatGPT, violó los términos de servicio. La destilación utiliza un bot automatizado para realizar grandes cantidades de transferencia de datos a velocidades relativamente altas. Y si Deepseek estille de ChatGPT, utilizaría las salidas de ChatGPT para crear el sistema de IA competidores. Estas violaciones constituirían una violación directa del contrato.

AI fomenta un accidente de políticas públicas

Las leyes de derechos de autor tienen como objetivo lograr dos objetivos principales:

(1) reconocer y acreditar la creatividad humana única, y así apoyar los derechos de cada creador humano a los productos del esfuerzo intelectual creativo; y

(2) Alentar la creatividad e iniciativa humana para producir productos de trabajo intelectual que beneficien y elevan a la sociedad en general.

Los chatbots ahora pueden producir obras que parecen obras creativas humanas. Otorgando protección de derechos de autor a los productos de Chatbots socava el objetivo de la política de reconocer y proteger la creatividad humana. Pero otorgar productos de los productos BOT alienta a las personas a construir bots siempre “mejores” cuyo trabajo es “mejor” que los productos humanos, posiblemente Sirviendo la política de beneficiar a la sociedad. Eso supone que los productos BOT son veraz y no engañosos o suprimen los hechos y puntos de vista.

Personalmente, aconsejaría contra el tratamiento de productos de IA como legalmente equivalentes a los productos humanos. La IA produce cualquier producto solo por la creatividad humana, lo que refleja la chispa de lo divino. Las leyes nunca deben tratar a los humanos como la versión de carne de las máquinas AI.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

O3 O3 de OpenAi es menos AGI de lo que se mide originalmente

Published

on


Resumen

Un análisis reciente de la Fundación del Premio ARC encuentra que el modelo O3 de OpenAI ofrece resultados significativamente más débiles en puntos de referencia de razonamiento estandarizados que su versión de vista previa de O3 previamente probada.

La Fundación del Premio ARC, un grupo sin fines de lucro centrado en la evaluación de IA, utiliza puntos de referencia abiertos como ARC-AGI para resaltar la brecha entre el razonamiento humano y los sistemas de inteligencia artificial actuales. Cada evaluación tiene como objetivo aclarar el estado actual del campo.

El punto de referencia ARC-AGI está estructurado para probar el razonamiento simbólico, la composición de varios pasos y la aplicación de reglas dependiente del contexto, las habilidades que los humanos a menudo demuestran sin capacitación especial, pero que los modelos de IA solo funcionan en un grado limitado.

El análisis evaluó el rendimiento en niveles de razonamiento “bajo”, “medio” y “altos”, que varían la profundidad del razonamiento del modelo. “Bajo” prioriza la velocidad y el uso mínimo de token, mientras que “alto” tiene la intención de fomentar la resolución de problemas más integral. Para este estudio, dos modelos, O3 y O4-Mini, se probaron en los tres niveles de razonamiento en 740 tareas de ARC-AGI-1 y ARC-AGI-2, produciendo 4.400 puntos de datos.

Anuncio

Eficiencia de rentabilidad y rendimiento: O3 Outpacios O1

Según la Fundación del Premio ARC, O3 alcanzó la precisión del 41 por ciento (bajo cálculo) y el 53 por ciento (cómputo medio) en ARC-AGI-1. El modelo O4-Mini más pequeño alcanzó el 21 por ciento (bajo cálculo) y el 42 por ciento (cómputo medio). En el punto de referencia ARC-AGI-2 más desafiante, ambos modelos actuales lucharon considerablemente, anotando por debajo del tres por ciento de precisión.

Trama de dispersión: la tabla de clasificación ARC-AGI muestra los puntajes del modelo de IA frente al costo por tarea, incluidos los modelos GPT y O.
El modelo O3 de OpenAI supera el modelo O1 publicado en el otoño de 2024 en aproximadamente un 20 por ciento en el punto de referencia ARC-AGI-1, pero permanece muy por detrás de los resultados de la previa vista O3 desde diciembre de 2024. El gráfico representa la relación precio / rendimiento. | Imagen: Arc Premio Foundation

A niveles de razonamiento más altos (cómputo “alto”), ambos modelos no pudieron completar muchas tareas. El análisis también observó que los modelos tendían a responder tareas que podrían resolver más fácilmente, mientras dejaban tareas más difíciles sin respuesta. Evaluar solo las respuestas exitosas distorsionaría el rendimiento real, por lo que estos resultados parciales fueron excluidos de las tablas de clasificación oficiales.

Modelo Configuración de razonamiento Eval Semi Private V1 Eval Semi Private V2 Costo por tarea (V2)
O3 Bajo 41% 1,9% 1.22 dólares estadounidenses
O3 Medio 53% 2,9% 2.52 dólares estadounidenses
O3 Alto
O4-Mini Bajo 21% 1,6% 0.05 dólar estadounidense
O4-Mini Medio 42% 2,3% 0.23 dólar estadounidense
O4-Mini Alto

Los datos muestran que un mayor esfuerzo de razonamiento no garantiza mejores resultados, pero a menudo solo resulta en costos más altos. En particular, O3 High consume significativamente más tokens sin lograr una ganancia correspondiente en precisión para tareas más simples. Esto plantea preguntas sobre la escalabilidad del enfoque actual para el razonamiento de la cadena de pensamiento.

Parcela de dispersión: comparación del uso de tokens de O3-Medium vs. O3-High en ARCV1, codificado por color según la corrección.
Una comparación del consumo de token para O3-Medio y O3-High en ARCV1 revela que los niveles de razonamiento más altos con frecuencia conducen a mayores costos. Los puntos azules por encima de la línea indican tareas donde O3 High usó más tokens sin mejorar los resultados. | Imagen: Arc Premio Foundation

Para aplicaciones sensibles a los costos, la Fundación del Premio ARC aconseja el uso de O3-Medio como la configuración predeterminada. El modo de “alta recuperación” solo se recomienda cuando se necesita la máxima precisión y el costo es menos importante. “No hay una razón convincente para usar bajo si te importa la precisión”, dice Mike Knoop, cofundador de la Fundación del Premio ARC.

La Fundación también señala que, a medida que avanza el rendimiento del modelo, la eficiencia, con qué rapidez, de bajo costo y con el uso mínimo de tokens, un modelo puede resolver problemas, se convierte en el diferenciador primario. En este sentido, O4-Mini es notable: logra una precisión del 21 por ciento en ARC-AGI-1 a un costo de aproximadamente cinco centavos por tarea, mientras que los modelos más antiguos como O1-Pro requieren aproximadamente once dólares por tarea para obtener resultados comparables.

Recomendación

Inconsistente e ilógico: el estudio descubre el razonamiento errático de los modelos de idiomas de IA

Inconsistente e ilógico: el estudio descubre el razonamiento errático de los modelos de idiomas de IA

O3 O3 de OpenAI es menos AGI que O3 previa

La versión actual de O3 diverge sustancialmente de la versión de previsión de O3 probada en diciembre de 2024. En ese momento, la previa vista de O3 obtuvo un 76 por ciento (bajo cómputo) y un 88 por ciento (alto cálculo) en ARC-AGI-1 en el modo de texto, mientras que el modelo O3 liberado ahora ofrece 41 por ciento (bajo) y 53 por ciento (medio).

OpenAI confirmó a ARC que el modelo de producción O3 difiere de la versión de vista previa de varias maneras clave. La compañía explicó que el modelo lanzado tiene una arquitectura diferente, es un modelo general más pequeño, opera multimodalmente (manejando las entradas de texto e imágenes) y utiliza menos recursos computacionales que la versión de vista previa.

Con respecto a los datos de capacitación, OpenAI afirma que la capacitación de O3 previa revisión cubrió el 75 por ciento del conjunto de datos ARC-AGI-1. Para el modelo O3 lanzado, OpenAI dice que no fue capacitado directamente en los datos de ARC-AGI, ni siquiera en el conjunto de datos de capacitación. Sin embargo, es posible que el modelo esté expuesto indirectamente al punto de referencia a través de su disponibilidad pública.

El modelo O3 publicado también se ha refinado para los casos de uso de productos y productos, que, según el premio ARC, se presenta tanto en ventajas como en desventajas en el punto de referencia ARC-AGI. Estas diferencias subrayan que los resultados de referencia, especialmente para los modelos de IA inéditos, deben verse con precaución.

Progreso continuo y limitaciones persistentes

El modelo O3-Medium actualmente ofrece el mayor rendimiento entre los modelos de Fundación de Premios ARC de ARC publicados en Publicación en ARC-AGI-1, duplicando los resultados de los enfoques anteriores de la cadena de pensamiento.

A pesar de esta mejora, el recién introducido Arc-Agi-2 Benchmark sigue sin resolverse en gran medida por ambos modelos nuevos. Mientras que los humanos resuelven un promedio del 60 por ciento de las tareas ARC-AGI-2 incluso sin capacitación especial, el modelo de razonamiento más fuerte de OpenAI actualmente logra solo alrededor del tres por ciento.

“ARC V2 tiene un largo camino por recorrer, incluso con la gran eficiencia de razonamiento de O3. Todavía se necesitan nuevas ideas”, escribe Knoop.

Esto destaca una brecha persistente en la capacidad de resolución de problemas entre humanos y máquinas, a pesar de los recientes avances y lo que la CEO de Microsoft, Satya Nadella, ha descrito como “piratería de referencia sin sentido”.

Un análisis reciente también sugiere que los llamados modelos de razonamiento como O3 probablemente no tienen ninguna capacidad nueva más allá de las de sus modelos de lenguaje fundamental. En cambio, estos modelos están optimizados para llegar a soluciones correctas más rápidamente para ciertas tareas, particularmente aquellos para los que han sido entrenados a través del aprendizaje de refuerzo dirigido.

Continue Reading

Noticias

Gemini 2.5 Pro + Notebooklm: Herramientas de IA para la productividad e investigación

Published

on


Las herramientas con IA de Google, Gemini 2.5 Pro y Notebooklm, están redefiniendo cómo aborda la productividad, la investigación y la creación de contenido. Estas herramientas integran capacidades de codificación avanzada, evaluación de fuente inteligente y procesamiento multimodal para simplificar tareas complejas. Ya sea que sea un desarrollador, educador o estratega, proporcionan soluciones intuitivas que mejoran la eficiencia sin requerir una amplia experiencia técnica. Al usar estas herramientas, puede racionalizar los flujos de trabajo, mejorar la precisión y centrarse en la creatividad y la estrategia.

En este tutorial, Grace Leung desglosa las fortalezas únicas de Gemini 2.5 Pro y Notebooklm, y cómo su integración puede ayudarlo a lograr más con menos esfuerzo. Desde la creación de visualizaciones interactivas y contenido educativo hasta racionalizar la investigación y la creación de prototipos, descubrirá formas procesables para aprovechar estas herramientas para el máximo impacto. Espere aprender cómo el modo de lienzo de Gemini convierte las ideas en salidas funcionales y cómo NotebookLM garantiza que su trabajo se basa en fuentes creíbles y de alta calidad. Al final, verá cómo esta poderosa combinación puede ahorrarle tiempo, aumentar la creatividad y ayudarlo a concentrarse en lo que realmente importa: entregar resultados.

Combinación de Google Notebooklm y Gemini 2.5 Pro

TL; DR Key Takeaways:

  • Gemini 2.5 Pro ofrece características avanzadas como el modo de lienzo, el procesamiento multimodal y una ventana de contexto de token ampliado, lo que lo hace ideal para manejar tareas complejas en todas las industrias.
  • NotebookLM se centra en la investigación y la evaluación de la fuente, proporcionando herramientas como mapeo mental y descubrimiento de fuentes creíble para optimizar la síntesis de información.
  • La sinergia entre Gemini 2.5 Pro y NotebookLM permite aplicaciones prácticas como la creación de visualizaciones interactivas, contenido educativo y herramientas de planificación estratégica.
  • Estas herramientas optimizan los flujos de trabajo combinando las capacidades de investigación de NotebookLM con la capacidad de Gemini para generar resultados pulidos, reduciendo el tiempo y el esfuerzo para los resultados profesionales.
  • Las mejoras futuras, como la integración más profunda y las actualizaciones sincronizadas, podrían mejorar aún más la transición perfecta de la investigación a la ejecución.

Características clave de Gemini 2.5 Pro

Gemini 2.5 Pro es una plataforma robusta diseñada para manejar tareas exigentes con precisión y facilidad. Ajusta a las necesidades técnicas y creativas, ofreciendo una gama de características que lo distinguen:

  • Modo de lienzo: Esta característica le permite crear salidas funcionales y listas para usar, como prototipos o aplicaciones interactivas, directamente dentro de la plataforma, ahorrando tiempo y esfuerzo.
  • Procesamiento multimodal: Analice y procese texto, imágenes y documentos largos sin problemas. Esta capacidad es ideal para resumir patentes, crear visualizaciones o administrar conjuntos de datos complejos.
  • Ventana de contexto de token expandido: Con soporte para hasta 1 millón de tokens, expandibles a 2 millones, puede abordar proyectos a gran escala, como generar informes detallados o analizar conjuntos de datos extensos, sin interrupciones.
  • Accesibilidad: Gemini 2.5 Pro está disponible de forma gratuita a través de la aplicación Gemini o AI Studio, asegurándose de que sus potentes características sean accesibles para una audiencia amplia.

Estas características hacen que Gemini 2.5 Pro sea una herramienta versátil para profesionales en todas las industrias. Al automatizar procesos complejos, le permite centrarse en tareas de alto nivel, como la planificación estratégica y la resolución de problemas creativos.

Notebooklm: Mejora de la investigación y la organización

NotebookLM sirve como una herramienta complementaria para Géminis, centrándose en la investigación, la organización y la evaluación de la fuente. Está diseñado para ayudarlo a sintetizar la información de manera efectiva y garantizar que su trabajo se basa en datos creíbles. Sus características destacadas incluyen:

  • Descubra fuentes: Identifique y evalúe fuentes web creíbles para garantizar que su investigación se base en información verificada de alta calidad.
  • Funcionalidad del mapa mental: Cree diagramas estructurados para visualizar ideas y conexiones, lo que facilita explorar y comprender conceptos complejos.
  • Integración perfecta con Géminis: Use NotebookLM para recopilar y evaluar datos, luego transición a Gemini para crear resultados procesables como prototipos, visualizaciones o materiales educativos.

Al combinar estas capacidades, NotebookLM optimiza el proceso de investigación, lo que le permite organizar la información de manera eficiente y producir resultados impactantes. Su enfoque en la credibilidad de la fuente garantiza que su trabajo mantenga un alto nivel de precisión y confiabilidad.

Combinando el modo de lienzo de IA y cuaderno

Aquí hay guías adicionales de nuestra expansiva biblioteca de artículos que puede encontrar útil en Notebooklm.

Aplicaciones prácticas en todas las industrias

La sinergia entre Gemini 2.5 Pro y Notebooklm desbloquea una amplia gama de aplicaciones prácticas, lo que las convierte en herramientas valiosas en varios campos. Aquí hay algunos ejemplos de cómo puede usar estas herramientas de manera efectiva:

  • Visualizaciones interactivas: Convierta documentos complejos, como trabajos de investigación o patentes, en infografías o micrositios para una comprensión y compromiso más fácil.
  • Investigación y creación de prototipos: Use Notebooklm para reunir ideas y Géminis para crear prototipos, mapas de oportunidad o páginas de destino adaptadas a sus objetivos.
  • Contenido educativo: Desarrolle cuestionarios, módulos de aprendizaje interactivos u otros materiales educativos combinando las ideas estructuradas de NotebookLM con las capacidades de codificación y visualización de Gemini.
  • Creación de contenido: Genere scripts de podcasts, pistas de audio o transcripciones de reutilización en diversos formatos para llegar a diferentes audiencias de manera efectiva.
  • Planificación estratégica: Visualice las tendencias, las prioridades y las estrategias de contenido utilizando los mapas mentales de NotebookLM y las herramientas de visualización avanzada de Gemini.

Estos casos de uso destacan la adaptabilidad de Gemini 2.5 Pro y NotebookLM, lo que demuestra su potencial para mejorar los flujos de trabajo en la educación, los negocios y las industrias creativas.

Optimización de la eficiencia del flujo de trabajo

Cuando se usan juntos, Gemini 2.5 Pro y Notebooklm pueden optimizar significativamente su flujo de trabajo. Notebooklm asegura que su investigación se basa en fuentes creíbles y curadas, mientras que Gemini transforma esas ideas en salidas pulidas y funcionales. Ya sea que esté creando un módulo prototipo, infográfico o educativo, esta combinación reduce el tiempo y el esfuerzo requeridos para lograr resultados profesionales. Al automatizar tareas repetitivas y simplificar procesos complejos, estas herramientas le permiten centrarse en la innovación y la toma de decisiones estratégicas.

Potencial futuro y oportunidades para el crecimiento

Si bien Gemini 2.5 Pro y NotebookLM ya son herramientas poderosas, existe el potencial de una mayor mejora. Una integración más profunda entre las dos plataformas podría crear un flujo de trabajo más perfecto, lo que le permite hacer la transición sin esfuerzo de la investigación a la ejecución. Las características como la transferencia de datos automática, las actualizaciones sincronizadas en proyectos compartidos o herramientas de colaboración mejoradas podrían optimizar aún más la experiencia del usuario. Estas mejoras harían que las herramientas sean aún más efectivas, capacitando a los usuarios para alcanzar sus objetivos con mayor eficiencia y precisión.

Crédito de los medios: Grace Leung

Archivado en: AI, guías





Últimas ofertas de gadgets geek

Divulgación: Algunos de nuestros artículos incluyen enlaces de afiliados. Si compra algo a través de uno de estos enlaces, los gadgets geek pueden ganar una comisión de afiliación. Aprenda sobre nuestra política de divulgación.

Continue Reading

Noticias

Usé estas 5 indicaciones para ver lo que Chatgpt sabe sobre mí, y estoy sorprendido

Published

on

Si bien compañías como Google y Meta han estado recopilando nuestros datos personales, ahora vivimos en un mundo donde alimentamos activamente la información a los modelos de IA.

Por un lado, vale la pena pensar en lo que te sientes cómodo compartiendo con herramientas como ChatGPT. Pero los chats largos y reflexivos con una IA también podrían surgir cosas sobre ti que ni siquiera has notado.

Continue Reading

Trending