Connect with us

Noticias

Operai supera a Deepseek en el razonamiento a nivel de oración

Published

on

Chatgpt y otros chatbots de IA basados ​​en modelos de idiomas grandes se sabe que ocasionalmente inventa cosas, incluidas las citas científicas y legales. Resulta que medir cuán precisas son las citas de un modelo AI es una buena manera de evaluar las habilidades de razonamiento del modelo.

Un modelo de IA “razones” descomponiendo una consulta en pasos y trabajando a través de ellos en orden. Piense en cómo aprendió a resolver problemas de palabras matemáticas en la escuela.

Idealmente, para generar citas, un modelo de IA comprendería los conceptos clave en un documento, generaría una lista clasificada de documentos relevantes para citar y proporcionaría un razonamiento convincente sobre cómo cada documento sugerido respalda el texto correspondiente. Destacará las conexiones específicas entre el texto y la investigación citada, aclarando por qué cada fuente importa.

La pregunta es, ¿se puede confiar en los modelos de hoy para hacer estas conexiones y proporcionar un razonamiento claro que justifique sus elecciones de origen? La respuesta va más allá de la precisión de las citas para abordar cuán útiles y precisos son los modelos de lenguaje grande para cualquier propósito de recuperación de información.

Soy un informático. Mis colegas, investigadores del Instituto AI de la Universidad de Carolina del Sur, la Universidad Estatal de Ohio y el Condado de Baltimore del Condado de Baltimore, y he desarrollado las razones de referencia para probar qué tan bien modelos de idiomas pueden generar automáticamente citas de investigación y proporcionar un razonamiento comprensible.

Utilizamos el punto de referencia para comparar el rendimiento de dos modelos de razonamiento de IA populares, Deepseek’s R1 y OpenAI’s O1. Aunque Deepseek fue en los titulares con su impresionante eficiencia y rentabilidad, el advenedizo chino tiene un camino por recorrer para que coincida con el rendimiento de razonamiento de OpenAI.

Oración específica

La precisión de las citas tiene mucho que ver con si el modelo AI está razonando sobre la información a nivel de oración en lugar del párrafo o a nivel de documentos. Se puede considerar que las citas a nivel de párrafo y a nivel de documentos arrojan una gran parte de la información a un modelo de idioma grande y le piden que proporcione muchas citas.

En este proceso, el modelo de lenguaje grande se generaliza e incorporan las oraciones individuales. El usuario termina con citas que explican todo el párrafo o documento, no la información de grano relativamente fino en la oración.

Además, el razonamiento sufre cuando le pide al modelo de idioma grande que lea un documento completo. Estos modelos se basan principalmente en memorizar patrones que típicamente son mejores para encontrar al principio y al final de los textos más largos que en el medio. Esto les dificulta comprender completamente toda la información importante a lo largo de un documento largo.

Los modelos de idiomas grandes se confunden porque los párrafos y documentos tienen mucha información, lo que afecta la generación de citas y el proceso de razonamiento. En consecuencia, el razonamiento de los modelos de idiomas grandes sobre los párrafos y los documentos se vuelve más como resumir o parafrasear.

Las razones por las que Benchmark aborde esta debilidad al examinar la generación y el razonamiento de las citas de los modelos de idiomas grandes.

https://www.youtube.com/watch?v=kqzzymhre0u

Cómo Deepseek R1 y OpenAI O1 se comparan generalmente con los problemas lógicos.

Prueba de citas y razonamiento

Tras el lanzamiento de Deepseek R1 en enero de 2025, queríamos examinar su precisión en la generación de citas y su calidad de razonamiento y compararlo con el modelo O1 de OpenAI. Creamos un párrafo que tenía oraciones de diferentes fuentes, dio a los modelos oraciones individuales de este párrafo y pedimos citas y razonamiento.

Para comenzar nuestra prueba, desarrollamos un pequeño lecho de prueba de aproximadamente 4,100 artículos de investigación alrededor de cuatro temas clave que están relacionados con el cerebro humano y la informática: neuronas y cognición, interacción humana-computadora, bases de datos e inteligencia artificial. Evaluamos los modelos utilizando dos medidas: la puntuación F-1, que mide cuán precisa es la cita proporcionada, y la tasa de alucinación, que mide cuán sonido es el razonamiento del modelo, es decir, con qué frecuencia produce una respuesta inexacta o engañosa.

Nuestras pruebas revelaron diferencias de rendimiento significativas entre OpenAI O1 y Deepseek R1 en diferentes dominios científicos. El O1 de OpenAI conectó bien la información entre los diferentes sujetos, como comprender cómo la investigación sobre neuronas y cognición se conecta con la interacción humana y la computadora y luego con los conceptos en inteligencia artificial, sin dejar de ser precisa. Sus métricas de rendimiento superaron constantemente a Deepseek R1 en todas las categorías de evaluación, especialmente para reducir las alucinaciones y completar con éxito las tareas asignadas.

Operai O1 fue mejor para combinar ideas semánticamente, mientras que R1 se centró en asegurarse de que generara una respuesta para cada tarea de atribución, lo que a su vez aumentó la alucinación durante el razonamiento. Openai O1 tenía una tasa de alucinación de aproximadamente 35% en comparación con la tasa de Deepseek R1 de casi el 85% en la tarea de razonamiento basada en la atribución.

En términos de precisión y competencia lingüística, Openai O1 obtuvo alrededor de 0.65 en la prueba F-1, lo que significa que era correcto aproximadamente el 65% del tiempo al responder preguntas. También obtuvo alrededor de 0.70 en la prueba BLEU, que mide qué tan bien un modelo de lenguaje escribe en lenguaje natural. Estos son puntajes bastante buenos.

Deepseek R1 obtuvo un puntaje más bajo, con aproximadamente 0.35 en la prueba F-1, lo que significa que era correcto aproximadamente el 35% del tiempo. Sin embargo, su puntaje Bleu fue solo alrededor de 0.2, lo que significa que su escritura no era tan natural como la O1 de OpenAI. Esto muestra que O1 fue mejor al presentar esa información en un lenguaje claro y natural.

OpenAi tiene la ventaja

En otros puntos de referencia, Deepseek R1 se desempeña a la par con OpenAi O1 en tareas de matemáticas, codificación y razonamiento científico. Pero la diferencia sustancial en nuestro punto de referencia sugiere que O1 proporciona información más confiable, mientras que R1 lucha con la consistencia objetiva.

Aunque incluimos otros modelos en nuestras pruebas integrales, la brecha de rendimiento entre O1 y R1 resalta específicamente el panorama competitivo actual en el desarrollo de IA, con la oferta de OpenAI que mantiene una ventaja significativa en las capacidades de razonamiento e integración del conocimiento.

Estos resultados sugieren que OpenAi todavía tiene una ventaja cuando se trata de atribución y razonamiento de origen, posiblemente debido a la naturaleza y el volumen de los datos en los que fue entrenado. La compañía anunció recientemente su herramienta de investigación profunda, que puede crear informes con citas, hacer preguntas de seguimiento y proporcionar razonamiento para la respuesta generada.

El jurado todavía está en el valor de la herramienta para los investigadores, pero la advertencia permanece para todos: verifique todas las citas que le brinda una IA.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Las nuevas funciones de Google AI no tienen coincidencia

Published

on

Después de la E/S 2024 del año pasado, que se dedicó a las nuevas características de Gemini AI, al igual que la nota clave de E/S 2025 de ayer, me pregunté quién ganó el duelo de IA que acabábamos de presenciar. El año pasado, OpenAi emboscó brillantemente a Google con un evento de ChatGPT masivo alojado un día antes de la nota clave de E/S.

Operai venció a Google hasta el golpe, dando características multimodales de ChatGPT y un modo de voz antes de que Google dio a conocer características similares para Gemini. Al mismo tiempo, dije el año pasado que la nota clave de E/S 2024 se sintió como un tour de Force de Google cuando se trata de las habilidades de Gemini AI. Realmente no había nada más que importara en el evento del año pasado que no sea Géminis.

Un evento de ChatGPT no precedió a la E/S 2025 de este año. No hay batalla por el centro de atención entre ChatGPT y Google. Pero dado lo que vimos el martes de Sundar Pichai & Co., no sé qué OpenAi podría haber lanzado antes del evento de Google para hacernos ignorar todas las novedades de IA con gemini que Google presentó.

La E/S 2025 fue una exhibición de fuerza aún mayor que el año pasado. Géminis es aún más poderoso y más rápido que antes. También está obteniendo una integración más profunda en las aplicaciones y servicios de Google, por lo que es una herramienta más útil para cualquier persona entusiasmada con la IA, incluso un poco.

La mejor parte es que Google presentó un montón de características de IA emocionantes que no tienen equivalentes de OpenAI. Debería saber. No es solo que he estado cubriendo ChatGPT y todas las noticias de IA por un tiempo, pero ChatGPT es mi IA predeterminada en este momento. Y envidio varias novedades de Géminis que Operai no puede igualar.

Algunos de ellos son obvios, y me refiero a los lazos entre Gemini y Google, algo OpenAi no puede igualar. Y algunas de las características de Géminis que Google dio a conocer no están listas para un lanzamiento comercial amplio. Eso no cambia el hecho de que Google está tomando una gran ventaja sobre ChatGPT, y no puedo evitar preguntarme cómo responderá OpenAi.

Pensar profundamente

Gemini 2.5 Pro Deep Think Feature Tops Benchmarks. Fuente de la imagen: Google

Hemos tenido un profundo apoyo de investigación en ChatGPT y Gemini durante meses, y me encanta la funcionalidad. La IA puede entregar informes detallados sobre cualquier tema mediante la realización de investigaciones en profundidad.

Google está listo para ir un paso más allá con Gemini Deep Think, un modo de razonamiento mejorado que le dará a Gemini la capacidad de proporcionar respuestas aún mejores.

Profunde Think todavía está en la fase de prueba de evaluación de seguridad, y no está disponible para la mayoría de los usuarios de Géminis.

Agentes de IA en todas partes

No me gustó Project Mariner cuando salió en diciembre, y ciertamente favorecí al operador de OpenAI sobre la implementación de Google. Sin embargo, Google ha mejorado significativamente Project Mariner, y el agente de IA ha recibido poderes masivos, al menos según lo que vimos ayer.

La mejor parte es que Google enviará agentes de IA en varios productos. Por ejemplo, el modo de IA de búsqueda de Google podrá monitorear la web para obtener los cambios de precios para el producto que desea comprar y permitirle comprar el artículo que desee.

En Gemini Live, los agentes de IA dejarán que Gemini llame a las empresas para los usuarios, mientras que la IA continúa interactuándose con usted y colocará pedidos en línea para los bienes. La IA también puede navegar por la web para encontrar la información que necesita, desplazarse por los documentos y ver el mundo que lo rodea mientras interactúa con usted a través de la voz.

Géminis en vivo

Gemini Live se está convirtiendo en el tipo de asistente de IA que estamos acostumbrados a ver en las películas. Mire la demostración a continuación que Google ofreció en E/S para tener una idea de lo que Gemini Live hará para el usuario una vez que Google esté listo para lanzar estas nuevas funciones de Project Astra.

No es solo un comportamiento de agente, como hacer llamadas en su nombre o comprar productos. La IA puede obtener información de otras aplicaciones de Google, es consciente del historial del usuario y puede manejar a varias personas que hablan en la habitación sin perder el seguimiento de la tarea en cuestión.

La mayoría de estas capacidades aún no están llegando a Gemini Live, pero están más allá de lo que Operai puede hacer con ChatGPT. Operai también quiere que ChatGPT se convierta en su asistente y sepa todo sobre usted para proporcionar mejores respuestas. Pero la compañía no puede integrar ChatGPT con otras aplicaciones que proporcionan esos datos sobre usted, como lo hace Google.

Ya dije que tengo envidia sobre las nuevas capacidades de Gemini Live, y me pregunto cuándo y si OpenAi lanzará un producto similar.

Mientras espera a que Gemini Live obtenga todas las nuevas funciones, puede usar la cámara y las habilidades de intercambio de pantalla de forma gratuita ahora mismo en Android y iPhone.

Cuando Operai presentó al operador, mostró al mundo lo que el agente de IA que viene a Chatgpt podría hacer en situaciones de la vida real. Eso implicó buscar cosas para comprar para el usuario, ya sea un producto real o hacer una reserva.

Medio año después, el operador permanece disponible solo para los usuarios de ChatGPT Pro, pero no puedo justificar el nivel de $ 200/mes en este momento.

Mientras tanto, Google ha traído un agente de IA a la búsqueda de Google y la ha empacado en modo AI. El modo AI con Gemini con Gemini le permitirá encontrar cosas para comprar, incluso si usa un lenguaje de conversación en lugar de un mensaje específico. Chatgpt también puede hacer eso.

Pero el modo AI tendrá una función “Comprar para mí” que le permite instruir a la IA que monitoree el precio de un producto. La IA le notificará cuándo cae el precio y ofrece comprarlo por usted. Chatgpt no puede hacer nada de eso.

Luego está la función “Prueba en” “que es simplemente alucinante y el mejor uso de la IA en productos como la búsqueda en línea hasta ahora. Encuentre un artículo de ropa que le guste, suba una foto reciente de usted mismo, y un modelo especial de IA determinará cómo se verá usando esa ropa.

El modo AI también le permitirá encontrar y comprar boletos para eventos, hacer reservas de restaurantes y programar otras citas. Chatgpt no puede hacer nada de eso por ti.

Personalización

Claro, hay implicaciones de privacidad para usar características del modo AI como las anteriores. Y no soy un gran admirador de entregar ninguno de mis datos personales o acceder a ellos a la IA. Pero tendré que hacer eso una vez que esté listo para adoptar un modelo de IA como asistente que sepa todo sobre mí y pueda acceder a mis datos, ya sean conversaciones por correo electrónico y chat, documentos o información de pago.

Otras personas no se sentirán así, y si no tienen ningún problema con la IA acceder a datos de otras aplicaciones, querrán ver qué está haciendo Google con Gemini.

GEMINI: Personalización por correo electrónico de Gmail basada en el estilo de escritura del usuario.
GEMINI: Personalización por correo electrónico de Gmail basada en el estilo de escritura del usuario. Fuente de la imagen: Google

Una de las mejores demostraciones en E/S fue Gemini escribiendo un correo electrónico en Gmail utilizando el tono del usuario y surgir la información correcta de otras aplicaciones de Google, ya sean documentos o fotos.

Del mismo modo, Gemini Live podría acceder a los datos de Gmail en el ejemplo anterior para encontrar la información que el usuario necesitaba, y recordaba al perro del usuario para una búsqueda en Internet.

GEMINI: Personalización por correo electrónico de Gmail basada en el historial de correo electrónico.
GEMINI: Personalización por correo electrónico de Gmail basada en el historial de correo electrónico. Fuente de la imagen: Google

Incluso el modo AI puede ofrecer sugerencias personalizadas basadas en sus búsquedas pasadas si lo desea. También puede conectarse a Gmail para un contexto más personal.

ChatGPT no puede hacer nada de eso porque no tiene su propio conjunto de aplicaciones complementarias. Y conectarse a aplicaciones de terceros podría ser más difícil.

Fluir

OpenAI le permite generar video con Sora, y puede comenzar directamente desde ChatGPT, pero el flujo de Google es, sin duda, uno de los grandes aspectos destacados de E/S 2025 y probablemente un paso por encima de Sora.

El flujo te permite generar videos increíbles con audio. Ofrecen consistencia de carácter y escena, y puede continuar editando su proyecto fuera del programa AI.

De todas las características anunciadas en la E/S 2025, el flujo podría ser el más fácil para que Operai coincida.

Traducción en tiempo real

Google no es el primero en ofrecer una traducción en tiempo real con IA. La característica ha sido uno de los productos básicos de Galaxy AI, con Samsung mejorando a lo largo de los años. ChatGPT también puede comprender y traducir idiomas para usted.

Pero Google está trayendo la traducción en tiempo real con Gemini a aplicaciones de chateo de video como Google Meet. Eso es algo que Chatgpt no puede hacer.

La función es aún mejor en el hardware con Gemini, como la próxima ola de dispositivos Android XR.

El hardware Géminis

Esto me lleva a los primeros dispositivos desarrollados con Gemini en el núcleo: AR/AI de Google y lentes inteligentes solo. I/o 2025 finalmente nos dio las demostraciones públicas que nos faltamos. Hubo problemas técnicos, y la conectividad a Internet definitivamente afectó el rendimiento, pero las demostraciones mostraron que estos wearables de IA funcionaban.

Veremos gafas Android XR en las tiendas a finales de este año, y serán el dispositivo perfecto para usar AI. Sí, Meta tiene sus gafas Ray-Ban Meta Smart que hacen lo mismo con Meta AI. Pero todo lo que dije sobre las nuevas potencias de Google Gemini hace que las gafas de Android XR sean aún más emocionantes, al menos en teoría.

OpenAi no puede igualar eso. No hay gafas inteligentes de primera parte que ejecuten chatgpt de forma nativa. Estoy seguro de que dicho producto vendrá de Jony Ive y Co. en los próximos años, y el hardware ChatGPT valdrá la pena. Pero Google está llegando allí primero, y ciertamente está llamando la atención en el proceso.

Continue Reading

Noticias

Su asistente de Google Gemini está obteniendo 8 características útiles: aquí está el registro de actualizaciones

Published

on

Artie Beaty/Zdnet

Google Gemini ya ofrece una gran cantidad de capacidades útiles. Desde generar texto y crear imágenes hasta conversaciones en vivo, investigaciones profundas y analizar archivos, la IA de Google ha demostrado ser un fuerte contendiente en el campo de IA.

También: Todo anunciado en Google I/O 2025: Gemini, Search, Android XR y más

En Google I/O 2025 el martes, la compañía reveló una serie de características nuevas y mejoradas ahora disponibles con su asistente de IA.

1. Nuevos planes Google AI Pro y Ultra

Primero hay dos nuevas suscripciones de Google AI que ofrecen más funciones, pero naturalmente vienen con sus propios precios.

El primer plan se conoce como Google AI Pro, que en realidad es el mismo plan de AI Premium que ha existido por un tiempo solo con un nuevo nombre. Todavía con un precio de $ 20 por mes, AI Pro ofrece las mismas funciones de IA disponibles con la versión gratuita de Gemini, pero agrega límites de tarifa más altos y características especiales.

AI Pro también incluye la aplicación Gemini anteriormente conocida como Gemini Advanced, junto con productos como NotebookLM y el nuevo editor de video de AI Flow. Esas dos características llegarán a los suscriptores de AI Pro primero en los EE. UU. Y luego se expandirán a otros países.

Los estudiantes universitarios en los Estados Unidos, el Reino Unido, Brasil, Indonesia y Japón pueden obtener un año escolar gratuito de Google AI Pro.

Si necesita más potencia y características y está dispuesto a gastar mucho dinero, también hay un plan de Google Al Ultra. Este ofrece los modelos más poderosos, los límites de tarifa más altos y el acceso temprano a las características experimentales de AL.

También: Google presenta su suscripción de AI Ultra de $ 250 por mes: lo que está incluido

Como ejemplo, el Ultra Plan le otorgará acceso temprano al modo de agente, una nueva herramienta de agente basada en escritorio que llevará a cabo tareas para usted. Simplemente describa su solicitud o pregunta; En respuesta, el agente navega por la Web, realiza su propia investigación y se integra con sus aplicaciones de Google para abordar tareas complejas de varios pasos de principio a fin.

El Ultra Plan cuesta $ 250 al mes, aunque los suscriptores por primera vez obtienen un 50% de descuento durante los primeros tres meses.

2. Géminis en vivo

El siguiente es Gemini Live, el práctico modo de chat en el que llevas una conversación de voz de ida y vuelta con la IA. Anteriormente, solo los usuarios de Android podían compartir su pantalla o vista de cámara y hacer preguntas de Gemini al respecto. Ahora, Google está expandiendo esta función para que los usuarios de Android e iOS puedan usar la cámara y el intercambio de pantalla.

También: el intercambio de pantalla en vivo de Gemini y la cámara ahora están disponibles para todos, gratis

Para probar esto, abra la aplicación Gemini en su dispositivo iPhone o Android y toque el icono de Gemini Live a la derecha de la solicitud. El icono de la cámara en la parte inferior le permite apuntar su teléfono en cualquier objeto o escena y pedirle a Gemini que lo describiera o responda preguntas al respecto. El segundo icono le permite compartir cualquier pantalla en su dispositivo para que Gemini analice.

Hay más: en las próximas semanas, Gemini Live funcionará con otras aplicaciones y servicios de Google, incluidos los mapas de Google, el calendario, las tareas y el mantenimiento. Esto significa que podrá pedirle a Gemini Live que realice tareas tales como crear una cita de calendario o proporcionar instrucciones a su próximo destino.

3. Imagen 4 Generación de imágenes

Anteriormente, Google usó su modelo Imagen 3 para generar imágenes basadas en sus descripciones. Ahora, la compañía se ha actualizado a Imagen 4, que según él ofrecerá un rendimiento más rápido, más detalles realistas y una mejor producción de texto. Cualquiera ahora podrá probar Imagen 4 a través de la aplicación móvil Gemini.

4. Veo 3 Generación de videos

También recibe una actualización es el generador de video VEO de Gemini. Avanzando de VEO versión 2, VEO 3 ofrece una generación de audio nativa con soporte para el diálogo entre personajes, ruidos de fondo y efectos de sonido. Como Google lo describe, ahora puede agregar cualquier cosa, desde los sonidos de la ciudad bulliciosos hasta el susurro de las hojas hasta el diálogo del personaje solo desde sus descripciones de texto. La barrera principal aquí es que VEO 3 estará disponible solo para Google AI Ultra suscriptores en los EE. UU.

5. Mejoras de lienzo

La herramienta Canvas de Google le ofrece un espacio de trabajo interactivo y colaborativo en el que puede crear código, diseñar páginas web e idear otro contenido visual, con los resultados que aparecen de lado a lado en tiempo real. Utilizando el último modelo Gemini 2.5, Canvas promete ser más intuitivo y poderoso, según Google.

También: Google Beam está listo para traer videoconferencia 3D convencional

Puede crear infografías interactivas, cuestionarios y descripciones de audio al estilo de podcast en cualquiera de los 45 idiomas. Con las habilidades de codificación de Gemini 2.5 Pro, Canvas ahora es más experto en convertir sus ideas en código real, lo que le ayuda a desarrollar aplicaciones completas.

6. Tamizios interactivos

¿Tratando de aprender un nuevo tema complicado? Géminis puede ayudar. Ahora puede pedirle a la IA que cree un cuestionario sobre su tema de interés. En respuesta, Gemini lo desafía con una serie de preguntas diseñadas para expandir su conocimiento. A medida que responde a cada pregunta, la IA le dirá cómo está y se concentrará en cualquier área que necesite atención especial. Esta característica ahora se está implementando en todos los usuarios de Gemini en los dispositivos de escritorio y móviles.

7. Géminis en Chrome

Hasta el miércoles, Gemini comenzará a aparecer en Chrome en el escritorio tanto en Windows como en MacOS. Aquí, podrá pedirle a Gemini que analice o responda preguntas sobre su página web actual. En el futuro, la IA también funcionará a través de múltiples pestañas e incluso lanzará diferentes sitios web para usted.

También: Conoce a Gemini-in Chrome, tu nuevo asistente de navegación de IA, aquí es quién lo usa

Suena útil, pero el acceso será limitado. Gemini-in Chrome estará disponible solo para los suscriptores de Google Al Pro y Google Al Ultra en los EE. UU. Que usan el inglés como idioma en el navegador.

8. Investigación profunda

Finalmente, el modo de investigación profunda de Gemini es una herramienta de agente que puede realizar una investigación en línea para usted y presentar los resultados en un informe detallado, por sí solo. Anteriormente, Deep Research solo pudo consultar a los sitios web para obtener la información que necesitaba. Ahora, también puede ver sus propios PDF e imágenes. Esto significa que podría decirle a Gemini que incluya tendencias y temas que ya han sido capturados en sus propios archivos personales o de trabajo.

En un ejemplo citado por Google, un investigador de mercado podría cargar cifras de ventas internas almacenadas en un PDF para referencias cruzadas con las tendencias del mercado público. En otro ejemplo, un investigador académico podría decirle a Gemini que consulte a los artículos de revistas descargados para agregar a una revisión de la literatura en línea. Como un elemento más, Google dijo que planea integrar una investigación profunda con Google Drive y Gmail para expandir el número de fuentes disponibles.

También: Google le da al video generado por IA una voz con VEO 3 – Cómo probarlo

Vaya, eso es mucho para desempacar. Pero con AI impactando cada vez más tanto individuos como organizaciones, Google está demostrando que está tratando de mantenerse competitivo. E incluso con la nueva y costosa suscripción Ultra, hay suficiente aquí para los usuarios gratuitos de Gemini y los suscriptores de AI Pro para tratar de ver si pueden aprovechar los últimos desarrollos y cómo y cómo.

¿Quieres más historias sobre AI? Regístrese para la innovaciónnuestro boletín semanal.

Continue Reading

Noticias

Operai gana la demanda por difamación presentada por el activista de los derechos de las armas sobre reclamos de malversación de fondos alucinados

Published

on

En la decisión de ayer por el juez Tracie Cason (Georgia Super. Ct. Gwinnett County) en Walters v. Openai, LLCel activista de los derechos de armas Mark Walters demandó a OpenAi después de que el periodista Frederick Riehl (“editor de Ammoland.com, un sitio de noticias y defensa relacionada con los derechos de la Segunda Enmienda”) recibió una alucinación generada por IA de Chatgpt que alegaba que Walters estaba siendo demandado por presunta presunta sobresslemento. El tribunal otorgó un juicio sumario de OpenAI, concluyendo que OpenAi debe prevalecer “por tres razones independientes”:

[1.] En Contexto, un lector razonable no habría entendido las acusaciones “podrían ser” razonablemente entendidas que describen hechos reales “,”, “,” que es un elemento clave de un reclamo de difamación. El Tribunal no concluyó que OpenAi y otras compañías similares son categóricamente inmunes cada vez que incluyen un descargo de responsabilidad, sino que declaró que “el descargo de responsabilidad o el lenguaje de advertencia pesan en la determinación de si este objetivo objetivo, el estándar de ‘lector razonable’ se cumple”, y que “en las circunstancias presentes aquí, un lector razonable en la posición de Riehl no podría haber concluido que el chatgptutputppppput en la comunicación ” en realidad ‘: las hechos reales’ en realidad ” en realidad ”.

{Riehl pegó secciones del Fergusón queja [a Complaint in a civil case that Riehl was researching] en Chatgpt y le pidió que resumiera esas secciones, que hizo con precisión. Riehl luego proporcionó un enlace de Internet, o URL, a la queja a ChatGPT y le pidió que resumiera la información disponible en el enlace. ChatGPT respondió que “no tenía acceso a Internet y no puede leer ni recuperar ningún documento”. Riehl proporcionó la misma URL nuevamente. Esta vez, Chatgpt proporcionó un resumen diferente e inexacto del Fergusón Queja, diciendo que implicaba acusaciones de malversación de malversación por parte de un tesorero y director financiero no identificado de SAF. Riehl nuevamente proporcionó la URL y le preguntó a ChatGPT si podía leerla. Chatgpt respondió “sí” y nuevamente dijo que la queja involucraba acusaciones de malversación de fondos; esta vez, dijo que el malversador acusado era un individuo llamado Mark Walters, quien Chatgpt dijo que era el tesorero y director financiero de la SAF.}

En esta interacción específica, ChatGPT advirtió a Riehl que no podía acceder a Internet o acceder al enlace al Fergusón Queja que Riehl le proporcionó y que no tenía información sobre el período de tiempo en el que se presentó la queja, que fue después de su “fecha de corte de conocimiento”. Antes de que Riehl proporcionara el enlace a la queja, ChatGPT resumió con precisión el Fergusón Queja basada en el texto riehl ingresada. Después de que Riehl proporcionó el enlace, y después de ChatGPT inicialmente advirtió que no podía acceder al enlace, ChatGPT proporcionó un resumen completamente diferente e inexacto.

Además, los usuarios de ChatGPT, incluido Riehl, fueron advertidos repetidamente, incluso en los términos de uso que gobiernan las interacciones con ChatGPT, que ChatGPT puede y a veces proporciona información fácticamente inexacta. Un usuario razonable como Riehl, que era consciente de la experiencia pasada que ChatGPT puede y sí proporciona “respuestas ficticias planas”, y quién había recibido las repetidas renuncias que advierte que la producción equivocada era una posibilidad real, no habría creído que el resultado estaba diciendo “hechos reales” sobre Walters sin intentar verificarlo …

Eso es especialmente cierto aquí, donde Riehl ya había recibido un comunicado de prensa sobre el Fergusón Queja y tuvo acceso a una copia de la queja que le permitió verificar de inmediato que la salida no fuera verdadera. Riehl admitió que “en aproximadamente una hora y media” había establecido que “lo que sea [Riehl] estaba viendo “en la producción de Chatgpt” no era cierto “. Como Riehl testificó, él ” entendió que la máquina fantaseaba por completo. …

Por separado, es indiscutible que Riehl en realidad no creyera que el Fergusón La queja acusó a Walters de malversación de la SAF. Si el individuo que lee una declaración desafiada no cree subjetivamente que sea real, entonces la declaración no es difamatoria como una cuestión de derecho.[Riehl] Sabía que Walters no era, y nunca había sido, el tesorero o director financiero de la SAF, una organización para la cual Riehl sirvió en la junta directiva …

[2.a.] El tribunal también concluyó que Walters no podía mostrar ni siquiera negligencia Por parte de Operai, que se requiere para todas las reclamaciones de difamación sobre asuntos de preocupación pública:

El Tribunal de Apelaciones ha sostenido que, en un caso de difamación “,[t]El estándar de conducta requerido de un editor … se definirá por referencia a los procedimientos de un editor razonable en [its] El puesto habría empleado antes de publicar [an item] como [the] uno [at issue. A publisher] será mantenido a la habilidad y experiencia normalmente ejercida por miembros de [its] profesión. La costumbre en el comercio es relevante pero no controladora “. Walters no ha identificado evidencia de qué procedimientos un editor razonable en la posición de Openal habría empleado en función de la habilidad y la experiencia que normalmente ejercen los miembros de su profesión. Tampoco Walters ha identificado ninguna evidencia que OpenAI no cumpliera con este estándar.

Y Openai ha ofrecido evidencia de su experto, el Dr. White, que Walters no refutó ni se abordó, lo que demuestra que Operai lidera a la industria de la Liga Americana al intentar reducir y evitar la producción equivocada como la producción desafiada aquí. Específicamente, “Openai ejerció un cuidado razonable en el diseño y la liberación de Chatgpt basado en ambos (1) los esfuerzos líderes en la industria OpenAi emprendió para maximizar la alineación de la producción de ChatGPT a la intención del usuario y, por lo tanto, reducen la probabilidad de alucinamiento; y (2), proporcionando a las advertencias recurrentes a los usuarios sobre la posibilidad de alucinaciones en la producción de Chatgpt. ChatGPT y los diversos LLM que OpenAI ha puesto a disposición de los usuarios a través de ChatGPT. Operai también ha tomado medidas extensas para advertir a los usuarios que ChatGPT puede generar resultados inexactos a veces, lo que niega aún más cualquier posibilidad de que Walters pueda mostrar OpenAi fue negligente …

Ante esta evidencia indiscutible, el abogado de Walters afirmó el argumento oral de que OpenAi era negligente porque “un hombre prudente se encargaría de no desatar un sistema en el público que forme declaraciones falsas aleatorias sobre los demás … En otras palabras, el abogado de Walters argumentó que debido a que ChatGPT es capaz de producir una producción errónea, OpenAi tuvo la culpa simplemente al operar ChatGpt en absoluto, sin tener en cuenta los procedimientos de un editor razonable en [OpenAl’s] el puesto habría empleado “o a la” habilidad y experiencia normalmente ejercida por miembros de [its] profesión. “El tribunal no es persuadido por el argumento del demandante.

Walters no ha identificado ningún caso que tenga en cuenta que un editor es negligente como una cuestión de ley de difamación simplemente porque sabe que puede cometer un error y por una buena razón. Tal regla impondría un estándar de responsabilidad estricta, no negligencia, porque sería responsable de OpenAi por lesiones sin ninguna “referencia a” un grado razonable de habilidad y cuidado “medido contra una determinada comunidad”. La Corte Suprema de los Estados Unidos y la Corte Suprema de Georgia han sostenido claramente que un demandante de difamación debe demostrar que el acusado actuó con “al menos negligencia ordinaria” y puede no responsabilizar a un acusado “sin culpa”. …

[2.b.] El tribunal también concluyó que Walters era una figura pública y, por lo tanto, tuvo que mostrar no solo negligencia, sino también Falsidad Conocer o imprudente por parte de OpenAi (llamada “malicia real”):

Walters califica como una figura pública dada su prominencia como presentador de radio y comentarista sobre los derechos constitucionales, y la gran audiencia que ha construido para su programa de radio. Admite que su programa de radio atrae a 1,2 millones de usuarios por cada segmento de 15 minutos y se llama a sí mismo ” la voz más fuerte en Estados Unidos que lucha por los derechos de las armas “. Como el demandante en Williams v. Trust Company of Georgia (Ga. App.), Walters es una figura pública porque ha “recibido publicidad generalizada por sus derechos civiles … actividades”, tiene “su propio programa de radio”, ” llevó su causa a la gente a pedir el apoyo del público “, y es” franco sobre asignaturas de interés público “. Además, Walters califica como una figura pública porque tiene” una oportunidad más real para contrarrestar falsas declaraciones falsas que las personas privadas que normalmente disfrutan de las personas que normalmente se disfrutan de la radio de radio con una gran audiencia con una gran audiencia de radio con una gran audiencia con un audiencia de radio. Las declaraciones de chatgpt falsas en cuestión aquí … [And] Como mínimo, Walters califica como una figura pública de propósito limitado aquí porque estas declaraciones son claramente “pertinentes” a la “participación” admitida de Walters en los “controversos públicos[ies]”que están relacionados con la salida de chatgpt en cuestión aquí …

Los dos argumentos de Walters de que ha demostrado malicia real. Primero, argumenta que Operai actuó con “malicia real” porque OpenAi dijo a los usuarios que ChatGPT es una “herramienta de investigación”. Pero esta afirmación no se relaciona de ninguna manera con si OpenAi sabía subjetivamente que la producción de ChatGPT desafiada era falsa en el momento en que se publicó, o ignoraba imprudentemente la posibilidad de que pudiera ser falso y lo publicara de todos modos, que es lo que requiere el estándar de “malicia real”. Walters no presenta evidencia de que alguien en OpenAi tuviera forma de saber que la producción que recibió probablemente sería falsa … [The] El estándar de “malicia real” requiere prueba de la “conciencia subjetiva del acusado de la falsedad probable” …

En segundo lugar, Walters parece argumentar que Operai actuó con “malicia real” porque es indiscutible que OpenAi era consciente de que ChatGPT podría cometer errores al proporcionar salida a los usuarios. El mero conocimiento de que un error fue posible Se encuentra muy por debajo de la “evidencia clara y convincente” requerida de que OpenAi en realidad “tenía una conciencia subjetiva de la falsedad probable” cuando ChatGPT publicó la producción cuidada específica en sí …

[3.] Y el tribunal concluyó que en cualquier caso Walters tuvo que perder porque (a) no podía mostrar daños reales, (b) No pudo recuperar presuntos daños, porque aquí la evidencia refuta cualquier presunción de daño, dado que Riehl era la única persona que vio la declaración y no lo creyó, y (c) bajo la ley de Georgia “,”.[A]LL Libel Demandantes que tienen la intención de buscar daños punitivos [must] Solicite una corrección o retracción antes de presentar su acción civil contra cualquier persona para publicar una declaración falsa y difamatoria “, y no se hizo dicha solicitud aquí.

Una decisión interesante, y bien podría ser correcta (ver mi Modelos de difamación grandes Artículo para la imagen legal más grande), pero está vinculado estrechamente a sus hechos: en otro caso, donde el usuario no tenía tantas señales de que la afirmación sea falsa, o cuando el usuario distribuyó más ampliamente el mensaje (que puede haber producido más daños), o cuando el demandante no fue una cifra pública, o cuando el demandante había alertado al demandante del demandante y aún no lo hizo a la demandante que no lo hizo, el resultado, el resultado. Para comparar, consulte el Starbuck v. Meta Platforms, Inc. Caso discutido en esta publicación de hace tres semanas.

Tenga en cuenta que, como es común en los tribunales de algunos estados, la decisión adopta en gran medida una orden propuesta presentada por la parte que prevaleció sobre la moción de juicio sumario. Por supuesto, el juez ha aprobado la orden y está de acuerdo con lo que dice (ya que podría haber editado fácilmente partes con las que no estaba de acuerdo); Pero el encuadre retórico en tales casos a menudo es más el de la parte prevaleciente que la del juez.

Operai está representado por Stephen T. Labriola y Ethan M. Knott (Fellows Labriola LLP); Ted Botrous, Orin Snyder y Connor S. Sullivan (Gibson, Dunn & Crutcher LLP); y Matthew MacDonald (Wilson Sonsini Goodrich y Rosati, PC).

Continue Reading

Trending