Connect with us

Noticias

Las verificaciones de datos de ChatGPT pueden reducir la confianza en titulares precisos, según un estudio

Published

on

Un estudio reciente publicado en el Actas de la Academia Nacional de Ciencias investiga cómo los grandes modelos lingüísticos, como ChatGPT, influyen en las percepciones de las personas sobre los titulares de las noticias políticas. Los hallazgos revelan que, si bien estos sistemas de inteligencia artificial pueden señalar con precisión información falsa, sus resultados de verificación de hechos no ayudan constantemente a los usuarios a discernir entre noticias verdaderas y falsas. En algunos casos, el uso de verificaciones de datos mediante IA incluso condujo a una menor confianza en los titulares verdaderos y a una mayor creencia en los dudosos.

Los modelos de lenguaje grande (LLM), como ChatGPT, son sistemas avanzados de inteligencia artificial diseñados para procesar y generar texto similar al humano. Estos modelos se entrenan en vastos conjuntos de datos que incluyen libros, artículos, sitios web y otras formas de comunicación escrita. A través de esta capacitación, desarrollan la capacidad de responder a una amplia gama de temas, imitar diferentes estilos de escritura y realizar tareas como resúmenes, traducción y verificación de hechos.

La motivación detrás de este estudio surge del creciente desafío de la desinformación en línea, que socava la confianza en las instituciones, fomenta la polarización política y distorsiona la comprensión pública de cuestiones críticas como el cambio climático y la salud pública. Las plataformas de redes sociales se han convertido en focos de rápida difusión de información falsa o engañosa, superando a menudo la capacidad de las organizaciones tradicionales de verificación de datos para abordarla.

Los LLM, con su capacidad para analizar y responder al contenido rápidamente y a escala, se han propuesto como una solución a este problema. Sin embargo, si bien estos modelos pueden proporcionar correcciones fácticas, se sabía poco sobre cómo las personas interpretan y reaccionan ante sus esfuerzos de verificación de hechos.

“La rápida adopción de los LLM para diversas aplicaciones, incluida la verificación de hechos, generó preguntas apremiantes sobre su eficacia y consecuencias no deseadas”, dijo el autor del estudio Matthew R. DeVerna, candidato a doctorado en el Observatorio de Medios Sociales de la Universidad de Indiana. “Si bien estas herramientas demuestran capacidades impresionantes, se sabía poco sobre cómo la información que proporcionan influye en el juicio y el comportamiento humanos. Si bien confiamos en que dicha tecnología se puede utilizar para mejorar la sociedad, debe hacerse con cuidado y esperamos que este trabajo pueda ayudar a diseñar sistemas basados ​​en LLM que puedan mejorar los espacios digitales”.

Los investigadores diseñaron un experimento controlado aleatorio en el que participaron 2159 participantes, cuya muestra reflejaba la demografía de la población de Estados Unidos en términos de género, edad, raza, educación y afiliación política. Los participantes se dividieron en dos grupos: uno evaluó la exactitud de los titulares (“grupo de creencias”) y el otro indicó su voluntad de compartirlos en las redes sociales (“grupo de intercambio”).

Cada grupo encontró 40 titulares de noticias políticas, divididos equitativamente entre afirmaciones verdaderas y falsas. Estos titulares también fueron equilibrados en cuanto al sesgo partidista, lo que garantiza una combinación equitativa de contenido favorable a demócratas y republicanos. Los participantes fueron asignados a una de cuatro condiciones: un grupo de control sin información de verificación de datos, un grupo al que se le mostraron verificaciones de datos generadas por IA mediante ChatGPT, un grupo que podía elegir si ver las verificaciones de datos de IA y un grupo al que se le presentó verificaciones de datos humanas tradicionales.

Las verificaciones de datos de ChatGPT se generaron utilizando un mensaje estandarizado y se etiquetaron como “verdadero”, “falso” o “inseguro” según la respuesta del modelo. Se informó a los participantes de los grupos de IA que la información de verificación de datos procedía de ChatGPT. Aquellos en el grupo de verificación humana de hechos recibieron evaluaciones claras y concisas de las afirmaciones, respaldadas por detalles sobre la credibilidad de la fuente de noticias.

El estudio encontró que el impacto de la verificación de datos generada por IA en los juicios y comportamientos de los participantes fue mixto y, a menudo, contraproducente. Si bien ChatGPT identificó con precisión el 90% de los titulares falsos como falsos, tuvo problemas con los titulares verdaderos, etiquetando solo el 15% como verdadero y expresando incertidumbre sobre la mayoría. Esta incertidumbre provocó efectos indeseables: los participantes tenían menos probabilidades de creer en titulares verdaderos clasificados erróneamente como falsos y más probabilidades de creer en titulares falsos cuando la IA expresaba incertidumbre.

Por ejemplo, los participantes del grupo de creencias que estuvieron expuestos a las verificaciones de datos de ChatGPT mostraron un discernimiento reducido en comparación con el grupo de control. Tenían un 12,75% menos de probabilidades de creer en titulares verdaderos marcados incorrectamente como falsos y un 9,12% más de probabilidades de creer en titulares falsos cuando ChatGPT no estaba seguro. De manera similar, en el grupo que compartía, los participantes tenían más probabilidades de compartir titulares falsos etiquetados como inciertos por la IA.

“El público debe ser consciente de que estos modelos a veces pueden proporcionar información inexacta, lo que puede llevarlos a conclusiones incorrectas”, dijo DeVerna a PsyPost. “Es importante que aborden la información de estos modelos con cautela”.

Por el contrario, las verificaciones de hechos humanas tradicionales mejoraron significativamente la capacidad de los participantes para distinguir entre titulares verdaderos y falsos. Aquellos expuestos a la verificación de datos humanos tenían un 18,06% más de probabilidades de creer titulares verdaderos y un 8,98% más de probabilidades de compartirlos en comparación con el grupo de control.

La opción de ver verificaciones de datos de IA también reveló un sesgo de selección. Los participantes que eligieron ver información de verificación de datos generada por IA tenían más probabilidades de compartir titulares tanto verdaderos como falsos, lo que sugiere que es posible que ya se hayan formado opiniones sobre los titulares antes de consultar a la IA. Este comportamiento estuvo influenciado por las actitudes de los participantes hacia la IA, ya que aquellos con opiniones positivas sobre la IA tenían más probabilidades de creer y compartir contenido después de ver las verificaciones de hechos.

“Proporcionamos algunas pruebas que sugieren que las personas pueden estar ignorando información precisa de verificación de datos de ChatGPT sobre titulares falsos después de elegir ver esa información”, dijo DeVerna. “Esperamos comprender mejor los mecanismos en juego aquí en trabajos futuros”.

Como ocurre con toda investigación, existen algunas limitaciones. En primer lugar, el estudio se basó en una versión específica de ChatGPT y un conjunto limitado de titulares, que pueden no capturar completamente las complejidades de la desinformación del mundo real. El entorno de la encuesta del experimento también difiere de la naturaleza dinámica y acelerada de las interacciones en las redes sociales.

“Nuestro estudio se basó en una versión específica, ahora obsoleta, de ChatGPT y presentó a los participantes una única respuesta del modelo”, señaló DeVerna. “Los resultados pueden variar con otros LLM o en entornos más interactivos. Las investigaciones futuras se centrarán en examinar estas dinámicas en contextos más realistas”.

“Esperamos comprender mejor los riesgos y beneficios potenciales de la tecnología basada en LLM para mejorar los espacios digitales y maximizar su beneficio para la sociedad. Estamos trabajando para comprender cómo interactúan los humanos con esta tecnología, cómo mejorar la precisión del modelo y cómo dichas intervenciones escalan a redes masivas como las plataformas de redes sociales”.

El estudio, “La información de verificación de hechos de modelos lingüísticos grandes puede disminuir el discernimiento de los titulares”, fue escrito por Matthew R. DeVerna, Harry Yaojun Yan, Kai-Cheng Yang y Filippo Menczer.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

La batalla de los gigantes tecnológicos

Published

on

OpenAI siempre ha sido excelente para captar la atención en las noticias. Sus anuncios a menudo vienen acompañados de afirmaciones grandes y audaces. Por ejemplo, anunciaron GPT-2 pero dijeron que era demasiado peligroso lanzarlo. O su campaña “12 días de Navidad”, donde mostraron un producto nuevo todos los días durante 12 días.

Ahora, Sam Altman ha compartido sus pensamientos sobre el año pasado, centrándose en la dramática telenovela de la sala de juntas en torno a su despido y regreso. También hizo una predicción audaz:

“Ahora sabemos cómo construir AGI como se entiende habitualmente. En 2025, creemos que los agentes de IA se unirán a la fuerza laboral y cambiarán la forma en que trabajan las empresas”.

AGI (Inteligencia General Artificial) significa crear una IA que sea tan inteligente y general como un humano. A diferencia de la IA estrecha, que está diseñada para tareas específicas como traducir idiomas, jugar al ajedrez o reconocer rostros, AGI puede manejar cualquier tarea intelectual y adaptarse en diferentes áreas. mientras no creo “AGI está cerca” Creo que la IA se unirá a la fuerza laboral, pero tal vez no de la manera que Altman imagina.

¿Está AGI cerca? No, al menos no el AGI que nosotros (o Sam) imaginamos

La llegada de AGI en 2025 parece muy improbable. La IA actual, como ChatGPT, funciona reconociendo patrones y haciendo predicciones, no comprendiendo realmente. Por ejemplo, completar la frase “La vida es como una caja de…” con “chocolates” se basa en probabilidades, no en razonamiento.

No creo que la AGI se produzca en 2025, y muchos expertos están de acuerdo. Demis Hassabis, con quien trabajé en Google, predice que AGI podría llegar alrededor de 2035. Ray Kurzweil estima que 2032, y Jürgen Schmidhuber, director de IDSIA, sugiere más cerca de 2050. Los escépticos son muchos y el cronograma sigue siendo incierto.

¿Importa cuándo? La IA ya es poderosa.

Quizás no importe exactamente cuándo llegará AGI. Incluso Sam Altman recientemente restó importancia a la “G” en AGI, diciendo:

“Creo que alcanzaremos el AGI antes de lo que la mayoría de la gente piensa y importará mucho menos”.

Estoy de acuerdo con esto hasta cierto punto. La IA ya tiene capacidades impresionantes. Por ejemplo, la IA de Netflix conoce tus preferencias cinematográficas mejor que tu pareja. Incluso se ha bromeado sobre los algoritmos de TikTok por reconocer la orientación sexual de alguien antes que ellos. La IA sobresale en el reconocimiento de patrones y, en muchos casos, es mejor que los humanos.

Sam Altman ve que la IA “se une a la fuerza laboral”

El punto más importante del memorando de Sam es su creencia de que la IA “se unirá a la fuerza laboral”. Estoy completamente de acuerdo en que esto va a suceder. Como escribí en mi actualización del agente de IA, para que la IA tenga éxito en el lugar de trabajo, necesita dos cosas clave: (1) acceso a herramientas y (2) acceso a datos. Estos son los pilares para que la IA sea realmente eficaz en entornos empresariales. Sin embargo, aunque Sam a menudo vincula esta idea con AGI, es posible que OpenAI no lidere la tarea de proporcionar estas soluciones de fuerza laboral de IA.

La primera posición de Microsoft: acceso a los usuarios

¿Quién tiene las herramientas laborales? Microsoft. Microsoft. Microsoft. Están en la pole position. La mayoría de la gente ya utiliza productos de Microsoft, les guste o no, y la IA se está integrando profundamente en estas herramientas, con copilotos apareciendo por todas partes.

En 2023 y 2024, muchas nuevas empresas lanzaron impresionantes servicios de inteligencia artificial para trabajos de oficina, solo para ser rápidamente eclipsadas por gigantes como Microsoft y Google, que tienen acceso directo a los clientes. Tomemos como ejemplo a Jasper.ai, una herramienta de inteligencia artificial para redactar textos que alguna vez fue famosa. Como señalé en esta publicación de LinkedIn, características similares ahora están integradas directamente en los productos de Google y Microsoft, lo que hace cada vez más difícil competir para los jugadores más pequeños.

El poder del acceso a los datos

La IA necesita datos para ser verdaderamente eficaz. Si está buscando respuestas sobre los procesos internos de una empresa o información valiosa a partir de documentos, herramientas generales como ChatGPT no serán suficientes. Lo que necesitamos son herramientas que puedan leer y resumir documentos de la empresa, diseñadas específicamente para uso empresarial. Como dije antes, 2025 será el año de la BÚSQUEDA, especialmente la búsqueda empresarial. Las herramientas que pueden responder preguntas, resumir contenido y ayudar a los usuarios a navegar por información compleja cambiarán las reglas del juego.

¿Quién tiene acceso a este tipo de datos? Microsoft es un gran actor, pero no está solo. Salesforce, por ejemplo, posee una enorme cantidad de datos valiosos: interacciones con los clientes, debates, documentos de procesos, estrategias de marketing y más. ¿Salesforce quiere que los agentes de IA ayuden a desbloquear este potencial? Absolutamente.

No sorprende que el director ejecutivo de Salesforce, Marc Benioff, haya criticado recientemente a Microsoft. Llamó a su asistente de IA, Copilot, “decepcionante” y dijo: “Simplemente no funciona y no ofrece ningún nivel de precisión”. Incluso lo llamó “Clippy 2.0”, el insulto más divertido que he escuchado en mucho tiempo, antes de lanzar la propia solución de inteligencia artificial de Salesforce, Agent Forces.

¿OpenAI es “simplemente” la herramienta más inteligente?

OpenAI no tiene el mismo nivel de acceso a datos o alcance al consumidor que Microsoft, ni tiene el tesoro de datos comerciales de Salesforce. Entonces, ¿cuál es su ángulo? Afirman ser la herramienta más inteligente del mercado, y probablemente lo sean, aunque personalmente considero que Claude 3.5 de Anthropic es actualmente mejor que GPT-4 de OpenAI.

OpenAI apuesta por su capacidad para superar a todos los demás con tecnología superior. Es por eso que Sam Altman afirma con seguridad que veremos AGI. ¿Qué hay detrás de esa audaz afirmación? Razonamiento o, como lo llama OpenAI, Razonamiento.

OpenAI y razonamiento

OpenAI lanzó recientemente o1, un modelo diseñado para mostrar capacidades de razonamiento avanzadas a través de un proceso iterativo de autollamada:

  1. Iteración y reflexión: el modelo genera un resultado, lo evalúa o critica y lo refina en una nueva ronda de razonamiento.
  2. Bucle de retroalimentación: esto crea un circuito de retroalimentación donde el modelo revisa sus resultados, los critica y los mejora aún más.

En esencia, GPT con o1 no sólo proporciona respuestas: planifica, critica el plan y lo mejora continuamente.

Lo que es especialmente digno de mención es el cambio de paradigma que esto representa. En lugar de simplemente lanzar un modelo más grande como GPT-5, la próxima generación de modelos de IA se centra en “pensar más” durante la inferencia. Esta capacidad de procesar de forma iterativa puede ser a lo que se refiere Sam Altman cuando dice: “Ahora sabemos cómo construir AGI”.

¿El razonamiento es razón suficiente?

Pero, ¿el “razonamiento” por sí solo hace que OpenAI entre en juego? OpenAI todavía necesita acceso a los datos y una fuerte presencia de usuarios, similar a Salesforce o Microsoft. Para solucionar este problema, OpenAI lanzó la aplicación de escritorio ChatGPT para macOS. Esta aplicación ahora puede leer código directamente desde herramientas centradas en desarrolladores como VS Code, Xcode, TextEdit, Terminal e iTerm2. Esto significa que los desarrolladores ya no necesitan copiar y pegar su código en ChatGPT, una solución común hasta ahora. Es una herramienta realmente útil y una medida inteligente para integrarse más profundamente en el flujo de trabajo del desarrollador.

Chatear con modelos de lenguaje grandes cuesta dinero

Cada llamada a un modelo de lenguaje grande (LLM) cuesta dinero. Para los grandes usuarios de ChatGPT, es posible que la suscripción de $ 20 ni siquiera cubra el costo de su uso. OpenAI recaudó recientemente 6.600 millones de dólares en una ronda de financiación Serie E, un impulso muy necesario para sostener sus operaciones. Si bien Agentforce genera ingresos sólidos de sus clientes y Microsoft disfruta de un enorme fondo de guerra financiera, OpenAI aún se encuentra en las primeras etapas para lograr que las empresas y los usuarios paguen lo suficiente para compensar los elevados costos del desarrollo de IA de vanguardia.

Su nivel premium de $200 por mes, que incluye la versión ampliada de O1, es un paso en esta dirección. ¿Pero vale la pena el precio? Quizás es por eso que AGI sigue siendo parte de la conversación: ayuda a justificar el posicionamiento premium. Sin embargo, la carrera por crear modelos superiores está lejos de terminar. Incluso O1 pronto podría ser superado por alternativas de código abierto, como hemos visto antes con Meta’s Llama.

Hablando de Meta, estoy seguro de que veremos sus intentos de monetizar los modelos de IA en 2025. En última instancia, el mayor desafío para estos actores sigue siendo claro: justificar enormes costos sin asegurar un flujo de ingresos constante y confiable.

Sam tiene razón: los agentes de IA estarán en la fuerza laboral

En 2025, veremos más agentes de IA ingresar a la fuerza laboral, transformando los flujos de trabajo al simplificar, mejorar y automatizar tareas en todas las industrias. Estos no serán modelos AGI que lo abarquen todo, sino modelos más pequeños y especializados diseñados para flujos de trabajo dedicados. La IA ampliará y mejorará los procesos paso a paso, combinando la IA tradicional, la recuperación de contexto y un diseño de usuario sólido para abordar desafíos como la seguridad, las alucinaciones y el control del usuario.

El éxito dependerá de la entrega de valor a través de soluciones bien integradas, fáciles de usar y diseñadas éticamente, como se describe en mi marco para crear herramientas de IA listas para la empresa. Para Sam Altman, la pregunta estratégica clave no será lograr AGI sino cómo fijar el precio de los modelos base de OpenAI para clientes empresariales como Microsoft o Salesforce, especialmente si OpenAI termina compitiendo directamente con ellos.

Pero, ¿cómo trabajaremos con esos nuevos colegas de IA?

Las empresas emergerán como ganadoras en la carrera por mejores modelos, mejores datos y mejores integraciones. Su principal objetivo debería ser formar a los empleados y clientes para que trabajen de forma eficaz con sus nuevos colegas de IA. En mi curso certificado de eCornell sobre soluciones de IA, vi de primera mano cómo la productividad se disparó una vez que los estudiantes aprendieron a comunicarse con un copiloto de IA. Inicialmente, muchos lucharon por lograr resultados, pero una guía paso a paso sobre cómo interactuar con la IA marcó una diferencia significativa.

¿Por qué? Porque incluso con capacidades de razonamiento y planificación, la IA aún no es verdaderamente “general”, por mucho revuelo que genere Sam Altman. Los estudiantes tuvieron que aprender cuándo confiar en la IA y cuándo aplicar el juicio humano. Creo que 2025 será el año en que las empresas se den cuenta de esta necesidad e inviertan mucho en educación sobre IA.

Continue Reading

Noticias

Google TV de Alphabet integrará Gemini AI: informe

Published

on

El equipo de consumidores de Alphabet está preparado para mejorar los televisores que ejecutan su sistema operativo Google TV integrando Gemini AI en su sistema de control de voz Google Assistant. Bloomberg ha informado.

Esta actualización tiene como objetivo mejorar la interacción del usuario con comandos de voz más naturales y capacidades mejoradas de búsqueda de contenido, incluida una integración más profunda de YouTube.

La actualización Gemini, que se espera que se implemente más adelante en 2025, permitirá a los usuarios entablar conversaciones con televisores de terceros sin necesidad de la frase desencadenante “Hola Google” para cada comando.

Google demostró esta característica en la conferencia de tecnología CES.

Además, Google mostró la capacidad de recuperar contenido de forma más natural, como solicitar videos de un viaje reciente guardados en la cuenta de Google Photos de un usuario.

Se afirma que esta actualización es la primera vez que Google lleva Gemini a televisores de terceros que ejecutan su sistema operativo, incluidos los de Sony Group, Hisense Home Appliances Group y TCL Technology Group, luego de su debut en la caja de transmisión propia de Google el pasado año. año.

Acceda a los perfiles de empresa más completos del mercado, impulsados ​​por GlobalData. Ahorre horas de investigación. Obtenga una ventaja competitiva.

Perfil de la empresa: muestra gratuita

¡Gracias!

Su correo electrónico de descarga llegará en breve

Confiamos en la calidad única de nuestros perfiles de empresa. Sin embargo, queremos que tome la decisión más beneficiosa para su negocio, por lo que ofrecemos una muestra gratuita que puede descargar enviando el siguiente formulario.

Por GlobalData






Visite nuestra Política de privacidad para obtener más información sobre nuestros servicios, cómo podemos usar, procesar y compartir sus datos personales, incluida información sobre sus derechos con respecto a sus datos personales y cómo puede darse de baja de futuras comunicaciones de marketing. Nuestros servicios están destinados a suscriptores corporativos y usted garantiza que la dirección de correo electrónico enviada es su dirección de correo electrónico corporativa.

Google TV compite con otros sistemas operativos de televisión, incluidos los de Samsung Electronics, Amazon.com y Roku.

La compañía también presentó un nuevo modo “siempre encendido” para televisores, que utiliza sensores para detectar la presencia del usuario y mostrar información personalizada, como noticias y pronósticos del tiempo.

TCL será el primer fabricante en ofrecer este modo siempre activo a finales de este año, seguido de Hisense en 2026.

Esta función tiene como objetivo proporcionar a los usuarios información relevante cuando están cerca de su televisor, mejorando aún más la experiencia del usuario.

En diciembre de 2024, Google anunció planes para integrar Gemini AI en su plataforma de realidad extendida (XR), Android XR, a través de los auriculares Project Moohan XR de Samsung.


Continue Reading

Noticias

Utilicé estas 7 indicaciones de ChatGPT para ayudar a desarrollar la fortaleza mental y desafiar los pensamientos negativos: he aquí por qué me gustan

Published

on

El invierno puede ser una época difícil para mantenerse motivado y tener pensamientos positivos. Los días más cortos y las temperaturas gélidas son especialmente difíciles para mí porque me encanta el sol y estar al aire libre. Aunque todavía trato de salir y salir a correr cuando el clima lo permite, a menudo me siento deprimido y tiendo a pensar negativamente.

Si bien los terapeutas profesionales no son rival para ChatGPT, en caso de necesidad, a menudo utilizo ChatGPT para explorar estrategias para desarrollar la fortaleza mental mientras desafío los pensamientos negativos durante los meses de invierno.

Aprecio el modo de voz avanzado de ChatGPT porque los usuarios pueden tener una conversación humana sobre cualquier cosa, incluso pensamientos desanimados y desmotivados. Esto es lo que sucedió cuando compartí mis pensamientos con ChatGPT y las sugerencias que me dio.

1. Considere las alegrías invernales simples

(Crédito de la imagen: futuro)

Inmediato: “¿Qué pequeños placeres o actividades acogedoras puedes sugerir para traer calidez y alegría durante la temporada de invierno?”

Continue Reading

Trending