Connect with us

Noticias

Informe CES: La era de la IA agente presagia una revisión del SEO, preguntas y respuestas con Raja Rajamannar de Mastercard y la asistencia publicitaria OpenAI de Dotdash Meredith

Published

on

Esta edición del informe diario CES de Digiday analiza la necesidad de que las marcas adopten estrategias de SEO para tratar con agentes de IA, una entrevista con Raja Rajamannar de Mastercard sobre los modelos de compensación de agencias en la era de la IA y cómo Dotdash Meredith ha utilizado OpenAI para impulsar su producto publicitario contextual. D/Cifrado.

Espere escuchar mucho sobre la optimización de motores de búsqueda en 2025. Excepto que no se llamará así.

“Ya no se trata de optimización de motores de búsqueda. Se trata de motores de respuesta”, dijo Amy Lanzi, directora ejecutiva de Digitas.

En lugar de decidir cómo aparecer alto en los rankings de búsqueda de Google, las marcas necesitarán determinar cómo atraer a los agentes de inteligencia artificial que se espera que manejen tareas para personas como reservar itinerarios de viaje. “Las marcas deben ser la respuesta a las preguntas que haces en Géminis o lo que sea [other generative AI tool]”, dijo Lanzi.

Esta noción de optimización del motor de respuesta, u optimización de la IA agente, o como se llame, ha sido un tema importante de discusión entre los ejecutivos de las agencias durante el Consumer Electronics Show de este año.

“La realidad de que los agentes de IA recopilen información y la traigan de vuelta [to people]es decir, búsqueda en 2025 y más allá. Asegurarse de estar allí desde una perspectiva de SEO es absolutamente vital”, dijo Kelly Metz, directora de inversiones de OMD USA.

Sin embargo, la forma en que los especialistas en marketing se aseguran de que sus marcas sean elegidas cuando alguien le pide a un agente de inteligencia artificial que planifique sus vacaciones de verano o se encargue de sus compras navideñas va mucho más allá de las tácticas tradicionales de SEO.

“La búsqueda ha sido la respuesta a la capacidad de descubrimiento. Ahora será un ingrediente y un paradigma diferente”, afirmó Jeff Geheb, director global de experiencia y líder global de soluciones empresariales de VML.

Históricamente, las tácticas de SEO se han centrado en vincular una marca a palabras clave específicas mediante la siembra de contenido en la web que establece esa conexión para que el motor de búsqueda de Google aprenda a hacer esa asociación cuando alguien escribe una de esas palabras clave en una consulta de búsqueda. Las tácticas basadas en palabras clave no van a ser suficientes cuando los grandes modelos de lenguaje que impulsan a los agentes de IA pueden ir más allá del reconocimiento de palabras clave para comprender el contexto y los conceptos subyacentes al lenguaje y juzgar por sí mismos qué es lo mejor. [insert product type] en lugar de confiar en los artículos de los editores que enumeran los mejores [insert product type].

“La realidad de los agentes de IA es que van a su sitio web para brindar información a los usuarios. Navegar por eso es un desafío para las marcas. Son preguntas como: ‘¿Quiero que vayan a mi sitio? ¿Cómo puedo aprovechar las asociaciones con los medios para sacar más provecho de esta experiencia y asegurarme de presentarme de la manera correcta ante los agentes?’”, dijo Metz.

“No se trata de ‘tienda cerca de mí’. Se trata de ‘el lugar perfecto para hacerme bella’ porque quiero ganar el premio ‘mejor marca para comprar maquillaje’”, dijo Lanzi. “Es una forma completamente diferente de pensar en ganar en la búsqueda. Por eso Reddit es interesante”.

Con el acuerdo de Reddit con Google para que los datos de los usuarios de la plataforma estén disponibles para el LLM de este último, lo que la gente dice sobre las marcas en Reddit (en el colorido lenguaje que la gente usa en la plataforma) puede influir en las evaluaciones de los agentes de IA tanto, si no más, que , las páginas de contenido propias de una marca, así como los artículos del editor.

Pero Reddit es sólo un ejemplo de un desafío más amplio. A medida que los LLM incorporen contenido en la web y más allá, a los especialistas en marketing les resultará más difícil tratar de seleccionar, y mucho menos controlar, qué información sobre sus marcas y productos está expuesta a los LLM.

Al mismo tiempo, es probable que las marcas desarrollen sus propios agentes de IA, que pueden terminar interactuando con los agentes de IA utilizados por las personas y siendo piezas centrales de como se llame este nuevo SEO.

“El apodo que estamos adoptando es M-to-M: máquina a máquina”, afirmó Brian Yamada, director de innovación de VML. “En esta próxima era, que comenzará a ganar escala, nuestros agentes hablarán con los agentes de consumidores. Entonces las marcas tendrán que pensar en las API de marca y en qué conjuntos de datos poner a disposición. Los agentes decidirán cuál es la capa de experiencia”.

Esa capa de experiencia es, bueno, la realidad.

Tres preguntas con Raja Rajamannar de Mastercard

La forma en que las marcas pagan a las agencias por su trabajo parece cambiar a medida que las herramientas de inteligencia artificial socavan el modelo de horas facturables. Cuáles serán exactamente los nuevos modelos de compensación de las agencias es una incógnita. Pero algunas conjeturas tienen más peso que otras. Como los que provienen de CMO. Entonces Digiday se sentó con el director de marketing y comunicaciones de Mastercard, Raja Rajamannar, durante el CES para conocer su opinión sobre el asunto.

La transcripción ha sido editada para mayor extensión y claridad.

¿Qué piensa sobre cómo debe cambiar el modelo de compensación de la agencia?

Les contaré una pequeña anécdota y luego les diré por qué digo lo que digo. En Mastercard, seguimos recibiendo RFP de nuestros clientes, nuestros prospectos. En el pasado, se tardaba unas siete semanas desde el momento de recibir la RFP para redactar el primer borrador de respuesta. Siete semanas. Hoy se necesita menos de un día, incluida la supervisión humana. No hay aumento de mano de obra; Es la brillantez de la IA lo que hace que este proceso sea ridículamente eficiente sin sacrificar la calidad.

Entonces, una de las cosas que estoy desafiando a mi propio equipo es decir que, si hay eficiencias en nuestro ecosistema, ya sea en nuestro propio equipo o con nuestros socios, que son las agencias, debemos desafiar el modelo existente. Existe una importante oportunidad de eficiencia disponible. Y creo que las agencias tienen que reinventar el modelo.

¿Cómo te gustaría ver ese cambio? Porque la idea de las horas facturables es completamente diferente en un mundo donde las herramientas de inteligencia artificial reducen el tiempo necesario para completar los proyectos de los clientes.

Si tuviera que recurrir a las horas facturables, sería brutal para las agencias y no deberíamos llevarlas a la extinción. Tiene que haber un modelo diferente.

Podría ser un modelo de proyecto. Para este proyecto, para obtener el resultado, les daré mucho. O podría ser una combinación de [the agency] dedicará tres [full-time employees] a [the brand] y esos tres FTE [the brand] pagará por completo, y aquí está la cantidad de tokens que estamos usando para la IA. Por lo tanto, el costo plus podría ser un segundo modelo.

el tercero [model type] es la remuneración basada en resultados. Si digo que estoy tratando de lograr conciencia y preferencia por mi nuevo servicio o producto de X a Y, le pagaré dólares ABC por eso. Ahora usted, como agencia, decide cómo diablos va a lograr que esto suceda, y estoy dispuesto a pagar por punto, digamos, 100.000 dólares. Si usted [as the agency] lograr ese aumento [at a cost to the agency of] $5,000 y te embolsas $95,000, Dios te bendiga. Pero lo miro desde mi perspectiva: ¿qué vale para mí cada porcentaje?

¿Ha presentado esto a sus agencias?

Aún no. Todo esto es un trabajo en progreso. Nosotros mismos estamos descubriendo la IA. Necesito tener suficiente cantidad de información, conocimiento y experiencia para poder decir: “¿Sabes qué? Sé que el trabajo que estás haciendo no te costará mucho. Puedo exigir que lo reduzcan en un 70% o un 80% o lo que sea, pero eso no le será de ayuda. Sé que eso te sacará del negocio. Así que pasemos a la compensación basada en resultados”.

Asistencia publicitaria OpenAI de Dotdash Meredith

El acuerdo de Dotdash Meredith con OpenAI se extiende más allá de la concesión de licencias de contenido. El editor propiedad de IAC también está utilizando la tecnología de inteligencia artificial de la matriz ChatGPT para mejorar su producto de publicidad contextual, D/Cipher.

Pero primero, algunos antecedentes. D/Cipher indexa eficazmente las páginas de artículos de las publicaciones de DDM por temas relacionados con el contenido, de modo que un anunciante que busque llegar a las novias pueda dirigirse a esa audiencia publicando anuncios sobre artículos de interés para las novias, que pueden incluir artículos relacionados con bodas, así como historias sobre otros temas. temas que la audiencia de novias sobreindexa en la lectura. Cuando DDM introdujo D/Cipher en 2023, este proceso de indexación utilizó procesamiento de lenguaje natural para identificar palabras clave comunes. Pero en la segunda mitad del año pasado, el modelo de lenguaje grande de OpenAI entró en escena.

DDM ahora está aprovechando la API de OpenAI para que el LLM encuentre conexiones entre el corpus de artículos del editor de una manera similar a cómo ChatGPT puede procesar texto para comprender los conceptos subyacentes de lo que está escrito, no solo las palabras en un nivel superficial.

“El nuevo mundo de OpenAI mejora significativamente eso porque no estamos hablando sólo de palabras como tokens sino como conceptos, como estructuras conceptuales. Se trata de establecer conexiones entre conceptos, no sólo entre el lenguaje en sí”, dijo Jon Roberts, director de innovación de DDM, en una entrevista.

Después de ejecutar la biblioteca de contenido de DDM a través de la tecnología OpenAI, el 70% de las conexiones de contenido identificadas por el LLM eran “prácticamente iguales, pero el 30% eran significativamente diferentes. Obviamente fue mejor”, dijo Roberts.

Y para ser claros, esto no es teórico. “Tenemos campañas en vivo en las que ese tipo de conocimientos de ese nivel de taxonomía mejoran los resultados para los anunciantes”, dijo Lindsay Van Kirk, gerente general de D/Cipher.

Un ejemplo: DDM realizó una campaña para un gran anunciante de CPG que estaba introduciendo un nuevo producto de lujo para el cuidado del cabello. Uno de los públicos al que quería llegar el anunciante era el de las novias. DDM ejecutó la campaña a través de D/Cipher y pudo ver que la campaña tuvo un rendimiento inferior al punto de referencia principal proporcionado por el cliente cuando se incluyeron las novias.

“En ese punto de referencia sobre la participación de los usuarios, las novias tenían entre un 30% y un 40% menos de probabilidades de interactuar que la gente promedio que miraba el anuncio”, dijo Roberts.

DDM pudo detectar esta caída de audiencia específica porque la campaña se ejecutaba en contenido relacionado con bodas, así como en contenido no relacionado donde la única audiencia que se superponía eran aquellas personas que revisaban las piezas relacionadas con la boda. DDM recomendó eliminar a las novias de la campaña y, como resultado, la campaña “superó [the client’s higher] estirar el punto de referencia”, dijo Van Kirk.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

ChatGPT es el rastreador de artículos del hogar que he estado esperando durante años

Published

on

Resumen

  • ChatGPT es un rastreador eficaz de artículos del hogar con procesamiento de lenguaje natural para facilitar la búsqueda.
  • ChatGPT puede almacenar recuerdos con detalles específicos para una fácil recuperación sin nombres exactos.
  • Las limitaciones de ChatGPT incluyen límites de espacio en la memoria y el requisito de entrada manual.


Pierdo gran parte de mi vida buscando artículos del hogar que he guardado en “lugares seguros” que ya no puedo recordar. Los sistemas de seguimiento de artículos que he usado en el pasado han sido una decepción, pero es posible que finalmente haya encontrado lo que estaba buscando en ChatGPT.



Por qué siempre quise un rastreador de artículos del hogar

Mi memoria es terrible. Perdí la cuenta de la cantidad de veces que preparé una taza de café, solo para encontrar la taza llena de café frío junto a mí un rato después, porque me quedé atrapado haciendo otra cosa y lo olvidé por completo. que el café estaba ahí. Cada vez pienso que debería invertir en una taza inteligente, solo para olvidarme por completo de la idea hasta la próxima vez que mi café se enfríe.


Jordan Gloor / Cómo hacerlo Geek

Lo mismo ocurre con mis pertenencias. Pienso en un lugar inteligente para colocar un artículo que rara vez uso, pero luego instantáneamente olvido dónde está ese lugar. La próxima vez que lo necesito, paso horas buscando todos los posibles lugares inteligentes donde podría haberlo almacenado. Puedo tomar nota de dónde puse las cosas, pero luego tengo que recordar dónde las anoté, lo que lleva al mismo problema nuevamente.

Como un geek confeso, estoy convencido de que debe haber una solución tecnológica para este problema. Si no puedo recordar dónde están todas mis cosas, ¿seguramente hay alguna tecnología que pueda hacerlo?

Rastreadores de artículos que finalmente no sirvieron de nada

Probé algunas soluciones tecnológicas en el pasado, pero al final no me dieron lo que necesitaba. Me emocioné cuando me enteré por primera vez de la función “Recordar esto” de Alexa que me permitiría decirle a Alexa que recordara dónde estaban las cosas para mí. Sin embargo, mi entusiasmo se vio truncado cuando descubrí que esta característica ni siquiera existía en mi localidad.


Sin embargo, investigué un poco sobre la función, en caso de que fuera algo que finalmente se lanzara en todo el mundo. Pronto quedó claro que la función era demasiado limitada para darme lo que quería; solicitudes como “¿Dónde están mis pastillas?” normalmente fallaría.

Es necesario utilizar frases como “¿Qué puedes decirme sobre mis pastillas?” y si no recuerdo dónde están mis pastillas, tampoco recordaré el formato correcto para preguntarle a Alexa dónde están.

Amazonas

Otro problema importante con la función “Recordar esto” de Alexa es que si no usas el mismo nombre del elemento cada vez, puede caerse. Si le dices a Alexa que recuerde dónde está algo y luego usas un nombre diferente para ese objeto cuando le preguntas dónde está, es posible que Alexa no entienda de qué estás hablando. Esto puede mejorar cuando Alexa obtenga su tan esperada actualización de IA, pero por ahora, es un problema grave.


Lo mismo ocurrió con el otro método que probé. Utilizo Home Assistant para automatizar mis dispositivos domésticos inteligentes y pensé que podría haber una manera de realizar un seguimiento de dónde está todo en mi casa guardando la información en una base de datos que pudiera consultar. El problema era que si intentaba buscar en la base de datos usando “medicamentos” en lugar de “pastillas”, no encontraría nada, por lo que tenía que recordar exactamente cómo había llamado cada elemento, lo que me daba más cosas que olvidar.

Uso de ChatGPT como rastreador de artículos del hogar

Sin embargo, finalmente encontré una solución que funciona: ChatGPT. ChatGPT no solo puede almacenar recuerdos que puedes consultar en cualquier momento, sino que también tiene procesamiento de lenguaje natural. Eso significa que si le he dicho dónde están mis pastillas y le pregunto la ubicación de mis medicamentos, puede darse cuenta de que estoy hablando de lo mismo.


Todo lo que necesitas hacer es pedirle a ChatGPT que recuerde algo y se agregará a la memoria permanente. Por ejemplo, puedo decir “Recuerda que el soporte del árbol de Navidad está en el cobertizo de herramientas” y ChatGPT agregará esa información a su memoria. Si luego pregunto “¿Dónde está la base del árbol de Navidad?” ChatGPT me dirá que está en el cobertizo de herramientas, aunque no lo llamé “soporte”, que fue el término utilizado al crear la memoria.

Puedo agregar más recuerdos para guardar información sobre la ubicación de otros elementos, y siempre se puede acceder a estos recuerdos desde cualquier chat dentro de ChatGPT. Si en algún momento muevo el soporte del árbol de Navidad a otra ubicación, puedo pedirle a ChatGPT que actualice la memoria con la nueva ubicación y la memoria original se sobrescribirá con la nueva ubicación.


Lo bueno de usar ChatGPT es que los chatbots de IA son muy buenos para comprender el contexto de lo que estás diciendo. No es necesario que recuerdes la frase exacta que debes utilizar al preguntar dónde está algo, ni tampoco el nombre exacto del elemento. Intenté preguntar “¿Sabes dónde está el soporte del árbol?” y “¿Qué hice con la base festiva?” y en ambos casos, ChatGPT me dijo dónde estaba el puesto del árbol de Navidad.

Incluso si no recuerdas cómo se llama el objeto, puedes preguntar algo como “¿Dónde está el objeto donde pusiste el árbol?”. y ChatGPT seguirá entendiendo lo que quieres decir. Es ideal para aquellos que nos cuesta recordar las cosas más simples.

Limitaciones de ChatGPT como rastreador de artículos

Si bien ChatGPT es, con diferencia, la mejor manera que he encontrado para recordar dónde se guardaron los artículos del hogar, no es perfecta. Probablemente la mayor limitación es que la memoria de ChatGPT no es enorme y eventualmente se llenará. Una vez que esto sucede, no podrá almacenar ningún recuerdo nuevo sin eliminar otros.


Para una cuenta gratuita, el límite es actualmente de 2000 tokens (aproximadamente 1500 palabras) y los usuarios Plus obtienen 8000 tokens (aproximadamente 6000 palabras) de espacio de memoria. Significa que puedes recordar una cantidad razonable de objetos como usuario Plus, pero no podrás almacenar recuerdos sobre cada objeto que posees.

La otra limitación obvia es que ChatGPT no puede recordar dónde están los elementos sin su intervención. En otras palabras, debes recordar decirle a ChatGPT dónde estás poniendo las cosas. Si colocas el soporte del árbol de Navidad en el cobertizo de herramientas, pero te olvidas de contarle a ChatGPT lo que has hecho, volverás a tener que intentar recordarlo por ti mismo nuevamente.

Cómo borrar recuerdos en ChatGPT

Si descubres que no puedes agregar más recuerdos a ChatGPT porque la memoria está llena, puedes eliminar algunos recuerdos que ya no necesites. Es bastante fácil eliminar recuerdos individuales para no tener que borrarlos todos y empezar de cero.


Abra la aplicación ChatGPT y toque el nombre de su cuenta en la parte inferior del panel de menú. Seleccione “Personalización” y toque “Administrar memoria”. Para eliminar un recuerdo, deslícese hacia la izquierda y toque el ícono de la papelera. Repita para cualquier otro recuerdo que desee eliminar.


He estado buscando una forma de rastrear rápida y fácilmente la ubicación de los elementos de mi casa y, hasta ahora, no he encontrado una solución que funcione lo suficientemente bien. Sin embargo, ChatGPT parece ser el rastreador de artículos del hogar que siempre quise. El tiempo dirá si hay suficiente memoria para mis necesidades, pero hasta ahora es exactamente lo que estaba buscando.

Continue Reading

Noticias

LlamaV-o1 es el modelo de IA que explica su proceso de pensamiento: he aquí por qué es importante

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder en la industria. Más información


Investigadores de la Universidad de Inteligencia Artificial Mohamed bin Zayed (MBZUAI) han anunciado el lanzamiento de LlamaV-o1, un modelo de inteligencia artificial de última generación capaz de abordar algunas de las tareas de razonamiento más complejas en texto e imágenes.

Al combinar el aprendizaje curricular de vanguardia con técnicas de optimización avanzadas como Beam Search, LlamaV-o1 establece un nuevo punto de referencia para el razonamiento paso a paso en sistemas de IA multimodales.

“El razonamiento es una capacidad fundamental para resolver problemas complejos de varios pasos, particularmente en contextos visuales donde la comprensión secuencial por pasos es esencial”, escribieron los investigadores en su informe técnico, publicado hoy. El modelo de IA, optimizado para tareas de razonamiento que requieren precisión y transparencia, supera a muchos de sus pares en tareas que van desde la interpretación de gráficos financieros hasta el diagnóstico de imágenes médicas.

Junto con el modelo, el equipo también presentó VRC-Bench, un punto de referencia diseñado para evaluar los modelos de IA en función de su capacidad para razonar problemas paso a paso. Con más de 1000 muestras diversas y más de 4000 pasos de razonamiento, VRC-Bench ya está siendo aclamado como un punto de inflexión en la investigación de IA multimodal.

LlamaV-o1 supera a competidores como Claude 3.5 Sonnet y Gemini 1.5 Flash en la identificación de patrones y el razonamiento a través de tareas visuales complejas, como se demuestra en este ejemplo del banco de pruebas VRC-Bench. El modelo proporciona explicaciones paso a paso, llegando a la respuesta correcta, mientras que otros modelos no logran coincidir con el patrón establecido. (crédito: arxiv.org)

Cómo se diferencia LlamaV-o1 de la competencia

Los modelos tradicionales de IA a menudo se centran en ofrecer una respuesta final, ofreciendo poca información sobre cómo llegaron a sus conclusiones. LlamaV-o1, sin embargo, enfatiza el razonamiento paso a paso, una capacidad que imita la resolución de problemas humana. Este enfoque permite a los usuarios ver los pasos lógicos que sigue el modelo, lo que lo hace particularmente valioso para aplicaciones donde la interpretabilidad es esencial.

Los investigadores entrenaron LlamaV-o1 utilizando LLaVA-CoT-100k, un conjunto de datos optimizado para tareas de razonamiento, y evaluaron su rendimiento utilizando VRC-Bench. Los resultados son impresionantes: LlamaV-o1 logró una puntuación de pasos de razonamiento de 68,93, superando a modelos de código abierto conocidos como LlaVA-CoT (66,21) e incluso a algunos modelos de código cerrado como Claude 3.5 Sonnet.

“Al aprovechar la eficiencia de Beam Search junto con la estructura progresiva del aprendizaje curricular, el modelo propuesto adquiere habilidades de manera incremental, comenzando con tareas más simples como [a] resumen del enfoque y subtítulos derivados de preguntas y avance a escenarios de razonamiento de varios pasos más complejos, asegurando tanto una inferencia optimizada como capacidades de razonamiento sólidas”, explicaron los investigadores.

El enfoque metódico del modelo también lo hace más rápido que sus competidores. “LlamaV-o1 ofrece una ganancia absoluta del 3,8% en términos de puntuación promedio en seis puntos de referencia y, al mismo tiempo, es 5 veces más rápido durante el escalado de inferencia”, señaló el equipo en su informe. Una eficiencia como esta es un punto de venta clave para las empresas que buscan implementar soluciones de IA a escala.

IA para empresas: por qué es importante el razonamiento paso a paso

El énfasis de LlamaV-o1 en la interpretabilidad aborda una necesidad crítica en industrias como las finanzas, la medicina y la educación. Para las empresas, la capacidad de rastrear los pasos detrás de la decisión de una IA puede generar confianza y garantizar el cumplimiento de las regulaciones.

Tomemos como ejemplo las imágenes médicas. Un radiólogo que utiliza IA para analizar exploraciones no solo necesita el diagnóstico: necesita saber cómo la IA llegó a esa conclusión. Aquí es donde brilla LlamaV-o1, que proporciona un razonamiento transparente paso a paso que los profesionales pueden revisar y validar.

El modelo también destaca en campos como la comprensión de gráficos y diagramas, que son vitales para el análisis financiero y la toma de decisiones. En las pruebas realizadas en VRC-Bench, LlamaV-o1 superó consistentemente a sus competidores en tareas que requerían interpretación de datos visuales complejos.

Pero el modelo no es sólo para aplicaciones de alto riesgo. Su versatilidad lo hace adecuado para una amplia gama de tareas, desde generación de contenido hasta agentes conversacionales. Los investigadores ajustaron específicamente LlamaV-o1 para que sobresaliera en escenarios del mundo real, aprovechando Beam Search para optimizar las rutas de razonamiento y mejorar la eficiencia computacional.

Beam Search permite que el modelo genere múltiples rutas de razonamiento en paralelo y seleccione la más lógica. Este enfoque no solo aumenta la precisión sino que también reduce el costo computacional de ejecutar el modelo, lo que lo convierte en una opción atractiva para empresas de todos los tamaños.

LlamaV-o1 destaca en diversas tareas de razonamiento, incluido el razonamiento visual, el análisis científico y las imágenes médicas, como se muestra en este ejemplo del banco de pruebas VRC-Bench. Sus explicaciones paso a paso brindan resultados interpretables y precisos, superando a los competidores en tareas como comprensión de gráficos, análisis del contexto cultural y percepción visual compleja. (crédito: arxiv.org)

Qué significa VRC-Bench para el futuro de la IA

El lanzamiento de VRC-Bench es tan importante como el modelo en sí. A diferencia de los puntos de referencia tradicionales que se centran únicamente en la precisión de la respuesta final, VRC-Bench evalúa la calidad de los pasos de razonamiento individuales, ofreciendo una evaluación más matizada de las capacidades de un modelo de IA.

“La mayoría de los puntos de referencia se centran principalmente en la precisión de la tarea final, descuidando la calidad de los pasos intermedios de razonamiento”, explicaron los investigadores. “[VRC-Bench] presenta un conjunto diverso de desafíos con ocho categorías diferentes que van desde la percepción visual compleja hasta el razonamiento científico con más de [4,000] pasos de razonamiento en total, lo que permite una evaluación sólida de las capacidades de los LLM para realizar un razonamiento visual preciso e interpretable en múltiples pasos”.

Este enfoque en el razonamiento paso a paso es particularmente crítico en campos como la investigación científica y la educación, donde el proceso detrás de una solución puede ser tan importante como la solución misma. Al enfatizar la coherencia lógica, VRC-Bench fomenta el desarrollo de modelos que puedan manejar la complejidad y ambigüedad de las tareas del mundo real.

El desempeño de LlamaV-o1 en VRC-Bench dice mucho sobre su potencial. En promedio, el modelo obtuvo una puntuación del 67,33% en puntos de referencia como MathVista y AI2D, superando a otros modelos de código abierto como Llava-CoT (63,50%). Estos resultados posicionan a LlamaV-o1 como líder en el espacio de la IA de código abierto, reduciendo la brecha con modelos propietarios como GPT-4o, que obtuvo una puntuación del 71,8%.

La próxima frontera de la IA: razonamiento multimodal interpretable

Si bien LlamaV-o1 representa un gran avance, no está exento de limitaciones. Como todos los modelos de IA, está limitado por la calidad de sus datos de entrenamiento y puede tener problemas con indicaciones altamente técnicas o conflictivas. Los investigadores también advierten contra el uso del modelo en escenarios de toma de decisiones de alto riesgo, como la atención médica o las predicciones financieras, donde los errores podrían tener consecuencias graves.

A pesar de estos desafíos, LlamaV-o1 destaca la creciente importancia de los sistemas de inteligencia artificial multimodal que pueden integrar perfectamente texto, imágenes y otros tipos de datos. Su éxito subraya el potencial del aprendizaje curricular y del razonamiento paso a paso para cerrar la brecha entre la inteligencia humana y la máquina.

A medida que los sistemas de IA se integren más en nuestra vida cotidiana, la demanda de modelos explicables seguirá creciendo. LlamaV-o1 es una prueba de que no tenemos que sacrificar el rendimiento por la transparencia y que el futuro de la IA no se limita a dar respuestas. Está en mostrarnos cómo llegó allí.

Y tal vez ese sea el verdadero hito: en un mundo repleto de soluciones de caja negra, LlamaV-o1 abre la tapa.

Continue Reading

Noticias

Búsqueda de ChatGPT frente a Google: ¿en qué se diferencian?

Published

on

Durante las últimas dos décadas, el motor de búsqueda Google ha sido el estándar de facto para las búsquedas en Internet. Esa posición dominante se ha visto desafiada en los últimos años por el surgimiento de un enfoque completamente diferente para el descubrimiento de búsquedas basado en el conocimiento: ChatGPT.

Cuando llegó ChatGPT en noviembre de 2022, introdujo una experiencia muy diferente para los usuarios con preguntas. Mientras que los motores de búsqueda tradicionales ofrecen una lista de enlaces en respuesta a una consulta, ChatGPT proporciona respuestas.

En octubre de 2024, ChatGPT introdujo la búsqueda ChatGPT, que ofrece información actualizada y en vivo, algo que falta en su versión original. Y Google tampoco se ha quedado de brazos cruzados. Con Google AI Overviews, el gigante de las búsquedas integró capacidades de IA generativa en su búsqueda, brindando a los usuarios resúmenes y respuestas a consultas de contenido.

¿Cómo funciona la búsqueda ChatGPT?

El ChatGPT original basó su servicio enteramente en el conocimiento recopilado por un modelo de lenguaje grande (LLM) a través de una fase de capacitación. La versión normal de ChatGPT tiene una fecha límite de conocimiento (basada en cuándo se completó el entrenamiento de su modelo subyacente) y no conoce información ni eventos posteriores a esa fecha.

La búsqueda de ChatGPT ignora ese límite de conocimiento, operando a través de una combinación de tecnologías, con su base construida sobre una versión especialmente ajustada del GPT-4o LLM de OpenAI. OpenAI mejoró este modelo base utilizando técnicas posteriores al entrenamiento, particularmente al destilar los resultados de su modelo de vista previa o1. Según el proveedor, el modelo OpenAI o1 se destaca específicamente por sus capacidades de razonamiento mejoradas, lo que respalda su experiencia de búsqueda más refinada y precisa.

Para acceder a información más allá del límite de capacitación del LLM, la búsqueda de ChatGPT integra información de fuentes adicionales, incluidas las siguientes:

  • Proveedores de búsqueda de terceros. La búsqueda de ChatGPT utiliza proveedores de búsqueda de terceros, como Microsoft Bing.
  • Asociaciones de medios. Además, la búsqueda de ChatGPT incorpora fuentes de contenido de numerosos socios de medios, incluidos The Associated Press, Reuters y Tiempos financieros.

El servicio de búsqueda ChatGPT procesa las consultas de los usuarios a través de una interfaz de lenguaje natural y mantiene el contexto en múltiples preguntas, creando interacciones que son más conversacionales e intuitivas. Más allá de simplemente devolver enlaces, la búsqueda de ChatGPT proporciona resúmenes concisos de información, así como enlaces de origen.

¿Cuáles son las distinciones funcionales entre la búsqueda ChatGPT y la Búsqueda de Google?

La búsqueda de ChatGPT y la búsqueda de Google toman caminos divergentes para proporcionar resultados a las consultas de los usuarios.

  • Interfaz. ChatGPT ofrece a los usuarios una interfaz de IA conversacional, donde los usuarios hacen preguntas en un enfoque más de ida y vuelta. Cuando interactúan con el motor de búsqueda tradicional de Google, los usuarios escriben términos y no mantienen interacciones de conversación con el motor de búsqueda.
  • Seguimientos. El enfoque de IA conversacional de ChatGPT generalmente mantiene el contexto mucho mejor que el de Google durante las preguntas de seguimiento que profundizan en un tema específico.
  • Procesamiento de información. De forma predeterminada, la búsqueda de ChatGPT resume información que responde directamente a la consulta de un usuario. El modelo central de Búsqueda de Google no resume la información; se basa en su propio conjunto de algoritmos complejos de Google para clasificar y mostrar resultados relevantes. Sin embargo, Google AI Overviews ofrece respuestas resumidas que también responden preguntas.
  • Información en tiempo real. La búsqueda de ChatGPT tiene capacidades limitadas en tiempo real a través de sus asociaciones y proveedores externos. Google rastrea e indexa continuamente la web, proporcionando información más actualizada sobre una variedad de temas.
  • Formato de resultados. La Búsqueda de Google proporciona una lista de enlaces que incluye páginas web, imágenes, vídeos y fragmentos destacados. Si bien Google AI Overviews mejora algunos resultados de búsqueda con información resumida y enlaces de fuentes, ChatGPT ofrece respuestas detalladas en forma de párrafos que también incluyen enlaces a fuentes citadas.

Diferencias clave entre la búsqueda de Google y la búsqueda de ChatGPT

El siguiente cuadro detalla las diferencias importantes entre la Búsqueda de Google y la búsqueda de ChatGPT.

Característica Búsqueda de Google Búsqueda de ChatGPT
Tecnología central algoritmos de google GPT-4o Maestría en Derecho
Fuente de información Rastreo web en tiempo real Conjunto de datos previamente entrenado más búsqueda limitada en tiempo real
Interfaz de usuario Cuadro de búsqueda basado en consultas chatbot conversacional
Formato de resultados Lista de enlaces con fragmentos Respuestas coherentes y conversacionales.
Manejo de contexto Limitado Mantiene el contexto en múltiples consultas
Integración del comercio electrónico Listados de productos y comparaciones de precios. Información limitada del producto
Método de citación Enlaces a fuentes Citas en línea con enlaces a fuentes

¿Cuáles son las limitaciones de la búsqueda ChatGPT en comparación con la Búsqueda de Google?

A pesar de sus avances, la búsqueda ChatGPT enfrenta varias limitaciones en comparación con la Búsqueda de Google, incluidas las siguientes:

  • Acceso a la información y alcance de los datos. La Búsqueda de Google tiene un índice masivo de información gracias a su rastreador web con décadas de antigüedad. ChatGPT no tiene ese linaje ni acceso al volumen total de información de Internet.
  • Información en tiempo real. Si bien la búsqueda ChatGPT proporciona algunas capacidades en tiempo real, va a la zaga de Google en cuanto a proporcionar la información más actualizada sobre diversos temas.
  • Preocupaciones por la precisión. Un problema persistente con los LLM en general es el riesgo de sufrir alucinaciones por IA. Aunque ese riesgo persiste con Google AI Overviews, es menos probable que ocurra debido a su proceso de rastreo web.
  • Desafíos de verificación. Si bien la búsqueda ChatGPT proporciona citas, verificar la precisión y credibilidad de una fuente es más desafiante en comparación con el sistema de clasificación de páginas establecido de Google.

Pros y contras de la búsqueda de ChatGPT

Existen algunas ventajas y limitaciones clave de la búsqueda de ChatGPT.

Ventajas

  • Comprensión del lenguaje natural para consultas intuitivas.
  • Conciencia contextual para preguntas de seguimiento.
  • Explicaciones detalladas y resúmenes.
  • Potencial para tareas creativas y analíticas.
  • IA conversacional para una experiencia de usuario más atractiva.

Contras

  • Acceso limitado a información en tiempo real.
  • Generando respuestas inexactas en ocasiones.
  • Alcance de información más reducido en comparación con los motores de búsqueda tradicionales.
  • Falta de capacidades de búsqueda visual.
  • Sesgos heredados de los datos de entrenamiento.

Pros y contras de la Búsqueda de Google

Google también tiene sus ventajas y limitaciones clave.

Ventajas

  • Índice masivo de páginas web rastreadas a lo largo de décadas para obtener un nivel profundo de resultados de búsqueda.
  • Actualizaciones de información en tiempo real que abarcan múltiples categorías.
  • Integración de varios tipos de medios, incluidas imágenes, vídeos y mapas.
  • El mayor grado de seguridad y autenticidad de los algoritmos de Google para resultados relevantes y clasificados.

Contras

  • Interfaz menos conversacional.
  • Cantidad abrumadora de información presentada en ocasiones.
  • Resúmenes de información menos fáciles de usar, aunque Google AI Overviews reduce esa brecha.
  • Capacidad limitada para comprender consultas contextuales complejas.

¿Puede la búsqueda ChatGPT reemplazar la búsqueda de Google?

La respuesta simple es no. ChatGPT no reemplaza completamente la Búsqueda de Google, al menos a corto plazo.

Hay muchas razones por las que Google sigue siendo el motor de búsqueda dominante en Internet. Google atiende eficazmente las necesidades de sus usuarios. Su enfoque de rastreo web para la recopilación de información supera fácilmente al servicio de ChatGPT. Incluso con su gran conjunto de datos de capacitación y sus asociaciones con los medios, la búsqueda de ChatGPT no puede igualar el acceso completo a Internet de Google. Para toda una generación de usuarios de Internet, la Búsqueda de Google es la forma predeterminada de encontrar una respuesta, y eso no es algo que se pueda reemplazar fácilmente.

Esto no significa que ChatGPT no desplazará a Google para algunos tipos de búsquedas. Los usuarios que buscan respuestas directas a sus consultas, rápidamente, se benefician de la interfaz ChatGPT. Pero no reemplazará a Google en el corto plazo. La forma en que evolucione la búsqueda de ChatGPT, por supuesto, determinará si se reduce la brecha con el acceso a Internet y las capacidades de búsqueda más amplias de la Búsqueda de Google.

Sean Michael Kerner es consultor de TI, entusiasta de la tecnología y experto en retoques. Sacó Token Ring, configuró NetWare y se le conoce por compilar su propio kernel de Linux. Consulta con organizaciones industriales y de medios sobre cuestiones tecnológicas.

Continue Reading

Trending