Connect with us

Noticias

Gemini de Google está subestimado y hay cinco razones para probarlo

Published

on

Aunque no se discute tan ampliamente como algunos de sus competidores, Gemini AI de Google tiene muchas características, y hay cinco razones por las que Gemini merece su atención.

1

Utilice el chat de voz en vivo gratis y durante el tiempo que desee

Abhishek Baxi/MakeUseOf

A diferencia de muchas herramientas de inteligencia artificial que limitan las interacciones de voz en vivo a planes premium, Gemini te permite chatear en tiempo real sin restricciones. Puede hablar con naturalidad, hacer preguntas de seguimiento o cambiar de tema sin empezar de cero.

Después de usar la voz en vivo de Gemini durante más de un mes, la encuentro a la par con otros asistentes de voz de la competencia. El reconocimiento de voz es genial. La voz predeterminada suena realista, proporciona respuestas relevantes para el contexto, admite varios idiomas, participa en debates profundos y responde rápidamente a las preguntas diarias.

Aunque actualmente carece de la capacidad de transmitir diferentes emociones (como la función de voz en vivo de ChatGPT), el asistente de voz en vivo de Gemini lo compensa al no limitar las interacciones de voz y su capacidad para retomar conversaciones pasadas en diferentes dispositivos. Si tiene un teléfono Google Pixel, Gemini también es más cómodo de usar, ya que ya está instalado y puede usarse como su asistente de voz predeterminado con solo presionar un botón.

2

Amplia comprensión contextual

La capacidad de Géminis para derivar contexto de conversaciones pasadas se debe principalmente a su longitud de contexto insuperable. Una de las características más destacadas de Gemini es su capacidad para procesar grandes cantidades de información sin perder de vista el contexto. ¡Utiliza un modelo de lenguaje de vanguardia que admite una ventana de contexto de hasta 1,5 millones de tokens! Esto significa que Géminis puede recordar y hacer referencia a partes anteriores de una conversación, incluso si abarca horas o miles de palabras.

Desafortunadamente, actualmente no hay forma de cargar archivos de texto en Gemini. Sin embargo, la increíblemente larga ventana de contexto de Gemini todavía se puede utilizar para ciertas cosas como:

  • Redacción de informes extensos y coherentes.

  • Análisis de conjuntos de datos complejos

  • Ayudar con tareas de resolución de problemas de varios pasos.

Aunque muchos productos de IA de la competencia admiten suficiente longitud de contexto para funcionar bien en la mayoría de las tareas, el uso de Gemini reduce las alucinaciones de IA debido a la ventana de contexto limitada. Esto convierte a Gemini en una herramienta útil para situaciones críticas en las que desea que la IA se ciña a un tema en particular durante conversaciones largas.

3

Google Gemini genera excelentes imágenes

Google Gemini es un modelo de IA multimodal que puede generar impresionantes imágenes fotorrealistas. Al escribir una descripción detallada, los usuarios pueden pedirle a Gemini que genere imágenes. Por ejemplo, podrías solicitar una imagen de una “vista serena junto al lago durante la puesta de sol”, que Gemini generará algo como esto:

Generación de imágenes de Géminis

Al combinar capacidades textuales y visuales, Gemini se convierte en una gran ayuda para aplicaciones más creativas. Aunque es posible que las imágenes no generen exactamente lo que imagina, siguen siendo una buena herramienta para:

  • Creación de visuales para campañas sin contratar recursos externos.

  • Generando conceptos iniciales antes de perfeccionarlos con herramientas tradicionales.

  • Mejorar presentaciones o proyectos con ilustraciones personalizadas.

Aunque los productos de inteligencia artificial de la competencia, como ChatGPT de OpenAI, también pueden generar imágenes de forma gratuita, el estilo artístico de Gemini parece ser mejor para generar imágenes fotorrealistas. Los diferentes servicios de chat de IA tienden a ceñirse a un estilo artístico específico. Entonces, si lo que buscas es el fotorrealismo, intenta charlar con Géminis.

4

Integración con el ecosistema de Google

Smartphone que muestra el menú de Google Home Automations con Nest Hub detrás.
Jack Mitchell/Hacer uso de

Una de las mayores ventajas de Gemini sobre otros modelos de IA es su perfecta integración con el conjunto de productos y servicios de Google. Si ya utiliza Gmail, Google Docs, Drive o Calendar, Gemini puede mejorar su productividad trabajando en estas plataformas.

Con Gemini integrado con las herramientas de productividad de Google, puedes:

  • Redacte correos electrónicos más rápido: Gemini puede redactar correos electrónicos completos basándose en algunas palabras clave o viñetas.
  • Planifica tu día: Al sincronizarse con Google Calendar, puede sugerir horarios óptimos o recordarle las próximas tareas.
  • Colabora en tiempo real: Dentro de Google Docs, Gemini puede editar, corregir o coescribir contenido según sus aportaciones.

Tener una herramienta de inteligencia artificial integrada en su flujo de trabajo diario ahorra una cantidad significativa de tiempo, especialmente si hacer malabarismos con múltiples tareas es parte de su flujo de trabajo. Con Gemini, no es necesario cambiar de plataforma ni exportar datos manualmente. Todo sucede dentro del ecosistema de Google, lo que garantiza una experiencia optimizada.

Además de las aplicaciones de Google Workspace (anteriormente conocida como G Suite), Gemini también se integra con los productos de hardware de Google, como los teléfonos Pixel, los relojes Pixel y la configuración de Google Home.

Al cambiar el Asistente de Google habitual a Gemini, podrá disfrutar de mejores sugerencias, una experiencia más fluida entre sus dispositivos y tendrá acceso a funciones avanzadas de inteligencia artificial, como chats de voz en vivo y un conocimiento más profundo del contexto.

5

Gemini Free es mucho menos restrictivo

aplicación google geminis para ios

A diferencia de las herramientas de inteligencia artificial de la competencia que restringen muchas funciones útiles detrás de las suscripciones pagas, Gemini ofrece un nivel gratuito sorprendentemente sólido. Incluso en la versión gratuita de Gemini, los usuarios disfrutan de un amplio conjunto de funcionalidades que rivalizan con los planes premium de otros servicios de IA.

Esto es lo que hace que la versión gratuita de Gemini se destaque:

  • Conversaciones ilimitadas: No hay límite en la cantidad de interacciones o duración de uso, lo que le permite explorar completamente las capacidades de la IA a su propio ritmo.
  • Funciones avanzadas sin actualizaciones: Funciones como chats de voz en vivo, comprensión contextual ampliada y capacidades multimodales (como generación de imágenes) están disponibles para usuarios gratuitos sin signos de limitaciones (según mi experiencia), lo que les brinda acceso a una experiencia de nivel profesional desde el primer momento.
  • Sin rebajas forzadas de calidad: A diferencia de algunas herramientas de inteligencia artificial que degradan la calidad de la respuesta o limitan la creatividad en sus planes gratuitos, Gemini mantiene una producción constante, lo que garantiza que incluso los usuarios gratuitos obtengan interacciones significativas y de alta calidad.
  • Accesible a través de dispositivos: Ya sea que estés en un teléfono Pixel, Google Home o tu navegador, la versión gratuita de Gemini funciona a la perfección y elimina las barreras de entrada.

Aunque los planes premium pueden ofrecer ventajas adicionales como tiempos de respuesta prioritarios o integraciones con servicios de terceros, el nivel gratuito de Gemini es lo suficientemente sólido como para satisfacer las necesidades de la mayoría de los usuarios. Si alguna vez te has sentido limitado por las limitaciones de otras plataformas, Gemini ofrece un refrescante nivel de libertad para experimentar y explorar.

Con una versión gratuita tan accesible, hay pocas razones para no probar Gemini: es una forma de bajo riesgo de probar las capacidades de la IA y ver cómo encaja en su vida diaria.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

ChatGPT es el rastreador de artículos del hogar que he estado esperando durante años

Published

on

Resumen

  • ChatGPT es un rastreador eficaz de artículos del hogar con procesamiento de lenguaje natural para facilitar la búsqueda.
  • ChatGPT puede almacenar recuerdos con detalles específicos para una fácil recuperación sin nombres exactos.
  • Las limitaciones de ChatGPT incluyen límites de espacio en la memoria y el requisito de entrada manual.


Pierdo gran parte de mi vida buscando artículos del hogar que he guardado en “lugares seguros” que ya no puedo recordar. Los sistemas de seguimiento de artículos que he usado en el pasado han sido una decepción, pero es posible que finalmente haya encontrado lo que estaba buscando en ChatGPT.



Por qué siempre quise un rastreador de artículos del hogar

Mi memoria es terrible. Perdí la cuenta de la cantidad de veces que preparé una taza de café, solo para encontrar la taza llena de café frío junto a mí un rato después, porque me quedé atrapado haciendo otra cosa y lo olvidé por completo. que el café estaba ahí. Cada vez pienso que debería invertir en una taza inteligente, solo para olvidarme por completo de la idea hasta la próxima vez que mi café se enfríe.


Jordan Gloor / Cómo hacerlo Geek

Lo mismo ocurre con mis pertenencias. Pienso en un lugar inteligente para colocar un artículo que rara vez uso, pero luego instantáneamente olvido dónde está ese lugar. La próxima vez que lo necesito, paso horas buscando todos los posibles lugares inteligentes donde podría haberlo almacenado. Puedo tomar nota de dónde puse las cosas, pero luego tengo que recordar dónde las anoté, lo que lleva al mismo problema nuevamente.

Como un geek confeso, estoy convencido de que debe haber una solución tecnológica para este problema. Si no puedo recordar dónde están todas mis cosas, ¿seguramente hay alguna tecnología que pueda hacerlo?

Rastreadores de artículos que finalmente no sirvieron de nada

Probé algunas soluciones tecnológicas en el pasado, pero al final no me dieron lo que necesitaba. Me emocioné cuando me enteré por primera vez de la función “Recordar esto” de Alexa que me permitiría decirle a Alexa que recordara dónde estaban las cosas para mí. Sin embargo, mi entusiasmo se vio truncado cuando descubrí que esta característica ni siquiera existía en mi localidad.


Sin embargo, investigué un poco sobre la función, en caso de que fuera algo que finalmente se lanzara en todo el mundo. Pronto quedó claro que la función era demasiado limitada para darme lo que quería; solicitudes como “¿Dónde están mis pastillas?” normalmente fallaría.

Es necesario utilizar frases como “¿Qué puedes decirme sobre mis pastillas?” y si no recuerdo dónde están mis pastillas, tampoco recordaré el formato correcto para preguntarle a Alexa dónde están.

Amazonas

Otro problema importante con la función “Recordar esto” de Alexa es que si no usas el mismo nombre del elemento cada vez, puede caerse. Si le dices a Alexa que recuerde dónde está algo y luego usas un nombre diferente para ese objeto cuando le preguntas dónde está, es posible que Alexa no entienda de qué estás hablando. Esto puede mejorar cuando Alexa obtenga su tan esperada actualización de IA, pero por ahora, es un problema grave.


Lo mismo ocurrió con el otro método que probé. Utilizo Home Assistant para automatizar mis dispositivos domésticos inteligentes y pensé que podría haber una manera de realizar un seguimiento de dónde está todo en mi casa guardando la información en una base de datos que pudiera consultar. El problema era que si intentaba buscar en la base de datos usando “medicamentos” en lugar de “pastillas”, no encontraría nada, por lo que tenía que recordar exactamente cómo había llamado cada elemento, lo que me daba más cosas que olvidar.

Uso de ChatGPT como rastreador de artículos del hogar

Sin embargo, finalmente encontré una solución que funciona: ChatGPT. ChatGPT no solo puede almacenar recuerdos que puedes consultar en cualquier momento, sino que también tiene procesamiento de lenguaje natural. Eso significa que si le he dicho dónde están mis pastillas y le pregunto la ubicación de mis medicamentos, puede darse cuenta de que estoy hablando de lo mismo.


Todo lo que necesitas hacer es pedirle a ChatGPT que recuerde algo y se agregará a la memoria permanente. Por ejemplo, puedo decir “Recuerda que el soporte del árbol de Navidad está en el cobertizo de herramientas” y ChatGPT agregará esa información a su memoria. Si luego pregunto “¿Dónde está la base del árbol de Navidad?” ChatGPT me dirá que está en el cobertizo de herramientas, aunque no lo llamé “soporte”, que fue el término utilizado al crear la memoria.

Puedo agregar más recuerdos para guardar información sobre la ubicación de otros elementos, y siempre se puede acceder a estos recuerdos desde cualquier chat dentro de ChatGPT. Si en algún momento muevo el soporte del árbol de Navidad a otra ubicación, puedo pedirle a ChatGPT que actualice la memoria con la nueva ubicación y la memoria original se sobrescribirá con la nueva ubicación.


Lo bueno de usar ChatGPT es que los chatbots de IA son muy buenos para comprender el contexto de lo que estás diciendo. No es necesario que recuerdes la frase exacta que debes utilizar al preguntar dónde está algo, ni tampoco el nombre exacto del elemento. Intenté preguntar “¿Sabes dónde está el soporte del árbol?” y “¿Qué hice con la base festiva?” y en ambos casos, ChatGPT me dijo dónde estaba el puesto del árbol de Navidad.

Incluso si no recuerdas cómo se llama el objeto, puedes preguntar algo como “¿Dónde está el objeto donde pusiste el árbol?”. y ChatGPT seguirá entendiendo lo que quieres decir. Es ideal para aquellos que nos cuesta recordar las cosas más simples.

Limitaciones de ChatGPT como rastreador de artículos

Si bien ChatGPT es, con diferencia, la mejor manera que he encontrado para recordar dónde se guardaron los artículos del hogar, no es perfecta. Probablemente la mayor limitación es que la memoria de ChatGPT no es enorme y eventualmente se llenará. Una vez que esto sucede, no podrá almacenar ningún recuerdo nuevo sin eliminar otros.


Para una cuenta gratuita, el límite es actualmente de 2000 tokens (aproximadamente 1500 palabras) y los usuarios Plus obtienen 8000 tokens (aproximadamente 6000 palabras) de espacio de memoria. Significa que puedes recordar una cantidad razonable de objetos como usuario Plus, pero no podrás almacenar recuerdos sobre cada objeto que posees.

La otra limitación obvia es que ChatGPT no puede recordar dónde están los elementos sin su intervención. En otras palabras, debes recordar decirle a ChatGPT dónde estás poniendo las cosas. Si colocas el soporte del árbol de Navidad en el cobertizo de herramientas, pero te olvidas de contarle a ChatGPT lo que has hecho, volverás a tener que intentar recordarlo por ti mismo nuevamente.

Cómo borrar recuerdos en ChatGPT

Si descubres que no puedes agregar más recuerdos a ChatGPT porque la memoria está llena, puedes eliminar algunos recuerdos que ya no necesites. Es bastante fácil eliminar recuerdos individuales para no tener que borrarlos todos y empezar de cero.


Abra la aplicación ChatGPT y toque el nombre de su cuenta en la parte inferior del panel de menú. Seleccione “Personalización” y toque “Administrar memoria”. Para eliminar un recuerdo, deslícese hacia la izquierda y toque el ícono de la papelera. Repita para cualquier otro recuerdo que desee eliminar.


He estado buscando una forma de rastrear rápida y fácilmente la ubicación de los elementos de mi casa y, hasta ahora, no he encontrado una solución que funcione lo suficientemente bien. Sin embargo, ChatGPT parece ser el rastreador de artículos del hogar que siempre quise. El tiempo dirá si hay suficiente memoria para mis necesidades, pero hasta ahora es exactamente lo que estaba buscando.

Continue Reading

Noticias

LlamaV-o1 es el modelo de IA que explica su proceso de pensamiento: he aquí por qué es importante

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder en la industria. Más información


Investigadores de la Universidad de Inteligencia Artificial Mohamed bin Zayed (MBZUAI) han anunciado el lanzamiento de LlamaV-o1, un modelo de inteligencia artificial de última generación capaz de abordar algunas de las tareas de razonamiento más complejas en texto e imágenes.

Al combinar el aprendizaje curricular de vanguardia con técnicas de optimización avanzadas como Beam Search, LlamaV-o1 establece un nuevo punto de referencia para el razonamiento paso a paso en sistemas de IA multimodales.

“El razonamiento es una capacidad fundamental para resolver problemas complejos de varios pasos, particularmente en contextos visuales donde la comprensión secuencial por pasos es esencial”, escribieron los investigadores en su informe técnico, publicado hoy. El modelo de IA, optimizado para tareas de razonamiento que requieren precisión y transparencia, supera a muchos de sus pares en tareas que van desde la interpretación de gráficos financieros hasta el diagnóstico de imágenes médicas.

Junto con el modelo, el equipo también presentó VRC-Bench, un punto de referencia diseñado para evaluar los modelos de IA en función de su capacidad para razonar problemas paso a paso. Con más de 1000 muestras diversas y más de 4000 pasos de razonamiento, VRC-Bench ya está siendo aclamado como un punto de inflexión en la investigación de IA multimodal.

LlamaV-o1 supera a competidores como Claude 3.5 Sonnet y Gemini 1.5 Flash en la identificación de patrones y el razonamiento a través de tareas visuales complejas, como se demuestra en este ejemplo del banco de pruebas VRC-Bench. El modelo proporciona explicaciones paso a paso, llegando a la respuesta correcta, mientras que otros modelos no logran coincidir con el patrón establecido. (crédito: arxiv.org)

Cómo se diferencia LlamaV-o1 de la competencia

Los modelos tradicionales de IA a menudo se centran en ofrecer una respuesta final, ofreciendo poca información sobre cómo llegaron a sus conclusiones. LlamaV-o1, sin embargo, enfatiza el razonamiento paso a paso, una capacidad que imita la resolución de problemas humana. Este enfoque permite a los usuarios ver los pasos lógicos que sigue el modelo, lo que lo hace particularmente valioso para aplicaciones donde la interpretabilidad es esencial.

Los investigadores entrenaron LlamaV-o1 utilizando LLaVA-CoT-100k, un conjunto de datos optimizado para tareas de razonamiento, y evaluaron su rendimiento utilizando VRC-Bench. Los resultados son impresionantes: LlamaV-o1 logró una puntuación de pasos de razonamiento de 68,93, superando a modelos de código abierto conocidos como LlaVA-CoT (66,21) e incluso a algunos modelos de código cerrado como Claude 3.5 Sonnet.

“Al aprovechar la eficiencia de Beam Search junto con la estructura progresiva del aprendizaje curricular, el modelo propuesto adquiere habilidades de manera incremental, comenzando con tareas más simples como [a] resumen del enfoque y subtítulos derivados de preguntas y avance a escenarios de razonamiento de varios pasos más complejos, asegurando tanto una inferencia optimizada como capacidades de razonamiento sólidas”, explicaron los investigadores.

El enfoque metódico del modelo también lo hace más rápido que sus competidores. “LlamaV-o1 ofrece una ganancia absoluta del 3,8% en términos de puntuación promedio en seis puntos de referencia y, al mismo tiempo, es 5 veces más rápido durante el escalado de inferencia”, señaló el equipo en su informe. Una eficiencia como esta es un punto de venta clave para las empresas que buscan implementar soluciones de IA a escala.

IA para empresas: por qué es importante el razonamiento paso a paso

El énfasis de LlamaV-o1 en la interpretabilidad aborda una necesidad crítica en industrias como las finanzas, la medicina y la educación. Para las empresas, la capacidad de rastrear los pasos detrás de la decisión de una IA puede generar confianza y garantizar el cumplimiento de las regulaciones.

Tomemos como ejemplo las imágenes médicas. Un radiólogo que utiliza IA para analizar exploraciones no solo necesita el diagnóstico: necesita saber cómo la IA llegó a esa conclusión. Aquí es donde brilla LlamaV-o1, que proporciona un razonamiento transparente paso a paso que los profesionales pueden revisar y validar.

El modelo también destaca en campos como la comprensión de gráficos y diagramas, que son vitales para el análisis financiero y la toma de decisiones. En las pruebas realizadas en VRC-Bench, LlamaV-o1 superó consistentemente a sus competidores en tareas que requerían interpretación de datos visuales complejos.

Pero el modelo no es sólo para aplicaciones de alto riesgo. Su versatilidad lo hace adecuado para una amplia gama de tareas, desde generación de contenido hasta agentes conversacionales. Los investigadores ajustaron específicamente LlamaV-o1 para que sobresaliera en escenarios del mundo real, aprovechando Beam Search para optimizar las rutas de razonamiento y mejorar la eficiencia computacional.

Beam Search permite que el modelo genere múltiples rutas de razonamiento en paralelo y seleccione la más lógica. Este enfoque no solo aumenta la precisión sino que también reduce el costo computacional de ejecutar el modelo, lo que lo convierte en una opción atractiva para empresas de todos los tamaños.

LlamaV-o1 destaca en diversas tareas de razonamiento, incluido el razonamiento visual, el análisis científico y las imágenes médicas, como se muestra en este ejemplo del banco de pruebas VRC-Bench. Sus explicaciones paso a paso brindan resultados interpretables y precisos, superando a los competidores en tareas como comprensión de gráficos, análisis del contexto cultural y percepción visual compleja. (crédito: arxiv.org)

Qué significa VRC-Bench para el futuro de la IA

El lanzamiento de VRC-Bench es tan importante como el modelo en sí. A diferencia de los puntos de referencia tradicionales que se centran únicamente en la precisión de la respuesta final, VRC-Bench evalúa la calidad de los pasos de razonamiento individuales, ofreciendo una evaluación más matizada de las capacidades de un modelo de IA.

“La mayoría de los puntos de referencia se centran principalmente en la precisión de la tarea final, descuidando la calidad de los pasos intermedios de razonamiento”, explicaron los investigadores. “[VRC-Bench] presenta un conjunto diverso de desafíos con ocho categorías diferentes que van desde la percepción visual compleja hasta el razonamiento científico con más de [4,000] pasos de razonamiento en total, lo que permite una evaluación sólida de las capacidades de los LLM para realizar un razonamiento visual preciso e interpretable en múltiples pasos”.

Este enfoque en el razonamiento paso a paso es particularmente crítico en campos como la investigación científica y la educación, donde el proceso detrás de una solución puede ser tan importante como la solución misma. Al enfatizar la coherencia lógica, VRC-Bench fomenta el desarrollo de modelos que puedan manejar la complejidad y ambigüedad de las tareas del mundo real.

El desempeño de LlamaV-o1 en VRC-Bench dice mucho sobre su potencial. En promedio, el modelo obtuvo una puntuación del 67,33% en puntos de referencia como MathVista y AI2D, superando a otros modelos de código abierto como Llava-CoT (63,50%). Estos resultados posicionan a LlamaV-o1 como líder en el espacio de la IA de código abierto, reduciendo la brecha con modelos propietarios como GPT-4o, que obtuvo una puntuación del 71,8%.

La próxima frontera de la IA: razonamiento multimodal interpretable

Si bien LlamaV-o1 representa un gran avance, no está exento de limitaciones. Como todos los modelos de IA, está limitado por la calidad de sus datos de entrenamiento y puede tener problemas con indicaciones altamente técnicas o conflictivas. Los investigadores también advierten contra el uso del modelo en escenarios de toma de decisiones de alto riesgo, como la atención médica o las predicciones financieras, donde los errores podrían tener consecuencias graves.

A pesar de estos desafíos, LlamaV-o1 destaca la creciente importancia de los sistemas de inteligencia artificial multimodal que pueden integrar perfectamente texto, imágenes y otros tipos de datos. Su éxito subraya el potencial del aprendizaje curricular y del razonamiento paso a paso para cerrar la brecha entre la inteligencia humana y la máquina.

A medida que los sistemas de IA se integren más en nuestra vida cotidiana, la demanda de modelos explicables seguirá creciendo. LlamaV-o1 es una prueba de que no tenemos que sacrificar el rendimiento por la transparencia y que el futuro de la IA no se limita a dar respuestas. Está en mostrarnos cómo llegó allí.

Y tal vez ese sea el verdadero hito: en un mundo repleto de soluciones de caja negra, LlamaV-o1 abre la tapa.

Continue Reading

Noticias

Búsqueda de ChatGPT frente a Google: ¿en qué se diferencian?

Published

on

Durante las últimas dos décadas, el motor de búsqueda Google ha sido el estándar de facto para las búsquedas en Internet. Esa posición dominante se ha visto desafiada en los últimos años por el surgimiento de un enfoque completamente diferente para el descubrimiento de búsquedas basado en el conocimiento: ChatGPT.

Cuando llegó ChatGPT en noviembre de 2022, introdujo una experiencia muy diferente para los usuarios con preguntas. Mientras que los motores de búsqueda tradicionales ofrecen una lista de enlaces en respuesta a una consulta, ChatGPT proporciona respuestas.

En octubre de 2024, ChatGPT introdujo la búsqueda ChatGPT, que ofrece información actualizada y en vivo, algo que falta en su versión original. Y Google tampoco se ha quedado de brazos cruzados. Con Google AI Overviews, el gigante de las búsquedas integró capacidades de IA generativa en su búsqueda, brindando a los usuarios resúmenes y respuestas a consultas de contenido.

¿Cómo funciona la búsqueda ChatGPT?

El ChatGPT original basó su servicio enteramente en el conocimiento recopilado por un modelo de lenguaje grande (LLM) a través de una fase de capacitación. La versión normal de ChatGPT tiene una fecha límite de conocimiento (basada en cuándo se completó el entrenamiento de su modelo subyacente) y no conoce información ni eventos posteriores a esa fecha.

La búsqueda de ChatGPT ignora ese límite de conocimiento, operando a través de una combinación de tecnologías, con su base construida sobre una versión especialmente ajustada del GPT-4o LLM de OpenAI. OpenAI mejoró este modelo base utilizando técnicas posteriores al entrenamiento, particularmente al destilar los resultados de su modelo de vista previa o1. Según el proveedor, el modelo OpenAI o1 se destaca específicamente por sus capacidades de razonamiento mejoradas, lo que respalda su experiencia de búsqueda más refinada y precisa.

Para acceder a información más allá del límite de capacitación del LLM, la búsqueda de ChatGPT integra información de fuentes adicionales, incluidas las siguientes:

  • Proveedores de búsqueda de terceros. La búsqueda de ChatGPT utiliza proveedores de búsqueda de terceros, como Microsoft Bing.
  • Asociaciones de medios. Además, la búsqueda de ChatGPT incorpora fuentes de contenido de numerosos socios de medios, incluidos The Associated Press, Reuters y Tiempos financieros.

El servicio de búsqueda ChatGPT procesa las consultas de los usuarios a través de una interfaz de lenguaje natural y mantiene el contexto en múltiples preguntas, creando interacciones que son más conversacionales e intuitivas. Más allá de simplemente devolver enlaces, la búsqueda de ChatGPT proporciona resúmenes concisos de información, así como enlaces de origen.

¿Cuáles son las distinciones funcionales entre la búsqueda ChatGPT y la Búsqueda de Google?

La búsqueda de ChatGPT y la búsqueda de Google toman caminos divergentes para proporcionar resultados a las consultas de los usuarios.

  • Interfaz. ChatGPT ofrece a los usuarios una interfaz de IA conversacional, donde los usuarios hacen preguntas en un enfoque más de ida y vuelta. Cuando interactúan con el motor de búsqueda tradicional de Google, los usuarios escriben términos y no mantienen interacciones de conversación con el motor de búsqueda.
  • Seguimientos. El enfoque de IA conversacional de ChatGPT generalmente mantiene el contexto mucho mejor que el de Google durante las preguntas de seguimiento que profundizan en un tema específico.
  • Procesamiento de información. De forma predeterminada, la búsqueda de ChatGPT resume información que responde directamente a la consulta de un usuario. El modelo central de Búsqueda de Google no resume la información; se basa en su propio conjunto de algoritmos complejos de Google para clasificar y mostrar resultados relevantes. Sin embargo, Google AI Overviews ofrece respuestas resumidas que también responden preguntas.
  • Información en tiempo real. La búsqueda de ChatGPT tiene capacidades limitadas en tiempo real a través de sus asociaciones y proveedores externos. Google rastrea e indexa continuamente la web, proporcionando información más actualizada sobre una variedad de temas.
  • Formato de resultados. La Búsqueda de Google proporciona una lista de enlaces que incluye páginas web, imágenes, vídeos y fragmentos destacados. Si bien Google AI Overviews mejora algunos resultados de búsqueda con información resumida y enlaces de fuentes, ChatGPT ofrece respuestas detalladas en forma de párrafos que también incluyen enlaces a fuentes citadas.

Diferencias clave entre la búsqueda de Google y la búsqueda de ChatGPT

El siguiente cuadro detalla las diferencias importantes entre la Búsqueda de Google y la búsqueda de ChatGPT.

Característica Búsqueda de Google Búsqueda de ChatGPT
Tecnología central algoritmos de google GPT-4o Maestría en Derecho
Fuente de información Rastreo web en tiempo real Conjunto de datos previamente entrenado más búsqueda limitada en tiempo real
Interfaz de usuario Cuadro de búsqueda basado en consultas chatbot conversacional
Formato de resultados Lista de enlaces con fragmentos Respuestas coherentes y conversacionales.
Manejo de contexto Limitado Mantiene el contexto en múltiples consultas
Integración del comercio electrónico Listados de productos y comparaciones de precios. Información limitada del producto
Método de citación Enlaces a fuentes Citas en línea con enlaces a fuentes

¿Cuáles son las limitaciones de la búsqueda ChatGPT en comparación con la Búsqueda de Google?

A pesar de sus avances, la búsqueda ChatGPT enfrenta varias limitaciones en comparación con la Búsqueda de Google, incluidas las siguientes:

  • Acceso a la información y alcance de los datos. La Búsqueda de Google tiene un índice masivo de información gracias a su rastreador web con décadas de antigüedad. ChatGPT no tiene ese linaje ni acceso al volumen total de información de Internet.
  • Información en tiempo real. Si bien la búsqueda ChatGPT proporciona algunas capacidades en tiempo real, va a la zaga de Google en cuanto a proporcionar la información más actualizada sobre diversos temas.
  • Preocupaciones por la precisión. Un problema persistente con los LLM en general es el riesgo de sufrir alucinaciones por IA. Aunque ese riesgo persiste con Google AI Overviews, es menos probable que ocurra debido a su proceso de rastreo web.
  • Desafíos de verificación. Si bien la búsqueda ChatGPT proporciona citas, verificar la precisión y credibilidad de una fuente es más desafiante en comparación con el sistema de clasificación de páginas establecido de Google.

Pros y contras de la búsqueda de ChatGPT

Existen algunas ventajas y limitaciones clave de la búsqueda de ChatGPT.

Ventajas

  • Comprensión del lenguaje natural para consultas intuitivas.
  • Conciencia contextual para preguntas de seguimiento.
  • Explicaciones detalladas y resúmenes.
  • Potencial para tareas creativas y analíticas.
  • IA conversacional para una experiencia de usuario más atractiva.

Contras

  • Acceso limitado a información en tiempo real.
  • Generando respuestas inexactas en ocasiones.
  • Alcance de información más reducido en comparación con los motores de búsqueda tradicionales.
  • Falta de capacidades de búsqueda visual.
  • Sesgos heredados de los datos de entrenamiento.

Pros y contras de la Búsqueda de Google

Google también tiene sus ventajas y limitaciones clave.

Ventajas

  • Índice masivo de páginas web rastreadas a lo largo de décadas para obtener un nivel profundo de resultados de búsqueda.
  • Actualizaciones de información en tiempo real que abarcan múltiples categorías.
  • Integración de varios tipos de medios, incluidas imágenes, vídeos y mapas.
  • El mayor grado de seguridad y autenticidad de los algoritmos de Google para resultados relevantes y clasificados.

Contras

  • Interfaz menos conversacional.
  • Cantidad abrumadora de información presentada en ocasiones.
  • Resúmenes de información menos fáciles de usar, aunque Google AI Overviews reduce esa brecha.
  • Capacidad limitada para comprender consultas contextuales complejas.

¿Puede la búsqueda ChatGPT reemplazar la búsqueda de Google?

La respuesta simple es no. ChatGPT no reemplaza completamente la Búsqueda de Google, al menos a corto plazo.

Hay muchas razones por las que Google sigue siendo el motor de búsqueda dominante en Internet. Google atiende eficazmente las necesidades de sus usuarios. Su enfoque de rastreo web para la recopilación de información supera fácilmente al servicio de ChatGPT. Incluso con su gran conjunto de datos de capacitación y sus asociaciones con los medios, la búsqueda de ChatGPT no puede igualar el acceso completo a Internet de Google. Para toda una generación de usuarios de Internet, la Búsqueda de Google es la forma predeterminada de encontrar una respuesta, y eso no es algo que se pueda reemplazar fácilmente.

Esto no significa que ChatGPT no desplazará a Google para algunos tipos de búsquedas. Los usuarios que buscan respuestas directas a sus consultas, rápidamente, se benefician de la interfaz ChatGPT. Pero no reemplazará a Google en el corto plazo. La forma en que evolucione la búsqueda de ChatGPT, por supuesto, determinará si se reduce la brecha con el acceso a Internet y las capacidades de búsqueda más amplias de la Búsqueda de Google.

Sean Michael Kerner es consultor de TI, entusiasta de la tecnología y experto en retoques. Sacó Token Ring, configuró NetWare y se le conoce por compilar su propio kernel de Linux. Consulta con organizaciones industriales y de medios sobre cuestiones tecnológicas.

Continue Reading

Trending