Hacia finales de 2024, ofrecí una opinión sobre todo lo que se hablaba sobre si las “leyes de escala” de la IA estaban chocando contra un muro técnico en la vida real. Sostuve que la pregunta importa menos de lo que muchos piensan: existen sistemas de IA lo suficientemente poderosos como para cambiar profundamente nuestro mundo, y los próximos años estarán definidos por el progreso en la IA, se cumplan o no las leyes de escala.
Noticias
Cada vez es más difícil medir qué tan buena es la IA
Siempre es arriesgado hacer pronósticos sobre la IA, porque se puede demostrar que estás equivocado muy rápidamente.. Ya es bastante vergonzoso como escritor cuando sus predicciones para el próximo año no se cumplen. Cuando tus predicciones para el próximo semana ¿Se ha demostrado que son falsos? Eso es bastante malo.
Pero menos de una semana después de escribir ese artículo, la serie de lanzamientos de fin de año de OpenAI incluyó su último modelo de lenguaje grande (LLM), o3. o3 no exactamente desmiente las afirmaciones de que las leyes de escala que solían definir el progreso de la IA ya no funcionan tan bien en el futuro, pero definitivamente desmiente la afirmación de que el progreso de la IA está chocando contra una pared.
O3 es realmente impresionante. De hecho, para apreciar lo impresionante que es, tendremos que hacer una pequeña digresión en la ciencia de cómo medimos los sistemas de IA.
Pruebas estandarizadas para robots
Si desea comparar dos modelos de lenguaje, desea medir el desempeño de cada uno de ellos en un conjunto de problemas que no han visto antes. Eso es más difícil de lo que parece: dado que estos modelos reciben enormes cantidades de texto como parte del entrenamiento, ya han visto la mayoría de las pruebas antes.
Entonces, lo que hacen los investigadores de aprendizaje automático es crear puntos de referencia, pruebas para sistemas de inteligencia artificial que nos permitan compararlos directamente entre sí y con el desempeño humano en una variedad de tareas: matemáticas, programación, lectura e interpretación de textos, lo que sea. Durante un tiempo, probamos las IA en la Olimpíada de Matemáticas de Estados Unidos, en un campeonato de matemáticas y en problemas de física, biología y química.
El problema es que las IA han mejorado tan rápido que siguen haciendo que los puntos de referencia sean inútiles. Una vez que una IA se desempeña lo suficientemente bien en un punto de referencia, decimos que el punto de referencia está “saturado”, lo que significa que ya no es útil distinguir qué tan capaces son las IA, porque todas obtienen puntuaciones casi perfectas.
2024 fue el año en el que un punto de referencia tras otro para las capacidades de IA se saturó tanto como el Océano Pacífico. Solíamos probar las IA con respecto a un punto de referencia de física, biología y química llamado GPQA que era tan difícil que incluso los estudiantes de doctorado en los campos correspondientes generalmente obtenían menos del 70 por ciento. Pero las IA ahora funcionan mejor que los humanos con doctorados relevantes, por lo que no es una buena manera de medir futuros avances.
También en la clasificación para la Olimpiada de Matemáticas, los modelos se desempeñan ahora entre los mejores humanos. Un punto de referencia llamado MMLU estaba destinado a medir la comprensión del lenguaje con preguntas en muchos dominios diferentes. Los mejores modelos también lo han saturado. Se suponía que un punto de referencia llamado ARC-AGI sería realmente difícil y mediría la inteligencia humana general, pero o3 (cuando está sintonizado para la tarea) logra una explosiva cifra del 88 por ciento.
Siempre podemos crear más puntos de referencia. (Lo estamos haciendo: ARC-AGI-2 se anunciará pronto y se supone que será mucho más difícil). Pero al ritmo que avanzan las IA, cada nuevo punto de referencia solo dura unos pocos años, en el mejor de los casos. Y quizás lo más importante para aquellos de nosotros que no somos investigadores de aprendizaje automático es que los puntos de referencia tienen que medir cada vez más el desempeño de la IA en tareas que los humanos no podrían realizar por sí mismos para describir de qué son y de qué no son capaces.
Sí, las IA todavía cometen errores estúpidos y molestos. Pero si han pasado seis meses desde que prestaste atención, o si solo has jugado con las versiones gratuitas de modelos de lenguaje disponibles en línea, que están muy por detrás de la frontera, estás sobreestimando cuántos errores estúpidos y molestos cometen, y subestimar su capacidad para realizar tareas difíciles e intelectualmente exigentes.
Esta semana en Time, Garrison Lovely argumentó que el progreso de la IA no “chocó contra una pared” sino que se volvió invisible, principalmente mejorando a pasos agigantados en formas a las que la gente no presta atención. (Nunca he intentado que una IA resuelva problemas de programación de élite o de biología, matemáticas o física, y de todos modos no podría decir si era correcto).
Cualquiera puede notar la diferencia entre un niño de 5 años que aprende aritmética y un estudiante de secundaria que aprende cálculo, por lo que el progreso entre esos puntos parece y se siente tangible. La mayoría de nosotros realmente no podemos distinguir entre un estudiante de primer año de matemáticas y los matemáticos más genios del mundo, por lo que el progreso de la IA entre esos puntos no ha parecido gran cosa.
Pero ese progreso es, en realidad, un gran problema. La forma en que la IA realmente cambiará nuestro mundo es automatizando una enorme cantidad de trabajo intelectual que alguna vez fue realizado por humanos, y tres cosas impulsarán su capacidad para lograrlo.
Uno cada vez es más barato. o3 obtiene resultados sorprendentes, pero puede costar más de 1.000 dólares pensar en una pregunta difícil y encontrar una respuesta. Sin embargo, el lanzamiento de fin de año del DeepSeek de China indicó que podría ser posible obtener un rendimiento de alta calidad a muy bajo costo.
El segundo son las mejoras en la forma en que interactuamos con él. Todas las personas con las que hablo sobre productos de IA confían en que hay toneladas de innovación por lograr en la forma en que interactuamos con las IA, cómo verifican su trabajo y cómo configuramos qué IA usar para cada tarea. Podría imaginarse un sistema en el que normalmente un chatbot de nivel medio hace el trabajo pero puede llamar internamente a un modelo más caro cuando su pregunta lo necesita. Todo esto es trabajo de producto versus puro trabajo técnico, y es lo que advertí en diciembre que transformaría nuestro mundo incluso si se detuviera todo el progreso de la IA.
Y el tercero es que los sistemas de inteligencia artificial se vuelven más inteligentes y, a pesar de todas las declaraciones sobre chocar contra las paredes, parece que todavía lo están haciendo. Los sistemas más nuevos son mejores para razonar, mejores para resolver problemas y, en general, están más cerca de ser expertos en una amplia gama de campos. Hasta cierto punto, ni siquiera sabemos qué tan inteligentes son porque todavía estamos luchando por descubrir cómo medirlo una vez que ya no seamos capaces de usar pruebas contra la experiencia humana.
Creo que estas son las tres fuerzas que definirán los próximos años: así de importante es la IA. Nos guste o no (y a mí tampoco me gusta mucho; no creo que esta transición que cambiará el mundo se esté manejando de manera responsable en absoluto), ninguno de los tres está chocando contra una pared, y cualquiera de los tres lo haría. ser suficiente para cambiar de forma duradera el mundo en el que vivimos.
Una versión de esta historia apareció originalmente en el boletín Future Perfect. ¡Regístrate aquí!
Noticias
ChatGPT es el rastreador de artículos del hogar que he estado esperando durante años
Resumen
- ChatGPT es un rastreador eficaz de artículos del hogar con procesamiento de lenguaje natural para facilitar la búsqueda.
- ChatGPT puede almacenar recuerdos con detalles específicos para una fácil recuperación sin nombres exactos.
- Las limitaciones de ChatGPT incluyen límites de espacio en la memoria y el requisito de entrada manual.
Pierdo gran parte de mi vida buscando artículos del hogar que he guardado en “lugares seguros” que ya no puedo recordar. Los sistemas de seguimiento de artículos que he usado en el pasado han sido una decepción, pero es posible que finalmente haya encontrado lo que estaba buscando en ChatGPT.
Por qué siempre quise un rastreador de artículos del hogar
Mi memoria es terrible. Perdí la cuenta de la cantidad de veces que preparé una taza de café, solo para encontrar la taza llena de café frío junto a mí un rato después, porque me quedé atrapado haciendo otra cosa y lo olvidé por completo. que el café estaba ahí. Cada vez pienso que debería invertir en una taza inteligente, solo para olvidarme por completo de la idea hasta la próxima vez que mi café se enfríe.
Lo mismo ocurre con mis pertenencias. Pienso en un lugar inteligente para colocar un artículo que rara vez uso, pero luego instantáneamente olvido dónde está ese lugar. La próxima vez que lo necesito, paso horas buscando todos los posibles lugares inteligentes donde podría haberlo almacenado. Puedo tomar nota de dónde puse las cosas, pero luego tengo que recordar dónde las anoté, lo que lleva al mismo problema nuevamente.
Como un geek confeso, estoy convencido de que debe haber una solución tecnológica para este problema. Si no puedo recordar dónde están todas mis cosas, ¿seguramente hay alguna tecnología que pueda hacerlo?
Rastreadores de artículos que finalmente no sirvieron de nada
Probé algunas soluciones tecnológicas en el pasado, pero al final no me dieron lo que necesitaba. Me emocioné cuando me enteré por primera vez de la función “Recordar esto” de Alexa que me permitiría decirle a Alexa que recordara dónde estaban las cosas para mí. Sin embargo, mi entusiasmo se vio truncado cuando descubrí que esta característica ni siquiera existía en mi localidad.
Sin embargo, investigué un poco sobre la función, en caso de que fuera algo que finalmente se lanzara en todo el mundo. Pronto quedó claro que la función era demasiado limitada para darme lo que quería; solicitudes como “¿Dónde están mis pastillas?” normalmente fallaría.
Es necesario utilizar frases como “¿Qué puedes decirme sobre mis pastillas?” y si no recuerdo dónde están mis pastillas, tampoco recordaré el formato correcto para preguntarle a Alexa dónde están.
Otro problema importante con la función “Recordar esto” de Alexa es que si no usas el mismo nombre del elemento cada vez, puede caerse. Si le dices a Alexa que recuerde dónde está algo y luego usas un nombre diferente para ese objeto cuando le preguntas dónde está, es posible que Alexa no entienda de qué estás hablando. Esto puede mejorar cuando Alexa obtenga su tan esperada actualización de IA, pero por ahora, es un problema grave.
Lo mismo ocurrió con el otro método que probé. Utilizo Home Assistant para automatizar mis dispositivos domésticos inteligentes y pensé que podría haber una manera de realizar un seguimiento de dónde está todo en mi casa guardando la información en una base de datos que pudiera consultar. El problema era que si intentaba buscar en la base de datos usando “medicamentos” en lugar de “pastillas”, no encontraría nada, por lo que tenía que recordar exactamente cómo había llamado cada elemento, lo que me daba más cosas que olvidar.
Uso de ChatGPT como rastreador de artículos del hogar
Sin embargo, finalmente encontré una solución que funciona: ChatGPT. ChatGPT no solo puede almacenar recuerdos que puedes consultar en cualquier momento, sino que también tiene procesamiento de lenguaje natural. Eso significa que si le he dicho dónde están mis pastillas y le pregunto la ubicación de mis medicamentos, puede darse cuenta de que estoy hablando de lo mismo.
Todo lo que necesitas hacer es pedirle a ChatGPT que recuerde algo y se agregará a la memoria permanente. Por ejemplo, puedo decir “Recuerda que el soporte del árbol de Navidad está en el cobertizo de herramientas” y ChatGPT agregará esa información a su memoria. Si luego pregunto “¿Dónde está la base del árbol de Navidad?” ChatGPT me dirá que está en el cobertizo de herramientas, aunque no lo llamé “soporte”, que fue el término utilizado al crear la memoria.
Puedo agregar más recuerdos para guardar información sobre la ubicación de otros elementos, y siempre se puede acceder a estos recuerdos desde cualquier chat dentro de ChatGPT. Si en algún momento muevo el soporte del árbol de Navidad a otra ubicación, puedo pedirle a ChatGPT que actualice la memoria con la nueva ubicación y la memoria original se sobrescribirá con la nueva ubicación.
Lo bueno de usar ChatGPT es que los chatbots de IA son muy buenos para comprender el contexto de lo que estás diciendo. No es necesario que recuerdes la frase exacta que debes utilizar al preguntar dónde está algo, ni tampoco el nombre exacto del elemento. Intenté preguntar “¿Sabes dónde está el soporte del árbol?” y “¿Qué hice con la base festiva?” y en ambos casos, ChatGPT me dijo dónde estaba el puesto del árbol de Navidad.
Incluso si no recuerdas cómo se llama el objeto, puedes preguntar algo como “¿Dónde está el objeto donde pusiste el árbol?”. y ChatGPT seguirá entendiendo lo que quieres decir. Es ideal para aquellos que nos cuesta recordar las cosas más simples.
Limitaciones de ChatGPT como rastreador de artículos
Si bien ChatGPT es, con diferencia, la mejor manera que he encontrado para recordar dónde se guardaron los artículos del hogar, no es perfecta. Probablemente la mayor limitación es que la memoria de ChatGPT no es enorme y eventualmente se llenará. Una vez que esto sucede, no podrá almacenar ningún recuerdo nuevo sin eliminar otros.
Para una cuenta gratuita, el límite es actualmente de 2000 tokens (aproximadamente 1500 palabras) y los usuarios Plus obtienen 8000 tokens (aproximadamente 6000 palabras) de espacio de memoria. Significa que puedes recordar una cantidad razonable de objetos como usuario Plus, pero no podrás almacenar recuerdos sobre cada objeto que posees.
La otra limitación obvia es que ChatGPT no puede recordar dónde están los elementos sin su intervención. En otras palabras, debes recordar decirle a ChatGPT dónde estás poniendo las cosas. Si colocas el soporte del árbol de Navidad en el cobertizo de herramientas, pero te olvidas de contarle a ChatGPT lo que has hecho, volverás a tener que intentar recordarlo por ti mismo nuevamente.
Cómo borrar recuerdos en ChatGPT
Si descubres que no puedes agregar más recuerdos a ChatGPT porque la memoria está llena, puedes eliminar algunos recuerdos que ya no necesites. Es bastante fácil eliminar recuerdos individuales para no tener que borrarlos todos y empezar de cero.
Abra la aplicación ChatGPT y toque el nombre de su cuenta en la parte inferior del panel de menú. Seleccione “Personalización” y toque “Administrar memoria”. Para eliminar un recuerdo, deslícese hacia la izquierda y toque el ícono de la papelera. Repita para cualquier otro recuerdo que desee eliminar.
He estado buscando una forma de rastrear rápida y fácilmente la ubicación de los elementos de mi casa y, hasta ahora, no he encontrado una solución que funcione lo suficientemente bien. Sin embargo, ChatGPT parece ser el rastreador de artículos del hogar que siempre quise. El tiempo dirá si hay suficiente memoria para mis necesidades, pero hasta ahora es exactamente lo que estaba buscando.
Noticias
LlamaV-o1 es el modelo de IA que explica su proceso de pensamiento: he aquí por qué es importante
Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder en la industria. Más información
Investigadores de la Universidad de Inteligencia Artificial Mohamed bin Zayed (MBZUAI) han anunciado el lanzamiento de LlamaV-o1, un modelo de inteligencia artificial de última generación capaz de abordar algunas de las tareas de razonamiento más complejas en texto e imágenes.
Al combinar el aprendizaje curricular de vanguardia con técnicas de optimización avanzadas como Beam Search, LlamaV-o1 establece un nuevo punto de referencia para el razonamiento paso a paso en sistemas de IA multimodales.
“El razonamiento es una capacidad fundamental para resolver problemas complejos de varios pasos, particularmente en contextos visuales donde la comprensión secuencial por pasos es esencial”, escribieron los investigadores en su informe técnico, publicado hoy. El modelo de IA, optimizado para tareas de razonamiento que requieren precisión y transparencia, supera a muchos de sus pares en tareas que van desde la interpretación de gráficos financieros hasta el diagnóstico de imágenes médicas.
Junto con el modelo, el equipo también presentó VRC-Bench, un punto de referencia diseñado para evaluar los modelos de IA en función de su capacidad para razonar problemas paso a paso. Con más de 1000 muestras diversas y más de 4000 pasos de razonamiento, VRC-Bench ya está siendo aclamado como un punto de inflexión en la investigación de IA multimodal.
Cómo se diferencia LlamaV-o1 de la competencia
Los modelos tradicionales de IA a menudo se centran en ofrecer una respuesta final, ofreciendo poca información sobre cómo llegaron a sus conclusiones. LlamaV-o1, sin embargo, enfatiza el razonamiento paso a paso, una capacidad que imita la resolución de problemas humana. Este enfoque permite a los usuarios ver los pasos lógicos que sigue el modelo, lo que lo hace particularmente valioso para aplicaciones donde la interpretabilidad es esencial.
Los investigadores entrenaron LlamaV-o1 utilizando LLaVA-CoT-100k, un conjunto de datos optimizado para tareas de razonamiento, y evaluaron su rendimiento utilizando VRC-Bench. Los resultados son impresionantes: LlamaV-o1 logró una puntuación de pasos de razonamiento de 68,93, superando a modelos de código abierto conocidos como LlaVA-CoT (66,21) e incluso a algunos modelos de código cerrado como Claude 3.5 Sonnet.
“Al aprovechar la eficiencia de Beam Search junto con la estructura progresiva del aprendizaje curricular, el modelo propuesto adquiere habilidades de manera incremental, comenzando con tareas más simples como [a] resumen del enfoque y subtítulos derivados de preguntas y avance a escenarios de razonamiento de varios pasos más complejos, asegurando tanto una inferencia optimizada como capacidades de razonamiento sólidas”, explicaron los investigadores.
El enfoque metódico del modelo también lo hace más rápido que sus competidores. “LlamaV-o1 ofrece una ganancia absoluta del 3,8% en términos de puntuación promedio en seis puntos de referencia y, al mismo tiempo, es 5 veces más rápido durante el escalado de inferencia”, señaló el equipo en su informe. Una eficiencia como esta es un punto de venta clave para las empresas que buscan implementar soluciones de IA a escala.
IA para empresas: por qué es importante el razonamiento paso a paso
El énfasis de LlamaV-o1 en la interpretabilidad aborda una necesidad crítica en industrias como las finanzas, la medicina y la educación. Para las empresas, la capacidad de rastrear los pasos detrás de la decisión de una IA puede generar confianza y garantizar el cumplimiento de las regulaciones.
Tomemos como ejemplo las imágenes médicas. Un radiólogo que utiliza IA para analizar exploraciones no solo necesita el diagnóstico: necesita saber cómo la IA llegó a esa conclusión. Aquí es donde brilla LlamaV-o1, que proporciona un razonamiento transparente paso a paso que los profesionales pueden revisar y validar.
El modelo también destaca en campos como la comprensión de gráficos y diagramas, que son vitales para el análisis financiero y la toma de decisiones. En las pruebas realizadas en VRC-Bench, LlamaV-o1 superó consistentemente a sus competidores en tareas que requerían interpretación de datos visuales complejos.
Pero el modelo no es sólo para aplicaciones de alto riesgo. Su versatilidad lo hace adecuado para una amplia gama de tareas, desde generación de contenido hasta agentes conversacionales. Los investigadores ajustaron específicamente LlamaV-o1 para que sobresaliera en escenarios del mundo real, aprovechando Beam Search para optimizar las rutas de razonamiento y mejorar la eficiencia computacional.
Beam Search permite que el modelo genere múltiples rutas de razonamiento en paralelo y seleccione la más lógica. Este enfoque no solo aumenta la precisión sino que también reduce el costo computacional de ejecutar el modelo, lo que lo convierte en una opción atractiva para empresas de todos los tamaños.
Qué significa VRC-Bench para el futuro de la IA
El lanzamiento de VRC-Bench es tan importante como el modelo en sí. A diferencia de los puntos de referencia tradicionales que se centran únicamente en la precisión de la respuesta final, VRC-Bench evalúa la calidad de los pasos de razonamiento individuales, ofreciendo una evaluación más matizada de las capacidades de un modelo de IA.
“La mayoría de los puntos de referencia se centran principalmente en la precisión de la tarea final, descuidando la calidad de los pasos intermedios de razonamiento”, explicaron los investigadores. “[VRC-Bench] presenta un conjunto diverso de desafíos con ocho categorías diferentes que van desde la percepción visual compleja hasta el razonamiento científico con más de [4,000] pasos de razonamiento en total, lo que permite una evaluación sólida de las capacidades de los LLM para realizar un razonamiento visual preciso e interpretable en múltiples pasos”.
Este enfoque en el razonamiento paso a paso es particularmente crítico en campos como la investigación científica y la educación, donde el proceso detrás de una solución puede ser tan importante como la solución misma. Al enfatizar la coherencia lógica, VRC-Bench fomenta el desarrollo de modelos que puedan manejar la complejidad y ambigüedad de las tareas del mundo real.
El desempeño de LlamaV-o1 en VRC-Bench dice mucho sobre su potencial. En promedio, el modelo obtuvo una puntuación del 67,33% en puntos de referencia como MathVista y AI2D, superando a otros modelos de código abierto como Llava-CoT (63,50%). Estos resultados posicionan a LlamaV-o1 como líder en el espacio de la IA de código abierto, reduciendo la brecha con modelos propietarios como GPT-4o, que obtuvo una puntuación del 71,8%.
La próxima frontera de la IA: razonamiento multimodal interpretable
Si bien LlamaV-o1 representa un gran avance, no está exento de limitaciones. Como todos los modelos de IA, está limitado por la calidad de sus datos de entrenamiento y puede tener problemas con indicaciones altamente técnicas o conflictivas. Los investigadores también advierten contra el uso del modelo en escenarios de toma de decisiones de alto riesgo, como la atención médica o las predicciones financieras, donde los errores podrían tener consecuencias graves.
A pesar de estos desafíos, LlamaV-o1 destaca la creciente importancia de los sistemas de inteligencia artificial multimodal que pueden integrar perfectamente texto, imágenes y otros tipos de datos. Su éxito subraya el potencial del aprendizaje curricular y del razonamiento paso a paso para cerrar la brecha entre la inteligencia humana y la máquina.
A medida que los sistemas de IA se integren más en nuestra vida cotidiana, la demanda de modelos explicables seguirá creciendo. LlamaV-o1 es una prueba de que no tenemos que sacrificar el rendimiento por la transparencia y que el futuro de la IA no se limita a dar respuestas. Está en mostrarnos cómo llegó allí.
Y tal vez ese sea el verdadero hito: en un mundo repleto de soluciones de caja negra, LlamaV-o1 abre la tapa.
Noticias
Búsqueda de ChatGPT frente a Google: ¿en qué se diferencian?
Durante las últimas dos décadas, el motor de búsqueda Google ha sido el estándar de facto para las búsquedas en Internet. Esa posición dominante se ha visto desafiada en los últimos años por el surgimiento de un enfoque completamente diferente para el descubrimiento de búsquedas basado en el conocimiento: ChatGPT.
Cuando llegó ChatGPT en noviembre de 2022, introdujo una experiencia muy diferente para los usuarios con preguntas. Mientras que los motores de búsqueda tradicionales ofrecen una lista de enlaces en respuesta a una consulta, ChatGPT proporciona respuestas.
En octubre de 2024, ChatGPT introdujo la búsqueda ChatGPT, que ofrece información actualizada y en vivo, algo que falta en su versión original. Y Google tampoco se ha quedado de brazos cruzados. Con Google AI Overviews, el gigante de las búsquedas integró capacidades de IA generativa en su búsqueda, brindando a los usuarios resúmenes y respuestas a consultas de contenido.
¿Cómo funciona la búsqueda ChatGPT?
El ChatGPT original basó su servicio enteramente en el conocimiento recopilado por un modelo de lenguaje grande (LLM) a través de una fase de capacitación. La versión normal de ChatGPT tiene una fecha límite de conocimiento (basada en cuándo se completó el entrenamiento de su modelo subyacente) y no conoce información ni eventos posteriores a esa fecha.
La búsqueda de ChatGPT ignora ese límite de conocimiento, operando a través de una combinación de tecnologías, con su base construida sobre una versión especialmente ajustada del GPT-4o LLM de OpenAI. OpenAI mejoró este modelo base utilizando técnicas posteriores al entrenamiento, particularmente al destilar los resultados de su modelo de vista previa o1. Según el proveedor, el modelo OpenAI o1 se destaca específicamente por sus capacidades de razonamiento mejoradas, lo que respalda su experiencia de búsqueda más refinada y precisa.
Para acceder a información más allá del límite de capacitación del LLM, la búsqueda de ChatGPT integra información de fuentes adicionales, incluidas las siguientes:
- Proveedores de búsqueda de terceros. La búsqueda de ChatGPT utiliza proveedores de búsqueda de terceros, como Microsoft Bing.
- Asociaciones de medios. Además, la búsqueda de ChatGPT incorpora fuentes de contenido de numerosos socios de medios, incluidos The Associated Press, Reuters y Tiempos financieros.
El servicio de búsqueda ChatGPT procesa las consultas de los usuarios a través de una interfaz de lenguaje natural y mantiene el contexto en múltiples preguntas, creando interacciones que son más conversacionales e intuitivas. Más allá de simplemente devolver enlaces, la búsqueda de ChatGPT proporciona resúmenes concisos de información, así como enlaces de origen.
¿Cuáles son las distinciones funcionales entre la búsqueda ChatGPT y la Búsqueda de Google?
La búsqueda de ChatGPT y la búsqueda de Google toman caminos divergentes para proporcionar resultados a las consultas de los usuarios.
- Interfaz. ChatGPT ofrece a los usuarios una interfaz de IA conversacional, donde los usuarios hacen preguntas en un enfoque más de ida y vuelta. Cuando interactúan con el motor de búsqueda tradicional de Google, los usuarios escriben términos y no mantienen interacciones de conversación con el motor de búsqueda.
- Seguimientos. El enfoque de IA conversacional de ChatGPT generalmente mantiene el contexto mucho mejor que el de Google durante las preguntas de seguimiento que profundizan en un tema específico.
- Procesamiento de información. De forma predeterminada, la búsqueda de ChatGPT resume información que responde directamente a la consulta de un usuario. El modelo central de Búsqueda de Google no resume la información; se basa en su propio conjunto de algoritmos complejos de Google para clasificar y mostrar resultados relevantes. Sin embargo, Google AI Overviews ofrece respuestas resumidas que también responden preguntas.
- Información en tiempo real. La búsqueda de ChatGPT tiene capacidades limitadas en tiempo real a través de sus asociaciones y proveedores externos. Google rastrea e indexa continuamente la web, proporcionando información más actualizada sobre una variedad de temas.
- Formato de resultados. La Búsqueda de Google proporciona una lista de enlaces que incluye páginas web, imágenes, vídeos y fragmentos destacados. Si bien Google AI Overviews mejora algunos resultados de búsqueda con información resumida y enlaces de fuentes, ChatGPT ofrece respuestas detalladas en forma de párrafos que también incluyen enlaces a fuentes citadas.
Diferencias clave entre la búsqueda de Google y la búsqueda de ChatGPT
El siguiente cuadro detalla las diferencias importantes entre la Búsqueda de Google y la búsqueda de ChatGPT.
Característica | Búsqueda de Google | Búsqueda de ChatGPT |
Tecnología central | algoritmos de google | GPT-4o Maestría en Derecho |
Fuente de información | Rastreo web en tiempo real | Conjunto de datos previamente entrenado más búsqueda limitada en tiempo real |
Interfaz de usuario | Cuadro de búsqueda basado en consultas | chatbot conversacional |
Formato de resultados | Lista de enlaces con fragmentos | Respuestas coherentes y conversacionales. |
Manejo de contexto | Limitado | Mantiene el contexto en múltiples consultas |
Integración del comercio electrónico | Listados de productos y comparaciones de precios. | Información limitada del producto |
Método de citación | Enlaces a fuentes | Citas en línea con enlaces a fuentes |
¿Cuáles son las limitaciones de la búsqueda ChatGPT en comparación con la Búsqueda de Google?
A pesar de sus avances, la búsqueda ChatGPT enfrenta varias limitaciones en comparación con la Búsqueda de Google, incluidas las siguientes:
- Acceso a la información y alcance de los datos. La Búsqueda de Google tiene un índice masivo de información gracias a su rastreador web con décadas de antigüedad. ChatGPT no tiene ese linaje ni acceso al volumen total de información de Internet.
- Información en tiempo real. Si bien la búsqueda ChatGPT proporciona algunas capacidades en tiempo real, va a la zaga de Google en cuanto a proporcionar la información más actualizada sobre diversos temas.
- Preocupaciones por la precisión. Un problema persistente con los LLM en general es el riesgo de sufrir alucinaciones por IA. Aunque ese riesgo persiste con Google AI Overviews, es menos probable que ocurra debido a su proceso de rastreo web.
- Desafíos de verificación. Si bien la búsqueda ChatGPT proporciona citas, verificar la precisión y credibilidad de una fuente es más desafiante en comparación con el sistema de clasificación de páginas establecido de Google.
Pros y contras de la búsqueda de ChatGPT
Existen algunas ventajas y limitaciones clave de la búsqueda de ChatGPT.
Ventajas
- Comprensión del lenguaje natural para consultas intuitivas.
- Conciencia contextual para preguntas de seguimiento.
- Explicaciones detalladas y resúmenes.
- Potencial para tareas creativas y analíticas.
- IA conversacional para una experiencia de usuario más atractiva.
Contras
- Acceso limitado a información en tiempo real.
- Generando respuestas inexactas en ocasiones.
- Alcance de información más reducido en comparación con los motores de búsqueda tradicionales.
- Falta de capacidades de búsqueda visual.
- Sesgos heredados de los datos de entrenamiento.
Pros y contras de la Búsqueda de Google
Google también tiene sus ventajas y limitaciones clave.
Ventajas
- Índice masivo de páginas web rastreadas a lo largo de décadas para obtener un nivel profundo de resultados de búsqueda.
- Actualizaciones de información en tiempo real que abarcan múltiples categorías.
- Integración de varios tipos de medios, incluidas imágenes, vídeos y mapas.
- El mayor grado de seguridad y autenticidad de los algoritmos de Google para resultados relevantes y clasificados.
Contras
- Interfaz menos conversacional.
- Cantidad abrumadora de información presentada en ocasiones.
- Resúmenes de información menos fáciles de usar, aunque Google AI Overviews reduce esa brecha.
- Capacidad limitada para comprender consultas contextuales complejas.
¿Puede la búsqueda ChatGPT reemplazar la búsqueda de Google?
La respuesta simple es no. ChatGPT no reemplaza completamente la Búsqueda de Google, al menos a corto plazo.
Hay muchas razones por las que Google sigue siendo el motor de búsqueda dominante en Internet. Google atiende eficazmente las necesidades de sus usuarios. Su enfoque de rastreo web para la recopilación de información supera fácilmente al servicio de ChatGPT. Incluso con su gran conjunto de datos de capacitación y sus asociaciones con los medios, la búsqueda de ChatGPT no puede igualar el acceso completo a Internet de Google. Para toda una generación de usuarios de Internet, la Búsqueda de Google es la forma predeterminada de encontrar una respuesta, y eso no es algo que se pueda reemplazar fácilmente.
Esto no significa que ChatGPT no desplazará a Google para algunos tipos de búsquedas. Los usuarios que buscan respuestas directas a sus consultas, rápidamente, se benefician de la interfaz ChatGPT. Pero no reemplazará a Google en el corto plazo. La forma en que evolucione la búsqueda de ChatGPT, por supuesto, determinará si se reduce la brecha con el acceso a Internet y las capacidades de búsqueda más amplias de la Búsqueda de Google.
Sean Michael Kerner es consultor de TI, entusiasta de la tecnología y experto en retoques. Sacó Token Ring, configuró NetWare y se le conoce por compilar su propio kernel de Linux. Consulta con organizaciones industriales y de medios sobre cuestiones tecnológicas.
-
Startups8 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Recursos8 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Recursos8 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Recursos8 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Tutoriales8 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Estudiar IA8 meses ago
Curso de Inteligencia Artificial de UC Berkeley estratégico para negocios
-
Startups6 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Eventos8 meses ago
La nueva era de la inteligencia artificial por el Washington Post – Mayo 2024