Noticias
¿Puede ChatGPT competir con Google? El futuro de la búsqueda en 2025
Published
3 meses agoon

Si bien ChatGPT ha ganado un impulso significativo con su interfaz de conversación y capacidades avanzadas de IA, estas mismas fortalezas pueden plantear desafíos para adaptar a los usuarios de búsqueda a su plataforma. Exploremos los obstáculos que enfrentan las plataformas AI mientras se esfuerzan por competir con la supremacía de motor de búsqueda arraigada de Google.
Google vs. CHATGPT – Evaluación de la cuota de mercado y las tendencias
¿Cómo se puede entender el futuro de la competencia de búsqueda sin examinar primero el pasado?
Para evaluar la competencia entre Google y ChatGPT en el mercado de búsqueda, la herramienta de explorador de mercado de Semrush se utilizó para analizar el tráfico directo en los últimos seis meses. YouTube se incluyó en Google, ya que sus funcionalidades de búsqueda se alinean con el ecosistema más amplio de Google. El tráfico directo se eligió como la métrica principal porque refleja el reconocimiento de la marca, el uso habitual y la intención del usuario: indicadores clave de la lealtad de la plataforma.
Cuota de mercado (julio-diciembre de 2024):
- Google.com: 777.2 mil millones de visitas (74.6%)
- Youtube.com: 395.4 mil millones de visitas (23.9%)
- Chatgtp.com: 19.7 mil millones de visitas (1.5%)
A primera vista, la parte de ChatGPT parece insignificante. Sin embargo, su rápido crecimiento durante el año pasado es sorprendente. Entre enero y julio de 2024, el tráfico directo de ChatGPT aumentó por un extraordinario 182k%, lo que indica un aumento del interés y la adopción del usuario. En contraste, Google y YouTube mostraron tendencias de crecimiento más modestas o estancadas durante el mismo período.
Estos datos destacan el aumento de ChatGPT mientras subrayan la brecha significativa que debe cerca de desafiar el dominio arraigado de Google.
Más allá de la búsqueda: las aguas turbias de la influencia de Chatgpt
No todo el uso de CHATGPT se superpone directamente con la búsqueda de Google. Por ejemplo, los usuarios pueden cargar una hoja de cálculo y solicitar ChatGPT para analizar las tendencias. Si bien esta interacción no es una búsqueda tradicional, podría reemplazar varias búsquedas en Google sobre cómo filtrar o analizar datos.
Esto plantea una consideración importante: ¿podría la exposición a las capacidades más amplias de ChatGPT crear un nivel de comodidad que fomente su uso para consultas no relacionadas, incluidas las búsquedas? Si bien esta hipótesis tiene sentido, los datos concretos aún no están disponibles para responder definitivamente.
La brecha entre chatgpt y hábitos de búsqueda comunes
La IA ha sido anunciada como un catalizador para un enfoque más conversacional para la búsqueda, o al menos, esa ha sido la teoría predominante.
En realidad, la mayoría de las consultas de búsqueda siguen siendo simples, fragmentadas y no construidas en oraciones completas. Considere el ejemplo a continuación, que demuestra un hábito de búsqueda típico:
“Salsa picante sin jalapeño”
Esta frase refleja cómo los motores de búsqueda como Google tienen usuarios condicionados para comunicarse. Compare esto con cómo uno podría expresar naturalmente la misma solicitud a un amigo:
“Estoy buscando una salsa picante que no use jalapeños porque soy alérgico a ellos”.
La suposición era que la IA conversacional interrumpiría tales hábitos, marcando el comienzo de un “gran cálculo” para los comportamientos de búsqueda tradicionales. Sin embargo, este cambio no ha ocurrido como se esperaba, al menos no en la forma en que muchos imaginaron.
La fuerza de Google en consultas simples
El algoritmo de Google ha capacitado durante mucho tiempo a los usuarios para confiar en consultas concisas y fragmentadas. Frases como ‘Flight Barato NYC London’ transmiten efectivamente la intención sin requerir oraciones completas. Esta eficiencia ha convertido a Google en una herramienta indispensable para búsquedas rápidas.
Eficiencia versus compromiso
Aquí se encuentra la compensación: ChatGPT está diseñada como una plataforma de conversación que prioriza el compromiso. Sin embargo, el compromiso no siempre es lo que los usuarios quieren durante una búsqueda.
Cuando ChatGPT capturó por primera vez la atención pública y la adopción de los usuarios masivos, se supuso que el dominio de Google podría estar en peligro. Sin embargo, el tráfico de Google en realidad aumentó entre mayo de 2023 y mayo de 2024, destacando una visión importante: las plataformas de IA conversacionales, como ChatGPT, no están preparadas para reemplazar a Google tan fácilmente como se esperaba. Los especialistas en marketing no estaban leyendo la habitación, como dicen.
El diseño de ChatGPT abarca interacciones similares a los humanos, que contrasta bruscamente con el comportamiento de búsqueda tradicional. Esta diferencia fundamental explica por qué Google continúa prosperando. Los usuarios generalmente no perciben ChatGPT como un mecanismo de búsqueda de fuego rápido para consultas cotidianas.
Una historia de dos consultas: simplicidad vs. conversación
Considere el marcado contraste entre una consulta de búsqueda tradicional y una conversacional:
- Búsqueda tradicional: “Los mejores restaurantes cerca de mí”
- Consulta de estilo chatgpt: “¿Puedes recomendar algunos excelentes restaurantes cerca de mí con asientos al aire libre y música en vivo? Estoy planeando una noche de cita “.
El primero es directo y conciso, mientras que el segundo prioriza la personalización y el contexto. Google se destaca por servir al primero, que representa la mayoría de los hábitos de búsqueda.
Tendencias sin cambios por chatgpt
Los datos de Google Trends ilustran esto. La captura de pantalla a continuación, tomada en enero de 2025, muestra una fluctuación normal en la actividad de búsqueda de consultas relacionadas con el restaurante. Las flechas verdes marcan los picos estacionales, como los meses de verano de julio. Estos datos sugieren que el comportamiento del usuario se ha mantenido consistente, incluso frente a la creciente popularidad de ChatGPT.
La mayoría de los usuarios continúan de manera predeterminada a la simplicidad, incluso a medida que las herramientas de conversación se vuelven más disponibles. Las décadas de expectativas de los usuarios que dan forma a Google en torno a entradas concisas y resultados precisos han dejado un impacto duradero, uno que la IA conversacional aún no ha superado.
Problemas financieros y políticos
A principios de 2023, el entonces presidente Biden probó ChatGPT y expresó públicamente su admiración por sus capacidades. Durante esta interacción, le pidió que escribiera un informe legal para un caso de la Corte Suprema y componiera una canción de rock, demostraciones que impresionaban y expresaban preocupaciones.
Este evento impulsó a Biden a firmar una orden ejecutiva sobre la seguridad de la IA, destinada a abordar el impacto económico de los sistemas de IA, incluido su alto consumo de energía y costos operativos.
Por el contrario, el presidente Trump, en su elección, anunció un plan de inversión de AI de $ 500 mil millones que presenta al fundador de OpenAI, Sam Altman.
A pesar de los enfoques contrastantes, un problema permanece constante: el alto costo de ejecutar sistemas de IA sigue siendo una barrera significativa para la adopción generalizada, particularmente para las empresas y gobiernos más pequeños. A diferencia de la plataforma de búsqueda de Google, que se liberó en gran medida de la fricción regulatoria durante sus primeros años, las plataformas de IA deben navegar por un panorama político más complejo a nivel mundial durante su infancia.
¿Por qué importa esto?
Las mismas características conversacionales e interactivas que hacen de IA una herramienta impresionante también obstaculizan su escalabilidad debido a los altos costos operativos. Casi todas las plataformas de IA ofrecen planes mejorados y pagados, pero incluso estos pueden no ser suficientes para compensar los gastos.
Por ejemplo, el actual plan profesional de ChatGPT, con un precio de $ 200 por mes, no logró alcanzar el punto de equilibrio en 2024, con OpenAi incurriendo en la asombrosa cantidad de $ 5 mil millones en pérdidas. Esto destaca un desafío central: ¿pueden las plataformas de IA permitirse ofrecer servicios gratuitos para atraer la adopción masiva, especialmente para las consultas básicas cotidianas que dominan los hábitos de búsqueda?
Considere esto: los usuarios están acostumbrados a buscar ‘tiendas de perros calientes cerca de mí’ sin pagar un centavo. Si las plataformas como ChatGPT no pueden atraer a los usuarios con opciones gratuitas o de bajo costo para tales consultas, corren el riesgo de permanecer en una herramienta de nicho en lugar de una alternativa ampliamente adoptada.
Es poco probable que este tema a la intervención del gobierno proporcione una resolución rápida. Independientemente de la alineación política, las principales iniciativas tardan años en materializarse, retrasando aún más el camino de la IA hacia la adopción masiva.
Esto plantea una pregunta inevitable: ¿por qué ChatGPT simplemente no proporciona resultados de búsqueda de la misma manera que Google lo hace?
Integrando el mecanismo de búsqueda simplista en las plataformas de IA
No a todos les gusta escribir consultas conversacionales y reflexivas cuando buscan algo tan sencillo como “salsa picante que no desencadena alergias”. Del mismo modo, puede ser prohibitivamente costoso para las plataformas de IA procesar consultas complejas para algo tan simple como enumerar “10 salsas calientes no jalapeñas”.
Entonces, ¿por qué no integrar los cimientos simples de búsqueda de palabras clave a las que los usuarios están acostumbrados a las plataformas de IA?
Bueno, esto ya está sucediendo, aunque sin tanta fanfarria (dependiendo de a quién le preguntes).
El año pasado, OpenAI anunció SearchGPT, un producto que utiliza la interfaz ChatGPT familiar mientras ofrece resultados que se asemejan a las páginas de resultados de los motores de búsqueda de Google (SERPS). Antes de esto, la perplejidad, un autoproclamado motor de respuestas de AI, ganó tracción por intentar combinar la búsqueda de conversación y tradicional.
La interfaz de Perplexity combina elementos de IA conversacional con la simplicidad de la búsqueda tradicional. Lanzado oficialmente en agosto de 2022, se implementó por completo en enero de 2023 como lo demostró el “motor de solicitud” anteriormente.
Usando SEMRUSH, podemos estimar sus tendencias de tráfico:
La perplejidad actualmente genera aproximadamente 750k clics por mes. Si bien esa cifra puede sonar prometedora, es mínimo en el panorama de búsqueda más amplio.
Para comparación:
- Chatgtp: Búsquedas mensuales estimadas de 5 m
- Google: Estimadas de 531 millones de búsquedas mensuales
Reconociendo el desafío, Openai se volvió consciente de sí mismo (juego de palabras) de la situación y persiguió agresivamente su propio producto híbrido, Searchgpt. Sin embargo, esto también ha luchado para ganar tracción.
El problema más grande: convertirse en otro motor de búsqueda
A medida que las plataformas de IA adoptan mecanismos de búsqueda más simples, corren el riesgo de perder su valor único. Al reducir las características interactivas, colaborativas y de forma humana para imitar Google, comienzan a parecerse a otro motor de búsqueda. Esto presenta un desafío crítico: volverse indistinguible de los competidores tradicionales en un espacio ya dominado por Google.
Una larga lista de motores de búsqueda ha intentado y no ha podido rivalizar en Google, incluso con características únicas:
- Aturdir: El competidor más exitoso, pero sigue siendo un segundo lejano.
- Yahoo: Una vez que el motor de búsqueda de ir, subcontrató su tecnología a Microsoft Bing en 2009.
- Duckduckgo: Comercializado como una alternativa centrada en la privacidad, pero posee menos del 1% de participación de mercado.
- Pregúntale a Jeeves: Lanzado en 1996 con un enfoque de conversación, pero no pudo coincidir con la escalabilidad de Google.
- Baidu: Domina a China pero tiene poca influencia fuera de sus fronteras.
A pesar de sus diferentes esfuerzos: privacidad, sostenibilidad o enfoque regional, ninguno logró destronar la relevancia, velocidad o integración del ecosistema de Google.
Por qué la IA conversacional debe separarse
Esto deja plataformas de IA con un desafío estratégico. Para evitar convertirse en otra Google, deben centrarse en vender la experiencia de conversación, en lugar de imitar modelos de búsqueda simplistas. Sin embargo, como se exploró anteriormente, esta estrategia viene con su propio conjunto de obstáculos:
- Costo: Ofrecer experiencias interactivas de alta calidad sigue siendo costosa.
- Política: Las regulaciones e iniciativas gubernamentales agregan complejidad a la adopción de AI.
- Hábitos de usuario: Las décadas del uso de Google han arraigado comportamientos de búsqueda simples y basados en palabras clave.
Para forjar una parte significativa del panorama de búsqueda, las plataformas de IA deben innovar de manera que los diferencie de Google, en lugar de emularlo.
Lo que esto significa para vendedores y marcas
El aumento de la búsqueda impulsada por la IA junto con el dominio de Google señala un cambio en cómo los usuarios descubren contenido. Los especialistas en marketing deben equilibrar el SEO tradicional con estrategias amigables con AI para mantenerse visibles.
Adapte el contenido para AI y Google:
La IA conversacional favorece el lenguaje natural, como el humano. La optimización del contenido tanto para consultas impulsadas por la IA como para Google sigue siendo crucial. Las publicaciones de blog, las preguntas frecuentes y los datos estructurados pueden mejorar la visibilidad en todas las plataformas.
Aproveche la narración de historias en negrita:
La mensajería auténtica y poco convencional ayuda a las marcas a destacar. Por ejemplo, la asociación de 19 crímenes con UFC interrumpió el marketing tradicional de bebidas, lo que demuestra que las narrativas creativas involucran al público y desafían las normas.
Invierta en formatos atractivos:
La atención del usuario está fragmentada entre motores de búsqueda y herramientas de IA. Videos de alta calidad, infografías y medios interactivos ayudan a capturar el interés. La campaña 9roftops Wild Wonders para el turismo de Carolina del Sur ejemplifica cómo las imágenes inmersivas fomentan las conexiones auténticas. Además, puede combinar formatos de contenido de alta calidad y atractivos con estrategias de marketing por correo electrónico para fomentar clientes potenciales y construir relaciones más profundas con el público.
Priorizar la confianza y la autoridad:
Los usuarios gravitan hacia fuentes confiables. Mantener los principios de EAT (experiencia, autoridad y confiabilidad) fortalece el rendimiento del contenido en la IA y las plataformas de búsqueda tradicionales. Al equilibrar el compromiso impulsado por la IA con estrategias probadas de SEO, las marcas pueden navegar por este panorama digital en evolución y mantener relevancia.
You may like
Noticias
Operai actualiza su nueva API de respuestas rápidamente con el soporte de MCP, GPT-4O Native Image Gen y más características empresariales
Published
8 horas agoon
21 mayo, 2025
Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información
Operai está implementando un conjunto de actualizaciones significativas de su nueva API de respuestas, con el objetivo de facilitar que los desarrolladores y empresas creen aplicaciones de agente inteligentes orientadas a la acción.
Estas mejoras incluyen soporte para servidores de protocolo de contexto del modelo remoto (MCP), integración de la generación de imágenes y herramientas de intérpretes de código, y actualizaciones para las capacidades de búsqueda de archivos, todo disponible a partir de hoy, 21 de mayo.
Lanzado por primera vez en marzo de 2025, la API de respuestas sirve como la caja de herramientas de OpenAI para que los desarrolladores de terceros creen aplicaciones de agente sobre algunas de las funcionalidades centrales de sus exitosos servicios CHATGPT y sus agentes de IA de propiedades profundas y operadores.
En los meses posteriores a su debut, ha procesado billones de tokens y ha apoyado una amplia gama de casos de uso, desde la investigación de mercado y la educación hasta el desarrollo de software y el análisis financiero.
Las aplicaciones populares construidas con la API incluyen el agente de codificación de Zencoder, el asistente de inteligencia de mercado de Revi y la plataforma educativa de MagicSchool.
La base y el propósito de la API de las respuestas
La API de respuestas debutó junto con el SDK de los agentes de código abierto de Opengai en marzo de 2025, como parte de una iniciativa para proporcionar acceso a desarrolladores de terceros a las mismas tecnologías que alimentan a los propios agentes de inteligencia artificial de Openi como la investigación y el operador profundo.
De esta manera, las nuevas empresas y las empresas fuera de OpenAI podrían integrar la misma tecnología que ofrece a través de ChATGPT en sus propios productos y servicios, ya sean internos para el uso de empleados o externos para clientes y socios.
Inicialmente, la API combinó elementos de las completaciones de chat y la API de asistentes, que libera herramientas incorporadas para la búsqueda en la web y los archivos, así como el uso de la computadora, lo que permite a los desarrolladores construir flujos de trabajo autónomos sin lógica de orquestación compleja. Openai dijo en ese momento que la API de finalización de chat estaría en desuso a mediados de 2026.
La API de respuestas proporciona visibilidad en las decisiones del modelo, el acceso a los datos en tiempo real y las capacidades de integración que permitieron a los agentes recuperar, razonar y actuar sobre la información.
Este lanzamiento marcó un cambio para dar a los desarrolladores un conjunto de herramientas unificado para crear agentes de IA específicos de dominio listos para la producción con una fricción mínima.
El servidor remoto del servidor MCP amplía el potencial de integración
Una adición de clave en esta actualización es el soporte para los servidores MCP remotos. Los desarrolladores ahora pueden conectar los modelos de OpenAI a herramientas y servicios externos como Stripe, Shopify y Twilio utilizando solo unas pocas líneas de código. Esta capacidad permite la creación de agentes que pueden tomar medidas e interactuar con los usuarios de los sistemas de la que ya dependen. Para apoyar este ecosistema en evolución, OpenAI se ha unido al Comité Directivo de MCP.
La actualización trae nuevas herramientas incorporadas a la API de respuestas que mejoran lo que los agentes pueden hacer dentro de una sola llamada API.
Una variante del exitoso modelo de generación de imágenes nativas de GPT-4O de OpenAI, que inspiró una ola de memes de anime estilo “Studio Ghibli” en la web y abrochó los servidores de OpenAI con su popularidad, pero obviamente puede crear muchos otros estilos de imagen ahora está disponible a través de la API bajo el nombre del modelo “GPT-IMage-1”. Incluye nuevas características potencialmente útiles y bastante impresionantes, como vistas previas de transmisión en tiempo real y refinamiento múltiple.
Esto permite a los desarrolladores crear aplicaciones que puedan producir y editar imágenes dinámicamente en respuesta a la entrada del usuario.
Además, la herramienta de intérprete de código ahora está integrada en la API de respuestas, lo que permite que los modelos manejen el análisis de datos, las matemáticas complejas y las tareas basadas en la lógica dentro de sus procesos de razonamiento.
La herramienta ayuda a mejorar el rendimiento del modelo en varios puntos de referencia técnicos y permite un comportamiento de agentes más sofisticado.
Búsqueda de archivos mejorado y manejo de contexto
La funcionalidad de búsqueda de archivos también se ha actualizado. Los desarrolladores ahora pueden realizar búsquedas en múltiples tiendas vectoriales y aplicar el filtrado basado en atributos para recuperar solo el contenido más relevante.
Esto mejora la precisión del uso de los agentes de la información, mejorando su capacidad para responder preguntas complejas y operar dentro de grandes dominios de conocimiento.
Nuevas empresas de fiabilidad, características de transparencia
Varias características están diseñadas específicamente para satisfacer las necesidades empresariales. El modo de fondo permite tareas asincrónicas de larga duración, abordando problemas de tiempos de espera o interrupciones de la red durante el razonamiento intensivo.
Los resúmenes de razonamiento, una nueva adición, ofrecen explicaciones en idioma natural del proceso de pensamiento interno del modelo, ayudando con la depuración y la transparencia.
Los elementos de razonamiento cifrados proporcionan una capa de privacidad adicional para clientes de retención de datos cero.
Estos permiten a los modelos reutilizar los pasos de razonamiento anteriores sin almacenar ningún dato en los servidores Operai, mejorando tanto la seguridad como la eficiencia.
Las últimas capacidades son compatibles con la serie GPT-4O de Openai, la serie GPT-4.1 y los modelos O-Series, incluidos O3 y O4-Mini. Estos modelos ahora mantienen el estado de razonamiento en múltiples llamadas y solicitudes de herramientas, lo que conduce a respuestas más precisas a un costo y latencia más bajos.
¡El precio de ayer es el precio de hoy!
A pesar del conjunto de características ampliada, OpenAI ha confirmado que los precios de las nuevas herramientas y capacidades dentro de las respuestas API seguirán siendo consistentes con las tasas existentes.
Por ejemplo, la herramienta de intérprete de código tiene un precio de $ 0.03 por sesión, y el uso de búsqueda de archivos se factura a $ 2.50 por 1,000 llamadas, con costos de almacenamiento de $ 0.10 por GB por día después del primer gigabyte gratuito.
El precio de búsqueda web varía según el tamaño del modelo y el tamaño del contexto de búsqueda, que oscila entre $ 25 y $ 50 por cada 1,000 llamadas. La generación de imágenes a través de la herramienta GPT-Image-1 también se cobra de acuerdo con la resolución y el nivel de calidad, a partir de $ 0.011 por imagen.
Todo el uso de la herramienta se factura a las tarifas por juicio del modelo elegido, sin un marcado adicional para las capacidades recientemente agregadas.
¿Qué sigue para la API de respuestas?
Con estas actualizaciones, OpenAI continúa expandiendo lo que es posible con la API de respuestas. Los desarrolladores obtienen acceso a un conjunto más rico de herramientas y funciones listas para la empresa, mientras que las empresas ahora pueden construir aplicaciones más integradas, capaces y seguras de IA.
Todas las características están en vivo a partir del 21 de mayo, con detalles de precios e implementación disponibles a través de la documentación de OpenAI.
Insights diarias sobre casos de uso comercial con VB diariamente
Si quieres impresionar a tu jefe, VB Daily te tiene cubierto. Le damos la cuenta interior de lo que las empresas están haciendo con la IA generativa, desde cambios regulatorios hasta implementaciones prácticas, por lo que puede compartir ideas para el ROI máximo.
Lea nuestra Política de privacidad
Gracias por suscribirse. Mira más boletines de VB aquí.
Ocurrió un error.
Noticias
Las nuevas funciones de Google AI no tienen coincidencia
Published
13 horas agoon
21 mayo, 2025
Después de la E/S 2024 del año pasado, que se dedicó a las nuevas características de Gemini AI, al igual que la nota clave de E/S 2025 de ayer, me pregunté quién ganó el duelo de IA que acabábamos de presenciar. El año pasado, OpenAi emboscó brillantemente a Google con un evento de ChatGPT masivo alojado un día antes de la nota clave de E/S.
Operai venció a Google hasta el golpe, dando características multimodales de ChatGPT y un modo de voz antes de que Google dio a conocer características similares para Gemini. Al mismo tiempo, dije el año pasado que la nota clave de E/S 2024 se sintió como un tour de Force de Google cuando se trata de las habilidades de Gemini AI. Realmente no había nada más que importara en el evento del año pasado que no sea Géminis.
Un evento de ChatGPT no precedió a la E/S 2025 de este año. No hay batalla por el centro de atención entre ChatGPT y Google. Pero dado lo que vimos el martes de Sundar Pichai & Co., no sé qué OpenAi podría haber lanzado antes del evento de Google para hacernos ignorar todas las novedades de IA con gemini que Google presentó.
La E/S 2025 fue una exhibición de fuerza aún mayor que el año pasado. Géminis es aún más poderoso y más rápido que antes. También está obteniendo una integración más profunda en las aplicaciones y servicios de Google, por lo que es una herramienta más útil para cualquier persona entusiasmada con la IA, incluso un poco.
Tecnología. Entretenimiento. Ciencia. Tu bandeja de entrada.
Regístrese para las noticias de tecnología y entretenimiento más interesantes que existen.
Al registrarse, acepto los Términos de uso y he revisado el Aviso de privacidad.
La mejor parte es que Google presentó un montón de características de IA emocionantes que no tienen equivalentes de OpenAI. Debería saber. No es solo que he estado cubriendo ChatGPT y todas las noticias de IA por un tiempo, pero ChatGPT es mi IA predeterminada en este momento. Y envidio varias novedades de Géminis que Operai no puede igualar.
Algunos de ellos son obvios, y me refiero a los lazos entre Gemini y Google, algo OpenAi no puede igualar. Y algunas de las características de Géminis que Google dio a conocer no están listas para un lanzamiento comercial amplio. Eso no cambia el hecho de que Google está tomando una gran ventaja sobre ChatGPT, y no puedo evitar preguntarme cómo responderá OpenAi.
Pensar profundamente
Hemos tenido un profundo apoyo de investigación en ChatGPT y Gemini durante meses, y me encanta la funcionalidad. La IA puede entregar informes detallados sobre cualquier tema mediante la realización de investigaciones en profundidad.
Google está listo para ir un paso más allá con Gemini Deep Think, un modo de razonamiento mejorado que le dará a Gemini la capacidad de proporcionar respuestas aún mejores.
Profunde Think todavía está en la fase de prueba de evaluación de seguridad, y no está disponible para la mayoría de los usuarios de Géminis.
Agentes de IA en todas partes
No me gustó Project Mariner cuando salió en diciembre, y ciertamente favorecí al operador de OpenAI sobre la implementación de Google. Sin embargo, Google ha mejorado significativamente Project Mariner, y el agente de IA ha recibido poderes masivos, al menos según lo que vimos ayer.
La mejor parte es que Google enviará agentes de IA en varios productos. Por ejemplo, el modo de IA de búsqueda de Google podrá monitorear la web para obtener los cambios de precios para el producto que desea comprar y permitirle comprar el artículo que desee.
En Gemini Live, los agentes de IA dejarán que Gemini llame a las empresas para los usuarios, mientras que la IA continúa interactuándose con usted y colocará pedidos en línea para los bienes. La IA también puede navegar por la web para encontrar la información que necesita, desplazarse por los documentos y ver el mundo que lo rodea mientras interactúa con usted a través de la voz.
Géminis en vivo
Gemini Live se está convirtiendo en el tipo de asistente de IA que estamos acostumbrados a ver en las películas. Mire la demostración a continuación que Google ofreció en E/S para tener una idea de lo que Gemini Live hará para el usuario una vez que Google esté listo para lanzar estas nuevas funciones de Project Astra.
No es solo un comportamiento de agente, como hacer llamadas en su nombre o comprar productos. La IA puede obtener información de otras aplicaciones de Google, es consciente del historial del usuario y puede manejar a varias personas que hablan en la habitación sin perder el seguimiento de la tarea en cuestión.
La mayoría de estas capacidades aún no están llegando a Gemini Live, pero están más allá de lo que Operai puede hacer con ChatGPT. Operai también quiere que ChatGPT se convierta en su asistente y sepa todo sobre usted para proporcionar mejores respuestas. Pero la compañía no puede integrar ChatGPT con otras aplicaciones que proporcionan esos datos sobre usted, como lo hace Google.
Ya dije que tengo envidia sobre las nuevas capacidades de Gemini Live, y me pregunto cuándo y si OpenAi lanzará un producto similar.
Mientras espera a que Gemini Live obtenga todas las nuevas funciones, puede usar la cámara y las habilidades de intercambio de pantalla de forma gratuita ahora mismo en Android y iPhone.
Cuando Operai presentó al operador, mostró al mundo lo que el agente de IA que viene a Chatgpt podría hacer en situaciones de la vida real. Eso implicó buscar cosas para comprar para el usuario, ya sea un producto real o hacer una reserva.
Medio año después, el operador permanece disponible solo para los usuarios de ChatGPT Pro, pero no puedo justificar el nivel de $ 200/mes en este momento.
Mientras tanto, Google ha traído un agente de IA a la búsqueda de Google y la ha empacado en modo AI. El modo AI con Gemini con Gemini le permitirá encontrar cosas para comprar, incluso si usa un lenguaje de conversación en lugar de un mensaje específico. Chatgpt también puede hacer eso.
Pero el modo AI tendrá una función “Comprar para mí” que le permite instruir a la IA que monitoree el precio de un producto. La IA le notificará cuándo cae el precio y ofrece comprarlo por usted. Chatgpt no puede hacer nada de eso.
Luego está la función “Prueba en” “que es simplemente alucinante y el mejor uso de la IA en productos como la búsqueda en línea hasta ahora. Encuentre un artículo de ropa que le guste, suba una foto reciente de usted mismo, y un modelo especial de IA determinará cómo se verá usando esa ropa.
El modo AI también le permitirá encontrar y comprar boletos para eventos, hacer reservas de restaurantes y programar otras citas. Chatgpt no puede hacer nada de eso por ti.
Personalización
Claro, hay implicaciones de privacidad para usar características del modo AI como las anteriores. Y no soy un gran admirador de entregar ninguno de mis datos personales o acceder a ellos a la IA. Pero tendré que hacer eso una vez que esté listo para adoptar un modelo de IA como asistente que sepa todo sobre mí y pueda acceder a mis datos, ya sean conversaciones por correo electrónico y chat, documentos o información de pago.
Otras personas no se sentirán así, y si no tienen ningún problema con la IA acceder a datos de otras aplicaciones, querrán ver qué está haciendo Google con Gemini.

Una de las mejores demostraciones en E/S fue Gemini escribiendo un correo electrónico en Gmail utilizando el tono del usuario y surgir la información correcta de otras aplicaciones de Google, ya sean documentos o fotos.
Del mismo modo, Gemini Live podría acceder a los datos de Gmail en el ejemplo anterior para encontrar la información que el usuario necesitaba, y recordaba al perro del usuario para una búsqueda en Internet.

Incluso el modo AI puede ofrecer sugerencias personalizadas basadas en sus búsquedas pasadas si lo desea. También puede conectarse a Gmail para un contexto más personal.
ChatGPT no puede hacer nada de eso porque no tiene su propio conjunto de aplicaciones complementarias. Y conectarse a aplicaciones de terceros podría ser más difícil.
Fluir
OpenAI le permite generar video con Sora, y puede comenzar directamente desde ChatGPT, pero el flujo de Google es, sin duda, uno de los grandes aspectos destacados de E/S 2025 y probablemente un paso por encima de Sora.
El flujo te permite generar videos increíbles con audio. Ofrecen consistencia de carácter y escena, y puede continuar editando su proyecto fuera del programa AI.
De todas las características anunciadas en la E/S 2025, el flujo podría ser el más fácil para que Operai coincida.
Traducción en tiempo real
Google no es el primero en ofrecer una traducción en tiempo real con IA. La característica ha sido uno de los productos básicos de Galaxy AI, con Samsung mejorando a lo largo de los años. ChatGPT también puede comprender y traducir idiomas para usted.
Pero Google está trayendo la traducción en tiempo real con Gemini a aplicaciones de chateo de video como Google Meet. Eso es algo que Chatgpt no puede hacer.
La función es aún mejor en el hardware con Gemini, como la próxima ola de dispositivos Android XR.
El hardware Géminis
Esto me lleva a los primeros dispositivos desarrollados con Gemini en el núcleo: AR/AI de Google y lentes inteligentes solo. I/o 2025 finalmente nos dio las demostraciones públicas que nos faltamos. Hubo problemas técnicos, y la conectividad a Internet definitivamente afectó el rendimiento, pero las demostraciones mostraron que estos wearables de IA funcionaban.
Veremos gafas Android XR en las tiendas a finales de este año, y serán el dispositivo perfecto para usar AI. Sí, Meta tiene sus gafas Ray-Ban Meta Smart que hacen lo mismo con Meta AI. Pero todo lo que dije sobre las nuevas potencias de Google Gemini hace que las gafas de Android XR sean aún más emocionantes, al menos en teoría.
OpenAi no puede igualar eso. No hay gafas inteligentes de primera parte que ejecuten chatgpt de forma nativa. Estoy seguro de que dicho producto vendrá de Jony Ive y Co. en los próximos años, y el hardware ChatGPT valdrá la pena. Pero Google está llegando allí primero, y ciertamente está llamando la atención en el proceso.
Noticias
Su asistente de Google Gemini está obteniendo 8 características útiles: aquí está el registro de actualizaciones
Published
1 día agoon
20 mayo, 2025
Google Gemini ya ofrece una gran cantidad de capacidades útiles. Desde generar texto y crear imágenes hasta conversaciones en vivo, investigaciones profundas y analizar archivos, la IA de Google ha demostrado ser un fuerte contendiente en el campo de IA.
También: Todo anunciado en Google I/O 2025: Gemini, Search, Android XR y más
En Google I/O 2025 el martes, la compañía reveló una serie de características nuevas y mejoradas ahora disponibles con su asistente de IA.
1. Nuevos planes Google AI Pro y Ultra
Primero hay dos nuevas suscripciones de Google AI que ofrecen más funciones, pero naturalmente vienen con sus propios precios.
El primer plan se conoce como Google AI Pro, que en realidad es el mismo plan de AI Premium que ha existido por un tiempo solo con un nuevo nombre. Todavía con un precio de $ 20 por mes, AI Pro ofrece las mismas funciones de IA disponibles con la versión gratuita de Gemini, pero agrega límites de tarifa más altos y características especiales.
AI Pro también incluye la aplicación Gemini anteriormente conocida como Gemini Advanced, junto con productos como NotebookLM y el nuevo editor de video de AI Flow. Esas dos características llegarán a los suscriptores de AI Pro primero en los EE. UU. Y luego se expandirán a otros países.
Los estudiantes universitarios en los Estados Unidos, el Reino Unido, Brasil, Indonesia y Japón pueden obtener un año escolar gratuito de Google AI Pro.
Si necesita más potencia y características y está dispuesto a gastar mucho dinero, también hay un plan de Google Al Ultra. Este ofrece los modelos más poderosos, los límites de tarifa más altos y el acceso temprano a las características experimentales de AL.
También: Google presenta su suscripción de AI Ultra de $ 250 por mes: lo que está incluido
Como ejemplo, el Ultra Plan le otorgará acceso temprano al modo de agente, una nueva herramienta de agente basada en escritorio que llevará a cabo tareas para usted. Simplemente describa su solicitud o pregunta; En respuesta, el agente navega por la Web, realiza su propia investigación y se integra con sus aplicaciones de Google para abordar tareas complejas de varios pasos de principio a fin.
El Ultra Plan cuesta $ 250 al mes, aunque los suscriptores por primera vez obtienen un 50% de descuento durante los primeros tres meses.
2. Géminis en vivo
El siguiente es Gemini Live, el práctico modo de chat en el que llevas una conversación de voz de ida y vuelta con la IA. Anteriormente, solo los usuarios de Android podían compartir su pantalla o vista de cámara y hacer preguntas de Gemini al respecto. Ahora, Google está expandiendo esta función para que los usuarios de Android e iOS puedan usar la cámara y el intercambio de pantalla.
También: el intercambio de pantalla en vivo de Gemini y la cámara ahora están disponibles para todos, gratis
Para probar esto, abra la aplicación Gemini en su dispositivo iPhone o Android y toque el icono de Gemini Live a la derecha de la solicitud. El icono de la cámara en la parte inferior le permite apuntar su teléfono en cualquier objeto o escena y pedirle a Gemini que lo describiera o responda preguntas al respecto. El segundo icono le permite compartir cualquier pantalla en su dispositivo para que Gemini analice.
Hay más: en las próximas semanas, Gemini Live funcionará con otras aplicaciones y servicios de Google, incluidos los mapas de Google, el calendario, las tareas y el mantenimiento. Esto significa que podrá pedirle a Gemini Live que realice tareas tales como crear una cita de calendario o proporcionar instrucciones a su próximo destino.
3. Imagen 4 Generación de imágenes
Anteriormente, Google usó su modelo Imagen 3 para generar imágenes basadas en sus descripciones. Ahora, la compañía se ha actualizado a Imagen 4, que según él ofrecerá un rendimiento más rápido, más detalles realistas y una mejor producción de texto. Cualquiera ahora podrá probar Imagen 4 a través de la aplicación móvil Gemini.
4. Veo 3 Generación de videos
También recibe una actualización es el generador de video VEO de Gemini. Avanzando de VEO versión 2, VEO 3 ofrece una generación de audio nativa con soporte para el diálogo entre personajes, ruidos de fondo y efectos de sonido. Como Google lo describe, ahora puede agregar cualquier cosa, desde los sonidos de la ciudad bulliciosos hasta el susurro de las hojas hasta el diálogo del personaje solo desde sus descripciones de texto. La barrera principal aquí es que VEO 3 estará disponible solo para Google AI Ultra suscriptores en los EE. UU.
5. Mejoras de lienzo
La herramienta Canvas de Google le ofrece un espacio de trabajo interactivo y colaborativo en el que puede crear código, diseñar páginas web e idear otro contenido visual, con los resultados que aparecen de lado a lado en tiempo real. Utilizando el último modelo Gemini 2.5, Canvas promete ser más intuitivo y poderoso, según Google.
También: Google Beam está listo para traer videoconferencia 3D convencional
Puede crear infografías interactivas, cuestionarios y descripciones de audio al estilo de podcast en cualquiera de los 45 idiomas. Con las habilidades de codificación de Gemini 2.5 Pro, Canvas ahora es más experto en convertir sus ideas en código real, lo que le ayuda a desarrollar aplicaciones completas.
6. Tamizios interactivos
¿Tratando de aprender un nuevo tema complicado? Géminis puede ayudar. Ahora puede pedirle a la IA que cree un cuestionario sobre su tema de interés. En respuesta, Gemini lo desafía con una serie de preguntas diseñadas para expandir su conocimiento. A medida que responde a cada pregunta, la IA le dirá cómo está y se concentrará en cualquier área que necesite atención especial. Esta característica ahora se está implementando en todos los usuarios de Gemini en los dispositivos de escritorio y móviles.
7. Géminis en Chrome
Hasta el miércoles, Gemini comenzará a aparecer en Chrome en el escritorio tanto en Windows como en MacOS. Aquí, podrá pedirle a Gemini que analice o responda preguntas sobre su página web actual. En el futuro, la IA también funcionará a través de múltiples pestañas e incluso lanzará diferentes sitios web para usted.
También: Conoce a Gemini-in Chrome, tu nuevo asistente de navegación de IA, aquí es quién lo usa
Suena útil, pero el acceso será limitado. Gemini-in Chrome estará disponible solo para los suscriptores de Google Al Pro y Google Al Ultra en los EE. UU. Que usan el inglés como idioma en el navegador.
8. Investigación profunda
Finalmente, el modo de investigación profunda de Gemini es una herramienta de agente que puede realizar una investigación en línea para usted y presentar los resultados en un informe detallado, por sí solo. Anteriormente, Deep Research solo pudo consultar a los sitios web para obtener la información que necesitaba. Ahora, también puede ver sus propios PDF e imágenes. Esto significa que podría decirle a Gemini que incluya tendencias y temas que ya han sido capturados en sus propios archivos personales o de trabajo.
En un ejemplo citado por Google, un investigador de mercado podría cargar cifras de ventas internas almacenadas en un PDF para referencias cruzadas con las tendencias del mercado público. En otro ejemplo, un investigador académico podría decirle a Gemini que consulte a los artículos de revistas descargados para agregar a una revisión de la literatura en línea. Como un elemento más, Google dijo que planea integrar una investigación profunda con Google Drive y Gmail para expandir el número de fuentes disponibles.
También: Google le da al video generado por IA una voz con VEO 3 – Cómo probarlo
Vaya, eso es mucho para desempacar. Pero con AI impactando cada vez más tanto individuos como organizaciones, Google está demostrando que está tratando de mantenerse competitivo. E incluso con la nueva y costosa suscripción Ultra, hay suficiente aquí para los usuarios gratuitos de Gemini y los suscriptores de AI Pro para tratar de ver si pueden aprovechar los últimos desarrollos y cómo y cómo.
¿Quieres más historias sobre AI? Regístrese para la innovaciónnuestro boletín semanal.
Related posts



























































































































































































































































































































Trending
-
Startups12 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales1 año ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Startups10 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Recursos1 año ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups1 año ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos12 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Recursos1 año ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Estudiar IA12 meses ago
Curso de Inteligencia Artificial de UC Berkeley estratégico para negocios