Connect with us

Noticias

Resumen de noticias de AI: nueva aplicación meta ai, comportamiento del mal modelo de chatgpt [May 2025]

Published

on

Al igual que los modelos de IA, AI News nunca duerme.

Cada semana, estamos inundados con nuevos modelos, productos, rumores de la industria, crisis legales y éticas y tendencias virales. Si eso no es suficiente, el rival AI Hype/Doom Chatter en línea hace que sea difícil hacer un seguimiento de lo que es realmente importante. Pero hemos examinado todo para recapitular las noticias de IA más notables de la semana de los pesos pesados ​​como OpenAi y Googleasí como el ecosistema AI en general. Lea nuestro último resumeny vuelva a consultar la próxima semana para obtener una nueva edición.

Otra semana, otro lote de noticias de AI que se acercan.

Esta semana, Meta celebró su evento inaugural de Llamacon para desarrolladores de IA, OpenAi luchó con el comportamiento modelo, y LM Arena fue acusado de ayudar a las compañías de IA a jugar el sistema. El Congreso también aprobó nuevas leyes que protegen a las víctimas de los profundos, y una nueva investigación examina los daños actuales y potenciales de la IA. Además, Duolingo y Wikipedia tienen enfoques muy diferentes para sus nuevas estrategias de IA.

¿Qué pasó en el primer llameón de Meta?


Crédito: Chris Unger / Zuffa LLC / Getty Images

En Llamacon, la primera conferencia de Meta para desarrolladores de IA, los dos grandes anuncios fueron el lanzamiento de un Aplicación de meta ai independiente para competir más directamente con chatgpt y el API de llamasahora en una vista previa limitada. Siguiendo los informes de que Esto estaba en procesoEl CEO Sam Altman bromeó una vez que tal vez Operai debería hacer su propia aplicación de redes sociales, pero ahora eso es Según se informa que sucede verdadero.

También fuimos prácticos con la nueva aplicación Meta AI con alimentación de LLAMA. Para más detalles sobre Las principales características de Meta AILeer el desglose de Mashable.

Durante la nota clave de cierre de Llamacon, Mark Zuckerberg entrevistó a la CEO de Microsoft, Satya Nadella, sobre un montón de tendencias, que van desde capacidades de IA de agente hasta cómo debemos medir los avances de IA. Nadella también reveló que hasta el 30 por ciento del código de Microsoft está escrito por AI. No para ser superado, Zuckerberg dijo que quiere Ai para escribir la mitad del código de Meta por el próximo año.

Chatgpt tiene problemas de seguridad, va de compras

Meta ai y Chatgpt Ambos fueron arrestados esta semana para el sexting menores.

Operai dijo que este era un error y están trabajando para solucionarlo. Otro problema de ChatGPT esta semana hizo que la última actualización de GPT-4O sea demasiado chupada. Altman describió el comportamiento del modelo como “sycophant-y y molesto,” pero usuarios eran preocupado sobre los peligros de liberar un modelo como este, destacando problemas con el despliegue iterativo y el aprendizaje de refuerzo.

Operai incluso fue acusado de ajustar intencionalmente el modelo para mantener a los usuarios más comprometidos. Joanne Jang, jefe de comportamiento modelo de OpenAi, se subió a un Reddit AMA Para hacer control de daños. “Personalmente, la parte más dolorosa de las últimas discusiones de la sycophancy ha sido que las personas asuman que mis colegas están tratando de maximizar irresponsablemente el compromiso en aras”. escribió Jang.

A principios de la semana, Operai anunció nuevas funciones para hacer productos mencionados en Respuestas de chatgpt más comprables. La compañía dijo que no está ganando comisiones de compra, pero huele mucho a los inicios de un competidor de Google Shopping. Mencionamos OpenAi compraría cromo ¿Si Google se ve obligado a desestimarlo? Porque lo harían totalmente, FYI.

Velocidad de luz mashable

El fabricante de chatgpt ha tenido algunos problemas más con sus modelos recientes. La semana pasada, informamos que O3 y O4-Mini alucinan más que los modelos anteriores, por la propia admisión de Openai.

Cualquier persona en los EE. UU. Ahora puede registrarse en el modo Google AI

Mientras tanto, Google está avanzando con funciones de búsqueda con AI. El jueves, el gigante tecnológico anunció que está eliminando la lista de espera para Prueba el modo AI en los laboratoriospara que cualquiera mayor de 18 años en los Estados Unidos pueda probarlo. Hablamos con Robby Stein, vicepresidente de productos para Google Search, sobre cómo los usuarios han respondido a sus características de IA, el futuro de la búsqueda y la responsabilidad de Google a los editores.

Google también actualizó Gemini con Herramientas de edición de imágenes y cuaderno ampliadoes generador de podcast AI, a más de 50 idiomas. Bloomberg También informó que Google ha estado probando en silencio anuncios dentro de las respuestas de chatbot de terceros.

Estamos vigilando de cerca ese desarrollo final, y estamos muy Curioso cómo Google planea inyectar anuncios en la búsqueda de IA. ¿Confiarías en un chatbot que te dio respuestas patrocinadas?

Drama de la tabla de clasificación

Investigadores de AI Company Cohere, Princeton, Stanford, MIT y AI2, Publicado un artículo Esta semana, llamando a Chatbot Arena, para ayudar esencialmente a los pesos pesados ​​de la IA a manejar sus resultados de evaluación comparativa. El estudio dijo que la popular herramienta de evaluación comparativa de crowdsourced de UC Berkeley permitió “pruebas privadas extensas” de Meta, Google, OpenAi y Amazon y les dio más datos rápidos, lo que “significativamente” mejoró sus clasificaciones.

En respuesta, LM Arena, el grupo detrás de Chatbot Arena, dijo que “hay una serie de errores de hecho y declaraciones engañosas en este artículo” y al corriente Una refutación puntiaguda por los reclamos del periódico en X.

El problema de los modelos de IA en comparación se ha vuelto cada vez más problemático. Los resultados de referencia son en gran medida autoinformados por las compañías que los liberan, y la comunidad de IA ha pedido más transparencia y responsabilidad por parte de terceros objetivos. Chatbot Arena parecía proporcionar una solución al permitir a los usuarios elegir las mejores respuestas en pruebas ciegas. Pero ahora las prácticas de LM Arena se han puesto en duda, alimentando aún más la conversación en torno a las evaluaciones objetivas.

Hace unas semanas, Meta se metió en problemas Para usar una versión inédita de su modelo Maverick Llama 4 en LM Arena, que obtuvo una clasificación alta. LM Arena actualizó sus políticas de tabla de clasificación, y se agregó la versión públicamente disponible de Llama 4 Maverick, ranking de manera más baja que la versión inédita.

Por último, LM Arena anunciado recientemente planea formar una empresa propia.

Los reguladores e investigadores abordan los daños del mundo real de la IA

Ahora que la IA generativa ha estado en la naturaleza durante algunos años, las implicaciones del mundo real han comenzado a cristalizar.

Esta semana, el Congreso de los Estados Unidos aprobó la Ley de “Take It Down”, que requiere que las compañías tecnológicas eliminen imágenes íntimas no consensuadas dentro de las 48 horas de una solicitud. La ley también describe un castigo estricto para los creadores de Deepfake. La legislación tenía apoyo bipartidista y se espera que sea firmada por el presidente Donald Trump.

La Oficina de Responsabilidad del Gobierno de los Estados Unidos no partidista (GAO) Publicado un informe sobre el impacto de la IA generativa en los humanos y el medio ambiente. La conclusión es que los impactos potenciales son enormes, pero exactamente cuánto se desconoce porque “los desarrolladores privados no divulgan alguna información técnica clave”.

Y en el reino de los daños terriblemente reales y específicos de la IA, un estudiar de Common Sense Media dijo que las aplicaciones complementarias de IA como el personaje. Ai y Replika son inequívocamente inseguros para los adolescentes. Los investigadores dicen que si eres demasiado joven para comprar cigarrillos, eres demasiado joven para tu propio compañero de IA.

Luego estaba el informe de que investigadores de la Universidad de Zúrich Bots de IA desplegados en secreto En el subreddit R/Changemyview para tratar de convencer a la gente de cambiar de opinión. Algunas de las identidades de BOT incluyeron una víctima de violación legal, “un consejero de trauma especializado en abuso” y “un hombre negro opuesto a las vidas negras”.

Otras noticias de AI …

En otras noticias, Duolingo está tomando un Enfoque de “AI-First”lo que significa reemplazar a sus trabajadores contractuales con AI siempre que sea posible. Por otro lado, Wikipedia anunciado Está adoptando un enfoque “humano primero” para su estrategia de IA. No reemplazará a sus voluntarios y editores con IA, sino que “usará AI para construir características que eliminen las barreras técnicas para permitir a los humanos en el centro de Wikipedia”.

Yelp desplegó un montón de funciones de IA esta semana, incluido un Servicio de contestadores con AI Eso requiere llamadas para restaurantes y gobernador Gavin Newsom quiere usar Genai Para resolver los legendarios atascos de California.

Temas
Inteligencia artificial OpenAi

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Los expertos en IA reaccionan a la fusión de OpenAi y Jony Ive para crear dispositivos AI

Published

on

A medida que la ubicuidad de AI se difunde en línea, una fusión anunciada entre Operai y la fábrica de ideas de Jony Ive, la mente detrás del diseño del iPhone y MacBook Pro, probablemente saltará al mundo real con una familia de dispositivos específica de IA.

Operai publicó una declaración conjunta el miércoles entre su CEO Sam Altman y Ive sobre el acuerdo para adquirir IO por $ 6.5 mil millones. La fusión incluye la confianza del cerebro de IO de más de 50 empleados.

El sitio web también tiene un video de nueve minutos, integrado a continuación, donde los visionarios de IA discuten la justificación general detrás de la fusión sobre café en un pub de San Francisco, así como el hecho de que han estado trabajando en silencio juntos durante más de un año.

Altman e Ive: ¿un partido hecho en el dispositivo de dispositivo AI?

En el video, Altman explica por qué se necesita un dispositivo específico de IA. “Si quisiera preguntarle a Chatgpt algo en este momento, necesitaría alcanzar mi bolso, sacar mi computadora portátil, abrirla, lanzar un navegador, comenzar a escribir y luego explicar esa cosa, luego entrar en ENTER, luego esperar una respuesta. Ese es el límite de lo que puede hacer la herramienta actual de una computadora portátil”, dijo Altman.

“Es solo sentido común al menos pensar, seguramente hay algo más allá de estos productos heredados”, dijo Ive. “Tengo la creciente sensación de que todo lo que he aprendido en los últimos 30 años me ha llevado a este momento. Si bien estoy ansioso y entusiasmado con la responsabilidad del trabajo sustancial por delante, estoy muy agradecido por la oportunidad de ser parte de una colaboración tan importante”.

Si bien no se mostraron prototipos, Altman describió el dispositivo beta que el equipo de IO ya ha desarrollado como “la mejor pieza de tecnología que el mundo haya visto”.

Los expertos comparten por qué un dispositivo de IA es un gran problema

Conor Grennan es el arquitecto Jefe de AI en la NYU Stern School of Business, así como el CEO y fundador de la consultora AI Mindset. Está entusiasmado con la perspectiva del hardware que coincide con la imaginación de la utilidad de AI.

“La IA está en todas partes, pero la forma en que lo usamos todavía se siente torpe, con demasiada fricción. Jony Ive hizo que los productos de Apple se sintieran como mágicos: hermosa, simple y algo que quise tener. Si OpenAi puede combinar su cerebro de IA de clase mundial con hardware diseñado por Ive, podrían hacer que AI se sintiera natural y sin esfuerzo.

Daniel Newman es un analista líder de la industria de la IA, autor de tecnología más vendida y CEO de Futurum Group. Él dice que la fusión es audaz y arriesgada.

“Hardware could be a new frontier for OpenAI. This merger, with access to a designer like Ive, could open up the door to creating new devices and profiles that are built for the AI ​​world. A lot of people see this as a big threat to Apple. I do have my doubts, as I think it will be harder to disrupt the hardware ecosystem and the software of iOS and Android due to the large install base. But this belief has also led to meaningful errors of disruption Eso incluyó el pivote de los teléfonos y moras de Nokia ”, dijo Newman.

Ahmed Banafa, Ph.D., es experto en tecnología y profesor de ingeniería en la Universidad Estatal de San José. Él dice que este sindicato es mucho más que simplemente poner a la IA en una caja de mano.

“Se trata de una estrategia de integración vertical que remodelará fundamentalmente el panorama de la IA. OpenAi ya no se contenta con simplemente proporcionar el cerebro; quieren diseñar el cuerpo, el alma y todo el sistema nervioso de las futuras interacciones de IA. Al controlar tanto el software como el hardware, pueden optimizar el rendimiento, las experiencias sin problemas y las capacidades sin problemas y las capacidades completamente nuevas.

Lo que los dispositivos de IA podrían significar para las personas promedio

Rob Howard, consultor de IA y educador en innovar con IA durante más de una década, es un poco escéptico de que los usuarios casuales de IA graviten hacia un dispositivo específico de IA, especialmente dado el hecho de que la mayoría del software de IA está disponible a través de una aplicación de dispositivo móvil.

“La idea de que los consumidores están abiertos a comprar otra pieza de hardware muy costosa para complementar su iPhone o su teléfono Android es una apuesta bastante grande para OpenAI. Es notoriamente difícil lograr que los consumidores adopten un nuevo hardware para el uso diario. El Apple Watch fue un ejemplo de éxito, pero ha habido muchos ejemplos de fallas”, señaló.

“Creo que es muy probable que ocurra una intensa competencia entre Apple y OpenAi y posiblemente conduzca a más bloqueos y ecosistemas que sean menos abiertos y menos interoperables”, agregó. “Para el consumidor típico, eso significa que es posible que no puedan usar OpenAI en un dispositivo Apple en algún momento en el futuro”.

Grennan reconoce que existen desafíos con la adopción de hardware, pero cree que la combinación de Ive y OpenAI tiene una oportunidad.

“Los grandes cambios de hardware llevan tiempo. Pero las personas tienen hambre de un dispositivo que hace que la IA sea divertida, útil y fácil de interactuar. Hemos visto la exageración de cosas como el conejo R1, incluso si no entregan. Si OpenAi y he logrado esto correctamente, podría cambiar la forma en que usamos la tecnología todos los días, esto podría ser útil, un símbolo de estado y cambiar la forma en que el mundo mira el mundo en la inteligencia cotidiana”, dijo.

El Dr. Banafa señaló que, si bien los consumidores son un objetivo obvio para un dispositivo específico de IA, los competidores de Big Tech, y su participación en el mercado de dispositivos respectivos, también son objetivos prominentes para la fusión OpenAI e IVE.

“Esto no es una relación; es una declaración. OpenAi se está moviendo más allá de ser un juego de software puro para convertirse en un competidor directo en el espacio de electrónica de consumo. Esto los coloca en un curso de colisión con gigantes tecnológicos como Apple, Google y Meta, todos los que están fuertemente invertidos en hardware de IA. El panorama competitivo se vuelve mucho más interesante”.

ForbesEsta IA descentralizada podría revolucionar el desarrollo de fármacos

Continue Reading

Noticias

Operai actualiza su nueva API de respuestas rápidamente con el soporte de MCP, GPT-4O Native Image Gen y más características empresariales

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información


Operai está implementando un conjunto de actualizaciones significativas de su nueva API de respuestas, con el objetivo de facilitar que los desarrolladores y empresas creen aplicaciones de agente inteligentes orientadas a la acción.

Estas mejoras incluyen soporte para servidores de protocolo de contexto del modelo remoto (MCP), integración de la generación de imágenes y herramientas de intérpretes de código, y actualizaciones para las capacidades de búsqueda de archivos, todo disponible a partir de hoy, 21 de mayo.

Lanzado por primera vez en marzo de 2025, la API de respuestas sirve como la caja de herramientas de OpenAI para que los desarrolladores de terceros creen aplicaciones de agente sobre algunas de las funcionalidades centrales de sus exitosos servicios CHATGPT y sus agentes de IA de propiedades profundas y operadores.

En los meses posteriores a su debut, ha procesado billones de tokens y ha apoyado una amplia gama de casos de uso, desde la investigación de mercado y la educación hasta el desarrollo de software y el análisis financiero.

Las aplicaciones populares construidas con la API incluyen el agente de codificación de Zencoder, el asistente de inteligencia de mercado de Revi y la plataforma educativa de MagicSchool.

La base y el propósito de la API de las respuestas

La API de respuestas debutó junto con el SDK de los agentes de código abierto de Opengai en marzo de 2025, como parte de una iniciativa para proporcionar acceso a desarrolladores de terceros a las mismas tecnologías que alimentan a los propios agentes de inteligencia artificial de Openi como la investigación y el operador profundo.

De esta manera, las nuevas empresas y las empresas fuera de OpenAI podrían integrar la misma tecnología que ofrece a través de ChATGPT en sus propios productos y servicios, ya sean internos para el uso de empleados o externos para clientes y socios.

Inicialmente, la API combinó elementos de las completaciones de chat y la API de asistentes, que libera herramientas incorporadas para la búsqueda en la web y los archivos, así como el uso de la computadora, lo que permite a los desarrolladores construir flujos de trabajo autónomos sin lógica de orquestación compleja. Openai dijo en ese momento que la API de finalización de chat estaría en desuso a mediados de 2026.

La API de respuestas proporciona visibilidad en las decisiones del modelo, el acceso a los datos en tiempo real y las capacidades de integración que permitieron a los agentes recuperar, razonar y actuar sobre la información.

Este lanzamiento marcó un cambio para dar a los desarrolladores un conjunto de herramientas unificado para crear agentes de IA específicos de dominio listos para la producción con una fricción mínima.

El servidor remoto del servidor MCP amplía el potencial de integración

Una adición de clave en esta actualización es el soporte para los servidores MCP remotos. Los desarrolladores ahora pueden conectar los modelos de OpenAI a herramientas y servicios externos como Stripe, Shopify y Twilio utilizando solo unas pocas líneas de código. Esta capacidad permite la creación de agentes que pueden tomar medidas e interactuar con los usuarios de los sistemas de la que ya dependen. Para apoyar este ecosistema en evolución, OpenAI se ha unido al Comité Directivo de MCP.

La actualización trae nuevas herramientas incorporadas a la API de respuestas que mejoran lo que los agentes pueden hacer dentro de una sola llamada API.

Una variante del exitoso modelo de generación de imágenes nativas de GPT-4O de OpenAI, que inspiró una ola de memes de anime estilo “Studio Ghibli” en la web y abrochó los servidores de OpenAI con su popularidad, pero obviamente puede crear muchos otros estilos de imagen ahora está disponible a través de la API bajo el nombre del modelo “GPT-IMage-1”. Incluye nuevas características potencialmente útiles y bastante impresionantes, como vistas previas de transmisión en tiempo real y refinamiento múltiple.

Esto permite a los desarrolladores crear aplicaciones que puedan producir y editar imágenes dinámicamente en respuesta a la entrada del usuario.

Además, la herramienta de intérprete de código ahora está integrada en la API de respuestas, lo que permite que los modelos manejen el análisis de datos, las matemáticas complejas y las tareas basadas en la lógica dentro de sus procesos de razonamiento.

La herramienta ayuda a mejorar el rendimiento del modelo en varios puntos de referencia técnicos y permite un comportamiento de agentes más sofisticado.

Búsqueda de archivos mejorado y manejo de contexto

La funcionalidad de búsqueda de archivos también se ha actualizado. Los desarrolladores ahora pueden realizar búsquedas en múltiples tiendas vectoriales y aplicar el filtrado basado en atributos para recuperar solo el contenido más relevante.

Esto mejora la precisión del uso de los agentes de la información, mejorando su capacidad para responder preguntas complejas y operar dentro de grandes dominios de conocimiento.

Nuevas empresas de fiabilidad, características de transparencia

Varias características están diseñadas específicamente para satisfacer las necesidades empresariales. El modo de fondo permite tareas asincrónicas de larga duración, abordando problemas de tiempos de espera o interrupciones de la red durante el razonamiento intensivo.

Los resúmenes de razonamiento, una nueva adición, ofrecen explicaciones en idioma natural del proceso de pensamiento interno del modelo, ayudando con la depuración y la transparencia.

Los elementos de razonamiento cifrados proporcionan una capa de privacidad adicional para clientes de retención de datos cero.

Estos permiten a los modelos reutilizar los pasos de razonamiento anteriores sin almacenar ningún dato en los servidores Operai, mejorando tanto la seguridad como la eficiencia.

Las últimas capacidades son compatibles con la serie GPT-4O de Openai, la serie GPT-4.1 y los modelos O-Series, incluidos O3 y O4-Mini. Estos modelos ahora mantienen el estado de razonamiento en múltiples llamadas y solicitudes de herramientas, lo que conduce a respuestas más precisas a un costo y latencia más bajos.

¡El precio de ayer es el precio de hoy!

A pesar del conjunto de características ampliada, OpenAI ha confirmado que los precios de las nuevas herramientas y capacidades dentro de las respuestas API seguirán siendo consistentes con las tasas existentes.

Por ejemplo, la herramienta de intérprete de código tiene un precio de $ 0.03 por sesión, y el uso de búsqueda de archivos se factura a $ 2.50 por 1,000 llamadas, con costos de almacenamiento de $ 0.10 por GB por día después del primer gigabyte gratuito.

El precio de búsqueda web varía según el tamaño del modelo y el tamaño del contexto de búsqueda, que oscila entre $ 25 y $ 50 por cada 1,000 llamadas. La generación de imágenes a través de la herramienta GPT-Image-1 también se cobra de acuerdo con la resolución y el nivel de calidad, a partir de $ 0.011 por imagen.

Todo el uso de la herramienta se factura a las tarifas por juicio del modelo elegido, sin un marcado adicional para las capacidades recientemente agregadas.

¿Qué sigue para la API de respuestas?

Con estas actualizaciones, OpenAI continúa expandiendo lo que es posible con la API de respuestas. Los desarrolladores obtienen acceso a un conjunto más rico de herramientas y funciones listas para la empresa, mientras que las empresas ahora pueden construir aplicaciones más integradas, capaces y seguras de IA.

Todas las características están en vivo a partir del 21 de mayo, con detalles de precios e implementación disponibles a través de la documentación de OpenAI.

Continue Reading

Noticias

Las nuevas funciones de Google AI no tienen coincidencia

Published

on

Después de la E/S 2024 del año pasado, que se dedicó a las nuevas características de Gemini AI, al igual que la nota clave de E/S 2025 de ayer, me pregunté quién ganó el duelo de IA que acabábamos de presenciar. El año pasado, OpenAi emboscó brillantemente a Google con un evento de ChatGPT masivo alojado un día antes de la nota clave de E/S.

Operai venció a Google hasta el golpe, dando características multimodales de ChatGPT y un modo de voz antes de que Google dio a conocer características similares para Gemini. Al mismo tiempo, dije el año pasado que la nota clave de E/S 2024 se sintió como un tour de Force de Google cuando se trata de las habilidades de Gemini AI. Realmente no había nada más que importara en el evento del año pasado que no sea Géminis.

Un evento de ChatGPT no precedió a la E/S 2025 de este año. No hay batalla por el centro de atención entre ChatGPT y Google. Pero dado lo que vimos el martes de Sundar Pichai & Co., no sé qué OpenAi podría haber lanzado antes del evento de Google para hacernos ignorar todas las novedades de IA con gemini que Google presentó.

La E/S 2025 fue una exhibición de fuerza aún mayor que el año pasado. Géminis es aún más poderoso y más rápido que antes. También está obteniendo una integración más profunda en las aplicaciones y servicios de Google, por lo que es una herramienta más útil para cualquier persona entusiasmada con la IA, incluso un poco.

La mejor parte es que Google presentó un montón de características de IA emocionantes que no tienen equivalentes de OpenAI. Debería saber. No es solo que he estado cubriendo ChatGPT y todas las noticias de IA por un tiempo, pero ChatGPT es mi IA predeterminada en este momento. Y envidio varias novedades de Géminis que Operai no puede igualar.

Algunos de ellos son obvios, y me refiero a los lazos entre Gemini y Google, algo OpenAi no puede igualar. Y algunas de las características de Géminis que Google dio a conocer no están listas para un lanzamiento comercial amplio. Eso no cambia el hecho de que Google está tomando una gran ventaja sobre ChatGPT, y no puedo evitar preguntarme cómo responderá OpenAi.

Pensar profundamente

Gemini 2.5 Pro Deep Think Feature Tops Benchmarks. Fuente de la imagen: Google

Hemos tenido un profundo apoyo de investigación en ChatGPT y Gemini durante meses, y me encanta la funcionalidad. La IA puede entregar informes detallados sobre cualquier tema mediante la realización de investigaciones en profundidad.

Google está listo para ir un paso más allá con Gemini Deep Think, un modo de razonamiento mejorado que le dará a Gemini la capacidad de proporcionar respuestas aún mejores.

Profunde Think todavía está en la fase de prueba de evaluación de seguridad, y no está disponible para la mayoría de los usuarios de Géminis.

Agentes de IA en todas partes

No me gustó Project Mariner cuando salió en diciembre, y ciertamente favorecí al operador de OpenAI sobre la implementación de Google. Sin embargo, Google ha mejorado significativamente Project Mariner, y el agente de IA ha recibido poderes masivos, al menos según lo que vimos ayer.

La mejor parte es que Google enviará agentes de IA en varios productos. Por ejemplo, el modo de IA de búsqueda de Google podrá monitorear la web para obtener los cambios de precios para el producto que desea comprar y permitirle comprar el artículo que desee.

En Gemini Live, los agentes de IA dejarán que Gemini llame a las empresas para los usuarios, mientras que la IA continúa interactuándose con usted y colocará pedidos en línea para los bienes. La IA también puede navegar por la web para encontrar la información que necesita, desplazarse por los documentos y ver el mundo que lo rodea mientras interactúa con usted a través de la voz.

Géminis en vivo

Gemini Live se está convirtiendo en el tipo de asistente de IA que estamos acostumbrados a ver en las películas. Mire la demostración a continuación que Google ofreció en E/S para tener una idea de lo que Gemini Live hará para el usuario una vez que Google esté listo para lanzar estas nuevas funciones de Project Astra.

No es solo un comportamiento de agente, como hacer llamadas en su nombre o comprar productos. La IA puede obtener información de otras aplicaciones de Google, es consciente del historial del usuario y puede manejar a varias personas que hablan en la habitación sin perder el seguimiento de la tarea en cuestión.

La mayoría de estas capacidades aún no están llegando a Gemini Live, pero están más allá de lo que Operai puede hacer con ChatGPT. Operai también quiere que ChatGPT se convierta en su asistente y sepa todo sobre usted para proporcionar mejores respuestas. Pero la compañía no puede integrar ChatGPT con otras aplicaciones que proporcionan esos datos sobre usted, como lo hace Google.

Ya dije que tengo envidia sobre las nuevas capacidades de Gemini Live, y me pregunto cuándo y si OpenAi lanzará un producto similar.

Mientras espera a que Gemini Live obtenga todas las nuevas funciones, puede usar la cámara y las habilidades de intercambio de pantalla de forma gratuita ahora mismo en Android y iPhone.

Cuando Operai presentó al operador, mostró al mundo lo que el agente de IA que viene a Chatgpt podría hacer en situaciones de la vida real. Eso implicó buscar cosas para comprar para el usuario, ya sea un producto real o hacer una reserva.

Medio año después, el operador permanece disponible solo para los usuarios de ChatGPT Pro, pero no puedo justificar el nivel de $ 200/mes en este momento.

Mientras tanto, Google ha traído un agente de IA a la búsqueda de Google y la ha empacado en modo AI. El modo AI con Gemini con Gemini le permitirá encontrar cosas para comprar, incluso si usa un lenguaje de conversación en lugar de un mensaje específico. Chatgpt también puede hacer eso.

Pero el modo AI tendrá una función “Comprar para mí” que le permite instruir a la IA que monitoree el precio de un producto. La IA le notificará cuándo cae el precio y ofrece comprarlo por usted. Chatgpt no puede hacer nada de eso.

Luego está la función “Prueba en” “que es simplemente alucinante y el mejor uso de la IA en productos como la búsqueda en línea hasta ahora. Encuentre un artículo de ropa que le guste, suba una foto reciente de usted mismo, y un modelo especial de IA determinará cómo se verá usando esa ropa.

El modo AI también le permitirá encontrar y comprar boletos para eventos, hacer reservas de restaurantes y programar otras citas. Chatgpt no puede hacer nada de eso por ti.

Personalización

Claro, hay implicaciones de privacidad para usar características del modo AI como las anteriores. Y no soy un gran admirador de entregar ninguno de mis datos personales o acceder a ellos a la IA. Pero tendré que hacer eso una vez que esté listo para adoptar un modelo de IA como asistente que sepa todo sobre mí y pueda acceder a mis datos, ya sean conversaciones por correo electrónico y chat, documentos o información de pago.

Otras personas no se sentirán así, y si no tienen ningún problema con la IA acceder a datos de otras aplicaciones, querrán ver qué está haciendo Google con Gemini.

GEMINI: Personalización por correo electrónico de Gmail basada en el estilo de escritura del usuario.
GEMINI: Personalización por correo electrónico de Gmail basada en el estilo de escritura del usuario. Fuente de la imagen: Google

Una de las mejores demostraciones en E/S fue Gemini escribiendo un correo electrónico en Gmail utilizando el tono del usuario y surgir la información correcta de otras aplicaciones de Google, ya sean documentos o fotos.

Del mismo modo, Gemini Live podría acceder a los datos de Gmail en el ejemplo anterior para encontrar la información que el usuario necesitaba, y recordaba al perro del usuario para una búsqueda en Internet.

GEMINI: Personalización por correo electrónico de Gmail basada en el historial de correo electrónico.
GEMINI: Personalización por correo electrónico de Gmail basada en el historial de correo electrónico. Fuente de la imagen: Google

Incluso el modo AI puede ofrecer sugerencias personalizadas basadas en sus búsquedas pasadas si lo desea. También puede conectarse a Gmail para un contexto más personal.

ChatGPT no puede hacer nada de eso porque no tiene su propio conjunto de aplicaciones complementarias. Y conectarse a aplicaciones de terceros podría ser más difícil.

Fluir

OpenAI le permite generar video con Sora, y puede comenzar directamente desde ChatGPT, pero el flujo de Google es, sin duda, uno de los grandes aspectos destacados de E/S 2025 y probablemente un paso por encima de Sora.

El flujo te permite generar videos increíbles con audio. Ofrecen consistencia de carácter y escena, y puede continuar editando su proyecto fuera del programa AI.

De todas las características anunciadas en la E/S 2025, el flujo podría ser el más fácil para que Operai coincida.

Traducción en tiempo real

Google no es el primero en ofrecer una traducción en tiempo real con IA. La característica ha sido uno de los productos básicos de Galaxy AI, con Samsung mejorando a lo largo de los años. ChatGPT también puede comprender y traducir idiomas para usted.

Pero Google está trayendo la traducción en tiempo real con Gemini a aplicaciones de chateo de video como Google Meet. Eso es algo que Chatgpt no puede hacer.

La función es aún mejor en el hardware con Gemini, como la próxima ola de dispositivos Android XR.

El hardware Géminis

Esto me lleva a los primeros dispositivos desarrollados con Gemini en el núcleo: AR/AI de Google y lentes inteligentes solo. I/o 2025 finalmente nos dio las demostraciones públicas que nos faltamos. Hubo problemas técnicos, y la conectividad a Internet definitivamente afectó el rendimiento, pero las demostraciones mostraron que estos wearables de IA funcionaban.

Veremos gafas Android XR en las tiendas a finales de este año, y serán el dispositivo perfecto para usar AI. Sí, Meta tiene sus gafas Ray-Ban Meta Smart que hacen lo mismo con Meta AI. Pero todo lo que dije sobre las nuevas potencias de Google Gemini hace que las gafas de Android XR sean aún más emocionantes, al menos en teoría.

OpenAi no puede igualar eso. No hay gafas inteligentes de primera parte que ejecuten chatgpt de forma nativa. Estoy seguro de que dicho producto vendrá de Jony Ive y Co. en los próximos años, y el hardware ChatGPT valdrá la pena. Pero Google está llegando allí primero, y ciertamente está llamando la atención en el proceso.

Continue Reading

Trending