Connect with us

Noticias

Asistente de viaje para el viaje de Tokio

Published

on

Hace dos años, decidí cuidarme mejor y (re) comenzar a correr a larga distancia. Entrené para correr las carreras de media maratón nuevamente, y luego me di cuenta de que las carreras de maratón estaban al alcance. Ahora he corrido varias carreras de media maratón, y esa distancia ahora es parte de mi horario regular de fin de semana. He completado tres maratones y no voy a parar.

Siempre podría correr sin entrar en carreras, pero hay un gran efecto secundario de unir competencias que me encantan: el viaje que lo acompaña. Con las carreras de maratón, reservé unos días de recuperación justo después de la carrera, que solía hacer turismo.

Te digo todo eso porque acabo de correr el maratón de Tokio, que fue increíble y un poco más duro de lo que había planeado. Pero no estoy a punto de decirte qué salió bien e mal y qué tipo de tecnología usé. Lo hice con carreras anteriores.

Te mostraré cómo utilicé ChatGpt Deep Investigating para visitar Tokio la semana después de la carrera y aprovecharlo al máximo. Ahora que he usado el agente de IA de Operai como asistente de viaje, me doy cuenta de lo increíble que es tener IA a su alcance para ayudarlo a planificar su próximo viaje de esa manera.

Usé ChatGPT para prepararme para el viaje mucho antes de obtener un acceso profundo de investigación. La función se lanzó hace solo unas semanas y era exclusivo de los usuarios de ChatGPT Pro. Esa es la suscripción CHATGPT de $ 200/mes, que no puedo justificar para mis necesidades actuales. Esperé a que Operai lo pusiera a disposición del ChatGpt Plus Tier, que cuesta una décima parte de eso.

Cuando un amigo preguntó qué visitaría en Japón, le dije que ya tenía chats con chatgpt al respecto, pero no tenía un plan específico. Todo dependía de cómo iría la carrera de maratón y cómo me sentiría en los días siguientes.

En ese momento, no tenía idea de que la investigación profunda estaría disponible durante mi estadía en Tokio. Pero sabía que integraría las visitas al museo en mi viaje, ya que eso es algo que siempre hago cuando viajo.

Mi chat Chatgpt sobre Tokyo Travel comenzó con una simple solicitud para GPT-4O. Fuente de la imagen: Chris Smith, BGR

Mi primer aviso para chatgpt (GPT-4O) fue extremadamente simple. Pedí una lista de los mejores museos de Tokio. Quería todos los detalles sobre cada uno de ellos, incluido su tamaño. En los días posteriores a las carreras de maratón, reduciré mi caminar significativamente para darle tiempo a mis piernas para recuperarme, por lo que mi prioridad era visitar lugares que no requerirían tanta caminata.

Como puede ver arriba, ChatGpt me dio las respuestas que necesitaba. Enumeró 20 sugerencias, aunque no solicité un número específico.

Antes de que los programas de IA generativos como ChatGPT fueran una cosa, habría abordado este problema comprando una guía (en impresión o aplicación) y buscando blogs de viajes para sugerencias. Pero ahora que ChatGPT existe, ignoré todo eso y confié en la IA para que surgiera la información que necesitaba.

Estaba trabajando con este chat en Tokio cuando las investigaciones profundas estuvieron disponibles para mi cuenta. Una vez más, soy un usuario de Chatgpt Plus en Europa, así que tuve que esperar un tiempo para que Operai trajo una investigación profunda a mi cuello del bosque.

Hablando de ubicación, ChatGPT no está disponible en Japón. Use una VPN mientras esté allí, y no tendrá problemas para acceder a la IA.

Mi solicitud inicial de investigación de investigación de chatgpt profunda.
Mi solicitud inicial de investigación de investigación de chatgpt profunda. Fuente de la imagen: Chris Smith, BGR

Cuando apareció el botón de investigación profunda en el compositor de chatgpt, cambié mi estrategia. Comencé una charla diferente y le di a la IA un aviso más detallado.

Le pedí a ChatGPT que me proporcionara una lista de 20 museos para visitar durante un viaje de 7 días. La distancia a pie era una prioridad, pero también le dije a la IA que considerara pases de viaje locales que me darían acceso gratuito o más barato a estos museos. También le dije a ChatGPT que incluyera atracciones que no están cubiertas por pases para no perder otras opciones emocionantes.

Chatgpt se fue a trabajar después de responder a sus preguntas.
Chatgpt se fue a trabajar después de responder a sus preguntas. Fuente de la imagen: Chris Smith, BGR

La investigación profunda se puso a trabajar, pero solo después de hacer algunas preguntas adicionales. Chatgpt quería saber qué tipo de museos prefería, si quería exhibiciones interactivas y si el pase de viaje debería cubrir el transporte público además de las tarifas de los museos. Respondí las preguntas y una investigación profunda se puso a trabajar mientras me preparaba para mi día.

La investigación tardó 17 minutos en completarse, con ChatGPT inspeccionando 52 fuentes para darme una guía detallada del Museo de Tokio que satisfaga mis necesidades.

El informe detallado estaba disponible después de 17 minutos de investigación.
El informe detallado estaba disponible después de 17 minutos de investigación. Fuente de la imagen: Chris Smith, BGR

El informe resultante fue increíble y abrumador al mismo tiempo. Revisé las recomendaciones sobre el desayuno, tratando de descubrir cómo hacerlas en buen estado.

¿Adivina lo que debes hacer una vez que ChatGPT te compila una guía de viaje de este tipo? Haga más preguntas. Eso es lo que hice. Primero, le dije a la IA que organizara los museos por tipo de pase. Luego, comencé a hacer preguntas sobre ubicaciones. También quería ser lo más eficiente posible cuando me mudé de un lugar a otro.

Por ejemplo, quería visitar los Jardines Imperiales, así que le dije a la IA que me diera los museos más cercanos clasificados al descender el tiempo de cierre de la lista de investigación profunda.

Seguí charlando con Chatgpt sobre los datos en el informe de investigación profunda.
Seguí charlando con Chatgpt sobre los datos en el informe de investigación profunda. Fuente de la imagen: Chris Smith, BGR

También le pedí a ChatGPT que organizara los museos cerca del otro para poder descubrir itinerarios diarios. Nuevamente, quería ser lo más eficiente posible y aprovechar al máximo cada día. No quería caminar más de lo necesario entre lugares, especialmente en una ciudad masiva como Tokio.

Podría haberle dicho al ChatGPT que creara itinerarios para mí, pero no quería que la IA dictara completamente cómo pasaría mis días en Tokio.

Mi punto es que la investigación de ChatGPT profunda puede ser un recurso inesperado para todo tipo de cosas. La mejor parte es que Deep Research ofrece muchos enlaces, que usé para obtener boletos e información sobre algunos de los museos de la lista.

Me di cuenta de que quería agrupar museos por Promixity.
Me di cuenta de que quería agrupar museos por Promixity. Fuente de la imagen: Chris Smith, BGR

ChatGPT también puede continuar con la conversación sobre ese profundo informe de investigación para todas sus preguntas de seguimiento. Esa es en realidad una característica clave para aprovechar. El informe inicial debe ser solo un punto de partida.

Piense en ello como poder hacer una guía de viaje o un blog preguntas específicas sobre la información que acaba de leer sobre el país o la ciudad que está a punto de visitar.

Esa es solo una forma de usar investigaciones profundas, y solo comencé a explorar este agente de IA ChatGPT. Convertir el chatgpt en un agente de viajes improvisado es algo que tendré en cuenta para todos mis futuros viajes en ejecución.

Por cierto, ChatGPT es una de las razones por las que he podido ejecutar tantos medios maratones y maratones en los últimos dos años. Usé AI para crear planes de entrenamiento mucho antes de que los agentes de IA fueran una cosa.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Chatgpt puede ayudar a escribir un ensayo. Los científicos quieren que comience a doblar la ropa

Published

on

STANFORD, California. – La inteligencia artificial puede encontrarle una receta o generar una imagen, pero no puede colgar una imagen en una pared o cocinar su cena.

Chelsea Finn quiere que eso cambie. Finn, ingeniero e investigador de la Universidad de Stanford, cree que la IA puede estar en la cúspide de impulsar una nueva era en robótica.

“A largo plazo queremos desarrollar un software que permita a los robots operar de manera inteligente en cualquier situación”, dice ella.

Una compañía que cofundó ya ha demostrado un robot AI de uso general que puede doblar la ropa, entre otras tareas. Otros investigadores han demostrado el potencial de IA para mejorar la capacidad de los robots para hacer todo, desde clasificación de paquetes hasta carreras de drones. Y Google acaba de dar a conocer

Un robot con IA que podría empacar un almuerzo.

Pero la comunidad de investigación se divide sobre si las herramientas generativas de IA pueden transformar la robótica de la forma en que han transformado algún trabajo en línea. Los robots requieren datos del mundo real y enfrentan problemas mucho más difíciles que los chatbots.

“Los robots no se convertirán de repente en este sueño de ciencia ficción de la noche a la mañana”, dice Ken Goldberg, profesor de UC Berkeley. “Es realmente importante que la gente entienda eso, porque todavía no estamos allí”.

Sueños y decepción

Hay menos partes de la ciencia e ingeniería que tienen una mayor brecha entre la expectativa y la realidad que la robótica. La misma palabra “robot” fue acuñado por Karel čapek, un escritor de Czeck que, en la década de 1920, escribió una obra que imaginaba seres humanos que podían llevar a cabo cualquier tarea que su dueño ordenara.

En realidad, los robots han tenido muchos problemas para hacer trabajos triviales. Las máquinas están en su mejor momento cuando realizan movimientos altamente repetitivos en un entorno cuidadosamente controlado, por ejemplo, en una línea de ensamblaje automotriz dentro de una fábrica, pero el mundo está lleno de obstáculos inesperados y objetos poco comunes.

En el Laboratorio de Finn en la Universidad de Stanford, el estudiante graduado Moo Jin Kim demuestra cómo los robots con AI al menos tienen el potencial de solucionar algunos de esos problemas. Kim ha estado desarrollando un programa llamado “OpenVLA

“Que significa visión, lenguaje, acción.

“Es un paso en la dirección de ChatGPT para la robótica, pero todavía hay mucho trabajo por hacer”, dice.

Moo Jin Kim establece un robot a IA en la Universidad de Stanford.

/

El robot en sí parece bastante poco notable, solo un par de brazos mecánicos con pinzas. Lo que lo hace diferente es lo que hay dentro. Los robots regulares deben estar cuidadosamente programados. Un ingeniero tiene que escribir instrucciones detalladas para cada tarea. Pero este robot funciona con una red neuronal de IA enseñable. La red neuronal opera cómo los científicos creen que el cerebro humano podría funcionar: los “nodos” matemáticos en la red tienen miles de millones de conexiones entre sí de una manera similar a la forma en que las neuronas en el cerebro están conectadas. “Programación” de este tipo de red se trata simplemente de reforzar las conexiones que importan y debilitar las que no lo hacen.

En la práctica, esto significa que Kim puede entrenar al modelo OpenVLA cómo hacer un montón de tareas diferentes, simplemente mostrándolo.

Se unen al robot un par de joysticks que controlan cada brazo. Para entrenarlo, un operador humano usa los joysticks para “titiriteros” al robot, ya que hace una tarea deseada.

“Básicamente, me gusta la tarea que quieras que hagas, sigues haciéndolo una y otra vez como 50 veces o 100 veces”, dice.

Esa repetición es todo lo que se requiere. Las conexiones entre nodos en la red neuronal de IA del robot se refuerzan cada vez que se muestra la acción. Pronto puede repetir la tarea sin el titiritero.

Para demostrar, Kim saca una bandeja de diferentes tipos de mezcla de senderos. Ya lo ha enseñado a recoger. Ahora quiero parte de la mezcla que tiene M&M y nueces verdes, y todo lo que tengo que hacer es preguntar.

“Saca algunos verdes con las nueces en el tazón”, escribo. Muy lentamente, los brazos del robot se ponen en acción.

En una feed de video, Openvla coloca una estrella sobre el contenedor correcto. Eso significa que la primera parte del modelo, que tiene que tomar mi texto e interpretar su significado visualmente, ha funcionado correctamente.

No siempre, dice Kim. “Esa es la parte en la que aguantamos la respiración”.

Luego, lentamente, vacilante, se extiende con su garra, toma la primicia y obtiene la mezcla de senderos.

“¡Parece que está funcionando!” dice Kim con entusiasmo.

Es una cucharada muy pequeña. Pero una cucharada en la dirección correcta.

Cualquier cosa bots

El investigador de Stanford, Chelsea Finn, ha cofundado una empresa en San Francisco llamada inteligencia física

que busca llevar este enfoque de entrenamiento al siguiente nivel.

Ella imagina un mundo en el que los robots pueden adaptarse rápidamente para hacer trabajos simples, como hacer un sándwich o reabastecer en los estantes de comestibles. Contrariamente al pensamiento actual sobre robótica, sospecha que la mejor manera de llegar allí podría ser capacitar a un solo modelo para hacer muchas tareas diferentes.

“De hecho, pensamos que tratar de desarrollar sistemas generalistas tendrá más éxito que tratar de desarrollar un sistema que haga una cosa muy, muy bien”, dice ella.

La inteligencia física ha desarrollado una red neuronal de IA que puede doblar la ropa, recoger granos de café y ensamblar una caja de cartón, aunque la red neuronal que le permite hacer todas esas cosas es demasiado poderosa para estar físicamente en el robot mismo.

“En ese caso, teníamos una estación de trabajo que estaba en el apartamento que calculaba las acciones y luego las envía a través de la red al robot”, dice ella.

Pero el siguiente paso, compilar datos de capacitación para su programa Robot AI, es una tarea mucho más difícil que simplemente recopilar texto de Internet para entrenar un chatbot.

“Esto es realmente difícil”, reconoce Finn. “No tenemos un Internet abierto de datos de robots, por lo que a menudo se trata de recopilar los datos nosotros mismos sobre los robots”.

Aún así, Finn cree que es factible. Además de los entrenadores humanos, los robots también pueden intentar repetidamente hacer tareas por su cuenta y rápidamente desarrollar su base de conocimiento, dice ella.

Dilema de datos

Pero Ken Goldberg de Berkley es más escéptico de que la brecha del mundo real se pueda unir rápidamente. Los chatbots de IA han mejorado enormemente en los últimos años porque han tenido una gran cantidad de datos para aprender. De hecho, han recogido casi todo el Internet para entrenar a sí mismos cómo escribir oraciones y dibujar imágenes.

Ken Goldberg, cofundador de Ambi Robotics y profesor en UC Berkeley.

Ken Goldberg, cofundador de Ambi Robotics y profesor en UC Berkeley.

Niall David Cytryn / Ambi Robotics

Robótica de Ambi

Simplemente construir los datos del mundo real de un mundo de Internet para robots va a ir mucho más lentamente. “A este ritmo actual, tomaremos 100,000 años obtener tantos datos”, dice.

“Diría que estos modelos no van a funcionar de la manera en que están siendo entrenados hoy”, está de acuerdo Pulkit Agrawal, un investigador de robótica en el MIT.

Agrawal es un defensor de la simulación: poner la red neuronal de IA que ejecuta el robot en un mundo virtual y permite que repita tareas una y otra vez.

“El poder de la simulación es que podemos recopilar cantidades muy grandes de datos”, dice. “Por ejemplo, en tres horas de simulación podemos recopilar 100 días de datos”.

Ese enfoque funcionó bien para los investigadores en Suiza que recientemente entrenaron un dron

Cómo competir colocando su cerebro con IA en un simulador y pasando a través de un curso preestablecido una y otra vez. Cuando entró en el mundo real, pudo volar el curso más rápido y mejor que un oponente humano hábil, al menos parte del tiempo.

Pero la simulación tiene sus inconvenientes. El dron funcionó bastante bien para un curso interior. Pero no podía manejar nada que no estaba simulado (viento, lluvia o luz solar, podría arrojar el dron del curso.

Y volar y caminar son tareas relativamente simples para simular. Goldberg dice que realmente recoger objetos o realizar otras tareas manuales que los humanos encuentran que son completamente sencillos son mucho más difíciles de replicar en una computadora. “Básicamente, no hay un simulador que pueda modelar con precisión la manipulación”, dice.

Agarrando el problema

Algunos investigadores piensan que incluso si el problema de los datos puede superarse, los problemas más profundos pueden darle a los robots de IA.

“En mi opinión, la pregunta no es, ¿tenemos suficientes datos … es más lo que es el encuadre del problema”, dice Matthew Johnson-Roberson, investigador de la Universidad Carnegie Mellon en Pittsburgh.

Johnson-Roberson dice que a pesar de todas las increíbles habilidades que muestran los chatbots, la tarea que se les pide que hagan es relativamente simple: mira lo que un usuario humano tipos y luego intenta predecir las próximas palabras que el usuario quiere ver. Los robots tendrán que hacer mucho más que simplemente componer una oración.

“La siguiente mejor predicción de palabras funciona muy bien y es un problema muy simple porque solo está prediciendo la próxima palabra”, dice. Moverse a través del espacio y el tiempo para ejecutar una tarea es un conjunto mucho más grande de variables para que una red neuronal intente procesar.

“No está claro en este momento que puedo tomar 20 horas de imágenes de Go-Pro y producir algo sensato con respecto a cómo un robot se mueve en el mundo”, dice.

Johnson-Roberson dice que cree que se debe hacer una investigación más fundamental sobre cómo las redes neuronales pueden procesar mejor el espacio y el tiempo. Y advierte que el campo debe tener cuidado porque la robótica ha sido quemada antes, por la carrera para construir autos autónomos.

“Tanta capital se apresuró tan rápido”, dice. “Incentivó a las personas para hacer promesas en una línea de tiempo que no podrían cumplir”. Gran parte de la capital dejó el campo, y todavía hay problemas fundamentales para los autos sin conductor que permanecen sin resolver.

Aún así, incluso los escépticos creen que la robótica será cambiada para siempre por AI. Goldberg ha cofundado una compañía de clasificación de paquetes llamada Ambi Robotics que lanzó un nuevo sistema impulsado por la IA conocido como Prime-1 a principios de este año. Utiliza IA para identificar los mejores puntos para que un brazo robótico recoja un paquete. Una vez que tiene el punto de selección establecido por la IA, el brazo, que está controlado por una programación más convencional, hace el agarre.

El nuevo sistema ha reducido drásticamente la cantidad de veces que se eliminan los paquetes, dice. Pero él agrega con una sonrisa: “Si pones esto frente a una pila de ropa, no va a saber qué hacer con eso”.

De vuelta en Stanford, Chelsea Finn dice que está de acuerdo en que las expectativas deben mantenerse bajo control.

“Creo que todavía hay un largo camino para que la tecnología vaya”, dice ella. Tampoco espera que los robots universales reemplacen por completo el trabajo humano, especialmente por tareas complejas.

Pero en un mundo con poblaciones de envejecimiento y escasez de mano de obra proyectada, cree que los robots propulsados ​​por IA podrían cerrar parte de la brecha.

“Estoy imaginando que esto realmente será algo que aumente a las personas y ayude a las personas”, dice ella.

Copyright 2025 NPR

Continue Reading

Noticias

¿Puede el Pixel 9 hacer lo que la IA de iPhone no puede?

Published

on

Soy un usuario de iPhone desde hace mucho tiempo que también está interesado en experiencias de IA como ChatGPT. Hasta la semana pasada, estaba bien con que Apple estuviera detrás de rivales con sus características de inteligencia de Apple. También estaba de acuerdo con esperar a que Apple despliegue sus funciones de IA en Europa.

Pero resulta que la función de inteligencia de Apple que más esperaba, la Siri más inteligente, es Vaporware. De repente, la brecha entre Apple y sus rivales es increíblemente grande.

El paso en falso de AI de Apple es fácilmente el balón suelto más grande de la tecnología de IA desde que ChatGPT se volvió viral a fines de 2022. Las descripción general de la IA de búsqueda de Google, recomendando el pegamento en la pizza, parece una falla menor en comparación. Ojalá Siri Ai pudiera cometer tales errores.

No mencioné a Google accidentalmente. Géminis es una gran victoria para la compañía a la luz del desastre de inteligencia de Apple. Dado el plomo masivo de Google, Gemini siempre fue el producto superior. Pero Apple entregó una visión en WWDC 2024 que ni siquiera Google podría coincidir.

Todas las soluciones generativas de software de IA están llegando a un lugar donde la IA se comporta cada vez más como un asistente personal, donde los agentes de IA hacen cosas en su nombre. Eso fue lo que Apple dijo que Siri haría en iOS 18. Después de la semana pasada, no está claro si tendremos que esperar hasta iOS 19, iOS 20 o más tarde para ese tipo de funcionalidad Siri avanzada en la inteligencia de Apple.

Es por eso que estoy de acuerdo con la toma de John Gruber que Google tiene una oportunidad masiva y potencialmente única de humillar a Apple Intelligence en E/S 2025 en mayo sin mencionar nunca a Apple, el iPhone o la inteligencia de Apple por su nombre. También debería hacerlo totalmente.

Te he dicho durante años cómo el iPhone era esencialmente la Estrella del Norte de Google al diseñar el Pixel. Google a menudo criticaba el iPhone de Apple solo para repetir la misma jugada cuando se trataba de píxeles de próxima generación.

Pero Google ha encontrado lentamente su identidad, y la adición de Géminis ciertamente hace que los teléfonos Pixel sean más convincentes que nunca. Escribí en agosto pasado que el Pixel 9 es la mejor arma de Google contra Apple Intelligence, una granja María contra los iPhones de IA que se acercaban.

Características de Google Gemini disponibles en Pixel 9, Pixel Watch 3 y Pixel Buds Pro 2 en agosto de 2024. Imagen Fuente: Google

Google subió el lanzamiento de Pixel 9 por dos meses para vencer a Apple Intelligence al mercado. Le expliqué cómo la serie Pixel 9 aprovechó un error de cálculo de hardware de Big Apple. Apple Intelligence nos trajo la mayor fragmentación en la historia de iOS, al menos en papel. Los teléfonos como los modelos no profesionales del iPhone 15 no fueron buenos para la IA de Apple.

Esta fragmentación niveló el campo de juego para Google. El Pixel 9 tuvo una gran oportunidad de impresionar a los compradores con características de IA antes de que llegara Apple Intelligence Iphones.

Después de la semana pasada, está claro que Google es el gran ganador cuando se trata de funciones de IA incorporadas en teléfonos. La fragmentación de iOS ni siquiera importa dado que Apple Intelligence, ya que ahora está en iPhone, significa poco para los usuarios de iPhone 15 Pro y iPhone 16. Mientras tanto, el Pixel 9 tiene características de IA incorporadas mucho mejores que Google sigue perfeccionando.

Espero que E/S 2025 se concentre en gran medida en los planes de IA de próxima generación de Google. Eso es lo que sucedió el año pasado y el año anterior. AI es en gran medida la charla de la ciudad en tecnología. Géminis podría ser mucho mejor que la inteligencia de Apple, pero todavía no es la primera IA que viene a la mente. Ese rol todavía está reservado para ChatGPT, mi software Genai en este momento.

Google bien podría alcanzar los problemas de IA de Apple durante la presentación, y Gruber tuvo la mejor manera para que Google lo hiciera. La compañía podría replicar las demostraciones inteligentes de Siri de Apple de WWDC 2024, pero hacerlo con el software Gemini en los teléfonos Pixel 9. Aquí está la cita completa de Gruber:

Lo que haría si trabajara en Google es preparar una demostración en vivo de Google Gemini en un teléfono de píxeles haciendo exactamente lo que Apple mostró en el anuncio del año pasado en WWDC, y luego nuevamente en el comercial de televisión Bella Ramsey que Apple extrajo de YouTube. Algo como esto:

Presentador: Esta es una demostración en vivo, en mi Pixel 9. Necesito recoger a mi madre en el aeropuerto y me envió un correo electrónico con su información de vuelo. [Invokes Gemini on phone in hand…] Géminis, ¿cuándo aterriza el vuelo de mi madre?

GEMINI: El vuelo de tu madre llega a tiempo y llega a la OFS a las 11:30.

Presentador: No siempre recuerdo agregar cosas a mi calendario, por lo que me encanta que Géminis pueda ayudarme a realizar un seguimiento de los planes que he hecho en una conversación casual, como esta reserva de almuerzo que mi madre mencionó en un mensaje de texto. [Invokes Gemini…] ¿Cuál es nuestro plan de almuerzo?

GEMINI: Almorzarás en la barra de agua a las 12:30.

Presentador: ¿Cuánto tiempo nos llevará llegar desde el aeropuerto?

Gemini presenta una ventana emergente de Google Maps Directions que muestra que tomará 21 minutos.

Luego, haga otra demostración en vivo con la “¿Cuál es el nombre del tipo con el que tuve una reunión hace un par de meses en Cafe Grenel?” Ejemplo del comercial de inteligencia de Apple de Apple de Apple. Exactamente las mismas demos, pero reales: en vivo y en el escenario. Estas serían grandes demostraciones incluso si Apple nunca hubiera prometido entregarlas. Pero dado que Apple les prometió para este año, y ahora los ha retrasado hasta “el próximo año”, son devastadores si Google puede mostrarles que realmente trabajan en la línea original de Apple.

¿Puede Géminis hacer todo eso? El modelo actual puede proporcionar al menos parcialmente un comportamiento similar a lo que Apple imaginó para Siri. Géminis puede interactuar con su pantalla y decirle qué hay en ella (círculo para buscar). La IA también está integrada en aplicaciones de Google incorporadas en teléfonos píxeles, como Gmail, mensajes, calendario, mapas y fotos.

Además, Google acaba de anunciar más características de personalización que llegaron a Gemini, comenzando con la capacidad de la IA para ver sus datos de búsqueda de Google.

Personalización de Géminis: Géminis puede explorar su historial de búsqueda de Google si lo permite.
Personalización de Géminis: Géminis puede explorar su historial de búsqueda de Google si lo permite. Fuente de la imagen: Google

Me imagino que cualquier novela de IA que Google muestre en I/O 2025 llevaría a Gemini al siguiente nivel, especialmente si Android XR obtiene un tiempo suficiente en el show. Ese es el sistema operativo AI/AR de Google para gafas inteligentes y computadoras espaciales. Necesita que Gemini sea más personal y actúe como un verdadero asistente antes de poder lanzar gafas inteligentes con funcionalidad de IA avanzada.

Con todo eso en mente, Google puede y debe destruir la inteligencia de Apple en el escenario en E/S. Digo eso como fanático de Apple y alguien que no abandonará el iPhone o el chatgpt a favor de los teléfonos Pixel y Géminis. Apple tiene que sentir esta pérdida y lidiar con todas las consecuencias.

Pase lo que pase, estoy seguro de que Google no fingirá demostraciones de IA en E/S. Lo hizo con las primeras demostraciones de Géminis, y todos se dieron cuenta. Ya sea que se burle de Apple o no, Google seguramente organizará demostraciones en vivo de sus funciones de Pixel AI.

Además, no estoy seguro de que Google pueda burlarse de Apple, como sugiere Gruber sin dejar muy claro que son el iPhone y la inteligencia de Apple de la que se ríen.

Finalmente, también diré que todavía espero que Smart Siri esté disponible en iPhone, iPad y Mac en el futuro, y estoy dispuesto a esperar un tiempo más.

Continue Reading

Noticias

¿Qué quieren los líderes tecnológicos del agente de inteligencia artificial de $ 20KA de Operai?

Published

on

Continue Reading

Trending