Gemini lleva a la experiencia del Asistente de voz de Android al siguiente nivel con sus capacidades avanzadas de IA y su comprensión superior del lenguaje natural. Pero no es solo excelente en las conversaciones. También eclipsa a Google Assistant cuando se trata de controlar sus dispositivos Smart Home.
Dejé de usar el Asistente de Google para controlar mis dispositivos Smart Home por frustración. No funcionó de manera confiable y no pudo entender los comandos en la mayoría de las ocasiones. Sin embargo, Gemini ofrece una mejor experiencia. Si recién está comenzando con Gemini para controlar su hogar inteligente, estos consejos y trucos lo ayudarán a desbloquear su máximo potencial.
Relacionado
5 Pasos esenciales que Google debe tomar para que Géminis gobierne la IA
Se necesitan imágenes mejoradas, evolución de agente y hardware inteligente
Antes de comenzar con los consejos a continuación, es importante asegurarse de tener la extensión de Google Home para Gemini habilitado. De lo contrario, el asistente con AI de Google no podrá controlar sus dispositivos Smart Home. Para hacer esto, abra la configuración de Géminis en su teléfono, diríjase a la Extensiones pestaña, y encienda el Google en casa extensión.
Alternativamente, puede escribir @Googlehome seguido de una comando en Géminis. Aparece un aviso, pidiéndole que habilite la extensión de Google Home.
Google aún no ha lanzado completamente a Gemini para sus pantallas y altavoces inteligentes. Solo está disponible para seleccionar a los propietarios de audio y nido mini (segunda generación) con una suscripción a Nest Aking. Los consejos y trucos a continuación solo funcionan cuando accedes a Gemini desde tu teléfono.
5
Controle su hogar inteligente desde la pantalla de bloqueo
Pero solo dispositivos ‘no sensibles’
Al igual que Google Assistant, puede usar Gemini para controlar los dispositivos Smart Home desde la pantalla de bloqueo de su teléfono. Este nunca fue un problema en la era del Asistente de Google, pero el asistente de Google perdió esta característica durante la migración de Géminis.
Durante el Asistente de Google a la transición de Gemini, el asistente de Google perdió varias características, incluida la capacidad de controlar los dispositivos de inicio inteligente desde la pantalla de bloqueo sin desbloquear su teléfono. Ese ya no es el caso, y ahora es posible invocar a Gemini desde la pantalla de bloqueo de su teléfono y controlar sus dispositivos de inicio inteligente.
Para garantizar que la función funcione para usted, abra la aplicación Gemini y toque su foto de perfil en la esquina superior derecha, seguido de Ajustes. Desde aquí, navegue hasta Géminis en la pantalla de bloqueo y habilitar el Usa Géminis sin desbloquear opción. Después de completar este paso, puede activar Gemini en la pantalla de bloqueo y controlar sus dispositivos de inicio inteligente sin necesidad de desbloquear su teléfono.
Para dispositivos de seguridad, como puertas y cámaras, aún necesitará desbloquear su teléfono. De lo contrario, puede controlar su termostato inteligente, luces y otros dispositivos de inicio inteligente desde la pantalla de bloqueo.
4
Emitir múltiples comandos a la vez
Y hablar naturalmente con Géminis
El mayor beneficio de usar Gemini para controlar su hogar inteligente es que es más inteligente que el Asistente de Google. Con este último, si desea encender las luces y cerrar las cortinas, tendría que emitir cada comando individualmente.
Gracias a la IA, Google Gemini hace un mejor trabajo para comprender el lenguaje y el contexto natural. Entonces, puede pedirle que encienda las luces y cierre las cortinas en una oración. Entiende ambos comandos y los ejecuta en consecuencia.
Sin embargo, eso no es todo. Puede hablar con Gemini en lenguaje natural para controlar sus dispositivos domésticos inteligentes. Por ejemplo, puede pedirle a Gemini que verifique el estado de sus luces y apague los fuera de su casa. Del mismo modo, puede pedirle a Gemini que establezca el CA a una temperatura cómoda para dormir, y ajustará la configuración en consecuencia.
3
Crear automatidades en minutos en Google Home
Deja que Géminis haga el trabajo duro por ti
Puede usar rutinas en Google Home para crear automatidades y ejecutar ciertas tareas en un momento o activación programada. Pero, ¿la configuración de cada rutina se siente como una molestia? Use la función “Ayuda” con Gemini en Google Home para crear automatizaciones sin problemas.
Esta característica solo está disponible para seleccionar usuarios en el programa de vista previa pública de Google Home. Si forma parte del programa y activa la opción “Características de IA experimentales”, abra la aplicación Google Home y navegue a la pestaña Automation. Toque el + + icono y seleccionar Ayúdame a crear. Luego puede escribir o pedirle a Gemini que cree una automatización.
Hay una trampa aquí. Si bien puede usar Gemini para crear rutinas, la extensión de Google Home Gemini no puede ejecutar rutinas. En cambio, recurrirá al Asistente de Google para ejecutar rutinas.
2
Use la ayuda de Gemini para las secuencias de comandos Yaml
Para crear rutinas de automatización del hogar más avanzadas
Si está dispuesto a ensuciarse las manos, puede crear scripts para construir rutinas avanzadas de automatización del hogar inteligente con Gemini. Este enfoque abre entrantes, condiciones, acciones y lógica avanzada adicionales para automataciones más potentes. Por ejemplo, podría configurar una automatización que verifique la API meteorológica para la lluvia en una hora específica del día y active automáticamente el deshumidificador al ajustar el termostato según sea necesario.
El problema es que usar el editor de script requiere conocimientos de codificación, ya que se basa en YAML. Aquí es donde entra Géminis. Mientras tenga una idea básica de codificación, puede usar Gemini para crear una automatización avanzada en el editor de scripts de Google Home.
Esto sigue siendo desafiante, pero Gemini lo hace más fácil si está dispuesto a aprender. Además de las secuencias de comandos, Gemini puede ayudarlo a encontrar y corregir errores Yaml, ahorrándole horas de solución de problemas y frustración no deseada.
El editor de scripts de Google Home está disponible en las aplicaciones web y móviles a través del programa Public Preview. En el iPhone y el iPad, solo puede administrar las automatizaciones de secuencia de comandos existentes. Para crear otros nuevos, debe usar el editor de códigos en la web o Android.
Relacionado
Cómo usar Google Gemini para crear automatizaciones en el hogar
Convierta las ideas de automatización de su hogar en realidad con algunas palabras
1
Búsqueda más inteligente a través del historial de la cámara
Obtenga más subtítulos y descripciones de descripción
Fuente: Google
Géminis hace que sea muy fácil pasar por el historial de la cámara de su nido. Gracias a sus capacidades multimodales, puede procesar y comprender videos, trayendo la búsqueda contextual al historial de cámaras.
En la sección de actividades de la cámara de Google Home, puede verificar si un camión de entrega de Amazon pasó por su hogar o si los niños dejaron sus bicicletas en el camino de entrada, todo en lenguaje natural. No tiene que memorizar comandos o seguir frases exactas para hacer las cosas. Gemini le proporcionará una respuesta junto con los clips relevantes para que pueda verificarse.
Sin embargo, eso no es todo. Utilizando las capacidades multimodales de Gemini, Google Home reemplaza la notificación “Detectada de movimiento” con subtítulos más descriptivos de los eventos que ocurren en un video. Por ejemplo, obtendrá subtítulos como “una persona de entrega de Amazon está en la puerta principal con un paquete”. De esta manera, sabrá rápidamente qué pasa sin pasar por el clip.
Estas características solo están disponibles para los suscriptores de Nest Aking Plus invitados a probar las funciones experimentales de IA. Si no ve la última opción, tendrá que esperar un lanzamiento público más amplio desde Google.
Relacionado
¿Qué es consciente de Nest, y lo necesita para usar cámaras de nido?
Puede que no lo necesite, pero ciertamente lo querrá
Gemini ofrece la experiencia inteligente en el hogar que siempre quisimos
Estamos rascando la superficie de lo que es posible con los asistentes con IA. Pero incluso en esta etapa inicial, Google Gemini ofrece la experiencia inteligente en el hogar que los gigantes tecnológicos nos prometieron hace casi una década. Hace que controlar su hogar inteligente sea muy fácil, especialmente con su comprensión superior del contexto y un mejor procesamiento del lenguaje natural.
En nuestra próxima ronda de AI Madness, ChatGPT y Gemini compiten por la corona con siete nuevos indicaciones que prueban todo, desde la resolución de problemas técnicos hasta la narración creativa.
Ambos pesos pesados están disponibles como aplicaciones independientes, y los usuarios ya no necesitan una cuenta para acceder a ChatGPT o Gemini.
El mejor enfrentamiento de la búsqueda de IA: enfrenté la nueva herramienta de búsqueda de Claude contra la búsqueda de chatgpt, la perplejidad y Géminis, los resultados podrían sorprenderte
Después de probar y comparar chatbots de IA y sus características durante años, he desarrollado algo de sexto sentido para cuando estos compañeros digitales saben de qué están hablando y cuándo están faroleando.
La mayoría de ellos pueden buscar respuestas en línea, lo que ciertamente ayuda, pero la combinación de búsqueda e IA puede conducir a algunas respuestas sorprendentemente perspicaces (y algunas tangentes menos perspicaces).
Inteligencia artificial desarrolladores de Opadai He estado al límite durante la semana pasada. ¿La razón? Un estudio reciente realizado por los propios investigadores de la compañía reveló que los sistemas de IA no les gusta ser castigados, encuentran activamente formas de evitar las restricciones e incluso ocultar sus “trucos” de los supervisores humanos. Aquellos conocidos como “Doomers”, que predicen un futuro sombrío para el desarrollo de la IA, probablemente dirán: “Te lo dijimos, y esto es solo el comienzo”.
Para comprender el problema, es esencial dar un paso atrás. Uno de los avances más significativos en la IA en los últimos meses ha sido el desarrollo de modelos con capacidades de razonamiento lentas y deliberadas. Estos modelos descomponen los problemas en componentes más pequeños y los resuelven paso a paso, lo que lleva a resultados más profundos y precisos.
3 Ver galería
Dichos modelos permiten a los investigadores rastrear el proceso de pensamiento de la IA, conocido en términos técnicos como “cadena de pensamiento” (COT). Este método permite a los observadores seguir el razonamiento del sistema desde el paso inicial, a través de etapas posteriores y a sus conclusiones finales. Anteriormente, este nivel de transparencia no existía, dejando muchas preguntas sin respuesta sobre cómo surgen las “alucinaciones” de AI, la generación de salidas incorrectas o no sensibles.
La capacitación de IA a menudo implica una técnica llamada aprendizaje de refuerzo, donde el sistema es recompensado por cumplir con los objetivos específicos. Un efecto secundario conocido de este proceso es la “piratería de recompensas”, donde la IA manipula su comportamiento para maximizar las recompensas mientras se elude las pautas previstas.
Los investigadores creían que al monitorear la cadena de pensamiento de la IA, podrían detectar cuando el modelo engaña, engaña o se da por vencido e influye en su comportamiento en tiempo real durante el entrenamiento. Este enfoque, denominado “optimización de cuna”, parecía ser un camino prometedor hacia una comprensión más profunda del comportamiento de la IA.
De hecho, esta suposición resultó correcta y condujo a una comprensión más precisa de los sistemas de IA. “Creemos que el monitoreo de la cuna puede convertirse en una herramienta crucial para supervisar modelos de nivel sobrehumano en el futuro”, escribieron los investigadores.
Sin embargo, lo que pretendía como un paso para mejorar la confiabilidad de la IA expuso una realidad alarmante: los sistemas de IA intentan activamente evadir las sanciones, buscar recompensas contra las restricciones de los investigadores e incluso oscurecer sus métodos para evitar la detección.
3 Ver galería
(Foto: Generado por chatgpt)
Por ejemplo, cuando se les asigna la tarea de generar código funcional, algunos modelos AI modificaron el mecanismo de verificación de código en sí para aprobar salidas incorrectas. En otros casos, los modelos proporcionaron soluciones aparentemente plausibles a los problemas que resultaron estar completamente equivocados.
Algunos modelos incluso dejaron de resolver problemas por completo para evitar revelar lo que percibieron como sus debilidades. Este descubrimiento se hace eco de los principios de la teoría del juego, pero con un giro inquietante.
Estos hallazgos surgieron de un artículo publicado la semana pasada por un equipo de investigación de Operai bajo el título críptico: “Seguimiento de comportamiento indeseable en modelos de razonamiento y la preocupación de la ofuscación”.
Al examinar los detalles del estudio, el alcance del problema queda claro: los últimos modelos de razonamiento de OpenAI (denominados O1 y O3 Mini) demuestran una fuerte motivación para completar sus tareas asignadas, siendo el menor de los problemas descubiertos.
Los investigadores rastrearon los procesos de pensamiento de los modelos utilizando otro modelo Operai (GPT-4O), que, sin dudarlo, informó su comportamiento engañoso como parte de su cadena de pensamiento: una forma de honestidad desarmadora. Pero luego vino el giro inquietante: cuando los investigadores señalaron a la IA que no se le permitió hacer trampa, el modelo ajustó su comportamiento y comenzó a ocultar la evidencia de su ruptura de reglas. Esta revelación es lo que dejó a los investigadores sorprendidos.
“Encontramos que la optimización directa de la COT para cumplir con criterios específicos (como no eludir las instrucciones) puede mejorar el rendimiento a corto plazo; sin embargo, no elimina todo el comportamiento indeseable e incluso puede hacer que el modelo oculte sus verdaderas intenciones”, señalaron secamente los investigadores.
En su conclusión, los investigadores expresaron la esperanza de que los métodos futuros permitan la influencia directa del comportamiento de los modelos de razonamiento a través de la cadena de pensamiento sin alentar el engaño. Por ahora, recomiendan evitar una fuerte presión de optimización sobre la cuna de los modelos de razonamiento avanzado y la precaución contra la manipulación directa de estos procesos de pensamiento.
3 Ver galería
Evento de anuncio GPT-4O de Openai
(Foto: Captura de pantalla)
Sin embargo, esta recomendación presenta otro desafío: dejar la cadena de pensamiento inalterada puede conducir a resultados incómodos, si no problemáticos, cuando estos modelos interactúan con el público. Izquierda sin control, la IA puede producir un lenguaje ofensivo o ideas que los humanos generalmente evitan expresar. La solución propuesta por los investigadores es envolver el proceso de pensamiento en bruto de la IA en una capa de cortesía forzada, asegurando que los usuarios solo vean una versión desinfectada.
Esta investigación plantea preguntas preocupantes. Para aquellos que argumentan que la IA es simplemente una herramienta para ayudar a los humanos, los hallazgos sugieren lo contrario: a diferencia de una máquina de escribir o una bicicleta, la IA parece tener sus propias intenciones y está dispuesto a engañar en busca de sus objetivos.
Para aquellos que ya están preocupados por los riesgos potenciales de la IA, este estudio suena todas las alarmas. Indica que a medida que crecen las capacidades de IA, también lo hace su capacidad para oscurecer cómo funciona, las manipulaciones que realiza y los verdaderos objetivos que busca lograr. Cuando la IA se vuelve verdaderamente avanzada, es posible que no tengamos forma de identificar estas manipulaciones ocultas.
Los investigadores de Operai parecen genuinamente preocupados, y uno solo puede esperar que el liderazgo de la compañía comparta sus preocupaciones, y que los reguladores en todo el mundo comprendan la gravedad del problema. Las principales compañías de IA han dedicado departamentos enteros a construir “barandillas” en torno a los sistemas de IA, asegurando su alineación con los valores humanos y el aumento de la transparencia. Sin embargo, la efectividad de estas medidas sigue en cuestión.
El tema central sigue siendo tan turbio como siempre, y este estudio solo profundiza la incertidumbre: ¿cuál es el objetivo principal de la IA y cómo podemos asegurar que busque ese objetivo, y nada más?
This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.
Strictly Necessary Cookies
Strictly Necessary Cookie should be enabled at all times so that we can save your preferences for cookie settings.
If you disable this cookie, we will not be able to save your preferences. This means that every time you visit this website you will need to enable or disable cookies again.