Connect with us

Noticias

A medida que entramos en 2025, estas son las principales funciones de Google Gemini lanzadas en 2024

Published

on

2024 fue un gran año para el mundo de la tecnología, especialmente para Google. Comenzó a comercializar la mayor parte de su catálogo de IA bajo la marca Gemini, que representa el chatbot conversacional y sus modelos de IA subyacentes.

El gigante de las búsquedas lanzó muchos productos, funciones y cambios nuevos en el espacio de la IA generativa. Recapitulemos las principales funciones y cambios de Google Gemini introducidos a lo largo del año. En su tiempo libre, consulte varios productos y servicios que Google descontinuará en 2024 y la lista de deseos de funciones de Instagram.

Nota: La lista no es exhaustiva y es posible que no incluya todas las funciones de Gemini lanzadas en 2024.

Cambiar el nombre del chatbot Bard a Gemini

Uno de los cambios más importantes que vimos a principios de este año fue que Google cambió el nombre de Bard a Gemini, sincronizando el esquema de nombres con sus modelos Gemini preexistentes. La compañía también etiquetó el modelo Gemini 1.0 Pro recién horneado y presentó Gemini en más de 40 idiomas y 230 países en todo el mundo.

Un ingeniero de Google reveló más tarde “Por qué Gemini se llama Gemini” y dijo que el modelo de IA tiene un doble significado detrás de su nombre. Su capacidad para manejar diferentes tipos de datos se alinea con la personalidad dual del signo zodiacal Géminis. El nombre también se inspira en el primer programa de disparos a la luna de la NASA llamado Proyecto Gemini.

Aplicaciones móviles, versión paga de Gemini, soporte para Chromebook Plus

Google también presentó la aplicación Gemini para Android en febrero, reemplazando finalmente al Asistente de Google como asistente de voz predeterminado para Android. En ese momento, los usuarios de iOS podían acceder al chatbot Gemini a través de la aplicación de Google.

En el mismo mes, el gigante de las búsquedas lanzó una suscripción paga para su chatbot de IA llamado Gemini Advanced, que brinda a los usuarios acceso a los modelos Gemini más capaces, como Gemini Ultra 1.0, 1.5 Pro y material experimental como Gemini-Exp-1206. .

google chromebook plus

Además, trajo varias funciones de Gemini, como “Ayúdame a escribir”, a las computadoras portátiles Chromebook Plus, a las que se puede acceder a través de un botón Gemini dedicado en el estante de aplicaciones de la pantalla de inicio.

Soporte para Google Maps

Las capacidades del chatbot Gemini AI se pueden mejorar con la ayuda de las extensiones Gemini. En marzo, Google actualizó Gemini con soporte para Google Maps, lo que permite a los usuarios emitir comandos para activar la navegación desde el chatbot.

Mapas de inicio automático de Google Gemini

Por ejemplo, puede emitir comandos como “Llevarme a [X],” Gemini mostrará datos como la distancia, el tiempo estimado y un enlace a Google Maps. La navegación se iniciará automáticamente después de unos segundos.

Vídeos

Como sugiere el nombre, Vids es una nueva herramienta de creación de videos impulsada por Gemini que Google lanzó en abril de este año para crear fácilmente videos de capacitación, presentaciones, actualizaciones o contenido de marketing. Ofrece una interfaz de usuario con estilo de línea de tiempo para ensamblar recursos de video de Google Drive o de otro lugar, grabar voces en off o filmarse directamente desde la aplicación.

Vídeos de Google

Puedes colaborar con otras personas y controlar quién puede editar, comentar o ver tus videos. Tenga en cuenta que Google Vids es parte de la suite Workspace y es una oferta paga.

Extensión de música de YouTube

Extensión de música de YouTube de Google Gemini

Otro complemento para el chatbot fue una nueva extensión de YouTube Music en mayo. Permite a los usuarios de Gemini conectar YouTube Music con el chatbot para buscar sus canciones favoritas, reproducir radio, descubrir nuevos artistas y listas de reproducción, y más.

Actualizaciones de la versión Gemini y nuevos modelos.

El año 2024 también vio varias actualizaciones de los modelos Gemini. Gemini 1.5 Flash se presentó en mayo como un LLM liviano, que se destacó “en resúmenes, aplicaciones de chat, subtítulos de imágenes y videos, extracción de datos de documentos y tablas extensos, y más”.

A esto le siguió una variante más pequeña de 1.5 Flash (conocida como Gemini 1.5 Flash-8B); un nuevo modelo Gemini 1.5 Pro con codificación mejorada y rendimiento de avisos complejos; y un nuevo modelo Gemini 1.5 Flash con importantes mejoras.

El mes pasado marcó el debut de Gemini 2.0. Google anunció el modelo experimental Gemini 2.0 Flash con soporte para imágenes generadas de forma nativa mezcladas con texto y audio multilingüe de texto a voz (TTS) orientable.

Preguntar al asistente de fotos

pedir fotos

El protagonismo de Google I/O 2024 podría haber eclipsado al asistente Ask Photos para Google Photos anunciado en la conferencia. El asistente digital impulsado por los modelos Gemini AI se puede utilizar para extraer fotos/videos de su galería, generar subtítulos personalizados, explicar lo que sucede en ellos o crear momentos destacados del viaje después de unas vacaciones.

Expandiendo Gemini al sector educativo

En mayo, Google también amplió Gemini for Workspace al sector educativo al introducir dos nuevos complementos: Gemini Education y Gemini Education Premium. Este último permitió el acceso a funciones como la toma de notas y resúmenes basados ​​en IA en Meet y la prevención de pérdida de datos mejorada por IA.

Paneles laterales Gemini para aplicaciones Workspace

La búsqueda de Google de colocar su chatbot de IA en todos los lugares posibles allanó el camino para los paneles laterales de Gemini para las aplicaciones Workspace. En junio, el gigante de las búsquedas lanzó paneles laterales Gemini para sus aplicaciones web, incluidas Google Docs, Slides, Drive y Gmail.

Los paneles laterales se personalizan según la aplicación. Por ejemplo, Gemini en Gmail puede resumir correos electrónicos, sugerir respuestas y resumir hilos de correo electrónico. Mientras tanto, puede generar nuevas diapositivas de presentación en Google Slides y crear imágenes personalizadas.

Panel lateral de Géminis en el chat de Google

En noviembre, también se agregó el panel lateral Gemini a Google Chat. Al igual que otras aplicaciones, puede resumir conversaciones y evitar a los usuarios la molestia de leerlo todo.

Géminis en vivo

En agosto, se lanzó Gemini Live en el evento de hardware Pixel para brindar a los usuarios de teléfonos inteligentes una experiencia de conversación natural con el chatbot de IA. Puedes hablar con Gemini como en una conversación normal de ida y vuelta, abandonar la conversación en cualquier momento y continuarla más tarde.

También puedes continuar la conversación con Gemini mientras la aplicación está en segundo plano o tu teléfono está bloqueado. Gemini Live se incluyó inicialmente con Gemini Advanced, pero ahora está disponible a través de la aplicación Gemini en Android e iOS. Posteriormente, la función se amplió para agregar soporte para más de 40 idiomas.

Gemas personalizadas para Géminis

Custom Gems le permite crear versiones del chatbot Gemini adaptadas a casos de uso específicos. Por ejemplo, puede generar ideas para un próximo evento, recordar instrucciones detalladas o crear un asesor de aprendizaje.

Gemas personalizadas de Google Géminis

La función premium se implementó para usuarios de Gemini Advanced, Business y Enterprise en más de 150 países. Puedes ir al administrador de gemas para acceder a gemas prefabricadas o crear otras nuevas haciendo clic en el botón “+ Agregar gema” y escribiendo su propósito y objetivo.

Imagen 3 y generador de imágenes Whisk

El modelo de conversión de texto a imagen de mayor calidad de Google, Imagen 3, se lanzó en octubre tras su anuncio a principios de este año. El último modelo de generación de imágenes funciona con aplicaciones Gemini para usuarios en todos los idiomas admitidos.

Imagen 3 comprende mejor el lenguaje natural y la intención detrás del mensaje. Los usuarios pueden escribir indicaciones para generar paisajes fotorrealistas, pinturas al óleo texturizadas o escenas caprichosas de animación con plastilina, y emitir comandos posteriores para perfeccionarlo aún más.

Herramienta de generación de imágenes Google Whisk

A principios de este mes, Google utilizó Imagen 3 para impulsar una nueva herramienta de inteligencia artificial generativa llamada Whisk, que toma imágenes como entrada para generar nuevas imágenes.

Gemini en el navegador Opera, integración de Snapchat

Opera se unió a Google Cloud para aprovechar las capacidades de Gemini para su IA en el navegador conocida como Aria, que ya utiliza el poder de múltiples modelos de lenguaje grandes (LLM). La asociación trajo las capacidades de generación de imágenes y texto a voz de Google al navegador Opera.

Mientras tanto, Snapchat fue otra plataforma de terceros que obtuvo acceso a las funciones de Gemini en 2024. El gigante de las redes sociales se asoció con Google para hacer que el chatbot My AI sea más inteligente que antes y ofrecer una experiencia multimodal. El gigante de las búsquedas afirmó que la integración de Gemini con My AI mejoró la participación de los usuarios en los EE. UU. en 2,5 veces.

Investigación profunda

Si utiliza el chatbot de inteligencia artificial generativa de Google para sesiones de investigación extensas, un nuevo asistente con tecnología de inteligencia artificial llamado Deep Research puede ayudarlo con su exploración. Está diseñado para reducir las horas de investigación realizando análisis y resúmenes de documentos en profundidad y extrayendo conocimientos clave de grandes cantidades de información.

Tenga en cuenta que Deep Research es parte de Gemini Advanced (una oferta paga) y está disponible en más de 45 idiomas en más de 150 países en todo el mundo.

Búsqueda en lenguaje natural en Google Maps

En una nueva actualización de su aplicación de navegación, Google agregó una función de búsqueda impulsada por Gemini a Google Maps. En otras palabras, puedes escribir consultas en lenguaje natural en la barra de búsqueda de Google Maps. Por ejemplo, puedes encontrar nuevos lugares escribiendo “cosas que hacer con amigos por la noche”. El chatbot crea reseñas resumidas sobre los lugares que lees para tener una idea sobre ellos.

Reproducir canciones de Spotify

No solo YouTube Music, Gemini también agregó soporte para la aplicación rival de transmisión de música Spotify. El chatbot de IA puede reproducir música de Spotify en su dispositivo Android sin necesidad de cambiar de aplicación.

Puede utilizar la interfaz de chat de Gemini para solicitar canciones, listas de reproducción del navegador y buscar música a través de letras, entre varias funciones. Sin embargo, necesita una cuenta Spotify Premium para que la integración funcione.

Controversias de Géminis

No se trata solo de nuevas características, el chatbot generativo de IA de Google también ha generado varias controversias. En febrero, la función de generación de imágenes de Gemini estuvo en problemas después de mostrar sesgos en la generación de imágenes de personas. Como resultado, el generador de imágenes se detuvo temporalmente y Google tuvo que explicar el comportamiento inesperado.

Un usuario de X afirmó que Gemini resumió un archivo PDF automáticamente y sin que se le pidiera explícitamente que lo hiciera, y señaló que la configuración requerida ya estaba deshabilitada.

Otro informe afirmó que Google contrata contratistas para calificar las respuestas de Gemini en función de cualidades como precisión, claridad y seguridad y comparar las respuestas con las del LLM Claude de Anthropic. Los contratistas notaron similitudes entre las respuestas de las dos plataformas. Si bien comparar modelos no es infrecuente, el informe no recibió una respuesta satisfactoria de Google.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

La batalla de los gigantes tecnológicos

Published

on

OpenAI siempre ha sido excelente para captar la atención en las noticias. Sus anuncios a menudo vienen acompañados de afirmaciones grandes y audaces. Por ejemplo, anunciaron GPT-2 pero dijeron que era demasiado peligroso lanzarlo. O su campaña “12 días de Navidad”, donde mostraron un producto nuevo todos los días durante 12 días.

Ahora, Sam Altman ha compartido sus pensamientos sobre el año pasado, centrándose en la dramática telenovela de la sala de juntas en torno a su despido y regreso. También hizo una predicción audaz:

“Ahora sabemos cómo construir AGI como se entiende habitualmente. En 2025, creemos que los agentes de IA se unirán a la fuerza laboral y cambiarán la forma en que trabajan las empresas”.

AGI (Inteligencia General Artificial) significa crear una IA que sea tan inteligente y general como un humano. A diferencia de la IA estrecha, que está diseñada para tareas específicas como traducir idiomas, jugar al ajedrez o reconocer rostros, AGI puede manejar cualquier tarea intelectual y adaptarse en diferentes áreas. mientras no creo “AGI está cerca” Creo que la IA se unirá a la fuerza laboral, pero tal vez no de la manera que Altman imagina.

¿Está AGI cerca? No, al menos no el AGI que nosotros (o Sam) imaginamos

La llegada de AGI en 2025 parece muy improbable. La IA actual, como ChatGPT, funciona reconociendo patrones y haciendo predicciones, no comprendiendo realmente. Por ejemplo, completar la frase “La vida es como una caja de…” con “chocolates” se basa en probabilidades, no en razonamiento.

No creo que la AGI se produzca en 2025, y muchos expertos están de acuerdo. Demis Hassabis, con quien trabajé en Google, predice que AGI podría llegar alrededor de 2035. Ray Kurzweil estima que 2032, y Jürgen Schmidhuber, director de IDSIA, sugiere más cerca de 2050. Los escépticos son muchos y el cronograma sigue siendo incierto.

¿Importa cuándo? La IA ya es poderosa.

Quizás no importe exactamente cuándo llegará AGI. Incluso Sam Altman recientemente restó importancia a la “G” en AGI, diciendo:

“Creo que alcanzaremos el AGI antes de lo que la mayoría de la gente piensa y importará mucho menos”.

Estoy de acuerdo con esto hasta cierto punto. La IA ya tiene capacidades impresionantes. Por ejemplo, la IA de Netflix conoce tus preferencias cinematográficas mejor que tu pareja. Incluso se ha bromeado sobre los algoritmos de TikTok por reconocer la orientación sexual de alguien antes que ellos. La IA sobresale en el reconocimiento de patrones y, en muchos casos, es mejor que los humanos.

Sam Altman ve que la IA “se une a la fuerza laboral”

El punto más importante del memorando de Sam es su creencia de que la IA “se unirá a la fuerza laboral”. Estoy completamente de acuerdo en que esto va a suceder. Como escribí en mi actualización del agente de IA, para que la IA tenga éxito en el lugar de trabajo, necesita dos cosas clave: (1) acceso a herramientas y (2) acceso a datos. Estos son los pilares para que la IA sea realmente eficaz en entornos empresariales. Sin embargo, aunque Sam a menudo vincula esta idea con AGI, es posible que OpenAI no lidere la tarea de proporcionar estas soluciones de fuerza laboral de IA.

La primera posición de Microsoft: acceso a los usuarios

¿Quién tiene las herramientas laborales? Microsoft. Microsoft. Microsoft. Están en la pole position. La mayoría de la gente ya utiliza productos de Microsoft, les guste o no, y la IA se está integrando profundamente en estas herramientas, con copilotos apareciendo por todas partes.

En 2023 y 2024, muchas nuevas empresas lanzaron impresionantes servicios de inteligencia artificial para trabajos de oficina, solo para ser rápidamente eclipsadas por gigantes como Microsoft y Google, que tienen acceso directo a los clientes. Tomemos como ejemplo a Jasper.ai, una herramienta de inteligencia artificial para redactar textos que alguna vez fue famosa. Como señalé en esta publicación de LinkedIn, características similares ahora están integradas directamente en los productos de Google y Microsoft, lo que hace cada vez más difícil competir para los jugadores más pequeños.

El poder del acceso a los datos

La IA necesita datos para ser verdaderamente eficaz. Si está buscando respuestas sobre los procesos internos de una empresa o información valiosa a partir de documentos, herramientas generales como ChatGPT no serán suficientes. Lo que necesitamos son herramientas que puedan leer y resumir documentos de la empresa, diseñadas específicamente para uso empresarial. Como dije antes, 2025 será el año de la BÚSQUEDA, especialmente la búsqueda empresarial. Las herramientas que pueden responder preguntas, resumir contenido y ayudar a los usuarios a navegar por información compleja cambiarán las reglas del juego.

¿Quién tiene acceso a este tipo de datos? Microsoft es un gran actor, pero no está solo. Salesforce, por ejemplo, posee una enorme cantidad de datos valiosos: interacciones con los clientes, debates, documentos de procesos, estrategias de marketing y más. ¿Salesforce quiere que los agentes de IA ayuden a desbloquear este potencial? Absolutamente.

No sorprende que el director ejecutivo de Salesforce, Marc Benioff, haya criticado recientemente a Microsoft. Llamó a su asistente de IA, Copilot, “decepcionante” y dijo: “Simplemente no funciona y no ofrece ningún nivel de precisión”. Incluso lo llamó “Clippy 2.0”, el insulto más divertido que he escuchado en mucho tiempo, antes de lanzar la propia solución de inteligencia artificial de Salesforce, Agent Forces.

¿OpenAI es “simplemente” la herramienta más inteligente?

OpenAI no tiene el mismo nivel de acceso a datos o alcance al consumidor que Microsoft, ni tiene el tesoro de datos comerciales de Salesforce. Entonces, ¿cuál es su ángulo? Afirman ser la herramienta más inteligente del mercado, y probablemente lo sean, aunque personalmente considero que Claude 3.5 de Anthropic es actualmente mejor que GPT-4 de OpenAI.

OpenAI apuesta por su capacidad para superar a todos los demás con tecnología superior. Es por eso que Sam Altman afirma con seguridad que veremos AGI. ¿Qué hay detrás de esa audaz afirmación? Razonamiento o, como lo llama OpenAI, Razonamiento.

OpenAI y razonamiento

OpenAI lanzó recientemente o1, un modelo diseñado para mostrar capacidades de razonamiento avanzadas a través de un proceso iterativo de autollamada:

  1. Iteración y reflexión: el modelo genera un resultado, lo evalúa o critica y lo refina en una nueva ronda de razonamiento.
  2. Bucle de retroalimentación: esto crea un circuito de retroalimentación donde el modelo revisa sus resultados, los critica y los mejora aún más.

En esencia, GPT con o1 no sólo proporciona respuestas: planifica, critica el plan y lo mejora continuamente.

Lo que es especialmente digno de mención es el cambio de paradigma que esto representa. En lugar de simplemente lanzar un modelo más grande como GPT-5, la próxima generación de modelos de IA se centra en “pensar más” durante la inferencia. Esta capacidad de procesar de forma iterativa puede ser a lo que se refiere Sam Altman cuando dice: “Ahora sabemos cómo construir AGI”.

¿El razonamiento es razón suficiente?

Pero, ¿el “razonamiento” por sí solo hace que OpenAI entre en juego? OpenAI todavía necesita acceso a los datos y una fuerte presencia de usuarios, similar a Salesforce o Microsoft. Para solucionar este problema, OpenAI lanzó la aplicación de escritorio ChatGPT para macOS. Esta aplicación ahora puede leer código directamente desde herramientas centradas en desarrolladores como VS Code, Xcode, TextEdit, Terminal e iTerm2. Esto significa que los desarrolladores ya no necesitan copiar y pegar su código en ChatGPT, una solución común hasta ahora. Es una herramienta realmente útil y una medida inteligente para integrarse más profundamente en el flujo de trabajo del desarrollador.

Chatear con modelos de lenguaje grandes cuesta dinero

Cada llamada a un modelo de lenguaje grande (LLM) cuesta dinero. Para los grandes usuarios de ChatGPT, es posible que la suscripción de $ 20 ni siquiera cubra el costo de su uso. OpenAI recaudó recientemente 6.600 millones de dólares en una ronda de financiación Serie E, un impulso muy necesario para sostener sus operaciones. Si bien Agentforce genera ingresos sólidos de sus clientes y Microsoft disfruta de un enorme fondo de guerra financiera, OpenAI aún se encuentra en las primeras etapas para lograr que las empresas y los usuarios paguen lo suficiente para compensar los elevados costos del desarrollo de IA de vanguardia.

Su nivel premium de $200 por mes, que incluye la versión ampliada de O1, es un paso en esta dirección. ¿Pero vale la pena el precio? Quizás es por eso que AGI sigue siendo parte de la conversación: ayuda a justificar el posicionamiento premium. Sin embargo, la carrera por crear modelos superiores está lejos de terminar. Incluso O1 pronto podría ser superado por alternativas de código abierto, como hemos visto antes con Meta’s Llama.

Hablando de Meta, estoy seguro de que veremos sus intentos de monetizar los modelos de IA en 2025. En última instancia, el mayor desafío para estos actores sigue siendo claro: justificar enormes costos sin asegurar un flujo de ingresos constante y confiable.

Sam tiene razón: los agentes de IA estarán en la fuerza laboral

En 2025, veremos más agentes de IA ingresar a la fuerza laboral, transformando los flujos de trabajo al simplificar, mejorar y automatizar tareas en todas las industrias. Estos no serán modelos AGI que lo abarquen todo, sino modelos más pequeños y especializados diseñados para flujos de trabajo dedicados. La IA ampliará y mejorará los procesos paso a paso, combinando la IA tradicional, la recuperación de contexto y un diseño de usuario sólido para abordar desafíos como la seguridad, las alucinaciones y el control del usuario.

El éxito dependerá de la entrega de valor a través de soluciones bien integradas, fáciles de usar y diseñadas éticamente, como se describe en mi marco para crear herramientas de IA listas para la empresa. Para Sam Altman, la pregunta estratégica clave no será lograr AGI sino cómo fijar el precio de los modelos base de OpenAI para clientes empresariales como Microsoft o Salesforce, especialmente si OpenAI termina compitiendo directamente con ellos.

Pero, ¿cómo trabajaremos con esos nuevos colegas de IA?

Las empresas emergerán como ganadoras en la carrera por mejores modelos, mejores datos y mejores integraciones. Su principal objetivo debería ser formar a los empleados y clientes para que trabajen de forma eficaz con sus nuevos colegas de IA. En mi curso certificado de eCornell sobre soluciones de IA, vi de primera mano cómo la productividad se disparó una vez que los estudiantes aprendieron a comunicarse con un copiloto de IA. Inicialmente, muchos lucharon por lograr resultados, pero una guía paso a paso sobre cómo interactuar con la IA marcó una diferencia significativa.

¿Por qué? Porque incluso con capacidades de razonamiento y planificación, la IA aún no es verdaderamente “general”, por mucho revuelo que genere Sam Altman. Los estudiantes tuvieron que aprender cuándo confiar en la IA y cuándo aplicar el juicio humano. Creo que 2025 será el año en que las empresas se den cuenta de esta necesidad e inviertan mucho en educación sobre IA.

Continue Reading

Noticias

Google TV de Alphabet integrará Gemini AI: informe

Published

on

El equipo de consumidores de Alphabet está preparado para mejorar los televisores que ejecutan su sistema operativo Google TV integrando Gemini AI en su sistema de control de voz Google Assistant. Bloomberg ha informado.

Esta actualización tiene como objetivo mejorar la interacción del usuario con comandos de voz más naturales y capacidades mejoradas de búsqueda de contenido, incluida una integración más profunda de YouTube.

La actualización Gemini, que se espera que se implemente más adelante en 2025, permitirá a los usuarios entablar conversaciones con televisores de terceros sin necesidad de la frase desencadenante “Hola Google” para cada comando.

Google demostró esta característica en la conferencia de tecnología CES.

Además, Google mostró la capacidad de recuperar contenido de forma más natural, como solicitar videos de un viaje reciente guardados en la cuenta de Google Photos de un usuario.

Se afirma que esta actualización es la primera vez que Google lleva Gemini a televisores de terceros que ejecutan su sistema operativo, incluidos los de Sony Group, Hisense Home Appliances Group y TCL Technology Group, luego de su debut en la caja de transmisión propia de Google el pasado año. año.

Acceda a los perfiles de empresa más completos del mercado, impulsados ​​por GlobalData. Ahorre horas de investigación. Obtenga una ventaja competitiva.

Perfil de la empresa: muestra gratuita

¡Gracias!

Su correo electrónico de descarga llegará en breve

Confiamos en la calidad única de nuestros perfiles de empresa. Sin embargo, queremos que tome la decisión más beneficiosa para su negocio, por lo que ofrecemos una muestra gratuita que puede descargar enviando el siguiente formulario.

Por GlobalData






Visite nuestra Política de privacidad para obtener más información sobre nuestros servicios, cómo podemos usar, procesar y compartir sus datos personales, incluida información sobre sus derechos con respecto a sus datos personales y cómo puede darse de baja de futuras comunicaciones de marketing. Nuestros servicios están destinados a suscriptores corporativos y usted garantiza que la dirección de correo electrónico enviada es su dirección de correo electrónico corporativa.

Google TV compite con otros sistemas operativos de televisión, incluidos los de Samsung Electronics, Amazon.com y Roku.

La compañía también presentó un nuevo modo “siempre encendido” para televisores, que utiliza sensores para detectar la presencia del usuario y mostrar información personalizada, como noticias y pronósticos del tiempo.

TCL será el primer fabricante en ofrecer este modo siempre activo a finales de este año, seguido de Hisense en 2026.

Esta función tiene como objetivo proporcionar a los usuarios información relevante cuando están cerca de su televisor, mejorando aún más la experiencia del usuario.

En diciembre de 2024, Google anunció planes para integrar Gemini AI en su plataforma de realidad extendida (XR), Android XR, a través de los auriculares Project Moohan XR de Samsung.


Continue Reading

Noticias

Utilicé estas 7 indicaciones de ChatGPT para ayudar a desarrollar la fortaleza mental y desafiar los pensamientos negativos: he aquí por qué me gustan

Published

on

El invierno puede ser una época difícil para mantenerse motivado y tener pensamientos positivos. Los días más cortos y las temperaturas gélidas son especialmente difíciles para mí porque me encanta el sol y estar al aire libre. Aunque todavía trato de salir y salir a correr cuando el clima lo permite, a menudo me siento deprimido y tiendo a pensar negativamente.

Si bien los terapeutas profesionales no son rival para ChatGPT, en caso de necesidad, a menudo utilizo ChatGPT para explorar estrategias para desarrollar la fortaleza mental mientras desafío los pensamientos negativos durante los meses de invierno.

Aprecio el modo de voz avanzado de ChatGPT porque los usuarios pueden tener una conversación humana sobre cualquier cosa, incluso pensamientos desanimados y desmotivados. Esto es lo que sucedió cuando compartí mis pensamientos con ChatGPT y las sugerencias que me dio.

1. Considere las alegrías invernales simples

(Crédito de la imagen: futuro)

Inmediato: “¿Qué pequeños placeres o actividades acogedoras puedes sugerir para traer calidez y alegría durante la temporada de invierno?”

Continue Reading

Trending