Connect with us

Noticias

Por qué los agentes de IA conscientes del contexto nos darán superpoderes en 2025

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder en la industria. Más información


2025 será el año en que las grandes tecnologías pasen de vendernos herramientas cada vez más poderosas a vendernos habilidades cada vez más poderosas. La diferencia entre una herramienta y una habilidad es sutil pero profunda. Utilizamos herramientas como artefactos externos que nos ayudan a superar nuestras limitaciones orgánicas. Desde automóviles y aviones hasta teléfonos y computadoras, las herramientas amplían enormemente lo que podemos lograr como individuos, en grandes equipos y como vastas civilizaciones.

Las habilidades son diferentes. Experimentamos las habilidades en primera persona como capacidades encarnadas en uno mismo que se sienten internas y accesibles instantáneamente a nuestra mente consciente. Por ejemplo, el lenguaje y las matemáticas son tecnologías creadas por humanos que cargamos en nuestro cerebro y llevamos con nosotros a lo largo de nuestra vida, ampliando nuestras capacidades para pensar, crear y colaborar. Son superpoderes que parecen tan inherentes a nuestra existencia que rara vez pensamos en ellos como tecnologías. Afortunadamente, no necesitamos comprar un plan de servicio.

Sin embargo, la próxima ola de superpotencias no será gratuita. Pero al igual que nuestra capacidad para pensar verbal y numéricamente, experimentaremos estos poderes como capacidades encarnadas que llevamos con nosotros a lo largo de nuestra vida. Me refiero a esta nueva disciplina tecnológica como mentalidad aumentada y surgirá de la convergencia de la IA, la informática conversacional y la realidad aumentada. Y, en 2025, iniciará una carrera armamentista entre las empresas más grandes del mundo para vendernos habilidades sobrehumanas.

Estos nuevos superpoderes serán desencadenados por agentes de IA conscientes del contexto que se cargan en dispositivos corporales (como gafas de IA) que viajan con nosotros a lo largo de nuestras vidas, viendo lo que vemos, escuchando lo que oímos, experimentando lo que experimentamos y proporcionándonos con capacidades mejoradas para percibir e interpretar nuestro mundo. De hecho, para 2030, predigo que la mayoría de nosotros viviremos nuestras vidas con la ayuda de agentes de inteligencia artificial conscientes del contexto que incorporan superpoderes digitales a nuestras experiencias diarias normales.

¿Cómo se desarrollará nuestro futuro sobrehumano?

En primer lugar, les susurraremos a estos agentes inteligentes, y ellos nos responderán, actuando como un alter ego omnisciente que nos brinda recomendaciones, conocimientos, orientación, consejos, recordatorios espaciales, señales direccionales, empujones hápticos y otros estímulos verbales y Contenido perceptivo que nos guiará a lo largo de nuestros días y nos educará sobre nuestro mundo.

Considere este escenario simple: está caminando por el centro y ve una tienda al otro lado de la calle. Te preguntas, ¿a qué hora abre? Entonces, tomas tu teléfono y escribes (o dices) el nombre de la tienda. Encuentra rápidamente el horario en un sitio web y tal vez también revise otra información sobre la tienda. Ése es el modelo informático básico de uso de herramientas que prevalece en la actualidad.

Ahora, veamos cómo las grandes tecnológicas harán la transición a un modelo de computación de capacidades.

Etapa 1: Lleva gafas con tecnología de inteligencia artificial que pueden ver lo que ve, escuchar lo que escucha y procesar su entorno a través de un modelo de lenguaje grande (LLM) multimodal. Ahora, cuando veas esa tienda al otro lado de la calle, simplemente susurrarás: “Me pregunto cuándo abrirá”. y una voz instantáneamente sonará en tus oídos “10:30 a. m.”.

Sé que este es un cambio sutil respecto a pedirle a tu teléfono que busque el nombre de una tienda, pero se sentirá profundo. La razón es que el agente de IA consciente del contexto compartirá su realidad. No se trata sólo de rastrear tu ubicación como un GPS, sino de ver, oír y prestar atención a aquello a lo que estás prestando atención. Esto hará que se sienta mucho menos como una herramienta y más como una habilidad interna vinculada a su realidad en primera persona.

Y cuando el alter ego impulsado por IA en nuestros oídos nos hace una pregunta, a menudo respondemos simplemente asintiendo con la cabeza para afirmar (detectado por sensores en las gafas) o sacudiendo la cabeza para rechazar. Se sentirá tan natural y fluido que es posible que ni siquiera nos demos cuenta conscientemente de que respondimos.

Etapa 2: Para 2030, no necesitaremos susurrarles nada a los agentes de IA que viajan con nosotros a lo largo de nuestras vidas. En cambio, podremos simplemente pronunciar las palabras y la IA sabrá lo que estamos diciendo leyendo nuestros labios y detectando señales de activación de nuestros músculos. Confío en que se implementará la “articulación en la boca”, ya que es más privada, más resistente en espacios ruidosos y, lo más importante, se sentirá más personal, interna y encarnada.

Etapa 3: Para 2035, es posible que ni siquiera sea necesario pronunciar las palabras. Esto se debe a que la IA aprenderá a interpretar las señales en nuestros músculos con tal sutileza y precisión que simplemente tendremos que pensar en pronunciar palabras para transmitir nuestra intención. Podremos centrar nuestra atención en cualquier elemento o actividad de nuestro mundo y pensar en algo, y la información útil sonará desde nuestras gafas de IA como una voz que todo lo sabe en nuestras cabezas.

Por supuesto, las capacidades irán mucho más allá de simplemente preguntarse sobre las cosas que le rodean. Esto se debe a que la IA integrada que comparte tu realidad en primera persona aprenderá a anticipar la información que deseas incluso antes de que la solicites. Por ejemplo, cuando un compañero de trabajo se acerca desde el final del pasillo y no recuerdas su nombre, la IA sentirá tu inquietud y sonará una voz: “Gregg de ingeniería”.

O cuando compras una lata de sopa en una tienda y sientes curiosidad por los carbohidratos o te preguntas si es más barata en Walmart, las respuestas simplemente sonarán en tus oídos o aparecerán visualmente. Incluso te brindará habilidades sobrehumanas para evaluar las emociones en los rostros de otras personas, predecir sus estados de ánimo, metas o intenciones y entrenarte durante conversaciones en tiempo real para hacerte más convincente, atractivo o persuasivo (mira este divertido ejemplo en video).

Sé que algunas personas se mostrarán escépticas sobre el nivel de adopción que predigo anteriormente y el rápido período de tiempo, pero no hago estas afirmaciones a la ligera. He pasado gran parte de mi carrera trabajando en tecnologías que aumentan y expanden las capacidades humanas, y puedo decir que, sin lugar a dudas, el mercado de la informática móvil está a punto de avanzar en esta dirección a lo grande.

Durante los últimos 12 meses, dos de las empresas más influyentes e innovadoras del mundo, Meta y Google, revelaron sus intenciones de darnos superpoderes encarnados. Meta dio el primer gran paso al agregar una IA consciente del contexto a sus gafas Ray-Ban y al mostrar su prototipo de realidad mixta Orion que agrega capacidades visuales impresionantes. Meta ahora está muy bien posicionada para aprovechar sus grandes inversiones en IA y realidad extendida (XR) y convertirse en un actor importante en el mercado de la informática móvil, y probablemente lo hará vendiéndonos superpoderes a los que no podemos resistir.

Para no quedarse atrás, Google anunció recientemente Android XR, un nuevo sistema operativo impulsado por inteligencia artificial para ampliar nuestro mundo con contenido fluido y sensible al contexto. También anunciaron una asociación con Samsung para lanzar al mercado nuevas gafas y auriculares. Con más del 70% de participación de mercado para sistemas operativos móviles y una presencia de IA cada vez más fuerte con Gemini, creo que Google está bien posicionado para ser el proveedor líder de superpoderes humanos basados ​​en tecnología en los próximos años.

Por supuesto, debemos considerar los riesgos.

Para citar el famoso cómic de Spiderman de 1962, “un gran poder conlleva una gran responsabilidad”. Esta sabiduría se refiere literalmente a los superpoderes. La diferencia es que la gran responsabilidad no recaerá en los consumidores que compren estos tecnopoderes, sino en las empresas que los proporcionan y los reguladores que los supervisan.

Después de todo, al usar gafas de realidad aumentada (AR) impulsadas por IA, cada uno de nosotros podríamos encontrarnos en una nueva realidad en la que las tecnologías controladas por terceros pueden alterar selectivamente lo que vemos y oímos, mientras las voces impulsadas por la IA susurran en nuestros oídos con asesoramiento, información y orientación. Si bien las intenciones son positivas, incluso mágicas, el potencial de abuso es igualmente profundo.

Para evitar resultados distópicos, mi principal recomendación tanto para los consumidores como para los fabricantes es adoptar un modelo de negocio por suscripción. Si la carrera armamentista por vender superpoderes está impulsada por qué empresa puede proporcionar las nuevas capacidades más sorprendentes por una tarifa mensual razonable, todos nos beneficiaremos. Si, por el contrario, el modelo de negocio se convierte en una competencia para monetizar superpoderes entregando la influencia dirigida más efectiva a nuestros ojos y oídos a lo largo de nuestra vida diaria, los consumidores podrían ser fácilmente manipulados con una precisión y omnipresencia que nunca antes habíamos enfrentado.

En última instancia, estos superpoderes no se sentirán opcionales. Después de todo, no tenerlos podría ponernos en desventaja cognitiva. Ahora corresponde a la industria y a los reguladores garantizar que implementemos estas nuevas capacidades de una manera que no sea intrusiva, manipuladora o peligrosa. Estoy seguro de que esta puede ser una nueva dirección mágica para la informática, pero requiere una planificación y supervisión cuidadosas.

Louis Rosenberg fundó Immersion Corp, Outland Research y Unanimous AI, y fue autor de Our Next Reality.

Tomadores de decisiones de datos

¡Bienvenido a la comunidad VentureBeat!

DataDecisionMakers es el lugar donde los expertos, incluidos los técnicos que trabajan con datos, pueden compartir conocimientos e innovación relacionados con los datos.

Si desea leer sobre ideas de vanguardia e información actualizada, mejores prácticas y el futuro de los datos y la tecnología de datos, únase a nosotros en DataDecisionMakers.

¡Incluso podrías considerar contribuir con un artículo propio!

Leer más de DataDecisionMakers

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

La batalla de los gigantes tecnológicos

Published

on

OpenAI siempre ha sido excelente para captar la atención en las noticias. Sus anuncios a menudo vienen acompañados de afirmaciones grandes y audaces. Por ejemplo, anunciaron GPT-2 pero dijeron que era demasiado peligroso lanzarlo. O su campaña “12 días de Navidad”, donde mostraron un producto nuevo todos los días durante 12 días.

Ahora, Sam Altman ha compartido sus pensamientos sobre el año pasado, centrándose en la dramática telenovela de la sala de juntas en torno a su despido y regreso. También hizo una predicción audaz:

“Ahora sabemos cómo construir AGI como se entiende habitualmente. En 2025, creemos que los agentes de IA se unirán a la fuerza laboral y cambiarán la forma en que trabajan las empresas”.

AGI (Inteligencia General Artificial) significa crear una IA que sea tan inteligente y general como un humano. A diferencia de la IA estrecha, que está diseñada para tareas específicas como traducir idiomas, jugar al ajedrez o reconocer rostros, AGI puede manejar cualquier tarea intelectual y adaptarse en diferentes áreas. mientras no creo “AGI está cerca” Creo que la IA se unirá a la fuerza laboral, pero tal vez no de la manera que Altman imagina.

¿Está AGI cerca? No, al menos no el AGI que nosotros (o Sam) imaginamos

La llegada de AGI en 2025 parece muy improbable. La IA actual, como ChatGPT, funciona reconociendo patrones y haciendo predicciones, no comprendiendo realmente. Por ejemplo, completar la frase “La vida es como una caja de…” con “chocolates” se basa en probabilidades, no en razonamiento.

No creo que la AGI se produzca en 2025, y muchos expertos están de acuerdo. Demis Hassabis, con quien trabajé en Google, predice que AGI podría llegar alrededor de 2035. Ray Kurzweil estima que 2032, y Jürgen Schmidhuber, director de IDSIA, sugiere más cerca de 2050. Los escépticos son muchos y el cronograma sigue siendo incierto.

¿Importa cuándo? La IA ya es poderosa.

Quizás no importe exactamente cuándo llegará AGI. Incluso Sam Altman recientemente restó importancia a la “G” en AGI, diciendo:

“Creo que alcanzaremos el AGI antes de lo que la mayoría de la gente piensa y importará mucho menos”.

Estoy de acuerdo con esto hasta cierto punto. La IA ya tiene capacidades impresionantes. Por ejemplo, la IA de Netflix conoce tus preferencias cinematográficas mejor que tu pareja. Incluso se ha bromeado sobre los algoritmos de TikTok por reconocer la orientación sexual de alguien antes que ellos. La IA sobresale en el reconocimiento de patrones y, en muchos casos, es mejor que los humanos.

Sam Altman ve que la IA “se une a la fuerza laboral”

El punto más importante del memorando de Sam es su creencia de que la IA “se unirá a la fuerza laboral”. Estoy completamente de acuerdo en que esto va a suceder. Como escribí en mi actualización del agente de IA, para que la IA tenga éxito en el lugar de trabajo, necesita dos cosas clave: (1) acceso a herramientas y (2) acceso a datos. Estos son los pilares para que la IA sea realmente eficaz en entornos empresariales. Sin embargo, aunque Sam a menudo vincula esta idea con AGI, es posible que OpenAI no lidere la tarea de proporcionar estas soluciones de fuerza laboral de IA.

La primera posición de Microsoft: acceso a los usuarios

¿Quién tiene las herramientas laborales? Microsoft. Microsoft. Microsoft. Están en la pole position. La mayoría de la gente ya utiliza productos de Microsoft, les guste o no, y la IA se está integrando profundamente en estas herramientas, con copilotos apareciendo por todas partes.

En 2023 y 2024, muchas nuevas empresas lanzaron impresionantes servicios de inteligencia artificial para trabajos de oficina, solo para ser rápidamente eclipsadas por gigantes como Microsoft y Google, que tienen acceso directo a los clientes. Tomemos como ejemplo a Jasper.ai, una herramienta de inteligencia artificial para redactar textos que alguna vez fue famosa. Como señalé en esta publicación de LinkedIn, características similares ahora están integradas directamente en los productos de Google y Microsoft, lo que hace cada vez más difícil competir para los jugadores más pequeños.

El poder del acceso a los datos

La IA necesita datos para ser verdaderamente eficaz. Si está buscando respuestas sobre los procesos internos de una empresa o información valiosa a partir de documentos, herramientas generales como ChatGPT no serán suficientes. Lo que necesitamos son herramientas que puedan leer y resumir documentos de la empresa, diseñadas específicamente para uso empresarial. Como dije antes, 2025 será el año de la BÚSQUEDA, especialmente la búsqueda empresarial. Las herramientas que pueden responder preguntas, resumir contenido y ayudar a los usuarios a navegar por información compleja cambiarán las reglas del juego.

¿Quién tiene acceso a este tipo de datos? Microsoft es un gran actor, pero no está solo. Salesforce, por ejemplo, posee una enorme cantidad de datos valiosos: interacciones con los clientes, debates, documentos de procesos, estrategias de marketing y más. ¿Salesforce quiere que los agentes de IA ayuden a desbloquear este potencial? Absolutamente.

No sorprende que el director ejecutivo de Salesforce, Marc Benioff, haya criticado recientemente a Microsoft. Llamó a su asistente de IA, Copilot, “decepcionante” y dijo: “Simplemente no funciona y no ofrece ningún nivel de precisión”. Incluso lo llamó “Clippy 2.0”, el insulto más divertido que he escuchado en mucho tiempo, antes de lanzar la propia solución de inteligencia artificial de Salesforce, Agent Forces.

¿OpenAI es “simplemente” la herramienta más inteligente?

OpenAI no tiene el mismo nivel de acceso a datos o alcance al consumidor que Microsoft, ni tiene el tesoro de datos comerciales de Salesforce. Entonces, ¿cuál es su ángulo? Afirman ser la herramienta más inteligente del mercado, y probablemente lo sean, aunque personalmente considero que Claude 3.5 de Anthropic es actualmente mejor que GPT-4 de OpenAI.

OpenAI apuesta por su capacidad para superar a todos los demás con tecnología superior. Es por eso que Sam Altman afirma con seguridad que veremos AGI. ¿Qué hay detrás de esa audaz afirmación? Razonamiento o, como lo llama OpenAI, Razonamiento.

OpenAI y razonamiento

OpenAI lanzó recientemente o1, un modelo diseñado para mostrar capacidades de razonamiento avanzadas a través de un proceso iterativo de autollamada:

  1. Iteración y reflexión: el modelo genera un resultado, lo evalúa o critica y lo refina en una nueva ronda de razonamiento.
  2. Bucle de retroalimentación: esto crea un circuito de retroalimentación donde el modelo revisa sus resultados, los critica y los mejora aún más.

En esencia, GPT con o1 no sólo proporciona respuestas: planifica, critica el plan y lo mejora continuamente.

Lo que es especialmente digno de mención es el cambio de paradigma que esto representa. En lugar de simplemente lanzar un modelo más grande como GPT-5, la próxima generación de modelos de IA se centra en “pensar más” durante la inferencia. Esta capacidad de procesar de forma iterativa puede ser a lo que se refiere Sam Altman cuando dice: “Ahora sabemos cómo construir AGI”.

¿El razonamiento es razón suficiente?

Pero, ¿el “razonamiento” por sí solo hace que OpenAI entre en juego? OpenAI todavía necesita acceso a los datos y una fuerte presencia de usuarios, similar a Salesforce o Microsoft. Para solucionar este problema, OpenAI lanzó la aplicación de escritorio ChatGPT para macOS. Esta aplicación ahora puede leer código directamente desde herramientas centradas en desarrolladores como VS Code, Xcode, TextEdit, Terminal e iTerm2. Esto significa que los desarrolladores ya no necesitan copiar y pegar su código en ChatGPT, una solución común hasta ahora. Es una herramienta realmente útil y una medida inteligente para integrarse más profundamente en el flujo de trabajo del desarrollador.

Chatear con modelos de lenguaje grandes cuesta dinero

Cada llamada a un modelo de lenguaje grande (LLM) cuesta dinero. Para los grandes usuarios de ChatGPT, es posible que la suscripción de $ 20 ni siquiera cubra el costo de su uso. OpenAI recaudó recientemente 6.600 millones de dólares en una ronda de financiación Serie E, un impulso muy necesario para sostener sus operaciones. Si bien Agentforce genera ingresos sólidos de sus clientes y Microsoft disfruta de un enorme fondo de guerra financiera, OpenAI aún se encuentra en las primeras etapas para lograr que las empresas y los usuarios paguen lo suficiente para compensar los elevados costos del desarrollo de IA de vanguardia.

Su nivel premium de $200 por mes, que incluye la versión ampliada de O1, es un paso en esta dirección. ¿Pero vale la pena el precio? Quizás es por eso que AGI sigue siendo parte de la conversación: ayuda a justificar el posicionamiento premium. Sin embargo, la carrera por crear modelos superiores está lejos de terminar. Incluso O1 pronto podría ser superado por alternativas de código abierto, como hemos visto antes con Meta’s Llama.

Hablando de Meta, estoy seguro de que veremos sus intentos de monetizar los modelos de IA en 2025. En última instancia, el mayor desafío para estos actores sigue siendo claro: justificar enormes costos sin asegurar un flujo de ingresos constante y confiable.

Sam tiene razón: los agentes de IA estarán en la fuerza laboral

En 2025, veremos más agentes de IA ingresar a la fuerza laboral, transformando los flujos de trabajo al simplificar, mejorar y automatizar tareas en todas las industrias. Estos no serán modelos AGI que lo abarquen todo, sino modelos más pequeños y especializados diseñados para flujos de trabajo dedicados. La IA ampliará y mejorará los procesos paso a paso, combinando la IA tradicional, la recuperación de contexto y un diseño de usuario sólido para abordar desafíos como la seguridad, las alucinaciones y el control del usuario.

El éxito dependerá de la entrega de valor a través de soluciones bien integradas, fáciles de usar y diseñadas éticamente, como se describe en mi marco para crear herramientas de IA listas para la empresa. Para Sam Altman, la pregunta estratégica clave no será lograr AGI sino cómo fijar el precio de los modelos base de OpenAI para clientes empresariales como Microsoft o Salesforce, especialmente si OpenAI termina compitiendo directamente con ellos.

Pero, ¿cómo trabajaremos con esos nuevos colegas de IA?

Las empresas emergerán como ganadoras en la carrera por mejores modelos, mejores datos y mejores integraciones. Su principal objetivo debería ser formar a los empleados y clientes para que trabajen de forma eficaz con sus nuevos colegas de IA. En mi curso certificado de eCornell sobre soluciones de IA, vi de primera mano cómo la productividad se disparó una vez que los estudiantes aprendieron a comunicarse con un copiloto de IA. Inicialmente, muchos lucharon por lograr resultados, pero una guía paso a paso sobre cómo interactuar con la IA marcó una diferencia significativa.

¿Por qué? Porque incluso con capacidades de razonamiento y planificación, la IA aún no es verdaderamente “general”, por mucho revuelo que genere Sam Altman. Los estudiantes tuvieron que aprender cuándo confiar en la IA y cuándo aplicar el juicio humano. Creo que 2025 será el año en que las empresas se den cuenta de esta necesidad e inviertan mucho en educación sobre IA.

Continue Reading

Noticias

Google TV de Alphabet integrará Gemini AI: informe

Published

on

El equipo de consumidores de Alphabet está preparado para mejorar los televisores que ejecutan su sistema operativo Google TV integrando Gemini AI en su sistema de control de voz Google Assistant. Bloomberg ha informado.

Esta actualización tiene como objetivo mejorar la interacción del usuario con comandos de voz más naturales y capacidades mejoradas de búsqueda de contenido, incluida una integración más profunda de YouTube.

La actualización Gemini, que se espera que se implemente más adelante en 2025, permitirá a los usuarios entablar conversaciones con televisores de terceros sin necesidad de la frase desencadenante “Hola Google” para cada comando.

Google demostró esta característica en la conferencia de tecnología CES.

Además, Google mostró la capacidad de recuperar contenido de forma más natural, como solicitar videos de un viaje reciente guardados en la cuenta de Google Photos de un usuario.

Se afirma que esta actualización es la primera vez que Google lleva Gemini a televisores de terceros que ejecutan su sistema operativo, incluidos los de Sony Group, Hisense Home Appliances Group y TCL Technology Group, luego de su debut en la caja de transmisión propia de Google el pasado año. año.

Acceda a los perfiles de empresa más completos del mercado, impulsados ​​por GlobalData. Ahorre horas de investigación. Obtenga una ventaja competitiva.

Perfil de la empresa: muestra gratuita

¡Gracias!

Su correo electrónico de descarga llegará en breve

Confiamos en la calidad única de nuestros perfiles de empresa. Sin embargo, queremos que tome la decisión más beneficiosa para su negocio, por lo que ofrecemos una muestra gratuita que puede descargar enviando el siguiente formulario.

Por GlobalData






Visite nuestra Política de privacidad para obtener más información sobre nuestros servicios, cómo podemos usar, procesar y compartir sus datos personales, incluida información sobre sus derechos con respecto a sus datos personales y cómo puede darse de baja de futuras comunicaciones de marketing. Nuestros servicios están destinados a suscriptores corporativos y usted garantiza que la dirección de correo electrónico enviada es su dirección de correo electrónico corporativa.

Google TV compite con otros sistemas operativos de televisión, incluidos los de Samsung Electronics, Amazon.com y Roku.

La compañía también presentó un nuevo modo “siempre encendido” para televisores, que utiliza sensores para detectar la presencia del usuario y mostrar información personalizada, como noticias y pronósticos del tiempo.

TCL será el primer fabricante en ofrecer este modo siempre activo a finales de este año, seguido de Hisense en 2026.

Esta función tiene como objetivo proporcionar a los usuarios información relevante cuando están cerca de su televisor, mejorando aún más la experiencia del usuario.

En diciembre de 2024, Google anunció planes para integrar Gemini AI en su plataforma de realidad extendida (XR), Android XR, a través de los auriculares Project Moohan XR de Samsung.


Continue Reading

Noticias

Utilicé estas 7 indicaciones de ChatGPT para ayudar a desarrollar la fortaleza mental y desafiar los pensamientos negativos: he aquí por qué me gustan

Published

on

El invierno puede ser una época difícil para mantenerse motivado y tener pensamientos positivos. Los días más cortos y las temperaturas gélidas son especialmente difíciles para mí porque me encanta el sol y estar al aire libre. Aunque todavía trato de salir y salir a correr cuando el clima lo permite, a menudo me siento deprimido y tiendo a pensar negativamente.

Si bien los terapeutas profesionales no son rival para ChatGPT, en caso de necesidad, a menudo utilizo ChatGPT para explorar estrategias para desarrollar la fortaleza mental mientras desafío los pensamientos negativos durante los meses de invierno.

Aprecio el modo de voz avanzado de ChatGPT porque los usuarios pueden tener una conversación humana sobre cualquier cosa, incluso pensamientos desanimados y desmotivados. Esto es lo que sucedió cuando compartí mis pensamientos con ChatGPT y las sugerencias que me dio.

1. Considere las alegrías invernales simples

(Crédito de la imagen: futuro)

Inmediato: “¿Qué pequeños placeres o actividades acogedoras puedes sugerir para traer calidez y alegría durante la temporada de invierno?”

Continue Reading

Trending