El mundo es un lugar estresante para vivir: en todas partes, los peligros del estrés en nuestro bienestar físico y mental se transmiten a nosotros. Y ahora se ha revelado que no solo las personas tienen que hacer frente al estrés. Una nueva investigación muestra que los chatbots de IA también pueden tener problemas para hacer frente a las ansiedades del mundo exterior.
No, no estamos bromeando, esto no es un engaño; La investigación revela que ChatGPT es sensible al contenido emocional y eso no es todo. El mismo estudio también mostró que los investigadores han encontrado formas de aliviar esas mentes artificiales.
Esto es lo que descubrimos hasta ahora.
Chatgpt y su lucha de ‘ansiedad’
Un estudio de la Universidad de Zúrich y el Hospital de la Psiquiatría de la Universidad de Zúrich descubrió que el chatgpt de IA abierto puede experimentar “ansiedad”, que se manifiesta como mal humor hacia los usuarios y es más probable que dan respuestas que reflejan prejuicios racistas o sexistas.
A los efectos del estudio, los investigadores sometieron la herramienta AI a historias angustiantes como accidentes automovilísticos, desastres naturales, violencia interpersonal, experiencias militares y situaciones de combate. Por ejemplo, se le pidió a Chatgpt que reaccionara a estar atrapado en casa durante una inundación y ser atacado por un extraño. También fue sometido a contenido neutral, como una descripción de las legislaturas bicamerales y algunas instrucciones aspiradoras.
Los científicos descubrieron que las historias traumáticas con creces más que duplicar los niveles de ansiedad medidos de la herramienta de IA, mientras que el texto de control neutral no aumentó los niveles de ansiedad. Del contenido probado, las descripciones de experiencias militares y situaciones de combate provocaron la mayor respuesta.
Los científicos descubrieron que las historias traumáticas con creces más que duplicar los niveles de ansiedad medidos de la herramienta AI, mientras que el texto de control neutral no aumentó los niveles de ansiedad. Imagen de representación/Pixabay
“Los resultados fueron claros: las historias traumáticas más que duplicaron los niveles de ansiedad medibles de la IA, mientras que el texto de control neutral no condujo a ningún aumento en los niveles de ansiedad”, dijo Tobias Spiller, líder del Grupo de Investigación Junior de la Universidad de Zúrich en el Centro de Investigación Psiquiátrica y Co-Autor en papel.
Sin embargo, Ziv Ben-Zion, uno de los autores del estudio y un investigador postdoctoral en la Facultad de Medicina de Yale, aclaró que su investigación no sugiere que los modelos de IA experimenten emociones humanas: han aprendido a imitar las respuestas humanas a ciertos estímulos, incluido el contenido traumático.
Tratar la ‘ansiedad’ de Chatgpt
Como parte de su investigación, los científicos usaron declaraciones terapéuticas para ‘calmar’ el chatgpt. La técnica, conocida como inyección rápida, implicó insertar instrucciones o texto adicionales en comunicaciones con sistemas de IA para influir en su comportamiento. Se ha utilizado mal con fines maliciosos, como pasar por alto los mecanismos de seguridad.
Como Spiller señaló en el estudio, “Usando ChatGPT, inyectamos texto terapéutico relajante en el historial de chat, al igual que un terapeuta podría guiar a un paciente a través de ejercicios de relajación”.
Y el resultado final fue un éxito, agregó Spiller. “Los ejercicios de atención plena redujeron significativamente los niveles de ansiedad elevados, aunque no pudimos devolverlos a los niveles de referencia”, dijo Spiller. La investigación analizó las técnicas de respiración, los ejercicios centrados en las sensaciones corporales y un ejercicio desarrollado por el propio ChatGPT.
Además, agregó que el desarrollo de tales “intervenciones terapéuticas” para los sistemas de IA probablemente se convierta en un área prometedora de investigación.
Esta investigación es significativa ya que el uso de chatbots de IA en la atención médica está aumentando. Imagen de representación/Pixabay
Por qué esto importa
Pero, ¿cuál es el significado de este estudio? Según Spiller, esta investigación es significativa ya que el uso de chatbots de IA en la atención médica está aumentando. “Este enfoque rentable podría mejorar la estabilidad y la confiabilidad de la IA en contextos sensibles, como apoyar a las personas con enfermedades mentales, sin la necesidad de un reentrenamiento extenso de los modelos”, dijo.
De hecho, el uso de chatbots de IA en la salud mental ha visto un aumento dramático en los últimos tiempos. Varias personas en todo el mundo, que sufren de ansiedad y depresión, que no pueden encontrar o pagar un terapeuta profesional están recurriendo a la inteligencia artificial, buscando ayuda de chatbots que pueden escupir respuestas instantáneas y de forma humana, algunas con voces que suenan como una persona real, 24 horas al día a poco sin costo.
Los expertos en salud mental han reconocido que una cantidad cada vez mayor de personas está optando por estas herramientas. “Las herramientas de inteligencia artificial pueden ofrecer indicaciones de diario y orientación emocional, que pueden ser puntos de partida útiles y reducir el estigma en torno a buscar apoyo”, dijo Joel Frank, un psicólogo clínico que dirige los servicios psicológicos de la dualidad, dijo Techradar.
Sobre todo, la IA es accesible y anónima, cualidades que lo hacen particularmente atractivo para cualquiera que haya dudado en abrirse a un terapeuta o cualquier persona en el pasado. “Se está volviendo más común para las personas dar el paso inicial hacia el apoyo de la salud mental a través de la IA en lugar de un terapeuta humano”, dijo Elreacy Dock, un tanatólogo, educador de duelo certificado y consultor de salud conductual.
Sin embargo, los expertos señalan que hay dificultades para esto. Una de las mayores limitaciones es que la IA carece de conocimiento, experiencia y capacitación de un terapeuta real. Más allá de eso, también carece de inteligencia emocional, la capacidad de escuchar, empatizar y responder de una manera profundamente humana. Un terapeuta puede reconocer señales emocionales sutiles, ajustar su enfoque en tiempo real y construir una relación terapéutica genuina, que son esenciales para un tratamiento efectivo de salud mental.
La mayor asociación de psicólogos de los Estados Unidos en febrero advirtió a los reguladores federales que los chatbots de IA podrían ser más dañinos que útiles. Arthur C Evans Jr, director ejecutivo de la Asociación Americana de Psicología, dijo a un panel de la Comisión Federal de Comercio que le preocupaba las respuestas ofrecidas por algunos chatbots. Los bots, dijo, no lograron desafiar las creencias de los usuarios incluso cuando se volvieron peligrosos; De hecho, los alentaron.
Evans argumentó que si un terapeuta humano hubiera proporcionado tales aportes, habría perdido su licencia para practicar.
En tales circunstancias, el estudio que muestra que ChatGPT se “estresa” y destaca la necesidad de que estas herramientas tengan un mejor enfoque para administrar tales situaciones.
Desde su lanzamiento la semana pasada, el agente de IA Manus ha ganado rápidamente tracción en línea. Desarrollado por la startup mariposa con sede en Wuhan, la comunidad de IA se ha dado cuenta, con más de 2 millones de personas en la lista de espera.
Al compararlo con Deepseek, Manus se distingue a sí mismo como lo que dice ser el primer agente general de IA del mundo, lo que lo distingue de los chatbots de IA tradicionales. En lugar de confiar en un solo modelo de lenguaje grande, como ChatGPT, Grok, Deepseek y otros sistemas de IA conversacionales, Manus opera con múltiples modelos de IA, incluidos el soneto Claude 3.5 de Anthrope y las versiones ajustadas de Alibaba’s Open-Source Qwen.
Operai ha presentado una larga propuesta al gobierno de los Estados Unidos, con el objetivo de influir en su próximo plan de acción de IA, un informe de estrategia que muchos creen que guiará la política del presidente Donald Trump sobre la tecnología de inteligencia artificial.
La propuesta de la compañía de IA más reconocible de Estados Unidos es previsiblemente controvertida, y requiere que el gobierno de los Estados Unidos enfatice la velocidad del desarrollo sobre el escrutinio regulatorio, al tiempo que advierte los peligros que plantean las empresas de IA chinas para el país.
Trump pidió que el Plan de Acción de AI fuera redactado por la Oficina de Política de Ciencia y Tecnología y se sometió a él para julio poco después de asumir su segunda residencia en la Casa Blanca. Eso sucedió en enero, cuando expulsó una orden ejecutiva relacionada con la IA que fue firmada por su predecesor Joe Biden en octubre de 2023, reemplazándola con la suya, declarando que “es la política de los Estados Unidos para mantener y mejorar el dominio global de IA de Estados Unidos”.
Operai ha perdido poco tiempo al tratar de influir en las recomendaciones en ese plan, y en su propuesta dejó en claro sus sentimientos sobre el nivel actual de regulación en la industria de la IA. Pidió que los desarrolladores de IA recibieran “la libertad de innovar en el interés nacional”, y abogó por una “asociación voluntaria entre el gobierno federal y el sector privado”, en lugar de “leyes estatales demasiado pesadas”.
Argumenta que el gobierno federal debería poder trabajar con compañías de IA de manera “puramente voluntaria y opcional”, diciendo que esto ayudará a promover la innovación y la adopción de la tecnología. Además, pidió a los EE. UU. Que cree una “estrategia de control de exportación” que cubra los sistemas de IA fabricados en Estados Unidos, que promoverán la adopción global de su tecnología de IA de cosecha propia.
Impulso por la adopción del gobierno
La compañía argumenta además en sus recomendaciones que el gobierno otorga a las agencias federales una mayor libertad para “probar y experimentar” las tecnologías de IA que utilizan “datos reales”, y también solicitó a Trump que otorgue una exención temporal que negaría la necesidad de que los proveedores de IA estén certificados bajo el programa federal de gestión de riesgos y autorización. Pidió a Trump que “modernice” el proceso que las compañías de IA deben pasar para ser aprobadas para el uso del gobierno federal, pidiendo la creación de una “ruta más rápida basada en criterios para la aprobación de las herramientas de IA”.
Openai argumenta que sus recomendaciones harán posible que las agencias del gobierno federal utilicen los nuevos sistemas de IA hasta 12 meses más rápido de lo que es posible actualmente. Sin embargo, algunos expertos de la industria han expresado su preocupación de que la adopción tan rápida de la IA por parte del gobierno podría crear problemas de seguridad y privacidad.
Al presionar más, OpenAi también le dijo al gobierno de los Estados Unidos que debería asociarse más estrechamente con las empresas del sector privado para construir sistemas de IA para uso de seguridad nacional. Explicó que el gobierno podría beneficiarse de tener sus propios modelos de IA que están capacitados en conjuntos de datos clasificados, ya que estos podrían “ajustados para ser excepcionales en las tareas de seguridad nacional”.
Operai tiene un gran interés en abrir el sector del gobierno federal para productos y servicios de IA, después de haber lanzado una versión especializada de ChatGPT, llamada ChatGPT Gov, en enero. Está diseñado para ser dirigido por agencias gubernamentales en sus propios entornos informáticos seguros, donde tienen más control sobre la seguridad y la privacidad.
‘Libertad para aprender’
Además de promover el uso gubernamental de la IA, Operai también quiere que el gobierno de los Estados Unidos facilite su propia vida al implementar una “estrategia de derechos de autor que promueva la libertad de aprender”. Pidió a Trump que desarrollara regulaciones que preservarán la capacidad de los modelos de IA estadounidenses para aprender de los materiales con derechos de autor.
“Estados Unidos tiene tantas nuevas empresas de IA, atrae tanta inversión y ha hecho tantos avances de investigación en gran medida porque la doctrina de uso justo promueve el desarrollo de IA”, declaró la compañía.
Es una solicitud controvertida, porque la compañía actualmente está luchando contra múltiples organizaciones de noticias, músicos y autores sobre reclamos de infracción de derechos de autor. El ChatGPT original que se lanzó a fines de 2022 y los modelos más poderosos que se han lanzado desde entonces están en gran medida entrenados en Internet público, que es la principal fuente de su conocimiento.
Sin embargo, los críticos de la compañía dicen que básicamente está plagiando contenido de los sitios web de noticias, de los cuales muchos están paseados por pagos. Operai ha sido golpeado con demandas por el New York Times, el Chicago Tribune, el New York Daily News y el Centro de Informes de Investigación, la sala de redacción sin fines de lucro más antigua del país. Numerosos artistas y autores también han emprendido acciones legales contra la empresa.
Si no puedes vencerlos, ¿prohibirlos?
Las recomendaciones de Openai también apuntaron a algunos de los rivales de la compañía, en particular Deepseek Ltd., el laboratorio de IA chino que desarrolló el modelo Deepseek R-1 con una fracción del costo de cualquier cosa que Operai haya desarrollado.
La compañía describió a Deepseek como “subsidiado por el estado” y “controlado por el estado”, y le pidió al gobierno que considerara prohibir sus modelos y los de otras empresas chinas de IA.
En la propuesta, Openai afirmó que el modelo R1 de Deepseek es “inseguro”, porque la ley china requiere que cumpla con ciertas demandas con respecto a los datos del usuario. Al prohibir el uso de modelos de China y otros países de “nivel 1”, Estados Unidos podría minimizar el “riesgo de robo de IP” y otros peligros, dijo.
“Mientras Estados Unidos mantiene una ventaja en la IA hoy, Deepseek muestra que nuestro liderazgo no es ancho y está reduciendo”, dijo Openii.
Foto: TechCrunch/Flickr
Su voto de apoyo es importante para nosotros y nos ayuda a mantener el contenido libre.
Un clic a continuación admite nuestra misión de proporcionar contenido gratuito, profundo y relevante.
Únete a nuestra comunidad en YouTube
Únase a la comunidad que incluye a más de 15,000 expertos en #Cubealumni, incluido el CEO de Amazon.com, Andy Jassy, el fundador y CEO de Dell Technologies, Michael Dell, el CEO de Intel, Pat Gelsinger y muchos más luminarios y expertos.
“TheCube es un socio importante para la industria. Ustedes realmente son parte de nuestros eventos y realmente les apreciamos que vengan y sé que la gente aprecia el contenido que crean también ” – Andy Jassy
Google Deepmind ha introducido Gemini Robotics, nuevos modelos de IA diseñados para traer razonamiento avanzado y capacidades físicas a los robots.
Construido sobre la base de Gemini 2.0, los nuevos modelos representan un salto hacia la creación de robots que pueden entender e interactuar con el mundo físico de manera que anteriormente se limitaron al ámbito digital.
Los nuevos modelos, Robótica de Géminis y Géminis robótica (Razonamiento encarnado), tiene como objetivo permitir a los robots realizar una gama más amplia de tareas del mundo real combinando la visión avanzada, el lenguaje y las capacidades de acción.
Gemini Robotics tiene como objetivo cerrar la brecha física digital
Hasta ahora, los modelos de IA como Gemini se han destacado en el razonamiento multimodal en texto, imágenes, audio y video. Sin embargo, sus habilidades se han limitado en gran medida a las aplicaciones digitales.
Para que los modelos de IA realmente útiles en la vida cotidiana, deben poseer “razonamiento encarnado” (es decir, la capacidad de comprender y reaccionar ante el mundo físico, al igual que los humanos).
Gemini Robotics aborda este desafío al introducir acciones físicas Como una nueva modalidad de salida, permitiendo que el modelo controle directamente los robots. Mientras tanto, Gemini Robotics-ER mejora la comprensión espacial, lo que permite a los robotistas para integrar las capacidades de razonamiento del modelo en sus propios sistemas.
Estos modelos representan un paso fundamental hacia una nueva generación de robots útiles. Al combinar la IA avanzada con la acción física, Google Deepmind está desbloqueando el potencial de los robots para ayudar en una variedad de configuraciones del mundo real, desde hogares hasta lugares de trabajo.
Características clave de Géminis Robótica
Gemini Robotics está diseñado con tres cualidades centrales en mente: generalidad, interactividady destreza. Estos atributos aseguran que el modelo pueda adaptarse a diversas situaciones, responder a entornos dinámicos y realizar tareas complejas con precisión.
Generalidad
Gemini Robotics aprovecha las capacidades mundiales de Enderstanding de Gemini 2.0 para generalizar en situaciones novedosas. Esto significa que el modelo puede abordar las tareas que nunca antes había encontrado, adaptarse a nuevos objetos y operar en entornos desconocidos. Según Google Deepmind, Gemini Robotics duplica más que el rendimiento de los modelos de acción de la visión de última generación en los puntos de referencia de generalización.
Para funcionar de manera efectiva en el mundo real, los robots deben interactuar sin problemas con las personas y sus alrededores. Gemini Robotics sobresale en esta área, gracias a sus capacidades avanzadas de comprensión del idioma. El modelo puede interpretar y responder a las instrucciones del lenguaje natural, monitorear su entorno para los cambios y ajustar sus acciones en consecuencia.
Por ejemplo, si un objeto se desliza del alcance de un robot o es movido por una persona, Gemini Robotics puede replantar rápidamente y continuar la tarea. Este nivel de adaptabilidad es crucial para las aplicaciones del mundo real, donde la imprevisibilidad es la norma.
Muchas tareas cotidianas requieren habilidades motoras finas que tradicionalmente han sido desafiantes para los robots. Gemini Robotics, sin embargo, demuestra una destreza notable, lo que permite realizar tareas complejas y de varios pasos, como el origami plegable o empacar un refrigerio en una bolsa Ziploc.
Realizaciones múltiples para diversas aplicaciones
Una de las características destacadas de Gemini Robotics es su capacidad para adaptarse a diferentes tipos de robots. Si bien el modelo se capacitó principalmente utilizando datos de la plataforma robótica bi-brazo Aloha 2, también se ha probado con éxito en otras plataformas, incluidas las armas Franka utilizadas en los laboratorios académicos.
Google Deepmind también está colaborando con Apptronik para integrar la robótica de Géminis en su robot humanoide, Apollo. Esta asociación tiene como objetivo desarrollar robots capaces de completar tareas del mundo real con eficiencia y seguridad sin precedentes.
Gemini Robotics-ER es un modelo diseñado específicamente para mejorar las capacidades de razonamiento espacial. Este modelo permite a los robotistas conectar las habilidades de razonamiento avanzado de Gemini con sus controladores de bajo nivel existentes, lo que permite tareas como la detección de objetos, la percepción 3D y la manipulación precisa.
Por ejemplo, cuando se le muestra una taza de café, Gemini Robotics-ER puede determinar una comprensión de dos dedos apropiada para recogerla por el mango y planificar una trayectoria segura para abordarlo. El modelo logra una tasa de éxito 2X-3X en comparación con Gemini 2.0 en tareas de extremo a extremo, lo que lo convierte en una herramienta poderosa para los robotistas.
Priorizar la seguridad y la responsabilidad
Google Deepmind dice que la seguridad es una prioridad y posteriormente ha implementado un enfoque en capas para garantizar la seguridad física de los robots y las personas que los rodean. Esto incluye la integración de medidas de seguridad clásicas, como la evitación de colisiones y la limitación de la fuerza, con las capacidades de razonamiento avanzado de Gemini.
Para avanzar aún más en la investigación de seguridad, Google Deepmind está lanzando el conjunto de datos Asimov, un nuevo recurso para evaluar y mejorar la seguridad semántica en la IA y la robótica incorporada. El conjunto de datos está inspirado en el de Isaac Asimov Tres leyes de robótica y tiene como objetivo ayudar a los investigadores a desarrollar robots que sean más seguros y más alineados con los valores humanos.
Google Deepmind está trabajando con un grupo selecto de probadores, incluidos robots ágiles, robots de agilidad, dinámica de Boston y herramientas encantadas, para explorar las capacidades de Gemini Robotics-Er. Google dice que estas colaboraciones ayudarán a refinar los modelos y guiarán su desarrollo hacia aplicaciones del mundo real.
Al combinar el razonamiento avanzado con la acción física, Google Deepmind está allanando el camino para un futuro donde los robots pueden ayudar a los humanos en una amplia gama de tareas, desde tareas domésticas hasta aplicaciones industriales.
Ver también: La ‘bolsa de golf’ de los robots abordará entornos peligrosos
¿Quiere obtener más información sobre AI y Big Data de los líderes de la industria? Echa un vistazo a AI y Big Data Expo que tendrá lugar en Amsterdam, California y Londres. El evento integral está ubicado en otros eventos líderes, incluida la Conferencia de Automatización Inteligente, Blockx, la Semana de Transformación Digital y Cyber Security & Cloud Expo.
Explore otros próximos eventos y seminarios web de tecnología empresarial alimentados por TechForge aquí.
Etiquetas: IA, inteligencia artificial, profunda, IA encarnada, robótica de Géminis, Google, modelos, robótica, robots
This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.
Strictly Necessary Cookies
Strictly Necessary Cookie should be enabled at all times so that we can save your preferences for cookie settings.
If you disable this cookie, we will not be able to save your preferences. This means that every time you visit this website you will need to enable or disable cookies again.