Connect with us

Noticias

Here’s a recap of major OpenAI ChatGPT features and events of 2024

Published

on

Image by MOMO36H10 via Pixabay

ChatGPT has taken the tech world by storm since its debut, and 2024 wasn’t any less for the chatbot and its maker, OpenAI. The Delaware-based generative AI company saw many ups and downs last year. While it continued to launch new AI products and features, OpenAI was a part of several legal battles.

Let’s recap major launches and other big updates from 2024 related to OpenAI and ChatGPT. In your free time, you can check out our recaps of major Gemini features from 2024, services Google killed in 2024, and the Instagram wishlist for 2025.

Table of Contents:

Note: This list is not exhaustive and may not contain all updates related to ChatGPT and OpenAI. The features are not arranged in any order of preference.

GPT Store, ChatGPT Team subscription, $200 Pro plan

GPT Store

OpenAI started 2024 with a brand new GPT Store to expand the potential use cases of its chatbot. The store is a central hub where users can find and share custom versions of ChatGPT (called GPTs) made for specific tasks. Over three million GPTs were already available at launch, OpenAI announced, adding that bot creators can earn money through the revenue-sharing program.

A new paid subscription tier called ChatGPT Team was also introduced, targeting teams with up to 150 users for collaborative creation. Compared to the Plus tier, it offers higher message limits on GPT-4, GPT-4o, and other tools like DALL-E and data analysis.

The ChatGPT-maker unveiled a “Pro” plan in December with a hefty price tag of $200/mo for those with deep pockets. The company said that the highly-priced subscription offers the best of OpenAI and the highest level of access. ChatGPT Pro comes with all the perks of the Plus tier and unlimited access to advanced voice mode, GPT-4o, o1, and o1-mini models.

ChatGPT via landline phones

Yes, you read that correctly! Using ChatGPT via a landline phone is something you might rarely think of. However, OpenAI launched a new phone number (1-800-CHATGPT) that you can dial to get a taste of generative AI using legacy tech.

You can throw questions at the chatbot and interrupt it anytime. The experience might feel similar to the advanced voice mode. If you live in the US or Canada, you get 15 minutes of free calling in a month (standard carrier fees may apply). You can also save the number on your phone and talk to ChatGPT via WhatsApp. Again, there is a daily limit to how many WhatsApp messages you can exchange.

Use ChatGPT without an account

Walls around ChatGPT were lowered by OpenAI, allowing users to access the chatbot without an account completely free. OpenAI announced in April that it will “gradually” roll out account-free access to everyone, adding that there will be more “guardrails” with it and that some text prompts may be blocked.

You still need an account to unlock features such as chat history, share chats, voice conversations, and custom instructions.

ChatGPT for Apple Vision Pro

While tech giants like Netflix, Spotify, and YouTube shied away from being early adopters of Apple’s pocket-burning spatial computing headset, OpenAI hopped on the ship quickly.

ChatGPT for Vision Pro

The ChatGPT app for Vision Pro was launched in February last year, powered by OpenAI’s then-latest large language model (LLM) GPT-4 Turbo. ChatGPT was among the 600 apps and games natively available for Apple Vision Pro at its launch.

Watermarks for AI-generated images, deepfake image detector

OpenAI started adding watermarks to AI-generated images created using its text-to-image model DALL-E 3 and ChatGPT. The move was to make dealing with sophisticated AI tools easier and help users identify whether a human or an AI created the image. The change aligned with the specifications issued by the Coalition for Content Provenance and Authenticity (C2PA).

DALL-E AI watermark

The watermark includes details such as the creation date and C2PA logo in the upper left corner. While OpenAI assured no reduction in image quality or processing speeds, the watermark increased the image’s file size. It added that removing provenance data by cropping the image or editing its pixels was technically possible.

Apart from that, OpenAI started testing a new tool to detect if an image was made using the DALL-E art generator. An early version of the unnamed tool successfully identified over 98% of images generated by DALL-E and misidentified images by less than 0.5 of the time as being made by DALL-E.

Memory for ChatGPT

A memory feature for ChatGPT went into testing in February last year, enabling the chatbot to remember past chats and use the information when needed for future chats. For instance, you can ask the chatbot to remember your name, if you have a puppy, if you have a neighborhood coffee shop, or if you prefer concise responses.

ChatGPT Memory Feature

The feature allows ChatGPT to forget parts of its memory you don’t want. It was released to ChatGPT Plus users in April and made available to free users in September.

ChatGPT on iPhone

Apple was late to the generative AI party. However, that changed last year with the iOS 18 update, which introduced the Apple Intelligence suite of AI features. Adding more to that was ChatGPT integration for Siri, allowing the iPhone’s voice assistant to call up its more capable counterpart when things go out of hand.

A previous report claimed the deal was structured so that Apple didn’t have to pay any money to OpenAI. Instead, the Cupertino giant believed offering OpenAI’s brand and tech to over one billion active devices would provide more value than cash payment.

It might contribute to more ChatGPT Plus paid tier sign-ups as users can manage the chatbot directly from the iPhone’s settings app. Meanwhile, Apple can earn a commission as a referring partner.

However, the partnership invited criticism from the tech mogul Elon Musk, who threatened to ban iPhones with ChatGPT from his companies and put them in a Faraday cage.

Apple was also rumored to add Google’s Gemini chatbot to its Apple Intelligence suite and power Siri’s responses. Meanwhile, OpenAI was reportedly in talks with Samsung about integrating ChatGPT into Galaxy devices.

Media Manager

Media Manager allows content makers and owners to inform OpenAI about their content ownership and whether or not they want their content to be used to train its AI models. OpenAI said during the announcement that it plans to have the tool, which was in the early stages of development, in place by 2025.

OpenAI added that Media Manager will be the first-of-its-kind tool built “to help us identify copyrighted text, images, audio, and video across multiple sources and reflect creator preferences.”

GPT-4o model, ChatGPT Edu

The Spring Update event in May introduced the GPT-4o LLM for everyone using ChatGPT, including free users. Faster and more capable than GPT-4, the new model can process input modes such as text, image, audio, and video.

OpenAI followed GPT-4o’s launch with a new ChatGPT Edu subscription aimed at university students, faculties, and researchers. While there have been concerns over students using ChatGPT to dodge their homework, OpenAI tried to push the chatbot as a helping hand. For example, students can discuss their assignments with a GPT trained on their course material, which can help them think more deeply.

Advanced Voice Mode

GPT-4o also made ChatGPT’s advanced Voice Mode capable of delivering a human-like conversation experience. However, it landed in trouble after one of the female voices spoken by ChatGPT resembled American actor Scarlett Johansson. The actor later said that OpenAI offered to hire her to be one of ChatGPT’s AI voices, but a deal didn’t come to fruition.

ChatGPT video sharing

Advanced Voice Mode was updated in later months with support for video input, screen sharing, and image uploads, enabling the chatbot to see, hear, and speak in real time.

Apps for Mac and Windows, cloud support

OpenAI also launched the ChatGPT app for macOS at last year’s Spring Update event. Initially available for paid subscribers, ChatGPT’s Mac desktop app was loaded with Voice Mode and the ability to upload files and take screenshots, among various features.

ChatGPT desktop app for Windows was previewed sometime in October and made available to all users in November. Features such as text scaling adjustment, advanced voice mode, and clicking photos using the built-in webcam were also added.

Building on ChatGPT’s data analysis capabilities, OpenAI allowed users to upload files directly from Google Drive and Microsoft OneDrive, enabling the chatbot to access services such as Sheets, Docs, Slides, Excel, Word, and PowerPoint.

ChatGPT also got an expandable view for tables and charts. The chatbot can generate interactive tables from a dataset. Users can switch to a full-screen view and click on specific areas in the table to ask follow-up questions.

The situation became embarrassing for OpenAI after reports that the ChatGPT macOS app stored all the conversations in plain text inside an unprotected file location. The company later fixed it.

ChatGPT in Audi and Mercedes-Benz cars

Not just tech companies, automakers also tried their hands on the generative AI tech. German carmaker Audi announced ChatGPT integration for millions of its models released since 2021. Updated voice control features allow users to operate infotainment, navigation, and AC systems without using their hands. They can also ask general knowledge questions from the ChatGPT-powered Audi assistant.

MBUX Voice Assistant ChatGPT

Last month, Mercedes-Benz also rolled out its ChatGPT integration as a free update to over three million vehicles equipped with its MBUX infotainment system. The automaker developed a new voice experience on top of the Microsoft Azure OpenAI Service, bringing context-aware and up-to-date responses to the drivers. They can press the speech button on the steering or say “Hey Mercedes” to use the feature.

CriticGPT to find mistakes

OpenAI knows that no AI model is perfect, and there might be occasions when things get embarrassing. The company trained a new model called CriticGPT to find mistakes in the code snippets generated by ChatGPT and highlight inaccuracies.

OpenAI CriticGPT model

CriticGPT is meant to assist human AI trainers who train and improve ChatGPT’s responses. A model of such kind becomes more critical when a study suggests that programming answers given by ChatGPT could be wrong 52% of the time.

SearchGPT and ChatGPT Search

OpenAI now has an offering to rival Google in the search engine game. While CEO Sam Altman initially denied rumors of a ChatGPT search engine in the making, the company unveiled a prototype called SearchGPT in July.

Instead of simply presenting a list of links, SearchGPT tries to answer user queries with up-to-date information and provides links to the sources used. You can throw follow-up questions at the search engine while continuing the context.

ChatGPT Search news

OpenAI released ChatGPT Search in October after testing the prototype version for months. The company partnered with several news organizations to include their content in the ChatGPT search experience.

The search experience was initially limited to paying ChatGPT subscribers but was released to everyone in December. A Chrome extension allows users to use the search engine directly from the browser’s URL bar.

GPT-4o model updates

OpenAI’s updated frontier model, ChatGPT-4o-latest, quickly reclaimed the number one spot in the LMSYS Chatbot Arena. However, the model was intended for research and evaluation only; it supported a context length of 128,000 tokens and 16,384 output tokens.

This happened almost a week after gpt-4o-2024-08-06 was released with support for Structured Outputs in the API and the same number of input/output tokens as chatgpt-4o-latest.

Another GPT-4o API update named gpt-4o-2024-11-20 was pushed in November with improved creative writing ability. OpenAI claimed the model works better with uploaded files, providing deeper insights and more thorough responses.

OpenAI o1, o1-mini

A new large language model called OpenAI o1 was introduced last year that takes more time to think before responding. It is designed to handle complex reasoning tasks, particularly in coding, math, and scientific problem-solving.

However, the o1 model can’t do some of GPT’s tasks, such as finding information on the web or checking out uploaded images and other files. Its smaller, faster, and cheaper version, OpenAI o1-mini, was also launched last year.

ChatGPT Canvas

Canvas is the first major update to ChatGPT’s visual interface since its debut in 2022. The new interface is designed to work with ChatGPT on specific tasks like writing and coding. It lets you refine prompts using a side panel and offers several usability improvements.

ChatGPT Canvas

For instance, you can highlight parts of the output and ask ChatGPT to focus on those. You can use shortcuts to perform various tasks, such as adding emojis, reviewing code, suggesting edits, adding comments, and more. The new user interface was made generally available for all users in December during the 12 Days of OpenAI live stream series.

ChatGPT Projects

12 Days of OpenAI event also dropped the ChatGPT Projects feature, which lets users organize their chats about similar topics. In other words, users can create projects to keep related chats, files, and custom instructions in one place.

The feature works with the GPT-4o model and is available to Plus, Pro, and Team subscribers. Support for Enterprise and Edu users will be added in 2025, and Projects will also be available to free users (there is no word on the release date).

Return of Sam Altman to the board

OpenAI’s co-founder and CEO Sam Altman’s abrupt firing from his position and removal from the board in November 2023 sounds like a corporate movie plot. More so because Altman dramatically returned as OpenAI’s CEO just five days later. Meanwhile, the board members who voted to fire him agreed to depart.

WilmerHale, a third-party group appointed to look into the matter, ended up reviewing over 30,000 documents and conducted dozens of interviews with prior board members, OpenAI executives, and others. Altman’s official return to OpenAI’s board was announced in March 2024 after the group found “that his conduct did not mandate removal.”

Lawsuits by Elon Musk

Elon Musk was among the founding members of OpenAI. However, the tech billionaire has started bombarding OpenAI with lawsuits in recent years, mostly revolving around OpenAI’s stance towards becoming a for-profit organization.

In one of the lawsuits filed in early 2024, Musk claimed OpenAI breached its own contract by trying to become a for-profit company rather than the non-profit organization initially set up to benefit humanity.

While there are more layers to the drama, a new motion filed late last year asked for a preliminary injunction to prevent OpenAI’s for-profit transition and accused the company of anti-competitive behavior.

Lawsuits by authors and news agencies

It was not just new features; much legal and corporate drama happened around OpenAI and ChatGPT. Two non-fiction authors sued the AI company and Microsoft at the start of 2024, alleging their work was used without permission to train AI models for ChatGPT and other services.

One of the complainants previously worked for The New York Times (NYT), which had also filed a copyright lawsuit against the two companies. In return, OpenAI accused NYT of tricking ChatGPT into copying its articles, and Microsoft also wanted the court to dismiss parts of the lawsuit filed by NYT.

It was reported in February that lawsuits from more news organizations targeted OpenAI, echoing claims of copying stories from their sites as part of AI training.

Shut down of US presidential candidate chatbots

OpenAI’s updated policies banned using its tools and services to create simulated versions of real election candidates. This was part of its efforts around combating false election information during the 2024 US Presidential elections.

In January, the generative AI company banned a developer who used ChatGPT to simulate Dean Philips, a declared candidate for US President in the Democratic Party. Another chatbot shutdown concerning the declared presidential candidate Robert F. Kennedy Jr was reported in March.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

OpenAI apunta a 2025 para el avance de AGI y la fuerza laboral de IA

Published

on

TLDR

  • Sam Altman de OpenAI predice la llegada de AGI y la integración de la fuerza laboral de IA en 2025
  • OpenAI ha crecido a 300 millones de usuarios semanales mientras busca el desarrollo de AGI
  • Los expertos de la industria cuestionan la viabilidad del cronograma y la claridad de la definición de AGI
  • La investigación indica preferencia por la colaboración entre humanos y IA sobre la automatización total
  • El despliegue actual de agentes de IA muestra resultados mixtos y requiere supervisión humana

El director ejecutivo de OpenAI, Sam Altman, inició el año 2025 con un anuncio que llamó la atención del mundo tecnológico: su empresa cree que ha descifrado el código para lograr la inteligencia artificial general (AGI). La noticia llegó a través de una publicación de blog detallada donde Altman describió el progreso de OpenAI y reveló que la compañía ahora atiende a más de 300 millones de usuarios cada semana.

El momento de este anuncio se alinea con el reciente hito del segundo aniversario de ChatGPT. La publicación de Altman fue más allá de los logros actuales y hizo una predicción audaz: los agentes de IA podrían comenzar a ingresar a la fuerza laboral dentro de un año, lo que podría remodelar la forma en que operan las empresas.

Altman escribió con confianza sobre las capacidades de OpenAI: “Ahora estamos seguros de que sabemos cómo construir AGI como la hemos entendido tradicionalmente”. Amplió esto sugiriendo que en 2025 los agentes de IA podrían participar activamente en la fuerza laboral y mejorar el desempeño de la empresa.

La definición de AGI sigue siendo un punto de debate en la comunidad tecnológica. Si bien se refiere en términos generales a sistemas de IA que combinan la inteligencia humana en diversas tareas, no existe un acuerdo universal sobre qué constituye exactamente AGI. Esta falta de claridad ha llevado a preguntas sobre lo que realmente significan las afirmaciones de Altman.

Los expertos técnicos han opinado sobre la viabilidad del cronograma de Altman. Charles Wayn, cofundador de la plataforma descentralizada Galxe, expresó sus reservas.

“Los modelos de IA actuales enfrentan demasiados desafíos técnicos que deben resolverse antes de que podamos lograr una verdadera AGI”, explicó a nuestro equipo.

El contexto financiero de OpenAI añade otra capa a considerar. La investigación y el desarrollo de IA de la compañía requieren una financiación masiva, lo que lleva a algunos observadores de la industria a sugerir que estos anuncios podrían ayudar a mantener la confianza de los inversores a pesar de los altos costos operativos.

Mirando más allá de AGI, Altman analizó el objetivo final de OpenAI de lograr la superinteligencia artificial (ASI). “Amamos nuestros productos actuales, pero estamos aquí para un futuro glorioso”, escribió. Si bien OpenAI no ha especificado cuándo podría llegar ASI, algunos investigadores predicen que la IA podría igualar todas las capacidades humanas para 2116.

El investigador jefe de IA de Meta, Yan Lecun, ofrece una perspectiva diferente y señala que la tecnología actual enfrenta limitaciones fundamentales. Las limitaciones de hardware y los desafíos de la metodología de capacitación sugieren que AGI podría estar más lejos de lo que indica Altman.

La perspectiva de que los agentes de IA se unan a la fuerza laboral ha provocado diversas respuestas por parte de los líderes empresariales. Harrison Seletsky de SPACE ID compartió su opinión:

“Los agentes de IA sobresaldrán en tareas rutinarias, pero aún carecen del pensamiento creativo y del juicio que los humanos aportan a la hora de tomar decisiones complejas”.

Una investigación reciente de la Universidad de la Ciudad de Hong Kong enfatiza la combinación de capacidades humanas y de inteligencia artificial en lugar de reemplazar a los trabajadores por completo. Sus hallazgos sugieren que este enfoque colaborativo conduce a mejores resultados para las organizaciones y la sociedad.

El impacto de la IA en el mundo laboral en el mundo real ya es visible. Alrededor del 25% de los líderes de empresas expresan interés en utilizar agentes de IA para realizar determinadas funciones laborales. Sin embargo, la experiencia muestra que la supervisión humana sigue siendo esencial, ya que los sistemas de IA todavía tienen dificultades para comprender el contexto y pueden cometer errores inesperados.

Humayun Sheikh, que dirige Fetch.ai y preside la Alianza ASI, predice un cambio gradual en lugar de una interrupción repentina.

“Si bien la automatización aumentará, particularmente para las tareas rutinarias, es probable que veamos un cambio en los roles humanos en lugar de un reemplazo total”, señaló en nuestra entrevista.

Los recientes logros técnicos de OpenAI dan cierta credibilidad a sus afirmaciones. Su último modelo de IA obtuvo una puntuación del 87,5 % en el punto de referencia ARC-AGI, acercándose a lo que los expertos consideran rendimiento a nivel humano. Sin embargo, continúa el debate sobre si estas métricas realmente indican un progreso hacia el AGI.

La implementación de agentes de IA en los entornos laborales actuales ha producido resultados mixtos. Si bien algunas tareas se pueden automatizar con éxito, las empresas descubren constantemente que necesitan trabajadores humanos para gestionar situaciones en las que la IA se queda corta debido a limitaciones de capacitación o incapacidad para comprender contextos complejos.

Eliezer Yudkowsky, un destacado investigador de IA, sugiere considerar estos anuncios con cuidadosa consideración. Indica que predicciones tan audaces podrían tener fines promocionales en lugar de reflejar posibilidades técnicas inmediatas.

Estudios recientes sobre la integración de la IA en el lugar de trabajo revelan patrones interesantes. Las organizaciones que mantienen un equilibrio entre la experiencia humana y las capacidades de IA tienden a obtener mejores resultados que aquellas que buscan una automatización total. Esto sugiere que el futuro podría implicar una mejora en lugar de un reemplazo de trabajadores humanos.

Los datos de las primeras implementaciones de agentes de IA muestran promesas y limitaciones. Si bien las tareas rutinarias tienen altas tasas de éxito, la toma de decisiones complejas aún requiere participación humana. Este patrón respalda la opinión de que los avances a corto plazo se centrarán en aumentar, en lugar de reemplazar, las capacidades humanas.

Los analistas de la industria continúan monitoreando el progreso de OpenAI hacia estos ambiciosos objetivos. Si bien el crecimiento y los logros técnicos de la empresa son impresionantes, la brecha entre las capacidades actuales de IA y la verdadera AGI sigue siendo un tema de discusión constante en la comunidad tecnológica.

0

¡Manténgase a la vanguardia del mercado con Benzinga Pro!

¿Quieres operar como un profesional? Benzinga Pro le brinda la ventaja que necesita en los mercados acelerados de hoy. Obtenga noticias en tiempo real, información exclusiva y potentes herramientas en las que confían los traders profesionales:

  • Últimas noticias que mueven el mercado antes de que lleguen a los principales medios de comunicación
  • Graznido de audio en vivo para actualizaciones del mercado de manos libres
  • Escáner de acciones avanzado para detectar operaciones prometedoras
  • Ideas comerciales de expertos y soporte bajo demanda

No dejes escapar las oportunidades. ¡Comience su prueba gratuita de Benzinga Pro hoy y lleve sus operaciones al siguiente nivel!

Visita Benzinga Pro

Continue Reading

Noticias

¿La IA reemplazará a los terapeutas? – Semana de noticias

Published

on

La creciente dependencia de ChatGPT para el apoyo a la salud mental está transformando la forma en que las personas afrontan las luchas emocionales.

Una tendencia creciente en las redes sociales, particularmente en TikTok, presenta a personas que utilizan ChatGPT como herramienta terapéutica. Los usuarios describen compartir sus pensamientos con la IA y recibir comentarios u orientación, y a menudo expresan sorpresa por lo perceptiva y emocionalmente inteligente que parece ser.

Aunque las plataformas impulsadas por la IA como ChatGPT ofrecen asistencia inmediata las 24 horas del día, lo que las hace convenientes y rentables para la atención de la salud mental, el uso de la IA en la atención de la salud mental plantea desafíos éticos, como preocupaciones sobre la privacidad de los datos, la precisión de su respuestas y el riesgo de que los usuarios se vuelvan demasiado dependientes de la IA.

Semana de noticias se ha puesto en contacto con expertos en psicología y tecnología para discutir si ChatGPT tiene la capacidad de reemplazar a los terapeutas en un futuro próximo.

¿La IA reemplazará a los terapeutas?

Ilustración fotográfica de Newsweek/Getty

Del Dr. Daniel Lowd: La IA podría llenar los vacíos donde los terapeutas no están disponibles

La gente se siente cómoda hablando con la IA desde el chatbot ELIZA, hace 60 años. Las personas también encuentran apoyo para la salud mental escribiendo un diario, haciendo ejercicio, orando, hablando con amigos de confianza y leyendo libros de autoayuda. Si bien nada de eso reemplaza a un buen terapeuta, es difícil encontrar buenos terapeutas. Las esperas son largas, los costos pueden ser elevados y un terapeuta adecuado para una persona puede resultar totalmente equivocado para otra. Entonces, si la gente puede encontrar apoyo y perspectiva hablando con ChatGPT o Claude, entonces creo que es maravilloso.

Daniel Lowd, profesor asociado del Departamento de Informática y Ciencias de la Información de la Universidad de Oregón.

Del Dr. Pim Cuijpers: La IA transformará la atención de la salud mental pero no reemplazará a los terapeutas

No creo que la IA reemplace a los terapeutas. Siempre habrá necesidad de terapia y apoyo humano, y esa necesidad es tan grande que la cantidad de terapeutas no disminuirá debido a la IA.

Mantuvimos esta discusión en los Países Bajos hace 20 años, cuando los primeros resultados de nuestras intervenciones digitales (no basadas en IA) estuvieron disponibles y demostraron que estas intervenciones eran tan efectivas como los tratamientos cara a cara. Y aunque las herramientas digitales han llegado a la práctica habitual, no hay ningún impacto en el número de terapeutas.

Pero la IA cambiará la atención de la salud mental. Para algunas personas, un terapeuta de IA será suficiente (incluso preferido por encima de los terapeutas humanos), pero para muchas personas no será suficiente. Pero la IA tendrá impacto de muchas maneras diferentes.

Se están realizando investigaciones para examinar qué paciente se beneficiará de qué tipo de tratamiento, utilizando el aprendizaje automático (IA). Hay investigaciones sobre evaluaciones ecológicas momentáneas a través de teléfonos inteligentes, también orientadas a mejorar los resultados y utilizando el aprendizaje automático, y hay estudios que utilizan herramientas digitales como complemento a la terapia habitual, como por ejemplo la terapia Avatar en los trastornos psicóticos.

Por tanto, ninguna IA sustituirá a los terapeutas, pero sí cambiará y mejorará considerablemente la atención de la salud mental.

Dr. Pim Cuijpers, Profesor emérito, Departamento de Psicología Clínica, Neuro y del Desarrollo, Universidad Vrije de Ámsterdam.

Del Dr. Richard Lachman: Depender de la IA para la salud mental podría afectar a las personas jóvenes y vulnerables

Los chatbots de IA responderán como terapeutas si se les solicita, sin la supervisión, capacitación o responsabilidad de un consejero humano o incluso de un software especializado y probado.

Esta disposición para abordar temas sin experiencia es una debilidad importante tanto en los LLM como en la naturaleza de la interfaz conversacional: dan la ilusión de comprensión y competencia a través de una fluidez fácil y un afán conversacional por complacer, afinado por el aprendizaje reforzado y las respuestas humanas. .

Ya hemos visto interacciones inseguras y poco saludables con personas en crisis a través de chatbots centrados en las relaciones y, a medida que se vuelvan más parte de nuestro panorama de interacción, esto solo aumentará.

La facilidad de acceso y un costo radicalmente más barato también pueden llevar a las organizaciones a financiar chatbots de IA en lugar de participar en los cambios sistémicos a largo plazo necesarios para poner a disposición terapeutas humanos calificados, responsables y gobernados éticamente. Es probable que esto afecte a los jóvenes y a los segmentos vulnerables de la sociedad que tal vez no tengan los recursos financieros o los medios para defenderse por sí mismos.

Dr. Richard Lachman, profesor asociado, producción de medios y director, aprendizaje de zona y director, investigación y desarrollo de tecnología creativa, Universidad Metropolitana de Toronto.

Del Dr. Ben Levinstein: La IA podría influir en el desarrollo de la salud mental en el futuro, si se utiliza con precaución

La cuestión de si la IA reemplazará a los terapeutas no es un simple sí o no; más bien, se trata de comprender cómo la IA transformará el panorama de la atención de salud mental.

Si bien algunos pacientes seguirán prefiriendo terapeutas humanos, valorando los aspectos de la conexión humana, otros pueden gravitar hacia los sistemas de inteligencia artificial, encontrándolos más accesibles y sintiéndose más cómodos compartiendo sus luchas más profundas sin temor al juicio humano.

El costo dramáticamente menor de la terapia con IA, combinado con su disponibilidad constante y la eliminación de las listas de espera, probablemente acelerará este cambio, particularmente porque las compañías de seguros reconocen el potencial para mejorar los resultados y reducir los gastos.

Es probable que el campo de la salud mental se desarrolle en múltiples direcciones simultáneamente. Algunas prácticas pueden adoptar enfoques híbridos, donde la IA maneja las evaluaciones iniciales y brinda apoyo entre sesiones mientras los terapeutas humanos se concentran en el trabajo terapéutico central.

Otros servicios podrían estar totalmente impulsados ​​por la IA, sobre todo a medida que estos sistemas se vuelven cada vez más sofisticados en su capacidad para comprender la psicología humana y desarrollar planes de tratamiento. En psiquiatría, si bien la adopción temprana de la IA podría centrarse en casos de rutina, los avances en los sistemas de IA probablemente superarán las capacidades humanas para manejar incluso los desafíos más complejos de diagnóstico y gestión de medicamentos, lo que podría llevar a que la IA se convierta en el principal proveedor de atención psiquiátrica.

Sin embargo, el auge de la terapia con IA también plantea serias preocupaciones. Una cuestión crítica es la “compra de terapeutas”, donde los pacientes buscan terapeutas que simplemente validen sus puntos de vista existentes en lugar de brindarles un trabajo terapéutico desafiante pero necesario.

Este problema, que ya está presente en los terapeutas humanos, podría amplificarse con sistemas de IA, ya que los pacientes podrían cambiar fácilmente entre diferentes modelos de IA hasta encontrar uno que les diga lo que quieren escuchar.

Además, existen complejas cuestiones éticas y legales sobre cómo los sistemas de IA manejarían situaciones que involucran ideas suicidas o requisitos de presentación de informes obligatorios. Si bien estos desafíos no impedirán que la IA revolucione la atención de salud mental, deberán abordarse cuidadosamente a medida que el campo evolucione.

Dr. Ben Levinstein, profesor asociado de la Universidad de Illinois, Urbana-Champaign, Departamento de Filosofía.

Del Dr. Randy Goebel: Los humanos seguirán siendo irremplazables como terapeutas a pesar del auge de la IA

La realidad es que los humanos seguirán siendo los mejores terapeutas humanos en el futuro previsible, aunque la clasificación tipo chatbot seguirá proporcionando cierto acceso gradual a consejeros reales. Es probable que la proliferación de información errónea y errónea, acelerada por los sistemas de inteligencia artificial, haga que la necesidad de asesoramiento sobre salud mental sea aún más intensa que antes.

Como es habitual, los sistemas público y privado responderán de diferentes maneras, pero no antes de que haya muchas consecuencias negativas.

Dr. Randy Goebel, Profesor de Ciencias de la Computación y Profesor Adjunto de Medicina, Universidad de Alberta.

Del Dr. John Torous: La IA apoyará, no reemplazará, a los terapeutas

La IA no reemplazará a los terapeutas. En las últimas décadas, hemos tenido muchos libros, CD-ROM, sitios web y aplicaciones excelentes de terapia de autoayuda. No han reemplazado a los terapeutas. La IA puede hacer muchas cosas maravillosas, pero la gente quiere conectarse con otras personas para realizar terapia. Sin embargo, la IA desempeñará un papel a la hora de mejorar la terapia haciéndola eficaz e impactante.

Un peligro de la IA es que veremos una ola inicial de personas sin formación ni licencia que tal vez afirmen ser terapeutas y ofrezcan terapia. Usar IA no significa que cualquiera pueda actuar como terapeuta, al igual que usar un simulador de vuelo no significa que cualquiera pueda actuar como piloto. Siempre es bueno preguntar a cualquier terapeuta sobre sus credenciales, experiencia y formación, y hoy más que nunca.

Dr. John Torous, Director de Psiquiatría Digital, Centro Médico Beth Isreal Deaconess, Profesor Asociado de Psiquiatría, Facultad de Medicina de Harvard

Continue Reading

Noticias

Noticias de Las Vegas: el sospechoso de la explosión del Tesla Cybertruck, Matthew Livelsberger, utilizó ChatGPT para atacar el hotel Trump Tower, dice la policía

Published

on

LAS VEGAS– Matthew Livelsberger utilizó ChatGPT para ayudar a planear la explosión del Tesla Cybertruck frente al Trump International Hotel Las Vegas el día de Año Nuevo, revelaron las autoridades el martes.

La policía tiene “evidencias claras” de que Livelsberger utilizó la herramienta de inteligencia artificial generativa para “ayudar a planificar su ataque”, dijo el sheriff Kevin McMahill del Departamento de Policía Metropolitana de Las Vegas a los periodistas durante una conferencia de prensa el martes.

Livelsberger, un soldado del ejército en servicio activo que, según las autoridades, se suicidó en el incidente, hizo preguntas sobre los explosivos y qué haría estallar ciertos tipos de explosivos, dijo la policía.

McMahill dijo que cree que este es el primer caso en suelo estadounidense en el que ChatGPT/AI ayudó a un sospechoso a construir un dispositivo, y lo calificó como un “momento preocupante” y un “cambio de juego”. Agregó que también es “instructivo” para otras agencias encargadas de hacer cumplir la ley y está divulgando información donde puedan en el caso.

A través de ChatGPT, el sospechoso buscó “tratar de calcular la cantidad de explosivos necesarios para llevar a cabo la explosión que buscaba causar”, dijo la asistente del sheriff de Las Vegas, Dori Koren, durante la rueda de prensa.

También lo usó para tratar de averiguar dónde comprar fuegos artificiales, cuánto y cómo se comparan con otros materiales explosivos, dijo Koren. Un “componente importante” de sus investigaciones involucró la velocidad de la bala disparada por el arma de fuego y “determinar si eso encendería los explosivos”, dijo Koren.

Livelsberger, de Colorado Springs, Colorado, murió a causa de una herida de bala autoinfligida justo antes de la explosión, según el forense del condado de Clark. En el vehículo se encontraron dos armas de fuego, una pistola y un rifle, dijo la policía.

El Cybertruck tenía más de 60 libras de pirotecnia y se vertieron 20 galones de combustible sobre los fuegos artificiales y el material explosivo en la parte trasera del camión, según Kenny Cooper, agente especial asistente a cargo de la Oficina de Alcohol, Tabaco, Armas de Fuego y Explosivos. ‘División de campo de San Francisco.

Los investigadores creen que el fogonazo por sí solo podría haber sido una fuente de ignición para la explosión de combustible y aire, aunque no se han descartado otras fuentes posibles, dijo.

La policía dijo el martes que también recuperó un documento de seis páginas en un teléfono encontrado en el Cybertruck que mostraba una “variación de agravios y una evolución constante de sus planes o intenciones de lo que quería hacer”, dijo Koren.

En el documento, el sospechoso criticó a la administración Biden y habló de tener recuerdos gráficos de su tiempo en la batalla y de perder a sus compañeros de equipo, según Koren. También mencionó estar “muy drogado con marihuana y alcohol”, algo que los investigadores todavía están trabajando para confirmar, dijo Koren. El documento también mostró sus problemas de salud mental, que “se basan en ese potencial trastorno de estrés postraumático al que nos referimos”, dijo Koren.

“Él hace la transición en algún momento y habla de estar preocupado de que los medios los etiqueten como terroristas y que no tenía intención de matar a nadie más que a él mismo”, dijo Koren.

Los escritos de Livelsberger indican que había considerado planear provocar la explosión en la pasarela de cristal del Gran Cañón pero cambió de opinión, por alguna razón, al Hotel Trump, dijo la policía.

“Él habla de su intención de hacer esto lo más público posible”, dijo Koren.

VER TAMBIÉN: Soldado que se suicidó en Las Vegas le contó a su ex novia el dolor y el agotamiento después de Afganistán

La policía cree que partes del documento pueden estar clasificados y están trabajando con el Departamento de Defensa para determinar si se puede divulgar todo.

La semana pasada, el Departamento de Policía Metropolitana de Las Vegas publicó dos cartas adicionales encontradas en un teléfono celular recuperado del Cybertruck. En las cartas, Livelsberger decía que el país estaba siendo dirigido por los “débiles” y aquellos que buscaban “enriquecerse”, al tiempo que afirmaba que el incidente no pretendía ser un ataque terrorista sino una “llamada de atención”.

En una de las cartas que la policía dice que fueron encontradas en su teléfono, Livelsberger expresó su apoyo a Donald Trump y a los aliados del presidente electo, Elon Musk y Robert F. Kennedy Jr. También expresó desdén por las iniciativas de diversidad, equidad e inclusión y la desigualdad de ingresos y expresó su preocupación por la falta de vivienda, según las cartas.

Livelsberger también envió un correo electrónico compartido en el podcast de temática militar “Shawn Ryan Show” el viernes, confirmaron las autoridades el martes. Esa información fue enviada al FBI luego del ataque, dijeron funcionarios federales.

La evidencia muestra que Livelsberger “se preparó cuidadosamente” y actuó solo en el incidente, dijeron las autoridades federales. No estaba en el radar del FBI antes del ataque, dijeron las autoridades.

Nadie más resultó gravemente herido, aunque siete transeúntes sufrieron heridas leves, dijeron las autoridades.

Livelsberger sirvió como Boina Verde en el ejército y estaba con licencia aprobada para servir en Alemania en el momento de su muerte, dijo el jueves un portavoz del ejército estadounidense.

Recibió extensas condecoraciones en combate, incluida la Estrella de Bronce con un dispositivo en forma de “V” por su valor, que indica heroísmo bajo fuego. Livelsberger recibió cuatro medallas estándar de Estrella de Bronce más, según los registros del ejército. También obtuvo la Medalla de la Campaña de Afganistán con tres estrellas. Cada estrella representa el servicio en una campaña separada en Afganistán.

Livelsberger había estado recibiendo asistencia de salud mental durante el último año, confirmó el viernes un funcionario estadounidense.

Otro funcionario estadounidense confirmó que los funcionarios pensaban que Livelsberger estaba lo suficientemente estable como para regresar a casa para Navidad y que se aprobó su licencia.

Su esposa, con quien hablaron los investigadores en Colorado Springs, dijo que había estado fuera de la casa desde Navidad después de una disputa sobre acusaciones de infidelidad, dijo el funcionario.

Su esposa dijo a los funcionarios que no creía que Livelsberger quisiera lastimar a nadie, dijo el funcionario a ABC News.

Un portavoz de OpenAI dijo en un comunicado: “Estamos entristecidos por este incidente y comprometidos a que las herramientas de IA se utilicen de manera responsable. Nuestros modelos están diseñados para rechazar instrucciones dañinas y minimizar el contenido dañino. En este caso, ChatGPT respondió con información que ya está disponible públicamente en Internet y proporcionó advertencias contra actividades dañinas o ilegales. Estamos trabajando con las autoridades para apoyar su investigación”.

Si tiene pensamientos suicidas o está preocupado por un amigo o un ser querido, llame o envíe un mensaje de texto a Suicide & Crisis Lifeline al 988 para apoyo emocional confidencial y gratuito las 24 horas del día, los siete días de la semana.

El vídeo en el reproductor de arriba es de un informe anterior.

Continue Reading

Trending