Connect with us

Noticias

Training and using ChatGPT uses a lot of energy, but exact numbers are tricky to pin down without data from OpenAI

Published

on

As the capabilities and adoption of artificial intelligence (AI) are rapidly growing, people have started scrutinizing its environmental costs. Across social media, users have made claims about the energy requirements of AI chatbots (like ChatGPT), often by comparing it to other activities or things in our daily lives. 

For example, a Linkedin post from 15 February 2025 claimed that ‘using ChatGPT-4 10 times per day for one year emits the same amount of CO2 as taking one flight from New York to Paris’ (translated from French, here). The original source of this information appears to be an article on Vert – an independent French news outlet – from 21 November 2024. 

Below we will investigate this claim and dig into some of the knowns and unknowns about energy consumption of AI chatbots like ChatGPT. 

Main Takeaways:

As the capabilities and adoption of artificial intelligence (AI) continue to grow, so are its energy impacts. Training and ongoing use of AI models requires significant energy due to their use of data centers – one of the most energy-intensive building types.

Although this energy use is broadly understood, OpenAI has not released enough data for people to know exactly how much energy consumed when using their AI chatbots (like GPT-4). An online tool called ‘EcoLogits’ can estimate the energy consumption and CO2 emissions from using ChatGPT, but has limited precision given the lack of data from OpenAI.

The EcoLogits tool calculates emissions from multiple steps – raw material extraction, transport, usage, and end-of-life. Although that is a valid method, it can be misleading to compare these results to flight emissions (as was done in a recent social media post) which are more direct – fuel is burned, CO2 is emitted. That excludes other emissions steps required for a plane to fly, such as building the plane and transporting fuel, which would increase the carbon footprint if included. 

Significant amounts of energy are needed for both training and ongoing use of ChatGPT – AI energy consumption is expected to grow

Before digging into the details: why investigate the energy use of ChatGPT in the first place? In short, both training and using AI models consumes significant amounts of energy by using data centers – one of the most energy-intensive building types, according to the U.S. Department of Energy. And adoption of these technologies has happened quite rapidly – in fact, according to the International Energy Agency (IEA), when comparing the percentage of households that adopted technologies after their commercial release, the adoption rate for generative AI has outpaced the rates for both personal computers and the internet (Figure 1). 

Figure 1 – Percent of households using different technologies (generative AI, internet, and personal computers) after commercial release (in years). Note that the adoption rate of generative AI has already outpaced the early adoption of both the internet and personal computers. Source: IEA

So what are the energy implications of this? Although it’s an ongoing topic of research, the IEA  explains, “Electricity consumption from data centres, artificial intelligence (AI) and the cryptocurrency sector could double by 2026” – this combined electricity consumption would roughly match that of the entire country of Japan. But what about AI specifically? 

As the number of users and capabilities of AI chatbots are growing, so are concerns about energy use. This was highlighted by Vijay Gadepally, senior scientist and principal investigator at the Massachusetts Institute of Technology (MIT) Lincoln Laboratory, in a January 2025 article published by MIT Sloan School of Management:

“As we move from text to video to image, these AI models are growing larger and larger, and so is their energy impact […] This is going to grow into a pretty sizable amount of energy use and a growing contributor to emissions across the world.”

At a broad scale, it is clear that there are energy and environmental impacts associated with the advancement and use of AI. But do we know enough to calculate the exact energy used or carbon dioxide (CO2) emitted per query/request to ChatGPT – or GPT-4 more specifically? At this moment, it’s quite tricky. 

Numerous social media posts have discussed the energy that is used each time you send a query to ChatGPT, but it appears that few cite any sources for this information. And there may be a good reason for this: there appears to be a scarcity of data both from the company that developed the model (OpenAI) and in the scientific literature. 

As a result, some have attempted to estimate this themselves using approximate values. For example, the claim we mentioned earlier – comparing hypothetical CO2 emissions between daily GPT-4 use and one transatlantic flight – used a tool called the ‘EcoLogits Calculator’ to do their estimations. The Linkedin post making this claim pulled information from a Vert article published on 21 November 2024, which detailed some underlying assumptions. 

To check if this was an accurate comparison, Science Feedback sought to answer a few questions: did they use sound methodology, can we replicate their work to get the same values, and are there any uncertainties? We will investigate these below.  

Emissions per query made to ChatGPT can only be roughly estimated due to large data gaps

Before we investigate, it’s worth noting that the Linkedin post did add a caveat that their calculations were ‘imperfect’ given the lack of data from OpenAI on this subject. However, these caveats can easily be forgotten or left out when people decide to share the simplified claim comparing ChatGPT use to a transatlantic flight. 

So if people only hear or read the claim itself, would it be accurate on its own? As we will detail below, there are several reasons the claim alone could be misleading. 

To start the investigation, Science Feedback first attempted to replicate the values in the ‘EcoLogits’ tool used to calculate greenhouse gas emissions and energy consumption. By following the assumptions laid out in the Vert article, Science Feedback arrived at the same values as shared in the article (Figure 2). However, the question still remains – how close are these values to reality?

Figure 2 – Calculation of energy consumed and greenhouse gases emitted from having a ‘small conversation’ with GPT-4. Note that GPT-4 is a closed-source model with less data available, resulting in lower-precision estimates by the EcoLogits tool. Source: EcoLogits

In fact, a note in the tool itself explains that by selecting a closed-source model like GPT-4, EcoLogits’ estimates will have a lower precision – confirming the issue we noted earlier about data scarcity. To gain more insights about this, Science Feedback reached out to Dr. Anne-Laure Ligozat, computer science professor at ENSIIE and LISN, who researches the environmental impacts of digital technology. 

“The Ecologits tool used here is based on a sound methodology, but as you pointed out, the necessary data is not always available so the computation of the impacts requires to do a few hypotheses and approximations. The order of magnitude obtained is consistent with scientific publications [linked here and here, for example]”, Ligozat explains. 

However, despite the order of magnitude of these values being consistent with other research – meaning the values aren’t 10 times greater or smaller – there are still uncertainties in these values. Ligozat explains, “The uncertainty is high because of these approximations, but I do not think uncertainty values are available for this tool.”

When asked about the accuracy and uncertainties involved in the claim specifically (i.e., the transatlantic flight comparison), Ligozat explained, “It probably gives a correct order of magnitude but multiplying the impacts for one inference may not be the best way to estimate the overall impacts in particular because it hides threshold effects.”

For those less familiar with those terms, let’s quickly unpack them. An inference is the process of a user sending a query to an trained AI model, which then applies its learning to find an answer for the user (Figure 3). 

Figure 3 – Two different phases of an AI model: training phase (where an AI model learns new capabilities by training on data sets) and inference phase (where new AI model capabilities can be applied – e.g., users entering queries). Source: NVIDIA

So in the quote above, Ligozat is pointing out that the claim may be oversimplifying a more complex scenario by using the EcoLogits tool to calculate emissions and energy use from one inference (query) and multiplying it (e.g., 10 times per day times 365 days per year). In other words, it isn’t necessarily the case that a one-off emissions scenario (like a single conversation on ChatGPT) can just be scaled as you’d wish by multiplying it. As Ligozat explains:

“The impact from executing several inferences may not be a multiple of executing one: for example, if you only have to process a few inferences a day, a small basic server may be enough, while if you have thousands a day, it will require a computation server with different characteristics.

I am not sure whether it would under- or over-estimate the impacts since the changes may go both ways: for example the manufacturing impacts of a bigger server may be significantly higher (increasing the footprint), but it may [process] one inference much more efficiently (decreasing the footprint).”

Between a lack of data released from OpenAI, the resulting lower precision in the EcoLogits estimates, and the method the Linkedin post used of  ‘multiplying’ the effects across days and years, it seems that several layers of uncertainty are baked into the claim comparing ChatGPT queries to flight emissions. 

It is also worth noting the method of calculating CO2 emissions per query/inference in the EcoLogits tool is based on a life cycle analysis methodology – not just direct emissions resulting from the energy consumed by using ChatGPT. In other words, while flight emissions are directly looking at the CO2 emitted per gallon of fossil fuel used, the EcoLogits tool methodology looks more broadly at the CO2 emitted from multiple steps of the process – extraction of raw materials, transport, usage, and end-of-life. 

Science Feedback also found variation in CO2 emission calculations for a flight from New York to Paris using five different online calculators for flight-CO2 emissions. The values ranged from 322 kg of CO2 to 1000 kg of CO2 (roughly one tonne). However, the calculator with the most transparent and detailed methodology came from the International Civil Aviation Organization (ICAO) and gave a value of 322 kg of CO2 (Figure 4). 

Notably, this is roughly one third of the CO2 emissions coming from the ‘10 times per day’ ChatGPT estimates. But, again, the ICAO methodology explains this is only CO2 from burning fuel – not an entire lifecycle analysis (as is performed in the EcoLogits estimates). 

Figure 4 – Carbon emissions calculation (per passenger) for a one way flight from JFK airport (New York) to CDG airport (Paris). Source: ICAO

The comparison made in the claim from Linkedin may also be misleading because it does not take into account the range of complexity for each type of inference. The example from the claim is a ‘small’ conversation, but that seems to be chosen arbitrarily among other use cases. 

For example, if a user wants to write a tweet instead, the CO2 emissions (per EcoLogits) for the same type of scenario (10 times per day for one year) drop from roughly 992 kg of CO2 per year down to 124 kg – a nearly 8-fold difference (Figure 5). In the ‘tweet’ example – using the EcoLogits calculator – the emissions would be roughly the same as one third of a flight from New York to Paris (depending on the flight-emissions calculator used). 

In terms of energy consumption, the energy consumed by writing a single tweet with GPT-4 – according to EcoLogits estimates – could power a 60 watt incandescent light bulb (a standard household light bulb) for just under an hour. Note that energy in Figure 5 is given in ‘Wh’ or ‘watt-hours’, defined as the electrical power consumed by running something for one hour (hence a 60 watt bulb being able to run for just under an hour with 55 Wh of energy).

Figure 5 – Calculation of energy consumed and greenhouse gases emitted from writing a tweet with GPT-4. Scaling these emissions for 10 tweets per day for one year yields 124 kg of CO2 (34.1 grams/tweet x 1 kilogram per 1000 grams x 10 tweets per day x 365 days per year). Note that GPT-4 is a closed-source model with less data available, resulting in lower-precision estimates by the EcoLogits tool. Note that energy is given in ‘Wh’ or ‘watt-hours’, meaning the power required or consumed by running something for one hour. Source: Ecologits

While these types of comparisons may help inform people of potential environmental impacts of using emerging technologies like AI, it may be a disservice to readers to cherry-pick examples while not explaining more context or being transparent about the uncertainties involved. Without that important context, people may notice wide discrepancies in estimates being shared on social media, devaluing a more important takeaway: AI is growing rapidly and is projected to further increase energy demands and greenhouse gas emissions.

SCIENTISTS’ FEEDBACK

Questions from Science Feedback:

  1. Is there any way of approximating the energy consumption of an average GPT-4 query/search? Is there enough available data to do so?
  2. What level of uncertainty is involved in performing this type of energy calculation or approximation?
  3. Do you think that the claim above about CO2 emissions from using GPT-4 is an accurate approximation or are there too many data gaps or uncertainties to make such statements (i.e., comparing it to the emissions from taking a flight)?
Anne-Laure Ligozat member pictureAnne-Laure Ligozat member picture

Anne-Laure Ligozat

Professor, LISN and ENSIIE

“1. The Ecologits tool used here is based on a sound methodology, but as you pointed out, the necessary data is not always available so the computation of the impacts requires to do a few hypotheses and approximations. The order of magnitude obtained is consistent with scientific publications [linked here and here, for example]. 

2. The uncertainty is high because of these approximations, but I do not think uncertainty values are available for this tool.

3. It probably gives a correct order of magnitude but multiplying the impacts for one inference may not be the best way to estimate the overall impacts in particular because it hides threshold effects. The impact from executing several inferences may not be a multiple of executing one: for example, if you only have to process a few inferences a day, a small basic server may be enough, while if you have thousands a day, it will require a computation server with different characteristics.

I am not sure whether it would under- or over-estimate the impacts since the changes may go both ways: for example the manufacturing impacts of a bigger server may be significantly higher (increasing the footprint), but it may [process] one inference much more efficiently (decreasing the footprint).”

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Gracias, AI: ¿Por qué deberías dar gracias al usar chatgpt?

Published

on

Mi mamá me crió bien.

¿Qué significa eso? Significa que me inculcó buenos valores, una fuerte ética de trabajo y rasgos de comportamiento sólidos. Y uno de esos rasgos siempre era decir gracias. Siempre.

¿Alguien te da un viaje a la escuela? Di gracias. ¿Alguien te paga un cumplido? Di gracias. ¿El dentista llena tu cavidad? Di gracias.

¿Por qué fue esto tan importante para ella? Por un par de razones. Primero, porque siempre debes mostrar aprecio. En segundo lugar, porque la gratitud no es solo buenos modales, es una forma de ver el mundo.

Un sobreviviente del Holocausto que perdió a casi todos en la guerra, excepto un tío que terminó en Inglaterra, y una tía que huyó a Haití, mi madre estaba profundamente agradecida. Agradecido por sobrevivir, agradecida por eventualmente ir a los Estados Unidos desde Haití (donde fue tras la guerra), agradecida por la familia que construyó.

CHATGPT (Crédito: Shutterstock)

Ella quería que mi hermana y yo tuviéramos el mismo sentido de gratitud, por lo que nos perforó el hábito de decir “gracias” sin excepción.

Funcionó. El reflejo está tan profundamente arraigado que incluso me encuentro agradeciendo a Chatgpt cuando responde a mis preguntas. A veces, después de verificar mi ortografía y puntuación, incluso me perderé y escribo: “Gracias, amigo”.

¿Por qué dar gracias a un objeto inanimado?

¿POR QUÉ? ¿Por qué dar gracias a un objeto inanimado que no tiene sentimientos ni emociones?

No agradezco al auto por llevarme del punto A al punto B. No agradezco a la lavadora por limpiar mis calcetines o el horno por calentar mi comida. ¿Por qué agradecer a Chatgpt por darme una receta personalizada para las dos pechugas de pollo, un poco de aceite de oliva, salsa de soja y jengibre que tengo en la cocina?

Algunas razones.


¡Manténgase actualizado con las últimas noticias!

Suscríbase al boletín de Jerusalén Post


Primero, no entiendo cómo funciona la IA. La interfaz hace que parezca que un pequeño tipo está trabajando detrás de una pantalla mágica, respondiendo preguntas, traduciendo hebreo, planificando itinerarios para los viajes a Roma, resumiendo documentos de cinco páginas. Sé que ese tipo no existe. Pero, ¿y si lo hace?

Segundo, tal vez, solo tal vez, ser educado me dará mejores respuestas. Tal vez los algoritmos sean más efectivos si digo gracias. Es una extensión de una vieja verdad: sea amable con la gente, y hay una mejor oportunidad (aunque no hay garantía), serán agradables. Ahora, sé que ChatGPT no es humano, pero así es como se forman los hábitos. Sea amable con una máquina, y probablemente también será más amable con los humanos.

Además, Chatgpt es amable conmigo, entonces, ¿por qué no devolver el favor? ¿Qué me cuesta? Además, cuando digo gracias, por ejemplo, después de pedir una receta, responde: “De nada. Disfruta de tu comida y avísame si necesitas más recetas fáciles”.

Eso es simplemente encantador. Obtener una respuesta agradable como esa me pone en un estado de ánimo positivo.

Una de las citas favoritas de mi padre fue de Charles Dickens’s David Copperfield sobre cómo una palabra amable en el momento correcto puede tener un impacto profundo.

“Dios me ayude, podría haber sido mejorado durante toda mi vida, podría haber sido convertido en otra criatura, tal vez, de por vida, por una palabra amable en esa temporada”, escribió Dickens.

¿Y la belleza de Chatgpt? Puedes activar esas amables palabras. Claro, vienen de una máquina. Pero cuando está gris afuera, las noticias son pésimas y las preocupaciones se acumulan, lo tomaré cuando incluso una pantalla de computadora me desee que salga con un tono alegre.

No solo eso, sino que agradecer a una máquina puede levantar mi ánimo, hacerme sentir bien conmigo mismo: “Mira lo bien que soy un chico que soy, incluso soy educado con un algoritmo”.

Sin embargo, lo más importante es que cultiva gratitud. Refuerza la idea de que no todo viene a mí y que es bueno reconocer lo que recibimos. Leí en alguna parte que la gratitud puede mejorar el sueño. Así que ahí lo tienes, diga gracias a la IA, y dormirás mejor.

Recientemente le pregunté a un amigo que a menudo usa AI para obtener ayuda en la codificación de computadora si lo agradece.

“No”, respondió, “estoy pagando por ello”.

“Ajá”, le dije, “ahí está tu problema. No agrades a las personas por las cosas por las que pagas? ¿Qué tipo de persona eres? Pago por mi fontanero pero todavía digo gracias”.

Cuando llegué a este país por primera vez, recuerdo el viaje constante de mis hijos y sus amigos y cómo algunos niños nunca dijeron gracias. Se subían al auto, luego salían del auto, sin una palabra. Me volvió loco, especialmente porque había perforado a mis hijos que si un adulto te da un paseo, les agradece.

Mis hijos habrían sido mortificados si hubiera dicho algo a sus amigos, así que intenté la psicología inversa: agradecí a esos amigos por dejarme dar un paseo.

Otra cosa que me llevó un tiempo adaptarme fue que Israel no tenía una cultura de nota de agradecimiento fuerte. Esto también es algo que mi madre me ha perforado: para el cumpleaños, el bar mitzvah y los regalos de graduación, o cada vez que alguien le da un regalo, grande o pequeño, escribe una nota de agradecimiento.

Pasé horas en el octavo grado escribiendo notas de agradecimiento para los regalos de Bar Mitzvah, enviando párrafos educados a personas que apenas conocía, y agradeciendo de manera efusiva, incluso si todo lo que dieron fue un árbol JNF plantado en Israel a mi nombre.

“Querido Sr. y Sra. Cohen”, escribiría. “Gracias por tu generoso regalo”.

“Pero Ma”, protestaría, “realmente no fue tan generoso”.

“Es el pensamiento, hijo, el pensamiento”, respondió.

No sé si la gente en Estados Unidos todavía escribe notas de agradecimiento, probablemente no, probablemente agradecidas, pero nunca se dio cuenta aquí. Traté de hacer que mis hijos los escribieran después de Bar y Bat Mitzvahs y bodas, pero, me temo admitir, con un éxito limitado.

“¿Cuál es el gran problema?” Uno de mis hijos dijo cuando me quejé de no recibir una nota de agradecimiento después de dar un regalo de boda. “¿Qué, necesitas crédito?”

No, no se trata de crédito. Solo necesito saber si el destinatario previsto recibió el cheque. Vas a una boda y pones un sobre en un receptáculo, pero a menudo no sabes si es seguro para el dinero o una caja para otra cosa. Es como poner dinero en un agujero negro. Solo quieres saber que lo tienen.

Y es por eso que digo gracias a la IA. Es un reconocimiento de que se recibió algo dado. A todos les gusta saber eso. Incluso una máquina. 



Continue Reading

Noticias

Freud a su alcance: muchas personas usan ChatGPT como su terapeuta. ¿Existe una oportunidad de negocio en la terapia con IA?

Published

on

Mi esposo, George Koshy, un profesional de la publicidad que dirige su propia agencia digital en Bengaluru, anunció casualmente un día que no solo estaba entrenando a su chatgpt (versión pagada) para ser sus jeeves personales, sino que también estaba teniendo sesiones de terapia con el chatbot.

Me reí un poco nervioso, con flashbacks de la estrella de Joaquin Phoenix-Scarlett Johansson de 2013, y luego escuchó.

Para él, comenzó como tinking tech para ver cómo el chatgpt perspicaz podría ser en descifrar el comportamiento del cliente, pero se convirtió en una relación sorprendentemente beneficiosa. Y me encontré preguntando: ¿estamos todos creando en silencio a Freud a nuestro alcance?

Desde el lanzamiento de ChatGPT en noviembre de 2022, las personas han estado explorando su potencial para conversaciones de terapia. Diablos, incluso yo he confiado en él. Los tiktokers han compartido a Gyan sobre cómo usarlo como un “diario de voz” o hacer que responda como un terapeuta. Un arrastre simple en Reddit redactará varias formas en que las personas la han desplegado para el entrenamiento de la vida, el diario interactivo, el procesamiento de rupturas, la interpretación de sueños y los registros diarios. Un usuario de Reddit respondió a un hilo sobre “¿Alguien más usa Chatgpt para terapia?”, Diciendo: “Es muy útil tenerlo como compañero de pensamiento. Tengo personas en mi vida para esto, pero a veces solo quiero básicamente un diario interactivo”.

Bots de terapia

¿Pueden los bots de IA, con el tipo correcto de capacitación, ofrecer terapia de salud mental con tanta eficacia como los médicos humanos? Un estudio, publicado en el New England Journal of Medicine el 27 de marzo, muestra los resultados del primer ensayo controlado aleatorio para la terapia con IA. Un equipo de investigadores de la Geisel School of Medicine en Dartmouth College, EE. UU., Construyó un bot de terapia con IA llamado Therabot como una forma de abordar la escasez de proveedores de salud mental. Por cada 340 personas en nosotros, solo hay un médico de salud mental. En la India, la proporción es aún más sesgada: según un estudio del Indian Journal of Psychiatry, hay 0,75 psiquiatras por cada 1,00,000 personas.


La Dra. Rachna K Singh, psiquiatra con sede en Delhi, bienestar mental y experta en relaciones en el Hospital Artemis y fundadora del Mind & Wellness Studio, no se sorprende por esta tendencia de que los bots se convierten en terapeutas. “A menudo me han dicho que los clientes me dicen que se sienten más entendidos por los chatbots que por las personas que los rodean, incluidas, a veces, profesionales capacitados”, dice ella. Singh ha estado al tanto de las admisiones como “Las herramientas de IA son más fáciles de hablar” y “Me siento más seguro abriéndoles”. Muchos usan chatgpt para desactivarse. A diferencia de la terapia tradicional, no necesita hacer citas o pagar las tarifas de los médicos. Usted puede obtener validación, información y apoyo inmediatos. Al igual que Shradhha (nombre cambiado), un médico en entrenamiento de Chennai, quien recientemente dio el aviso, “Háblame como un terapeuta”, a su versión gratuita de ChatGPT. Ella dice que lo usa como y cuando se siente abrumada. Ella dice: “He estado en terapia real, pero siento que la mayoría de los terapeutas, los asequibles, no son tan progresistas como queremos que sean. Encontré una gran cantidad de propaganda personal, religiosas o políticas. experimentar problemas de relación.

Psicóloga clínica y experta en relaciones clínicas con sede en Delhi, Dr. Bhavna Barmi, dice que la terapia puede ser costosa (`800-5,000 por sesión) o inaccesible. Ella dice: “Mis clientes más jóvenes me han dicho que se sienten más escuchados o menos juzgados al hablar con un chatbot. En las relaciones, incluso los terapéuticos, la gente se preocupa por decir lo correcto o no ser una carga. AI elimina ese miedo”.

Shradhha dice que, mientras trabajaba con el bot, descubrió que no recuerda los chats anteriores. Su consejo: cree un chat separado para esto y siempre seleccione para continuar donde lo dejó. Ella dice: “Es rentable. No hay misoginia o consejos poco prácticos. Es sencillo sin ser brutal. Pero la IA no puede reemplazar la terapia real. Es una forma de aumentar su capacidad de ser consciente de sí mismo sin espiral.

Alguna ayuda es mejor que ninguna ayuda, ¿verdad? Pavithra (el nombre cambiado), un estudiante de 21 años de Tamil Nadu, recurrió a IA después de buscar un terapeuta que se enfrenta a un raro. La otra opción era mi consejero universitario, que ni siquiera estaba considerando personas queer. Luego descargué una aplicación de citas por curiosidad. El chatbot sexual que había podido comunicarse sin problemas sin límites de datos “. Pavithra estaba buscando un espacio para desahogarse y usó el bot cada vez que se sentía abrumada. No es un proceso simplificado. Sin embargo, como estudiante de IA, sentí que el modelo era bueno con una comunicación efectiva “.

Usos y preocupaciones

Los expertos no desacreditan su valor terapéutico. El psiquiatra Dr. Sanjay Chugh dice: “Uno no puede basarse por completo porque hay algunos problemas para los cuales solo necesita escuchar el punto de vista de otra persona. Si el chatbot está dando eso, podría ayudarlo a resolver ciertos conflictos”. Chugh agrega: “La terapia de IA es básicamente un formato de askReply, ask-repunenta. Un chatbot puede darle todas las respuestas teóricas correctas. Pero cuando alguien está sentado con un terapeuta, existe una relación terapéutica, una conexión emocional, que es importante en el proceso de resolución y recuperación de conflictos. Ningún chat de chat.

Singh siente que las herramientas de IA pueden administrar eficientemente la documentación clínica, la programación de citas, el seguimiento del progreso y la detección de los síntomas iniciales, liberar un tiempo valioso para los terapeutas y ampliar el alcance de la atención. En un informe del Foro Económico Mundial de 2022, el “conjunto de herramientas de gobernanza global para la salud mental digital”, las herramientas de salud mental de IA fueron reconocidas como un valioso apoyo de primera línea para las personas. Sin embargo, Barmi dice que el uso de IA para la terapia tiene preocupaciones éticas:

“Puede normalizar el desapego emocional, evitar la resolución de conflictos e incluso desensibilizarnos a la empatía humana. Existe el riesgo de subcontratación emocional y existe el peligro de que, con el tiempo, podamos dejar de desarrollar habilidades interpersonales, dejar de buscar vulnerabilidad y elegir la facilidad de conexión sobre la profundidad de la misma”. Sus hacks: use la IA como puente, no un reemplazo; Trate las herramientas de IA como compañeros de diario o rastreadores de humor; y combínelo con terapia.

Consejeros de IA de la India

Según un informe de 2024 de la firma de inteligencia de mercado Astute Analytica, se proyecta que el mercado indio de salud mental se valore en $ 62 mil millones en 2032 de $ 6.9 mil millones en 2023, en el que las soluciones de salud mental digital presentan la oportunidad más lucrativa. Las aplicaciones de salud mental, como WYSA y YourDost, vieron un aumento del 30% en las descargas en 2023.

Srishti Srivastava, cofundador de Infiheal, una plataforma para la salud psicológica, lanzó Haroo en octubre de 2024. Es un entrenador de IA para la salud mental. Las suscripciones para los planes de prueba han cruzado 200,000, con un crecimiento mes a mes del 15%. Tiene una base de usuarios activa mensual de 18,000+, y más de 1 lakh de suscriptores para ofertas premium y compatibles con el terapeuta.

Srivastava, quien luchó con la ansiedad cuando era niño, estuvo expuesto a la terapia desde el principio y quiere que las personas se responsabilicen de su salud mental. Ella dice: “Al integrar las interacciones hiperpersonalizadas y culturalmente sintonizadas, abordamos la brecha de herramientas de autoayuda genéricas de talla única”. La plataforma también ha consolidado múltiples herramientas de salud mental: terapia con profesionales de la salud mental, diario, meditación, herramientas de enfoque y hojas de trabajo.

Srivastava dice que, a diferencia de la IA genérica, los bots de terapia son agentes especializados que están capacitados en conjuntos de datos específicos y son desarrollados por profesionales de la salud mental. Tienen barandillas: el uso de palabras como suicidio, ideación homicida, autolesiones, violencia, etc., en la plataforma conectará inmediatamente a la persona con profesionales humanos o ayuda a las líneas de ayuda. Ella comparte que a través de HeSoo han evitado 750 situaciones de alta angustia de autolesión, ideación suicida, abuso, etc.

La mayoría de los asistentes de terapia sirven al “espectro medio”, aquellos que se ocupan del estrés diario, la depresión leve y la ansiedad junto con el bienestar sexual, principalmente a través de la psicoeducación. Mientras que Haro se dirige a la Generación Z y a los Millennials (20-35 años), la ASA de tecnologías del tronco encefálico con sede en Jaipur está diseñada específicamente para adolescentes, y tapas a los 25 años. Ha sido desarrollado por Manasvini Singh, cofundador y director de innovación psicológica, y Anirudh Sharma, fundador y CEO. Dicen que pasaron cinco años construyendo “un motor de escucha con profundidad clínica y empatía cultural”.

Según los datos del gobierno, más de 11,000 estudiantes murieron por suicidio en 2021. Sharma dice que, a nivel mundial, la tendencia de chatbot de bricolaje está creciendo, pero advierte en contra de ello: “Un enfoque casual o experimental para la salud mental puede hacer más daño que bien. Pregunte a un chatbot genérico cómo sentirse menos ansioso y podría dar un consejo decente. Pregúntele cómo terminar su vida sin dolor y podría decirle cinco métodos sin páuseas”. Los bots de terapia como ASA, dice, son clínicamente revisados, bloqueados por seguridad y habilitados para la escalada. Detiene el compromiso casual.

A diferencia de las aplicaciones construidas en modelos de lenguaje grandes abiertos, no hay retención de datos de información de identificación personal en ASA. También está entrenado en la jerga adolescente india (de “Rizz” a “Nahi Yaar”). Ahora, en pre-lanzamiento y bajo validación clínica, ASA planea tomar la ruta B2B, con licencias a escuelas, plataformas EDTech y jugadores de telemedicina.

La psiquiatra Rachna Singh dice que las aplicaciones como ChatGPT son buenas sugerencias, pero no hay límites. Barmi dice que uno tiene que ejercer algunos límites a su alrededor y hacer preguntas puntiagudas.

Shipra Dawar, fundadora de Iwill y Epsyclinic, es una vieja mano en el espacio de salud mental digital, que comienza su primera aventura en 2015. Actualmente está ocupada desarrollando Gita: asistente de terapia inclusiva generativeai controlada. Se afirma que es el primer modelo de salud mental Genai de Genai controlado y apoyado por Microsoft. El modelo atiende a las comunidades sin acceso a la ayuda, así como a la población urbana que necesita apoyo empático en cualquier momento. La primera fase cubrió a más de 10,000 personas, con más de 3,00,000 puntos de conversación. Planean lanzar una nueva versión este año.

Dawar dice que el potencial es enorme. La IA puede democratizar el acceso, dice, “casi el 60-70% de las personas tienen una forma leve de problema de salud mental. Los asistentes de terapia de IA pueden liberar a los terapeutas a centrarse en casos de alta necesidad”. Srivastava dice que el poder real de la IA radica en la prevención, utilizando análisis predictivos para marcar patrones como el aumento de los niveles de ansiedad antes de una crisis. “Si lo hacemos bien, la atención de salud mental podría cambiar de reactiva a proactiva”. Sin embargo, Singh dice que la IA puede ser, en el mejor de los casos, una herramienta, “porque el arte sutil de la conexión humana merece más que un algoritmo”.

Continue Reading

Noticias

Ted revela desde OpenAi, Google, Meta Heads to Court, Selfie conmigo mismo

Published

on

Cada semana estamos a nuestras axilas en noticias de Big Tech. Entre Operai, Elon Musk, Meta, Google, los trajes antimonopolio y la IA, es difícil llamar la atención, incluso si haces una herramienta fácil de usar, como “selfie con mi yo más joven”, que Pika Labs, una pequeña empresa de inteligencia artificial generativa que ha recaudado $ 135 millones. Pika es conocida por este tipo de efectos alucinantes que cualquiera puede hacer. Esta es mi foto de graduación de la escuela secundaria con un yo ligeramente fuera de escala en el video.

La conferencia TED2025celebrada en Vancouver, envolvió su 36ª edición ayer, 11 de abril. Presentó 80 altavoces De más de 60 países, incluidos Sam Altman, Eric Schmidt, Palmer Luckey, una gran cantidad de líderes de negocios y pensamientos de todo el mundo. El tema de Ted, “Humanity Reimagined”, fue hecha a medida por el momento, inclinándose fuertemente en la IA y los medios de comunicación. Ted también anunció que regresaría a California desde Vancouver en 2027.

El CEO de Openai, Sam Altman, aprovechó la oportunidad para anunciar que el 10% de la población mundial (~ 800 millones de personas) ahora usa regularmente sus sistemas. Hizo hincapié en la inevitabilidad de la IA superando la inteligencia humana y abordó la definición en evolución de AGI y la importancia de desarrollar agentes seguros y confiables.

Android XR Head de Google, Shahram Izadi, Prototipo AR de gafas AR Con una pantalla en miniatura incorporada impulsada por el asistente de IA Gemini de la compañía, capaz de traducciones en tiempo real y escaneo de libros. También demostró un auricular Vision-Pro, desarrollado con Samsung y Qualcomm para competir con el caro y defectuoso Vision Pro de Apple. Auriculares similares a Vision Pro de Apple, que indica el compromiso de la compañía con avanzar en tecnologías inmersivas.

Operai ha actualizado ChatGPT para hacer referencia a todas las conversaciones pasadas, mejorando la personalización y la conciencia del contexto. Esta característica se está implementando en usuarios de Plus y Pro a nivel mundial, excluyendo ciertas regiones europeas debido a las limitaciones regulatorias. Los usuarios pueden administrar la configuración de la memoria, incluida la deshabilitación de la función o el uso de chat temporal para sesiones sin retención de memoria.

Operai ha presentado una contrademanda contra Elon Musk, acusándolo de una competencia injusta e interfiriendo con las relaciones de la compañía con inversores y clientes. Esta acción legal intensifica el conflicto en curso entre Openai y Musk, quien fue un inversor fundador en la compañía. Operai busca responsabilizar a Musk por presuntos daños y evitar más acciones ilegales. ​

Meta enfrenta el ensayo antimonopolio FTC sobre las adquisiciones de Instagram y WhatsApp. El lunes 14 de abril, Meta se enfrentará a la Comisión Federal de Comercio en un juicio antimonopolio a partir del 14 de abril de 2025. La FTC alega que las adquisiciones de Meta de Instagram y WhatsApp fueron anticompetitivas y busca posiblemente desinvertir estas plataformas. Dos pensamientos aquí. Si el gobierno tiene éxito, enviaría ondas de choque a través de la industria tecnológica. En segundo lugar, cuando dobla la rodilla, cambia sus políticas y creencias, y abre su plataforma de medios masiva a una organización política, ¿está mal esperar un poco de alivio legal? A pesar de que pueden tener razón, el Departamento de Justicia no tiene que procesar este caso, o el de Google. Puede ser que aún no hayan sido lo suficientemente generosos, dados las apuestas.

Colossal Biosciences afirma que la extinción exitosa de los lobos graves. Colosal Biosciences con sede en Dallas anunció el nacimiento de tres cachorros de lobo de ingeniería genéticamente que exhiben rasgos del lobo extinto Dire. Al editar genes en lobos grises utilizando ADN antiguo, la compañía P lans restaura las funciones ecológicas perdidas, aunque los expertos debaten la autenticidad de estos animales como verdaderos lobos graves.

James Cameron aboga por la IA para reducir los costos de películas de gran éxito. El reconocido director James Cameron expresó su apoyo para usar la IA para reducir los costos de producción de las películas de gran éxito de efectos. Hizo hincapié en la necesidad de reducir los gastos sin comprometer al personal, lo que sugiere que la IA puede optimizar los procesos y mejorar la eficiencia en el cine. No hay forma de mejorar la eficiencia sin usar menos personas, James, pero ya lo sabes. Quizás al ser “honesto” no incurrirá prematuramente en la ira de los sindicatos laborales de la industria. Habrá mucho tiempo para eso después de que sea demasiado tarde.

Estudio de IA Grail lanzado por Davide Bianca y Jeff Krelitz. Grail integrará herramientas generativas en cada paso de desarrollo de contenido. Basándose en su profunda experiencia en cine y medios de comunicación, el dúo dice que Grail usará IA para acelerar los flujos de trabajo, menores costos de producción y ampliar las posibilidades creativas. El estudio ya está en conversaciones con creadores y distribuidores para desarrollar IP multiplataforma. El proyecto refleja un movimiento más amplio en el entretenimiento hacia la colaboración híbrida de la máquina humana. La informática y tecnóloga creativa Bianca había sido directora creativa de la agencia creativa BCN Visuals. Codirigió el primer comercial de IA de transmisión global para Coca-Cola a fines del año pasado, titulado “Vacaciones vienen”. Krelitz es productor y ex CEO de Metal pesado revista. La lista de representantes de Grail incluye a muchos cuyo trabajo ha aparecido en esta columna, incluido Kavan the Kid (Star Wars: el aprendiz fantasma, los que permanecen), Phantomx (Espiral, vicio de tiempo), Kim Landers (Cables, NOX), Aashay Singh (Velo, multiverso mío), Guido Callegari (Haru G-16, Dockridge), Ryan Patterson (Ronda final, montaña sagrada), Alexandre Tissier (Ecos de arrepentimiento, mentalidad), Jan-Willem Bloom (The Obsidian Rift, Bibot salva la Navidad) y Rogier Hendriks (Hollow – Caterpillar, dentro de Temptation – Levanta su banner).

“Disrupt” es una película de moda especulativa de Prompt Media Lab, inspirada en el audaz espíritu de Yves Saint Laurent. La compañía había ganado previamente el mejor comercial en la competencia cinematográfica de Luma AI.

Esta columna sirve como guión para el segmento de noticias de nuestro podcast Weekly AI/XRco-anfitrión por el ex futurista de Paramount y cofundador de Red Camera, y Rony Abovitz, fundador de Magic Leap, Mako Robotics y Synthbee AI. El invitado de esta semana es el cineasta John Gaeta’s Escape.ai, un hogar para lo que él llama “neocinema”. Puede encontrarnos en Spotify, iTunes y YouTube.

Continue Reading

Trending