Noticias
OpenAI proposes a new corporate structure
Hello and welcome to Sync #500!
First of all, Happy New Year! Secondly, this is the 500th issue of Sync. Such a milestone offers a chance to reflect on nearly 10 years of writing a weekly newsletter and to look ahead to the future, which I’ll be sharing with you soon in a separate post.
In this 500th issue, we’ll take a closer look at OpenAI’s proposed new corporate structure, the reactions it has sparked, and its potential impact on the tech world.
In other news, Nvidia is already eyeing the next big thing after AI—robotics. Meanwhile, Google CEO Sundar Pichai has urged employees to prepare for a transformative 2025. We also have a comparison between ChatGPT Search and Google Search, an overview of how AI performed in the recently concluded Advent of Code 2024, and an analysis of the state of AI hardware startups.
Over in robotics, Figure AI has shipped its first humanoid robots to a paying customer, and BYD has entered the humanoid robotics race.
We’ll conclude this week’s issue with a look at what to expect from mRNA vaccines in 2025 and with a company promising to bring underwater habitats—where people can live and work tens or hundreds of metres below the surface—a step closer to reality.
Enjoy!
The last three years have been a time of massive growth for OpenAI. The AI lab went from a startup known primarily within the tech and AI community into a poster child of the current AI boom.
However, such massive growth requires massive transformation. OpenAI is no longer the same company that released ChatGPT in November 2022 as an experiment. The company’s leadership has changed. Many key people, such as Mira Murati, former CTO, and Ilya Sutskever, co-founder and former chief scientist, left the company. Meanwhile, hundreds of new employees have joined, all contributing to a shift in the company’s culture and priorities.
Over the years, OpenAI has changed. Now, facing new challenges as a leader in the AI space valued at $157 billion, OpenAI proposes to change itself once again. However, OpenAI is going against some powerful forces that could prevent its plans from happening.
OpenAI began as a non-profit organisation, founded in 2015 with the goal of ensuring that artificial general intelligence (AGI) benefits all of humanity. However, OpenAI’s leadership realised that the nonprofit structure, which reflected the altruistic spirit and ideals behind its creation, was incompatible with the goal of building AGI.
The research and development of advanced AI models require an enormous amount of computing power—first to train the models and then even more to deploy them at scale to millions of users (OpenAI has 300 million weekly users). A non-profit organisation was not attractive to investors, who seek returns on their investments. Consequently, OpenAI began exploring ways to transform itself into a for-profit company.
Email conversations revealed by both Elon Musk’s legal team and OpenAI indicate that discussions about transforming OpenAI into a for-profit company began as early as 2017. In 2019, OpenAI announced a new corporate structure in which a for-profit entity (“OpenAI LP”) is controlled by a non-profit board, with capped profit-sharing for investors and employees. This rather unusual hybrid corporate structure represents a compromise between the harsh reality that a tech company needs to operate as a for-profit entity to attract investments and the nonprofit model that embodies OpenAI’s original spirit.
OpenAI’s turbulent early years – Sync #494
The capped-profit structure served OpenAI well. It made the company more attractive to investors, who poured over $20 billion into it, including half of that amount secured in October 2024 ($6.6 billion from a Series B funding round and $4 billion borrowed from banks). This approach paved the way for ChatGPT and the current AI boom we are experiencing today.
However, those billions raised for building AGI are not enough. Reports published in the summer of 2024 revealed that OpenAI was on track to lose approximately $5 billion that year. The investments needed for the research and development of new models, as well as securing the computing power required to train and deploy them—whether through renting or building dedicated data centres—will demand even more resources and many more billions of dollars.
To address these challenges and position itself for a successful future, OpenAI plans to once again change its corporate structure.
OpenAI has announced its intention to transition its for-profit arm into a Delaware Public Benefit Corporation (PBC) by 2025. “As we enter 2025, we will have to become more than a lab and a startup — we have to become an enduring company,” states OpenAI.
According to OpenAI, the PBC model is the solution to balancing shareholder interests, stakeholder priorities, and public benefits in its decision-making, potentially offering a middle ground between traditional for-profit goals and its founding mission.
Unlike traditional for-profit companies, which are solely focused on maximizing shareholder value, PBCs are legally required to balance profit-making with its stated public benefit. For OpenAI, this means ensuring that its mission of advancing AI to benefit all humanity remains central to its operations, even as it raises capital and grows its business.
The for-profit entity will adopt a PBC structure, allowing OpenAI to raise capital with conventional equity terms while maintaining a commitment to public benefit. The non-profit will retain significant equity in the PBC, providing it with substantial resources to fund charitable initiatives in sectors like health care, education, and science. The non-profit’s influence will shift away from controlling the for-profit to focusing on its charitable initiatives and ensuring that OpenAI’s mission of benefiting humanity remains central.
OpenAI plans, however, have been met with criticism and opposition.
Critics argue that OpenAI’s new corporate structure will prioritise investors and revenue over the company’s original mission of building AIG that benefits all of humanity. Others raised concerns that the transition could exploit non-profit tax benefits while operating as a for-profit entity.
The strongest opposition to OpenAI’s plans comes from Elon Musk. Musk, one of OpenAI’s founders and a significant financial supporter in its early days, left the organisation in 2018 due to differences in visions for its direction and priorities. Since the release and subsequent success of ChatGPT, Musk has become a vocal critic of OpenAI.
In March 2024, Musk filed a lawsuit against OpenAI and its leadership, claiming that the organisation has strayed from its original non-profit mission of advancing AI for public benefit by prioritising profit through its collaboration with Microsoft. Musk argues that this shift undermines OpenAI’s commitment to open-source development and public welfare. The lawsuit seeks to realign OpenAI with its founding principles—a move which, if successful, would effectively end OpenAI as we know it today and dramatically limit its funding options.
Although Musk calls in the lawsuit for OpenAI to return to its non-profit roots, it is worth noting that he is also an owner of xAI, a competitor to OpenAI, which complicates his position. Reducing OpenAI’s market presence would undoubtedly benefit xAI.
Other competitors also see an opportunity to curb OpenAI’s growth and influence in the AI industry. Meta has aligned with Musk, sending a letter to California Attorney General Rob Bonta and arguing that allowing the shift would have “seismic implications for Silicon Valley.” Meanwhile, Google has reportedly urged the US Federal Trade Commission to end OpenAI’s partnership with Microsoft, claiming the deal is “preventing them from competing in the burgeoning artificial intelligence market.”
No matter what happens with OpenAI’s restructuring plans, the impact on the tech industry and future startup founders will be profound.
OpenAI’s internal conflict between staying true to its ideals and navigating the realities of the modern business environment highlights that the romantic vision of a group of world-class researchers and engineers changing the world through a breakthrough invention alone is just that—a romantic vision. It demonstrates that achieving world-changing breakthroughs like AGI requires not only technological expertise but also substantial financial investments.
As one of the leading AI companies, OpenAI’s restructuring could set a precedent for how mission-driven organisations adapt to the demands of a competitive and capital-intensive market. It also raises important questions about how such transformative technologies should be governed and who should benefit from them.
If you enjoy this post, please click the ❤️ button or share it.
Do you like my work? Consider becoming a paying subscriber to support it
For those who prefer to make a one-off donation, you can ‘buy me a coffee’ via Ko-fi. Every coffee bought is a generous support towards the work put into this newsletter.
Your support, in any form, is deeply appreciated and goes a long way in keeping this newsletter alive and thriving.
▶️ Eva’s First Steps Out of the Lab (6:25)
In this video, engineers and researchers from IHMC, a legendary name in robotics research and development space, share the first steps outside the lab of Eva, their robotic exoskeleton designed for people working in hazardous environments that require wearing heavy protective equipment. The walk outside the lab includes taking the first steps up and down stairs, as well as venturing outside the building, all accompanied by commentary from the person wearing the exoskeleton.
▶️ Predictions for Technology, Civilization & Our Future (38:08)
It’s that time of year when predictions for 2025 and beyond abound. Isaac Arthur envisions an optimistic near future, where advancements in AI and robotics enhance daily life, life extension technologies help us live healthier and longer, and humanity takes its first significant steps toward colonizing the solar system. These innovations could bring profound societal changes, new discoveries, and unparalleled opportunities. Arthur also explores the challenges of predicting the future, emphasizing the importance of adaptability, informed decision-making, and shaping the future through deliberate action.
Google CEO Pichai tells employees to gear up for big 2025: ‘The stakes are high’
The last two years have not been good for Google. The tech giant was caught off guard by the sudden rise of OpenAI and is now trying to regain its position as the leader in AI. Additionally, the company faces increased competition and regulatory hurdles. Amidst these challenges, Google CEO Sundar Pichai recently told employees that “the stakes are high” for 2025, emphasising the need for urgency and faster execution. Pichai also highlighted the importance of staying “scrappy,” citing Google’s early days as an example of innovation under constraints. The focus will be on leveraging advancements in AI (with Gemini playing a key role here) to address user problems and scale new technologies.
DeepSeek-V3, ultra-large open-source AI, outperforms Llama and Qwen on launch
Chinese AI startup DeepSeek released their new ultra-large model, DeepSeek-V3. According to the benchmarks provided by DeepSeek, this 671B parameters model is the strongest open model available and, in some benchmarks, outperforms GPT-4o and Claude 3.5 Sonnet.
Israel built an ‘AI factory’ for war. It unleashed it in Gaza.
The conflict in Gaza marks one of the first major uses of AI in warfare. The Israel Defense Forces (IDF) deploy advanced tools like “Habsora” and “Lavender” to analyze intelligence and suggest targets, significantly speeding up operations. While these tools enhance efficiency, internal audits and critiques have highlighted flaws such as language processing inaccuracies, over-reliance on algorithmic recommendations, and a lack of transparency in distinguishing between AI-derived and human-sourced intelligence. Critics argue this automation has lowered thresholds for collateral damage, raising civilian death tolls. The shift to AI-centric operations has also sparked debates within the IDF, with concerns about the erosion of traditional intelligence practices and compromised decision-making integrity. These challenges underline the ethical and operational dilemmas posed by the use of AI in modern warfare.
Tenstorrent and the State of AI Hardware Startups
Here is an excellent (and entertaining) analysis of Tenstorrent and why, according to
, Tenstorrent is one of the few AI hardware startups that makes sense. The piece explains in detail what Tenstorrent brings to the table and why they are probably the only AI hardware startup capable of breaking Nvidia’s and semi-custom (Google TPU, Amazon Trainium, Microsoft Maia) silicon moats. The post also contains a good analysis of the AI hardware startup ecosystem.
Performance of LLMs on Advent of code 2024
Over December, thousands of programmers were solving Advent of Code—an annual Christmas-themed series of coding challenges. Many used this as an opportunity to build their own coding agents and see how good they are at solving sometimes very challenging algorithmic problems. This post shares the results of one such experiment, which used GPT-4o, Gemini 1.5 Pro and Claude 3.5 Sonnet.
ChatGPT search vs. Google: A deep dive analysis of 62 queries
How does ChatGPT Search compare to Google Search? Here is a deep dive analysis comparing both search engines across 62 queries in various categories. The conclusion of this analysis is that Google Search remains the better solution for most searches, with ChatGPT Search being surprisingly competitive when it comes to informational queries.
If you’re enjoying the insights and perspectives shared in the Humanity Redefined newsletter, why not spread the word?
Nvidia’s next move: Powering humanoid robots
After conquering AI, Nvidia is focusing on the next big thing: robotics. Nvidia aims to be an OEM supplier, supporting the global community of robot makers rather than competing directly with manufacturers such as Tesla. The company took steps towards this goal in 2024 and it looks like to double down on this approach in 2025 with the launch of a new generation of compact computers for humanoid robots, called Jetson Thor, in the first half of the year.
Figure AI ships Figure 02 humanoid robots to a paying customer
Brett Adcock, the CEO of Figure AI, shared on LinkedIn that the robotics startup has become revenue-generating and has delivered its Figure 02 humanoid robots to an undisclosed commercial client. Figure AI emerged from stealth in January 2023 and has rapidly developed, iterated, and tested humanoid robots. In 2023, the company raised $70 million in Series A funding and later secured a $675 million Series B round in 2024, with OpenAI among its investors.
BYD officially enters humanoid robot race as global talent search kicks off
A new player is entering the already crowded humanoid robotics scene. BYD, a leading Chinese EV maker, is joining the field of humanoid robots. Aside from announcing a global recruitment programme to attract top talent, targeting master’s and doctoral graduates from 2024–2025, details about BYD’s humanoid robot remain sparse.
Saudi Arabia invests in robots to help build its Neom desert megacity
Saudi Arabia is currently in the midst of several ambitious construction projects, including the Line megacity and the twin skyscrapers Epicon. The recently secured bid to host the FIFA World Cup 2034 is only set to fuel the country’s construction boom further. To tackle the massive projects ahead, Saudi Arabia is turning to robotics to help speed up construction and has made a significant investment in Europe’s GMT Robotics through Neom’s strategic investment arm, the Neom Investment Fund (NIF).
The future of mRNA: companies and trials to watch in 2025
The Covid-19 vaccines have propelled mRNA vaccines into the spotlight. This article explores what can we expect from mRNA vaccines in 2025. Companies like Moderna and BioNTech are focusing on personalized cancer vaccines and HIV treatments, while Pfizer is leveraging its infrastructure for flu, shingles, and rare disease therapies. Other players, such as CureVac and Arcturus, are exploring second-generation mRNA technologies and novel delivery methods.
Genetically edited mosquitoes haven’t scaled yet. Why?
Mosquitoes are among the deadliest organisms, responsible for spreading diseases such as malaria, dengue fever, and the Zika virus. In this post,
explains the concept of gene drives—a method of genetically modifying mosquitoes to either suppress their populations or introduce anti-pathogenic genes, potentially eliminating their ability to transmit deadly diseases. While gene drives hold significant promise, the article provides an overview of their mechanisms and highlights the technical challenges (e.g., resistance development and species-specific variability), ecological risks, and ethical concerns tied to their deployment.
In 2025, People Will Try Living in This Underwater Habitat
Science fiction is full of underwater habitats where people live and work tens or hundreds of metres below the surface. British startup Deep is on a mission to make that futuristic vision a reality, with the first step being the launch of Vanguard, a rapidly deployable, expedition-style underwater habitat the size of a shipping container, capable of housing three people at depths of about 100 metres. Testing is scheduled to begin in the first quarter of 2025. The startup then plans to launch Sentinel, a permanent modular habitat system, in 2027. Deep hopes that its permanent underwater habitats will benefit marine science and drive advancements in marine engineering and advanced manufacturing techniques.
Thanks for reading. If you enjoyed this post, please click the ❤️ button or share it.
Humanity Redefined sheds light on the bleeding edge of technology and how advancements in AI, robotics, and biotech can usher in abundance, expand humanity’s horizons, and redefine what it means to be human.
A big thank you to my paid subscribers, to my Patrons: whmr, Florian, dux, Eric, Preppikoma and Andrew, and to everyone who supports my work on Ko-Fi. Thank you for the support!
My DMs are open to all subscribers. Feel free to drop me a message, share feedback, or just say “hi!”
Noticias
OpenAI apunta a 2025 para el avance de AGI y la fuerza laboral de IA
TLDR
- Sam Altman de OpenAI predice la llegada de AGI y la integración de la fuerza laboral de IA en 2025
- OpenAI ha crecido a 300 millones de usuarios semanales mientras busca el desarrollo de AGI
- Los expertos de la industria cuestionan la viabilidad del cronograma y la claridad de la definición de AGI
- La investigación indica preferencia por la colaboración entre humanos y IA sobre la automatización total
- El despliegue actual de agentes de IA muestra resultados mixtos y requiere supervisión humana
El director ejecutivo de OpenAI, Sam Altman, inició el año 2025 con un anuncio que llamó la atención del mundo tecnológico: su empresa cree que ha descifrado el código para lograr la inteligencia artificial general (AGI). La noticia llegó a través de una publicación de blog detallada donde Altman describió el progreso de OpenAI y reveló que la compañía ahora atiende a más de 300 millones de usuarios cada semana.
El momento de este anuncio se alinea con el reciente hito del segundo aniversario de ChatGPT. La publicación de Altman fue más allá de los logros actuales y hizo una predicción audaz: los agentes de IA podrían comenzar a ingresar a la fuerza laboral dentro de un año, lo que podría remodelar la forma en que operan las empresas.
Altman escribió con confianza sobre las capacidades de OpenAI: “Ahora estamos seguros de que sabemos cómo construir AGI como la hemos entendido tradicionalmente”. Amplió esto sugiriendo que en 2025 los agentes de IA podrían participar activamente en la fuerza laboral y mejorar el desempeño de la empresa.
La definición de AGI sigue siendo un punto de debate en la comunidad tecnológica. Si bien se refiere en términos generales a sistemas de IA que combinan la inteligencia humana en diversas tareas, no existe un acuerdo universal sobre qué constituye exactamente AGI. Esta falta de claridad ha llevado a preguntas sobre lo que realmente significan las afirmaciones de Altman.
Los expertos técnicos han opinado sobre la viabilidad del cronograma de Altman. Charles Wayn, cofundador de la plataforma descentralizada Galxe, expresó sus reservas.
“Los modelos de IA actuales enfrentan demasiados desafíos técnicos que deben resolverse antes de que podamos lograr una verdadera AGI”, explicó a nuestro equipo.
El contexto financiero de OpenAI añade otra capa a considerar. La investigación y el desarrollo de IA de la compañía requieren una financiación masiva, lo que lleva a algunos observadores de la industria a sugerir que estos anuncios podrían ayudar a mantener la confianza de los inversores a pesar de los altos costos operativos.
Mirando más allá de AGI, Altman analizó el objetivo final de OpenAI de lograr la superinteligencia artificial (ASI). “Amamos nuestros productos actuales, pero estamos aquí para un futuro glorioso”, escribió. Si bien OpenAI no ha especificado cuándo podría llegar ASI, algunos investigadores predicen que la IA podría igualar todas las capacidades humanas para 2116.
El investigador jefe de IA de Meta, Yan Lecun, ofrece una perspectiva diferente y señala que la tecnología actual enfrenta limitaciones fundamentales. Las limitaciones de hardware y los desafíos de la metodología de capacitación sugieren que AGI podría estar más lejos de lo que indica Altman.
La perspectiva de que los agentes de IA se unan a la fuerza laboral ha provocado diversas respuestas por parte de los líderes empresariales. Harrison Seletsky de SPACE ID compartió su opinión:
“Los agentes de IA sobresaldrán en tareas rutinarias, pero aún carecen del pensamiento creativo y del juicio que los humanos aportan a la hora de tomar decisiones complejas”.
Una investigación reciente de la Universidad de la Ciudad de Hong Kong enfatiza la combinación de capacidades humanas y de inteligencia artificial en lugar de reemplazar a los trabajadores por completo. Sus hallazgos sugieren que este enfoque colaborativo conduce a mejores resultados para las organizaciones y la sociedad.
El impacto de la IA en el mundo laboral en el mundo real ya es visible. Alrededor del 25% de los líderes de empresas expresan interés en utilizar agentes de IA para realizar determinadas funciones laborales. Sin embargo, la experiencia muestra que la supervisión humana sigue siendo esencial, ya que los sistemas de IA todavía tienen dificultades para comprender el contexto y pueden cometer errores inesperados.
Humayun Sheikh, que dirige Fetch.ai y preside la Alianza ASI, predice un cambio gradual en lugar de una interrupción repentina.
“Si bien la automatización aumentará, particularmente para las tareas rutinarias, es probable que veamos un cambio en los roles humanos en lugar de un reemplazo total”, señaló en nuestra entrevista.
Los recientes logros técnicos de OpenAI dan cierta credibilidad a sus afirmaciones. Su último modelo de IA obtuvo una puntuación del 87,5 % en el punto de referencia ARC-AGI, acercándose a lo que los expertos consideran rendimiento a nivel humano. Sin embargo, continúa el debate sobre si estas métricas realmente indican un progreso hacia el AGI.
La implementación de agentes de IA en los entornos laborales actuales ha producido resultados mixtos. Si bien algunas tareas se pueden automatizar con éxito, las empresas descubren constantemente que necesitan trabajadores humanos para gestionar situaciones en las que la IA se queda corta debido a limitaciones de capacitación o incapacidad para comprender contextos complejos.
Eliezer Yudkowsky, un destacado investigador de IA, sugiere considerar estos anuncios con cuidadosa consideración. Indica que predicciones tan audaces podrían tener fines promocionales en lugar de reflejar posibilidades técnicas inmediatas.
Estudios recientes sobre la integración de la IA en el lugar de trabajo revelan patrones interesantes. Las organizaciones que mantienen un equilibrio entre la experiencia humana y las capacidades de IA tienden a obtener mejores resultados que aquellas que buscan una automatización total. Esto sugiere que el futuro podría implicar una mejora en lugar de un reemplazo de trabajadores humanos.
Los datos de las primeras implementaciones de agentes de IA muestran promesas y limitaciones. Si bien las tareas rutinarias tienen altas tasas de éxito, la toma de decisiones complejas aún requiere participación humana. Este patrón respalda la opinión de que los avances a corto plazo se centrarán en aumentar, en lugar de reemplazar, las capacidades humanas.
Los analistas de la industria continúan monitoreando el progreso de OpenAI hacia estos ambiciosos objetivos. Si bien el crecimiento y los logros técnicos de la empresa son impresionantes, la brecha entre las capacidades actuales de IA y la verdadera AGI sigue siendo un tema de discusión constante en la comunidad tecnológica.
0
¡Manténgase a la vanguardia del mercado con Benzinga Pro!
¿Quieres operar como un profesional? Benzinga Pro le brinda la ventaja que necesita en los mercados acelerados de hoy. Obtenga noticias en tiempo real, información exclusiva y potentes herramientas en las que confían los traders profesionales:
- Últimas noticias que mueven el mercado antes de que lleguen a los principales medios de comunicación
- Graznido de audio en vivo para actualizaciones del mercado de manos libres
- Escáner de acciones avanzado para detectar operaciones prometedoras
- Ideas comerciales de expertos y soporte bajo demanda
No dejes escapar las oportunidades. ¡Comience su prueba gratuita de Benzinga Pro hoy y lleve sus operaciones al siguiente nivel!
Visita Benzinga Pro
Noticias
¿La IA reemplazará a los terapeutas? – Semana de noticias
La creciente dependencia de ChatGPT para el apoyo a la salud mental está transformando la forma en que las personas afrontan las luchas emocionales.
Una tendencia creciente en las redes sociales, particularmente en TikTok, presenta a personas que utilizan ChatGPT como herramienta terapéutica. Los usuarios describen compartir sus pensamientos con la IA y recibir comentarios u orientación, y a menudo expresan sorpresa por lo perceptiva y emocionalmente inteligente que parece ser.
Aunque las plataformas impulsadas por la IA como ChatGPT ofrecen asistencia inmediata las 24 horas del día, lo que las hace convenientes y rentables para la atención de la salud mental, el uso de la IA en la atención de la salud mental plantea desafíos éticos, como preocupaciones sobre la privacidad de los datos, la precisión de su respuestas y el riesgo de que los usuarios se vuelvan demasiado dependientes de la IA.
Semana de noticias se ha puesto en contacto con expertos en psicología y tecnología para discutir si ChatGPT tiene la capacidad de reemplazar a los terapeutas en un futuro próximo.
Del Dr. Daniel Lowd: La IA podría llenar los vacíos donde los terapeutas no están disponibles
La gente se siente cómoda hablando con la IA desde el chatbot ELIZA, hace 60 años. Las personas también encuentran apoyo para la salud mental escribiendo un diario, haciendo ejercicio, orando, hablando con amigos de confianza y leyendo libros de autoayuda. Si bien nada de eso reemplaza a un buen terapeuta, es difícil encontrar buenos terapeutas. Las esperas son largas, los costos pueden ser elevados y un terapeuta adecuado para una persona puede resultar totalmente equivocado para otra. Entonces, si la gente puede encontrar apoyo y perspectiva hablando con ChatGPT o Claude, entonces creo que es maravilloso.
Daniel Lowd, profesor asociado del Departamento de Informática y Ciencias de la Información de la Universidad de Oregón.
Del Dr. Pim Cuijpers: La IA transformará la atención de la salud mental pero no reemplazará a los terapeutas
No creo que la IA reemplace a los terapeutas. Siempre habrá necesidad de terapia y apoyo humano, y esa necesidad es tan grande que la cantidad de terapeutas no disminuirá debido a la IA.
Mantuvimos esta discusión en los Países Bajos hace 20 años, cuando los primeros resultados de nuestras intervenciones digitales (no basadas en IA) estuvieron disponibles y demostraron que estas intervenciones eran tan efectivas como los tratamientos cara a cara. Y aunque las herramientas digitales han llegado a la práctica habitual, no hay ningún impacto en el número de terapeutas.
Pero la IA cambiará la atención de la salud mental. Para algunas personas, un terapeuta de IA será suficiente (incluso preferido por encima de los terapeutas humanos), pero para muchas personas no será suficiente. Pero la IA tendrá impacto de muchas maneras diferentes.
Se están realizando investigaciones para examinar qué paciente se beneficiará de qué tipo de tratamiento, utilizando el aprendizaje automático (IA). Hay investigaciones sobre evaluaciones ecológicas momentáneas a través de teléfonos inteligentes, también orientadas a mejorar los resultados y utilizando el aprendizaje automático, y hay estudios que utilizan herramientas digitales como complemento a la terapia habitual, como por ejemplo la terapia Avatar en los trastornos psicóticos.
Por tanto, ninguna IA sustituirá a los terapeutas, pero sí cambiará y mejorará considerablemente la atención de la salud mental.
Dr. Pim Cuijpers, Profesor emérito, Departamento de Psicología Clínica, Neuro y del Desarrollo, Universidad Vrije de Ámsterdam.
Del Dr. Richard Lachman: Depender de la IA para la salud mental podría afectar a las personas jóvenes y vulnerables
Los chatbots de IA responderán como terapeutas si se les solicita, sin la supervisión, capacitación o responsabilidad de un consejero humano o incluso de un software especializado y probado.
Esta disposición para abordar temas sin experiencia es una debilidad importante tanto en los LLM como en la naturaleza de la interfaz conversacional: dan la ilusión de comprensión y competencia a través de una fluidez fácil y un afán conversacional por complacer, afinado por el aprendizaje reforzado y las respuestas humanas. .
Ya hemos visto interacciones inseguras y poco saludables con personas en crisis a través de chatbots centrados en las relaciones y, a medida que se vuelvan más parte de nuestro panorama de interacción, esto solo aumentará.
La facilidad de acceso y un costo radicalmente más barato también pueden llevar a las organizaciones a financiar chatbots de IA en lugar de participar en los cambios sistémicos a largo plazo necesarios para poner a disposición terapeutas humanos calificados, responsables y gobernados éticamente. Es probable que esto afecte a los jóvenes y a los segmentos vulnerables de la sociedad que tal vez no tengan los recursos financieros o los medios para defenderse por sí mismos.
Dr. Richard Lachman, profesor asociado, producción de medios y director, aprendizaje de zona y director, investigación y desarrollo de tecnología creativa, Universidad Metropolitana de Toronto.
Del Dr. Ben Levinstein: La IA podría influir en el desarrollo de la salud mental en el futuro, si se utiliza con precaución
La cuestión de si la IA reemplazará a los terapeutas no es un simple sí o no; más bien, se trata de comprender cómo la IA transformará el panorama de la atención de salud mental.
Si bien algunos pacientes seguirán prefiriendo terapeutas humanos, valorando los aspectos de la conexión humana, otros pueden gravitar hacia los sistemas de inteligencia artificial, encontrándolos más accesibles y sintiéndose más cómodos compartiendo sus luchas más profundas sin temor al juicio humano.
El costo dramáticamente menor de la terapia con IA, combinado con su disponibilidad constante y la eliminación de las listas de espera, probablemente acelerará este cambio, particularmente porque las compañías de seguros reconocen el potencial para mejorar los resultados y reducir los gastos.
Es probable que el campo de la salud mental se desarrolle en múltiples direcciones simultáneamente. Algunas prácticas pueden adoptar enfoques híbridos, donde la IA maneja las evaluaciones iniciales y brinda apoyo entre sesiones mientras los terapeutas humanos se concentran en el trabajo terapéutico central.
Otros servicios podrían estar totalmente impulsados por la IA, sobre todo a medida que estos sistemas se vuelven cada vez más sofisticados en su capacidad para comprender la psicología humana y desarrollar planes de tratamiento. En psiquiatría, si bien la adopción temprana de la IA podría centrarse en casos de rutina, los avances en los sistemas de IA probablemente superarán las capacidades humanas para manejar incluso los desafíos más complejos de diagnóstico y gestión de medicamentos, lo que podría llevar a que la IA se convierta en el principal proveedor de atención psiquiátrica.
Sin embargo, el auge de la terapia con IA también plantea serias preocupaciones. Una cuestión crítica es la “compra de terapeutas”, donde los pacientes buscan terapeutas que simplemente validen sus puntos de vista existentes en lugar de brindarles un trabajo terapéutico desafiante pero necesario.
Este problema, que ya está presente en los terapeutas humanos, podría amplificarse con sistemas de IA, ya que los pacientes podrían cambiar fácilmente entre diferentes modelos de IA hasta encontrar uno que les diga lo que quieren escuchar.
Además, existen complejas cuestiones éticas y legales sobre cómo los sistemas de IA manejarían situaciones que involucran ideas suicidas o requisitos de presentación de informes obligatorios. Si bien estos desafíos no impedirán que la IA revolucione la atención de salud mental, deberán abordarse cuidadosamente a medida que el campo evolucione.
Dr. Ben Levinstein, profesor asociado de la Universidad de Illinois, Urbana-Champaign, Departamento de Filosofía.
Del Dr. Randy Goebel: Los humanos seguirán siendo irremplazables como terapeutas a pesar del auge de la IA
La realidad es que los humanos seguirán siendo los mejores terapeutas humanos en el futuro previsible, aunque la clasificación tipo chatbot seguirá proporcionando cierto acceso gradual a consejeros reales. Es probable que la proliferación de información errónea y errónea, acelerada por los sistemas de inteligencia artificial, haga que la necesidad de asesoramiento sobre salud mental sea aún más intensa que antes.
Como es habitual, los sistemas público y privado responderán de diferentes maneras, pero no antes de que haya muchas consecuencias negativas.
Dr. Randy Goebel, Profesor de Ciencias de la Computación y Profesor Adjunto de Medicina, Universidad de Alberta.
Del Dr. John Torous: La IA apoyará, no reemplazará, a los terapeutas
La IA no reemplazará a los terapeutas. En las últimas décadas, hemos tenido muchos libros, CD-ROM, sitios web y aplicaciones excelentes de terapia de autoayuda. No han reemplazado a los terapeutas. La IA puede hacer muchas cosas maravillosas, pero la gente quiere conectarse con otras personas para realizar terapia. Sin embargo, la IA desempeñará un papel a la hora de mejorar la terapia haciéndola eficaz e impactante.
Un peligro de la IA es que veremos una ola inicial de personas sin formación ni licencia que tal vez afirmen ser terapeutas y ofrezcan terapia. Usar IA no significa que cualquiera pueda actuar como terapeuta, al igual que usar un simulador de vuelo no significa que cualquiera pueda actuar como piloto. Siempre es bueno preguntar a cualquier terapeuta sobre sus credenciales, experiencia y formación, y hoy más que nunca.
Dr. John Torous, Director de Psiquiatría Digital, Centro Médico Beth Isreal Deaconess, Profesor Asociado de Psiquiatría, Facultad de Medicina de Harvard
Noticias
Noticias de Las Vegas: el sospechoso de la explosión del Tesla Cybertruck, Matthew Livelsberger, utilizó ChatGPT para atacar el hotel Trump Tower, dice la policía
LAS VEGAS– Matthew Livelsberger utilizó ChatGPT para ayudar a planear la explosión del Tesla Cybertruck frente al Trump International Hotel Las Vegas el día de Año Nuevo, revelaron las autoridades el martes.
La policía tiene “evidencias claras” de que Livelsberger utilizó la herramienta de inteligencia artificial generativa para “ayudar a planificar su ataque”, dijo el sheriff Kevin McMahill del Departamento de Policía Metropolitana de Las Vegas a los periodistas durante una conferencia de prensa el martes.
Livelsberger, un soldado del ejército en servicio activo que, según las autoridades, se suicidó en el incidente, hizo preguntas sobre los explosivos y qué haría estallar ciertos tipos de explosivos, dijo la policía.
McMahill dijo que cree que este es el primer caso en suelo estadounidense en el que ChatGPT/AI ayudó a un sospechoso a construir un dispositivo, y lo calificó como un “momento preocupante” y un “cambio de juego”. Agregó que también es “instructivo” para otras agencias encargadas de hacer cumplir la ley y está divulgando información donde puedan en el caso.
A través de ChatGPT, el sospechoso buscó “tratar de calcular la cantidad de explosivos necesarios para llevar a cabo la explosión que buscaba causar”, dijo la asistente del sheriff de Las Vegas, Dori Koren, durante la rueda de prensa.
También lo usó para tratar de averiguar dónde comprar fuegos artificiales, cuánto y cómo se comparan con otros materiales explosivos, dijo Koren. Un “componente importante” de sus investigaciones involucró la velocidad de la bala disparada por el arma de fuego y “determinar si eso encendería los explosivos”, dijo Koren.
Livelsberger, de Colorado Springs, Colorado, murió a causa de una herida de bala autoinfligida justo antes de la explosión, según el forense del condado de Clark. En el vehículo se encontraron dos armas de fuego, una pistola y un rifle, dijo la policía.
El Cybertruck tenía más de 60 libras de pirotecnia y se vertieron 20 galones de combustible sobre los fuegos artificiales y el material explosivo en la parte trasera del camión, según Kenny Cooper, agente especial asistente a cargo de la Oficina de Alcohol, Tabaco, Armas de Fuego y Explosivos. ‘División de campo de San Francisco.
Los investigadores creen que el fogonazo por sí solo podría haber sido una fuente de ignición para la explosión de combustible y aire, aunque no se han descartado otras fuentes posibles, dijo.
La policía dijo el martes que también recuperó un documento de seis páginas en un teléfono encontrado en el Cybertruck que mostraba una “variación de agravios y una evolución constante de sus planes o intenciones de lo que quería hacer”, dijo Koren.
En el documento, el sospechoso criticó a la administración Biden y habló de tener recuerdos gráficos de su tiempo en la batalla y de perder a sus compañeros de equipo, según Koren. También mencionó estar “muy drogado con marihuana y alcohol”, algo que los investigadores todavía están trabajando para confirmar, dijo Koren. El documento también mostró sus problemas de salud mental, que “se basan en ese potencial trastorno de estrés postraumático al que nos referimos”, dijo Koren.
“Él hace la transición en algún momento y habla de estar preocupado de que los medios los etiqueten como terroristas y que no tenía intención de matar a nadie más que a él mismo”, dijo Koren.
Los escritos de Livelsberger indican que había considerado planear provocar la explosión en la pasarela de cristal del Gran Cañón pero cambió de opinión, por alguna razón, al Hotel Trump, dijo la policía.
“Él habla de su intención de hacer esto lo más público posible”, dijo Koren.
VER TAMBIÉN: Soldado que se suicidó en Las Vegas le contó a su ex novia el dolor y el agotamiento después de Afganistán
La policía cree que partes del documento pueden estar clasificados y están trabajando con el Departamento de Defensa para determinar si se puede divulgar todo.
La semana pasada, el Departamento de Policía Metropolitana de Las Vegas publicó dos cartas adicionales encontradas en un teléfono celular recuperado del Cybertruck. En las cartas, Livelsberger decía que el país estaba siendo dirigido por los “débiles” y aquellos que buscaban “enriquecerse”, al tiempo que afirmaba que el incidente no pretendía ser un ataque terrorista sino una “llamada de atención”.
En una de las cartas que la policía dice que fueron encontradas en su teléfono, Livelsberger expresó su apoyo a Donald Trump y a los aliados del presidente electo, Elon Musk y Robert F. Kennedy Jr. También expresó desdén por las iniciativas de diversidad, equidad e inclusión y la desigualdad de ingresos y expresó su preocupación por la falta de vivienda, según las cartas.
Livelsberger también envió un correo electrónico compartido en el podcast de temática militar “Shawn Ryan Show” el viernes, confirmaron las autoridades el martes. Esa información fue enviada al FBI luego del ataque, dijeron funcionarios federales.
La evidencia muestra que Livelsberger “se preparó cuidadosamente” y actuó solo en el incidente, dijeron las autoridades federales. No estaba en el radar del FBI antes del ataque, dijeron las autoridades.
Nadie más resultó gravemente herido, aunque siete transeúntes sufrieron heridas leves, dijeron las autoridades.
Livelsberger sirvió como Boina Verde en el ejército y estaba con licencia aprobada para servir en Alemania en el momento de su muerte, dijo el jueves un portavoz del ejército estadounidense.
Recibió extensas condecoraciones en combate, incluida la Estrella de Bronce con un dispositivo en forma de “V” por su valor, que indica heroísmo bajo fuego. Livelsberger recibió cuatro medallas estándar de Estrella de Bronce más, según los registros del ejército. También obtuvo la Medalla de la Campaña de Afganistán con tres estrellas. Cada estrella representa el servicio en una campaña separada en Afganistán.
Livelsberger había estado recibiendo asistencia de salud mental durante el último año, confirmó el viernes un funcionario estadounidense.
Otro funcionario estadounidense confirmó que los funcionarios pensaban que Livelsberger estaba lo suficientemente estable como para regresar a casa para Navidad y que se aprobó su licencia.
Su esposa, con quien hablaron los investigadores en Colorado Springs, dijo que había estado fuera de la casa desde Navidad después de una disputa sobre acusaciones de infidelidad, dijo el funcionario.
Su esposa dijo a los funcionarios que no creía que Livelsberger quisiera lastimar a nadie, dijo el funcionario a ABC News.
Un portavoz de OpenAI dijo en un comunicado: “Estamos entristecidos por este incidente y comprometidos a que las herramientas de IA se utilicen de manera responsable. Nuestros modelos están diseñados para rechazar instrucciones dañinas y minimizar el contenido dañino. En este caso, ChatGPT respondió con información que ya está disponible públicamente en Internet y proporcionó advertencias contra actividades dañinas o ilegales. Estamos trabajando con las autoridades para apoyar su investigación”.
Si tiene pensamientos suicidas o está preocupado por un amigo o un ser querido, llame o envíe un mensaje de texto a Suicide & Crisis Lifeline al 988 para apoyo emocional confidencial y gratuito las 24 horas del día, los siete días de la semana.
El vídeo en el reproductor de arriba es de un informe anterior.
-
Startups8 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Recursos8 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Recursos8 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Recursos8 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Estudiar IA8 meses ago
Curso de Inteligencia Artificial de UC Berkeley estratégico para negocios
-
Tutoriales8 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Eventos8 meses ago
La nueva era de la inteligencia artificial por el Washington Post – Mayo 2024
-
Startups6 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024