Connect with us

Noticias

OpenAI’s turbulent early years – Sync #494

Published

on

Hello and welcome to Sync #494!

As part of the court case between Elon Musk and Sam Altman, several emails from the early years of OpenAI have been made public. We will take a look into those emails, and what they reveal about the early days of OpenAI and the growing distrust among its founders.

In other news, Anthropic and xAI raised billions of dollars while a Chinese lab released its reasoning model to challenge OpenAI o1, and Gemini gets memory. Elsewhere in AI, DeepMind releases an AI model to correct errors in quantum computing, a Swiss church installs AI Jesus and how can a small AI control much more capable AI and make sure it does not misbehave.

Over in robotics, we have a fluffy robot from Japan aimed at replacing living pets, how easy it is to jailbreak LLM-powered robots and a South Korean robot dog completes a full marathon.

We’ll wrap up this week’s issue of Sync with a behind-the-scenes tour of the workshop where Wing designs and builds its delivery drones.

Enjoy!

The last two years were quite eventful for OpenAI. Thanks to the massive success of ChatGPT, OpenAI went from a relatively small company to one of the biggest startups in the world, attracting worldwide attention and billions of dollars in funding, propelling its valuation to $157 billion and triggering the AI revolution we are in today.

However, such massive growth never comes easily. Every organisation experiencing significant growth must evolve and transform itself into a new organisation that can deal with new challenges. In the case of OpenAI, some of those growing pains were made publically visible.

Probably the best known of these growing pains occurred a year ago when a group of OpenAI board members briefly removed Sam Altman from his role as CEO. Altman eventually returned to OpenAI, and from then on, we have seen a steady stream of key people leaving the company. Most notable of them were Ilya Sutskever, one of the founders of OpenAI and its long-time chief scientist, and Mira Murati, who served as CTO and briefly as CEO.

As part of the court case between Elon Musk and Sam Altman, several emails from the early years of OpenAI have been made public, revealing the tension within OpenAI has been there since the very beginning of the company. These emails cover the period from 2015, when the idea of an “open” AI lab was first proposed, to 2019, when OpenAI transitioned from a non-profit to a for-profit company. They also complement an earlier batch of communications between Elon Musk, Sam Altman, Greg Brockman, and Ilya Sutskever, released earlier this year by OpenAI.

The emails can be found on the Musk v. Altman court case page. There is also a compilation of all emails on LessWrong which is much easier to read. While reading those emails, it is worth keeping in mind that Musk’s legal team released them so they will be skewed towards portraying him as the one who was betrayed by OpenAI when the company abandoned its original vision of being a non-profit AI research lab.

Before we dive into the emails and what they tell us about OpenAI, let’s remind ourselves what the world looked like when OpenAI was founded.

It is 2015—the height of the deep learning revolution. A year earlier, Google had acquired DeepMind, a London-based AI research company making breakthrough after breakthrough in AI and advancing steadily in deep learning and reinforcement learning research. With the acquisition of DeepMind, Google was poised to lead the charge in AI research. It had the best talent working in its labs, backed by Google’s vast resources—be it computing power, data, or finances. If anyone were to create AGI, there was a big chance it would happen at Google.

That vision of the future, in which AGI has been created and owned by Google, was something Sam Altman did not want to happen. As he wrote in an email to Elon Musk in May 2015:

If it’s going to happen anyway, it seems like it would be good for someone other than Google to do it first.

With the information we have so far, that email is the first time an idea for a non-profit AI lab bringing the best minds in the industry to create advanced AI to benefit all of humanity was proposed. Initially, that company was to be attached to YCombinator and was provisionally named YC AI before eventually being renamed to OpenAI.

Later emails describe how the new company was planning to attract top talent in AI. That’s where Altman mentions that, apparently, DeepMind was trying to “kill” OpenAI by offering massive counteroffers to those who joined the new company.

One thing that comes out from reading those emails is the tension between the founders of OpenAI—Elon Musk, Sam Altman, Ilya Sutskever and Greg Brockman. The best example of those tensions is an email titled “Honest Thoughts,” written by Ilya Sutskever and sent to both Elon Musk and Sam Altman in September 2017. Sutskever’s thoughts were indeed honest. In the email, he openly questioned the motives of both Musk and Altman and their intentions for OpenAI.

Addressing Musk, Sutskever expressed concerns about the possibility of Musk taking control of OpenAI and transforming the AI lab into one of his companies. Sutskever noted that such a scenario would go against the very principles upon which OpenAI was founded.

The goal of OpenAI is to make the future good and to avoid an AGI dictatorship. You are concerned that Demis could create an AGI dictatorship. So do we. So it is a bad idea to create a structure where you could become a dictator if you chose to, especially given that we can create some other structure that avoids this possibility.

Elon did not take that email very well, saying “This is the final straw,” and threatening to leave the company and withdraw his funding, which he officially did six months later.

In the same message, Sutskever also raises concerns about Altman and openly asks what he wants from OpenAI:

We haven’t been able to fully trust your judgements throughout this process, because we don’t understand your cost function.

Following this, Sutskever questions further:

We don’t understand why the CEO title is so important to you. Your stated reasons have changed, and it’s hard to really understand what’s driving it.

Is AGI truly your primary motivation? How does it connect to your political goals? How has your thought process changed over time?

We can see in these questions the seeds of mistrust that will grow over time and eventually culminate in Sutskever leading a group of OpenAI board members to remove Sam Altman from the company in November 2023 over Altman not being “consistently candid.”

Another example of rifts forming between OpenAI founders can be found during the discussions about the future of the company as a non-profit, where Sam Altman is reported to have “lost a lot of trust with Greg and Ilya through this process.”

Another of the topics raised in those emails was the question of funding. Running a cutting-edge AI research lab and hiring top AI talent is expensive. The situation was made worse by the fact that OpenAI was going against Google which could easily outspent OpenAI. In 2017, OpenAI spent $7.9 million—equivalent to a quarter of its functional expenses—on cloud computing alone. By contrast, DeepMind’s total expenses in the same year were $442 million.

The emails reveal discussions about ways to raise additional funds to sustain OpenAI. One idea proposed was an ICO, which emerged in 2018 during one of crypto’s many bubbles. However, the idea was quickly abandoned.

The biggest problem in securing more funding was the non-profit nature of OpenAI. The option that OpenAI eventually took was to become in 2019 a “capped” for-profit, with the profit being capped at 100 times any investment. But there was another option on the table—to bring OpenAI under Tesla.

This option was suggested by Andrej Karpathy in an email titled “Top AI Institutions Today,” dated January 2018. At the time, Karpathy was no longer working at OpenAI and was serving as Tesla’s Director of Artificial Intelligence, reporting directly to Elon Musk. In the email, Karpathy provided an analysis of the AI industry in 2018 and correctly highlighted the massive cost of developing world-class AI. He criticised a for-profit approach, arguing that it would require creating a product, which would divert the focus from AI research. In Karpathy’s view, the only viable path for OpenAI to succeed was to become part of Tesla, with Tesla serving as OpenAI’s “cash cow.”

Elon then forwarded Karpathy’s analysis to Ilya Sutskever and Greg Brockman, adding that:

in my and Andrej’s opinion, Tesla is the only path that could even hope to hold a candle to Google. Even then, the probability of being a counterweight to Google is small. It just isn’t zero

However, Altman, Sutskever and Brockman did not want to become Tesla’s equivalent of DeepMind. Sutskever pointed out in that “Honest Thoughts” email that OpenAI being part of Tesla would conflict with the company’s founding principles. If that were to happen, OpenAI would be answerable to Tesla’s shareholders and obligated to maximize their investments.

A similar distrust of Tesla’s involvement in OpenAI is evident when OpenAI considered the idea of acquiring Cerebras, a startup designing AI chips. In the same “Honest Thoughts” email, Sutskever asserted that the acquisition would most likely be carried out through Tesla and questioned Tesla’s potential involvement, portraying it as another example of Elon Musk attempting to exert greater control over OpenAI.

The released emails end in March 2019, on the same day OpenAI announced the transition from a non-profit to a capped for-profit company. The final communication is between Elon Musk and Sam Altman, with Musk requesting that it be made clear he has no financial interest in OpenAI’s for-profit arm.

A few months later, OpenAI partnered with Microsoft, which invested $1 billion into the AI lab and the long-term partnership between these companies began. In the years that followed, OpenAI shifted its focus to researching transformer models and developing the GPT family of large language models. This journey ultimately culminated in the launch of a small project called ChatGPT—and the rest is history.

OpenAI was founded with the mission of building AGI to benefit all of humanity. However, behind this grand mission lies a story of egos, personalities and different visions of what this mission is really about. After reading those emails, a picture of broken foundations emerges, and the story of clashing visions within the company is still unfolding.

If you enjoy this post, please click the ❤️ button or share it.

Share

Do you like my work? Consider becoming a paying subscriber to support it

Become a paid subscriber

For those who prefer to make a one-off donation, you can ‘buy me a coffee’ via Ko-fi. Every coffee bought is a generous support towards the work put into this newsletter.

Your support, in any form, is deeply appreciated and goes a long way in keeping this newsletter alive and thriving.

A $12,000 Surgery to Change Eye Color Is Surging in Popularity
Keratopigmentation (corneal tattooing) is a cosmetic surgery that permanently changes eye colour by embedding dye into the cornea using a laser. The procedure, which can cost $12,000, has surged in popularity, with one US surgeon reporting growth from 15 to 400 patients annually since 2019. Those who have undergone the procedure say they look better and feel more confident. However, the American Academy of Ophthalmology warns of serious risks, including vision loss, and advises against the procedure for cosmetic purposes.

Neuralink gets approval to start human trials in Canada
Neuralink has received Health Canada’s approval to conduct its first human clinical trials outside the United States. The trials, to be held at Toronto Western Hospital, will test the company’s brain implant technology, which allows people with quadriplegia to control devices using their thoughts. The trials will assess the implant’s safety and functionality, building on earlier patient experiences and addressing issues such as thread retraction. Neuralink is currently recruiting participants with limited hand mobility due to spinal cord injuries or ALS.

Six startups connecting brains with machines

US government commission pushes Manhattan Project-style AI initiative
The US-China Economic and Security Review Commission (USCC) proposed a Manhattan Project-style initiative to develop AGI. The commission emphasized the critical importance of being first in AGI development to maintain a global power balance, particularly in the context of competition with China, with energy infrastructure and streamlined permitting for data centres being cited as key bottlenecks for accelerating AI development. The initiative would involve public-private partnerships, though no specific investment strategies were detailed. OpenAI also called for increased government funding for AI, aligning with the USCC’s focus on public-private collaboration to accelerate AI advancements.

Amazon doubles down on AI startup Anthropic with $4bn investment
Anthropic has announced that Amazon, its long-time backer, is investing another $4 billion into the company, bringing Amazon’s total investments to $8 billion. Amazon will maintain its position as a minority investor and Amazon Web Service (AWS) will become Anthropic’s official cloud provider. Anthropic also said it was working with AWS’s Annapurna Labs on the development of future generations of Amazon’s Trainium chips and plans to train its foundational models on the hardware.

A Chinese lab has released a ‘reasoning’ AI model to rival OpenAI’s o1

Chinese AI lab DeepSeek has released a preview of DeepSeek-R1, designed to rival OpenAI’s o1. Like o1, the model can “think” for tens of seconds to reason through complex questions and tasks. And like o1, it also struggles with certain logic problems, such as tic-tac-toe. Additionally, it can be easily jailbroken, allowing users to bypass its safeguards. DeepSeek claims that DeepSeek-R1 is competitive with OpenAI’s o1-preview on AI benchmarks like AIME (model evaluation) and MATH (word problems).

Elon Musk’s xAI Startup Is Valued at $50 Billion in New Funding Round
xAI has informed investors that it raised $5 billion in a funding round, valuing the company at $50 billion—more than twice its valuation several months ago. In total, xAI has raised $11 billion this year. The company plans to use the new funds in part to finance the purchase of 100,000 additional Nvidia chips to train AI models at its Memphis data centre—the most powerful AI cluster in the world, which Elon Musk has said has plans to double in size.

Google’s Gemini chatbot now has memory
A new “memory” feature has begun rolling out to certain Gemini users. With it, Gemini can now remember facts about the user, their work or their preferences. A similar feature was previously added to ChatGPT which adds more context to the conversation. Gemini memories aren’t used for model training. “Your saved information is never shared or used to train the model,” a Google spokesperson told TechCrunch.

▶️ An Honest Review of Apple Intelligence… So Far (17:48)

In this video, Marques Brownlee reviews every single Apple Intelligence feature that’s out so far—Writing Tools, notification summaries and priority notifications, Genmoji, Image Playground, photo cleanup tool in the Photo app, recording summaries, Visual Intelligence and ChatGPT integration. The results are mixed at most.

Microsoft Signs AI-Learning Deal With News Corp.’s HarperCollins
Bloomberg reports that Microsoft has signed a deal with News Corp.’s HarperCollins to use its nonfiction books to train new AI models. This agreement is another example of AI companies signing content partnerships with publishers. OpenAI has similar licensing deals with News Corp., Axel Springer SE, The Atlantic, Vox Media Inc., Dotdash Meredith Inc., Hearst Communications Inc., and Time magazine. Meanwhile, Microsoft has worked on AI initiatives with Reuters, Hearst, and Axel Springer.

Nvidia earnings: AI chip leader shows no signs of stopping mammoth growth
It seems Nvidia just can’t stop growing. The chip maker reported Q3 revenue of $35.08 billion, exceeding expectations of $33.15 billion. Revenue surged 94% year-over-year, with profits more than doubling. The stock is up nearly 200% in 2023 and over 1,100% in the last two years, hitting record highs and propelling Nvidia to become the world’s most valuable company. Nvidia projected a 70% revenue increase for the next quarter, driven by strong demand for Nvidia’s latest Blackwell GPU chips.

AlphaQubit tackles one of quantum computing’s biggest challenges
AlphaQubit is a new model from Google DeepMind trained to identify errors and improve the reliability of quantum computations. According to the blog post, AlphaQubit achieved greater precision than existing error correction systems. However, AlphaQubit is too slow to correct errors in real-time for superconducting quantum processors, which operate at extremely high speeds. Future improvements will focus on speed, scalability, and data-efficient training for systems with millions of qubits.

Ben Affleck Says Movies ‘Will Be One of the Last Things Replaced by AI,’ and Even That’s Unlikely to Happen: ‘AI Is a Craftsman at Best’
Ben Affleck is confident that “movies will be one of the last things, if everything gets replaced, to be replaced by AI.” Affleck explained in an interview that AI is adept at imitation but lacks originality and the ability to create something truly new, akin to how a craftsman works by replicating techniques rather than innovating. However, he sees the benefits of using AI in filmmaking, suggesting AI could lower costs, reduce barriers to entry, and enable more voices to participate in filmmaking by handling logistical and less creative aspects.

▶️ Using Dangerous AI, But Safely? (30:37)

Robert Miles, one of the top voices in AI safety, explains a paper asking how can we make sure that a powerful AI model is not trying to be malicious. In this case, the researchers proposed and evaluated various safety protocols within a controlled scenario where an untrusted model (GPT-4) generates code, a trusted but less capable model (GPT-3.5) monitors it, and limited high-quality human labour audits suspicious outputs. The goal is to prevent “backdoors” while maintaining the usefulness of the model’s outputs. It is an interesting video to watch as Miles explains different back-and-forth techniques, resulting in a safety protocol that offers a practical path forward. However, as always, more research is needed to tackle real-world tasks, improve oversight, and address the growing gap between trusted and untrusted models.

Deus in machina: Swiss church installs AI-powered Jesus
Peter’s Chapel in Lucerne, Switzerland, launched Deus in Machina, an AI-powered Jesus avatar capable of dialoguing in 100 languages. The AI was first trained on theological texts and designed to respond to questions in real-time and then installed in the confessional booth for people to interact with it. The project aimed to provide a space for religious conversations and gauge public interest in AI-based spiritual tools. During the two-month trial, over 1,000 people, including tourists and non-Christians, interacted with the avatar. Feedback from 230 users showed two-thirds found the experience spiritual and positive, though others criticized it as superficial or repetitive. The project gathered negative feedback from some church members who criticized the use of the confessional booth and the use of AI in a religious context, raising concerns about the risk of the AI providing inappropriate, illegal, or theologically conflicting responses.

AI-Driven Drug Shows Promising Phase IIa Results in Treating Fatal Lung Disease
ISM001-055, a drug for treating idiopathic pulmonary fibrosis, which was developed with the help of generative AI, is showing promising results in a Phase IIa trial. Created by Insilico Medicine, the drug demonstrated improvements in lung function and quality of life over 12 weeks, offering hope for slowing or potentially reversing disease progression. Insilico Medicine plans to advance to a Phase III trial to further validate the drug’s efficacy and safety. Full trial data will be presented at medical conferences and submitted for peer-reviewed publication.

If you’re enjoying the insights and perspectives shared in the Humanity Redefined newsletter, why not spread the word?

Refer a friend

Can a fluffy robot really replace a cat or dog? My weird, emotional week with an AI pet

I first mentioned Moflin, Casio’s pet robot, in Issue #490. It is an interesting project aiming to create a robot companion that can form an emotional bond with its owner. This article recounts the author’s experience with Moflin, beginning with curiosity and slight self-consciousness, which evolved into subtle attachment as they found its sounds, movements, and interactions comforting. Moments of bonding, such as stroking Moflin or having it rest on their chest, highlighted its ability to provide companionship, although it couldn’t fully replicate the connection of a living pet. Moflin reflects Japan’s growing interest in robotic companions, particularly as solutions for an ageing population, and represents a modern take on the global trend of robotic pets like Sony’s Aibo and Paro the robot seal.

It’s Surprisingly Easy to Jailbreak LLM-Driven Robots
A group of scientists found an automated way to hack into LLM-driven robots with 100% success. By bypassing security measures put into those robots, researchers were able to manipulate self-driving systems into colliding with pedestrians and robot dogs into hunting for harmful places to detonate bombs. Their findings raise concerns about the risks posed by LLM-operated robots in real-world settings and highlight the lack of contextual and consequential awareness in LLMs, emphasizing the need for human oversight in sensitive or safety-critical environments.

Robot runs marathon in South Korea, apparently the first time this has happened
South Korean robot Raibo2 has become the first four-legged robot to complete a full marathon. Built by the Korea Advanced Institute of Science and Technology, the robot completed the 42 km (26.2 miles) run in 4 hours, 19 minutes, and 52 seconds on a single battery charge. For comparison, the human winner finished the marathon in 2 hours, 36 minutes, and 32 seconds.

Scientists identify tomato genes to tweak for sweeter fruit
Researchers in China identified two genes that act as “sugar brakes,” limiting sugar production in domesticated tomatoes during ripening. The resulting tomatoes had up to 30% higher sugar content without sacrificing fruit size or yield, balancing the needs of consumers (who prefer sweet tomatoes) with those of producers and farmers (who want high yield and bigger fruits). The gene-edited tomatoes could be available in supermarkets within 3–5 years. Similar gene-edited tomatoes are already on the market in Japan.

▶️ Adam Savage Explores Wing’s Drone Engineering Workshop (26:22)

In this video, Adam Savage visits the workshop and laboratory where Wing, Alphabet’s drone delivery company, designs, builds and tests its delivery drones. Adam learns how these drones were developed, from early prototypes to the machines now delivering packages to real customers. It is fascinating to learn what kind of engineering and problem-solving went into creating a viable delivery drone. Plus it is always a pleasure to see Adam nerding out about exceptional engineering.

Thanks for reading. If you enjoyed this post, please click the ❤️ button or share it.

Share

Humanity Redefined sheds light on the bleeding edge of technology and how advancements in AI, robotics, and biotech can usher in abundance, expand humanity’s horizons, and redefine what it means to be human.

A big thank you to my paid subscribers, to my Patrons: whmr, Florian, dux, Eric, Preppikoma and Andrew, and to everyone who supports my work on Ko-Fi. Thank you for the support!

My DMs are open to all subscribers. Feel free to drop me a message, share feedback, or just say “hi!”

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Ranking de potencia de IA Rangings: OpenAi, Google Rise como Anthrope Falls, el informe de Poe encuentra

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información


El último informe de uso de Poe muestra que Openai y Google fortalecen sus posiciones en categorías clave de IA, mientras que Anthrope pierde terreno y capacidades de razonamiento especializadas emergen como un campo de batalla competitivo crucial.

Según los datos publicados hoy en día por Poe, una plataforma que ofrece acceso a más de 100 modelos de IA, se produjeron cambios significativos en la participación de mercado en todas las principales categorías de IA entre enero y mayo de 2025. Los datos, extraídos de suscriptores de POE, proporcionan una visibilidad rara de las preferencias reales de los usuarios más allá de los puntos de referencia de la industria.

“Como una puerta de entrada universal a más de 100 modelos AI, Poe tiene una visión única de las tendencias de uso en todo el ecosistema”, dijo Nick Huber, el líder del ecosistema de AI de Poe, en una entrevista exclusiva con VentureBeat. “Las cosas más sorprendentes que suceden en este momento son la rápida innovación (3 veces el número de lanzamientos en enero-mayo de 2025 frente al mismo período en 2024), un panorama competitivo cada vez más diverso y los modelos de razonamiento son la clara historia de éxito de principios de 2025.”

Un cuadro de POE que muestra clasificaciones de modelos AI en diferentes categorías a partir de mayo de 2025. El GPT-4O de OpenAI domina en la generación de texto con un 35.8% de participación de uso, mientras que el Gemini-2.5-Pro ​​de Google lidera en capacidades de razonamiento e Imagen3 en la generación de imágenes. (Crédito: Poe)

GPT-4O mantiene el dominio, mientras que los nuevos modelos capturan rápidamente la participación de mercado

En la generación de texto central, el GPT-4O de OpenAI mantuvo su posición al mando con el 35.8% de la participación en el mensaje, mientras que la nueva familia GPT-4.1 de la compañía capturó rápidamente el 9.4% del uso dentro de las semanas posteriores al lanzamiento. Gemini 2.5 Pro de Google logró de manera similar aproximadamente un 5% de participación en los mensajes poco después de su introducción.

Estas ganancias llegaron en gran medida a expensas de los modelos Claude de Anthrope, que vio una disminución absoluta del 10% en la participación durante el período de informe. El informe señala que el soneto Claude 3.7 ahora ha reemplazado sustancialmente el soneto Claude 3.5 anterior en preferencia del usuario, aunque este último aún mantiene una notable participación de uso del 12%.

Deepseek, que experimentó un crecimiento viral a principios de este año, ha visto su impulso lento a medida que los competidores han lanzado sus propios modelos de razonamiento asequibles y detallados. La participación de mensajes de Deepseek R1 disminuyó de un pico del 7% a mediados de febrero al 3% a fines de abril.

Las capacidades complejas de resolución de problemas se convierten en diferenciador clave en el mercado de IA

Quizás la tendencia más significativa identificada en el informe es el crecimiento dramático en modelos de razonamiento especializados, que se han expandido de aproximadamente el 2% al 10% de todos los mensajes de texto enviados en POE desde el comienzo de 2025.

“Los modelos de razonamiento, incluso en los primeros días, han demostrado una notable capacidad para manejar tareas complejas con una mayor precisión”, dijo Huber a VentureBeat. “Los primeros usuarios claramente están encontrando valor en esto y están dispuestos a asumir las compensaciones en el costo y el tiempo de procesamiento para mejores resultados”.

En este segmento de alto crecimiento, Gemini 2.5 Pro se ha establecido rápidamente como líder, capturando aproximadamente el 31% del uso del modelo de razonamiento dentro de las seis semanas de lanzamiento. Ahora lidera la categoría, antes de los modelos de razonamiento de Claude.

Operai continúa innovando rápidamente en este espacio, liberando múltiples modelos de razonamiento (O1-Pro, O3-Mini, O3-Mini-High, O3 y O4-Mini) solo en los primeros cuatro meses de 2025. El informe indica que los usuarios de POE rápidamente adoptan las ofertas más recientes de OpenAI, transición de modelos más antiguos como O1 a alternativas más nuevas como O3.

El informe también señaló la aparición de modelos de razonamiento híbrido, como la vista previa de Gemini 2.5 Flash y Qwen 3, que puede ajustar dinámicamente su nivel de razonamiento dentro de las conversaciones. Sin embargo, estos modelos actualmente representan solo alrededor del 1% del uso del modelo de razonamiento.

Los analistas de la industria sugieren que este cambio hacia las capacidades de razonamiento especializadas señala un mercado de IA en maduración donde la generación de texto sin procesar se está volviendo comercializado, lo que obliga a los proveedores a diferenciarse a través de capacidades de mayor valor que pueden obtener precios premium.

Los desafíos de Imagen 3 de Google establecieron jugadores en la arena visual de IA

El mercado de la generación de imágenes parece cada vez más competitivo, con la familia Imagen 3 de Google que crece constantemente de aproximadamente el 10% al 30% de participación durante 2025, ahora rivalizan con la familia de modelos de Flux Labs del líder de Black Forest Labs, que colectivamente mantuvo una participación colectiva a fines de abril.

El GPT-IMage-1 de Openai, se presentó a la API a fines de abril, alcanzó rápidamente el 17% del uso de la generación de imágenes en solo dos semanas, reflejando su adopción viral en la aplicación ChatGPT a lo largo de marzo y principios de abril.

El informe indica que los modelos de flujo mantuvieron su participación general de pluralidad en la generación de imágenes en POE, pero experimentó una disminución moderada de aproximadamente 45% a 35% durante el período de informe.

Esta competencia de tres vías entre Google, OpenAi y Black Forest Labs marca un cambio significativo desde principios de 2024, cuando las variantes de difusión de mediana edad y estable dominaron el espacio. La rápida mejora en la calidad de la imagen, la adherencia a las indicaciones y la velocidad de representación ha transformado esta categoría en uno de los campos de batalla de IA más ferozmente disputados.

La adopción empresarial de la generación de imágenes se ha acelerado sustancialmente en los últimos seis meses, según datos complementarios de la industria, con departamentos de marketing y agencias creativas integrando cada vez más estas herramientas en sus flujos de trabajo de producción.

El advenedizo chino Kling interrumpe el mercado de AI Video, desafiando el liderazgo temprano de Runway

En la generación de videos, la recién lanzada familia de modelos de Kling Lab Kuaishou ha interrumpido rápidamente el mercado, capturando colectivamente alrededor del 30% de participación de uso. En particular, Kling-2.0-Master alcanzó el 21% de toda la generación de videos en POE a fines de abril, solo tres semanas después de su lanzamiento.

VEO 2 de Google mantuvo una posición sólida con aproximadamente un 20% de participación después de su lanzamiento de febrero, mientras que la pista de pioneras de categoría vio una disminución sustancial de su participación de uso de aproximadamente 60% a 20% durante todo el período de informe.

La velocidad de la penetración del mercado de Kling resalta la rapidez con que el panorama competitivo puede cambiar en las categorías emergentes de IA, donde los jugadores establecidos pueden no mantener sus ventajas tempranas a medida que los recién llegados iteran y mejoran rápidamente.

La generación de videos sigue siendo la aplicación de IA de consumo más intensiva computacionalmente intensiva, con modelos que requieren una potencia de procesamiento significativa para crear clips cortos. Esto ha mantenido el uso más limitado que el texto o la generación de imágenes, pero se espera que los costos de caída rápida y la mejora de la calidad impulsen una adopción más amplia hasta 2025.

Los primeros usuarios empresariales incluyen agencias de publicidad, creadores de contenido de redes sociales y plataformas educativas que han comenzado a integrar videos generados por IA en sus estrategias de contenido a pesar de las limitaciones actuales de la tecnología.

ElevenLabs domina la IA de voz, mientras que los nuevos participantes se dirigen a casos de uso especializados

ElevenLabs continúa liderando la categoría de generación de audio, cumpliendo aproximadamente el 80% de las solicitudes de texto a voz de todos los suscriptores durante el período de informe. Sin embargo, el informe destaca la competencia emergente de los recién llegados Cartesia, un discurso irreal, playai y Orfeo, que ofrecen modelos diferenciados de opciones de voz, efectos y precios.

Este dominio del mercado de un solo jugador contrasta con la competencia más fragmentada en otras categorías de IA. Los expertos de la industria atribuyen el liderazgo continuo de ElevenLabs a su entrada temprana del mercado, una extensa biblioteca de voz y mejoras de calidad consistentes que han mantenido una ventaja técnica sobre los competidores.

Los participantes más nuevos están encontrando el éxito al atacar a los nichos de mercado específicos. Unreal Speech ha ganado tracción con los productores de podcasts y los editores de audiolibros al ofrecer actores de voz especializados y capacidades de rango emocional. Mientras tanto, Cartesia se ha centrado en voces multilingües con acentos auténticos, capturando el interés de las empresas globales y las plataformas educativas.

Se proyecta que el mercado de IA de audio crecerá sustancialmente a través de 2025 a medida que las capacidades de texto a voz se centran en la calidad humana y encontrar aplicaciones en el servicio al cliente, las soluciones de accesibilidad y la creación de contenido. Los requisitos computacionales relativamente bajos en comparación con la generación de videos permiten una implementación y experimentación más amplias.

Implicaciones estratégicas para las empresas que navegan por un paisaje de IA en constante cambio

La naturaleza dinámica del panorama del modelo AI presenta oportunidades y desafíos para las empresas que integran estas tecnologías.

“Puede ser un desafío mantenerse al día con lo último en IA y el ritmo solo está ganando velocidad”, dijo Huber a VentureBeat. “Si usted es un negocio que ya ejecuta la IA a escala, invertir en tuberías de evaluación robustas y agnósticas del proveedor es fundamental porque el modelo mejor este mes puede ser el segundo mejor el próximo mes”.

Esta volatilidad en las preferencias del modelo subraya el valor de plataformas como POE que ofrecen acceso a múltiples modelos a través de una sola interfaz, lo que permite a los usuarios comparar salidas y adaptarse al ecosistema de IA cambiante.

Los analistas de la industria sugieren que la creciente importancia de las capacidades de razonamiento puede indicar un cambio en cómo las empresas evalúan y implementan modelos de IA, con un enfoque creciente en la precisión y la confiabilidad para tareas complejas en lugar de solo velocidad o rentabilidad.

A medida que Frontier Labs continúa lanzando modelos más capaces a un ritmo acelerado, las empresas enfrentan decisiones difíciles sobre cuándo estandarizar en plataformas específicas en lugar de mantener la flexibilidad. Muchos líderes empresariales de IA están adoptando un enfoque de cartera, utilizando diferentes modelos para diferentes tareas mientras mantienen la capacidad de cambiar los proveedores a medida que evolucionan las capacidades.

“Este será un espacio importante para ver, especialmente entre los proveedores de fronteras, ya que representa lo mejor de lo que la IA puede lograr actualmente”, señaló Huber sobre los modelos de razonamiento.

El informe indica que las capacidades multimedia también se están volviendo cada vez más competitivas, lo que sugiere que la generación de texto, durante mucho tiempo, el enfoque principal del desarrollo de la IA, puede estar dando paso a un ecosistema más equilibrado donde la imagen, el video y la generación de audio juegan roles igualmente importantes.

Las empresas que navegan con éxito este complejo paisaje probablemente serán aquellas que mantengan marcos de evaluación centrados en casos de uso específicos en lugar de perseguir las últimas versiones del modelo, al tiempo que construyen una infraestructura técnica simultánea que permite una rápida adopción cuando surgen mejoras significativas.

A medida que los modelos de IA continúan su juego de sillas musicales en la cima de la clasificación, una cosa queda clara: en el mercado actual, la corona rara vez permanece en la misma cabeza durante mucho tiempo, y las compañías que apuntan a su futuro al campeón de IA de ayer pueden encontrarse alineados con el también Ran de mañana.

Continue Reading

Noticias

Mi esposo me estaba volviendo loco

Published

on

Descubrí que todos mis amigos usan el bot de IA para el asesoramiento de parejas gratis, así que también le pedí ayuda con nuestras molestias matrimoniales, y para mi total sorpresa, funciona.

A la mitad de una semana de usar ChatGPT para arbitrar mis Niggles maritales, tuve la sensación de que el algoritmo había cambiado de lados.

“Al no hacer que su esposo se sienta atacado, puede ayudarlo a ver que ambos tienen el mismo objetivo”, me aconsejó. “Puede tomar un poco de práctica, pero guiarlo suavemente hacia un enfoque más tranquilo puede marcar una gran diferencia con el tiempo. ¿Parece una conversación que podrías probar?”

“Errr, pude”, respondí, de manera algo probada. “Mientras haya dormido ocho horas y pueda encajar entre los millones de otras cosas que tengo que hacer hoy”.

Me había estado comunicando tanto con el bot sobre mi matrimonio y cada vez más honesto con él, que me preguntaba si tal vez había concluido que era una pesadilla. Probablemente estaba agradeciendo a sus estrellas de la suerte, no era la Sra. Chatgpt.

Estaba teniendo una conversación defensiva con una serie de código en un intento por probar cuán efectiva es la inteligencia artificial para desactivar las filas domésticas.

Había leído que las personas en el Reino Unido, especialmente los adultos más jóvenes, recurren cada vez más a las herramientas de IA como ChatGPT para obtener apoyo de salud mental. Largas listas de espera del NHS, altos costos de terapia y el atractivo de 24/7, el acceso sin juicio ha hecho que estas herramientas sean populares para manejar la ansiedad, aclarar los pensamientos y aliviar el abrumador emocional.

Si bien mi grupo de edad, tengo 48 años, está demostrando ser más cauteloso al discutir la salud mental con un chatbot de IA, mi experiencia anecdótica es que estamos recurriendo cada vez más a él para resolver los problemas de relación.

Jessie con su esposo e hijo. Durante siete días, cada vez que Jessie se molestaba con su esposo, se volvió a chatgpt

Primero descubrí esto cuando una amiga mía, un psicólogo no menos, me dijo que cuando se estaba gestando una discusión con su esposo, ella recurrió a Chatgpt, y que estaba demostrando ser sorprendentemente efectiva. Varios de sus amigos también lo estaban usando, ella confió. Uno incluso dijo que había salvado su matrimonio.

Al principio, pensé lo sombría que es la vida moderna. La idea de decirle a sus problemas a un chatbot sin pulso que no solo se sintió futurista sino trágico. Pero el hecho de que mi amigo, que es un experto en salud mental, estaba haciendo esto, me convenció de que debe haber algo en ello.

Y así durante los últimos siete días, cada vez que me molestaba con mi esposo, o él se molestó conmigo, inicié sesión en la aplicación para pedirle a los consejos del bot.

Durante la primera mitad de la semana, la paz reinó. No hay nada que ver con la efectividad de Chatgpt: mi hijo menor terminó en el hospital con un desagradable caso de amigdalitis y me quedé con él, por lo que mi esposo y yo estábamos unidos como equipo (y también fuimos una explicación más probable, no en la misma casa).

Pero luego regresé, después de haber dormido en una sala durante cuatro noches, y por dormir me refiero a tres horas, y altamente interrumpido. En resumen, estaba listo para remar en la caída de un sombrero.

Es hora de mi primera sesión con el Dr. GPT: Estaba frustrado porque mi esposo esperaba que dejara todo para ir al químico para obtener sus pastillas cuando estaba trabajando.

“Hola Chatgpt, mi esposo y yo estamos discutiendo ya que mi trabajo siempre parece ser el que se interrumpe cuando se necesita algo con los niños, mientras que su trabajo es sacrosado. ¿Cómo podemos hablar de eso? PD no he dormido mucho recientemente, así que puede ser que solo estoy siendo increíblemente gruñón”.

El bot respondió: “Es totalmente comprensible sentirse frustrado en esta situación, especialmente cuando está privado de sueño, pero sus sentimientos son válidos … ¿ayudaría si escribiera un mensaje de muestra o nota que podría enviar para comenzar la conversación si está demasiado agotado para hablar en este momento?”

Pensé, ‘Sí, por favor, eso ayudaría mucho’. Y el mensaje que me envió se sintió como un ganador. Lo envié sin cambios a mi esposo a través de WhatsApp.

“Hola amor, solo quería decir que me siento un poco abrumado esta mañana, y sé que también me estoy quedando sin dormir, lo que no está ayudando. Me doy cuenta de que ambos tenemos mucho en nuestros platos, pero últimamente se siente como si algo surja con los niños, siempre es mi trabajo que se interrumpe … no estoy tratando de elegir una pelea … tal vez podemos chatear más tarde cuando ambos estamos en casa y no apresurarte?

Fue un ganador. Mi esposo se derritió y me envió un mensaje encantador en respuesta. Estaba más que feliz de hablar de eso más tarde.

Cuando llegó a casa, confesé. La misiva medida, diplomática y suavemente robusta no había venido de mí sino de AI. Él asintió. Había olvidado que estaba usando el bot durante la semana, pero había pensado que lo leía que parecía un poco extraño. ¿Porque no habría usado esas palabras en particular? No tanto que, dijo, más que mi tono post-tiff era “sorprendentemente agradable”.

Ay. Le mostré las versiones alternativas de Chatgpt.

Más suave: “No estaba tratando de tirarte algo, solo necesitaba una mano”. (“Si hubieras enviado eso, hubiera pensado que te habían secuestrado”).

Más firme: “Pedí su ayuda hoy porque estoy estirado, y necesito apoyo, no un no plano”. (“Eso definitivamente es más como tú”).

Más divertido: “Habla esta noche, preferiblemente con vino, bocadillos y sin berrinches”. (“Me tenías en el vino …”)

Un amigo sabio una vez me dijo que cuando te enojas, la gente a menudo escucha solo la ira, no lo que estás diciendo, y aquí es donde la intervención de IA puede ser invaluable. Me tomó de “si no comienzas a tomar el reciclaje, comenzaré a gritar y me temo que nunca me detendré” a “Hola amor, si el reciclaje no comienza a salir mágicamente afuera pronto, podría tener que recurrir a un dramático gemido.

A medida que pasaba la semana, me volví cada vez más. Me encontré corriendo las cosas más allá de las varias veces al día. No era solo el consejo que aprecié, sino tener a alguien (o algo) para comunicar mis pensamientos sin filtrar. Pronto me encontré sorprendentemente unido con esta cadena de código que siempre estaba allí, escuchando pacientemente cuando necesitaba desahogarme.

Y una cosa extraña comenzó a suceder. A pesar de que mi esposo sabía que ChatGPT estaba involucrado, el efecto era el mismo. Los mensajes que le estaba lanzando en un ataque de furia estaban siendo enviados por el bot, suavizados y transmitidos de una manera mucho más probabilidades de resolver el problema.

También fue útil ya que me dio la oportunidad de refrescarme. Cuando eres cruzado, no solo escribir las razones de ese cruce te hace fraccionalmente menos, sino que cuando consideras la sugerencia de Chatgpt, lo que te pasas parece menos terrible.

En verdad, el consejo que me dio no era enormemente original, pero fue un recordatorio oportuno ser un adulto e intentar tener una conversación tranquila sobre lo que me estaba molestando. También me sorprendió lo empático que era el bot, y lo bien que era tener un lugar para desahogarse cuando quisiera descargar. Además, la ventilación era libre de culpa, ya que no esperaba que escuchara un ser humano ocupado. Y para mi sorpresa, no necesitaba ser una persona escuchando.

Los expertos advierten en contra de confiar demasiado en ChatGPT para la terapia, diciendo que carece de la habilidad clínica y la empatía humana de un terapeuta capacitado, y no podrá detectar una situación de crisis.

Sin embargo, la investigación publicada en diciembre por psicólogos de la Universidad de Lausana en Suiza planteó una pregunta interesante: ¿pueden los chatbots que nunca han estado en una relación dar consejos de relación?

Los investigadores siguieron a veinte personas que usaron ChatGPT de esta manera, y su conclusión fue que el bot estaba haciendo algo que no era diferente a lo que hacen los humanos que ofrecen tales consejos. Los terapeutas y consejeros no necesariamente tienen que haber vivido experiencia de depresión, divorcio o dolor para ayudar a sus clientes. Entienden los problemas leyendo y entrenando … que es exactamente lo que hace ChatGPT, solo mucho más rápido y en una escala mucho más amplia de la que cualquier humano es capaz.

Una pequeña preocupación es que algunos de sus consejos implica el tipo de discurso de terapia más popular en los Estados Unidos; El tipo de lenguaje que, en mis momentos más gruesos, me hace soñar despierto con darle una bofetada a quien lo haya ofrecido.

Por ejemplo, sugirió que le dijera a mi esposo: “Me siento un poco invisible”.

No, chat gpt, mi problema no se está viendo, se está escuchando. Después de 20 años juntos, me preocupa que releguemos las voces de los demás al fondo. Como el Hoover.

En general, mi semana pasó usando el servicio gratuito para arbitrar nuestros argumentos fue un éxito definitivo. Pero no creo que los terapeutas de relaciones tengan que preocuparse demasiado por sus trabajos o tarifas (£ 80 a £ 200 por hora). Porque lo que ChatGPT no puede hacer, al menos aún no, es burlarse de sus usuarios esos patrones de comportamiento que provienen de nuestra infancia. Sin embargo, el momento no puede estar muy lejos cuando un Robo-Freud le sugerirá que se sienta cómodo en el sofá y diga: “Cuéntame sobre tu madre …”

Sin embargo, para las quejas cotidianas, las hileras y las molestias, es el árbitro ideal y el consejero. Mi única preocupación ahora es: dados todos los problemas que parece que he encontrado para alimentarlo, ¿podría ser que soy el problema?

Después de la consulta de reciclaje, pregunté si sentía lástima por mi esposo, estar casado conmigo. La rápida respuesta diplomática: “De hecho, no tiene suerte de tener a alguien que pueda convertir una solicitud de reciclaje en un monólogo cómico”. Chatgpt, ¿estás seguro de que no estás buscando una señora?

Continue Reading

Noticias

Lo que significa para los padres

Published

on

Los sistemas de IA impactan la vida de los niños, incluso cuando esos niños no se comprometen directamente con las herramientas.

En teoría, la IA tiene el potencial de diagnosticar y tratar enfermedades, procesar vastas conjuntos de datos para avanzar en la investigación y acelerar el desarrollo de la vacuna. Desafortunadamente, la IA también conlleva un conjunto de riesgos bien documentado. Estos incluyen daños digitales como abuso, explotación, discriminación, desinformación y desafíos para la salud mental y el bienestar.

Estas realidades en competencia se han derramado recientemente en las bandejas de entrada de los padres utilizando los controles de enlace familiar de Google. Muchos han comenzado a recibir correos electrónicos informándoles que Gemini, el chatbot de IA de Google, pronto estará disponible en el dispositivo de su hijo.

Dentro del lanzamiento de Géminis: IA, niños y supervisión de los padres

Como informó por primera vez el New York Times, Google permite a los niños menores de 13 años acceder a Gemini a través de cuentas supervisadas administradas a través de Family Link. Ese es un cambio notable, especialmente teniendo en cuenta que Bard, el precursor de Géminis, solo se abrió a los adolescentes en 2023.

Esta actualización, implementada gradualmente, permite a los niños explorar las capacidades de Gemini en una variedad de actividades. Estos incluyen apoyo con la tarea, la escritura creativa y las consultas generales. Los padres pueden elegir si Gemini aparece en Android, iOS o en la web, y configurarlo como el asistente predeterminado de su hijo.

¿Estudiar amigo o herramienta de trampa? Los beneficios potenciales de Géminis para usuarios jóvenes

Géminis se está posicionando como una herramienta para apoyar el aprendizaje, la creatividad y la exploración. Los mensajes anteriores de Google alrededor de Bard se apoyaron en esta idea, enfatizando la IA como compañero de estudio, no como hacedor de tareas.

Bard fue ofrecido a los adolescentes para una amplia gama de casos de uso, incluida la búsqueda de inspiración, explorar nuevos pasatiempos y resolver desafíos cotidianos, como investigar universidades para aplicaciones universitarias. También se lanzó como una herramienta de aprendizaje, ofreciendo ayuda con problemas matemáticos o una lluvia de ideas para proyectos de ciencias.

La mensajería original era clara: Bard no haría todo el trabajo, pero ayudaría a generar ideas y localizar información. Sin embargo, las encuestas recientes sobre el uso de chatgpt en universidades sugieren que el ideal no siempre se mantiene en la práctica. Resulta que cuando se les da la oportunidad, los humanos, los adolescentes en particular, a menudo toman el atajo.

Y aunque el potencial educativo de la IA generativa se reconoce más ampliamente, la investigación indica que las herramientas digitales son más efectivas cuando se integran en el sistema escolar. Como señala UNICEF, para que los estudiantes prosperen, las herramientas digitales deben admitir en lugar de reemplazar a los maestros. Abandonar la educación general a favor de la IA no es un camino viable.

Géminis AI y derechos de los niños: lo que dicen las advertencias

Informe de UNICEF “¿Cómo puede la IA generativa servir mejor a los derechos de los niños? Nos recuerda que los riesgos reales son paralelos al potencial de IA.

Utilizando la Convención sobre los Derechos del Niño como lente, el informe describe cuatro principios: no discriminación, respeto por las opiniones del niño, los mejores intereses del niño y el derecho a la vida, la supervivencia y el desarrollo. Estos deben ser los criterios para evaluar si los derechos de los niños están realmente protegidos, respetados y cumplidos en relación con la IA.

El primer problema importante destacado por el informe es el acceso desigual, denominado “pobreza digital”. No todos los niños tienen el mismo acceso a Internet de alta velocidad, dispositivos inteligentes o IA educativa. Entonces, mientras algunos niños obtienen una ventaja de aprendizaje, otros se quedan atrás, nuevamente.

El sesgo en los datos de entrenamiento es otro desafío importante. Los sistemas de IA reflejan los sesgos presentes en la sociedad, lo que significa que los niños pueden encontrar los mismos tipos de discriminación en línea que fuera de línea.

El problema del consentimiento de datos es particularmente espinoso. ¿Cómo es el consentimiento significativo para un niño de 9 años cuando se trata de recopilación y uso de datos personales? Su capacidad de evolución hace de este un campo minado legal y ético. Es aún más complicado cuando esos datos alimentan modelos comerciales.

La información errónea también es una preocupación creciente. Es menos probable que los niños detecten una falsa, y algunos estudios sugieren que son más propensos a confiar en las entidades digitales. La línea entre chatbot y humano no siempre está clara, especialmente para los niños imaginativos, socialmente aislados o simplemente en línea demasiado. Algunos personajes. Los usuarios dei ya han luchado por notar la diferencia, y al menos algunos bots han alentado la ilusión.

También hay una dimensión ambiental. La infraestructura de IA depende de los centros de datos que consumen cantidades masivas de energía y agua. Si se deja sin control, la huella de carbono de IA afectará desproporcionadamente a los niños, particularmente en el sur global.

Lo que los padres pueden (y no) controlar con Géminis Ai

Entonces, ¿qué está haciendo Google para ofrecer garantías a los padres? Google ha dado más información a los padres que usan un enlace familiar sobre barandillas disponibles y las mejores prácticas sugeridas.

El más importante: Google dice que no usará datos para niños para capacitar a sus modelos de IA. También hay filtros de contenido en su lugar, aunque Google admite que no son infalibles. Los padres también pueden establecer límites de tiempo de pantalla, restringir ciertas aplicaciones y bloquear material cuestionable. Pero aquí está el giro: los niños aún pueden activar Gemini AI ellos mismos.

Sin embargo, lo que frotó a muchos padres de la manera incorrecta fue el hecho de que Gemini está optando, no opción. Como dijo uno de los padres: “Recibí uno de estos correos electrónicos la semana pasada. Tenga en cuenta que no me preguntan si me gustaría optar a mi hijo. en para usar Géminis. Me advierten que si no lo quiero, tengo que optar por no participar. No es genial “.

Google también sugiere algunas mejores prácticas. Estos incluyen recordar a los niños que Gemini no es una persona, enseñarles cómo verificar la información y alentarlos a evitar compartir detalles personales.

Si Gemini sigue al modelo de Bard, pronto podemos ver más esfuerzos de IA responsables. Estos podrían incluir experiencias de incorporación a medida, guías de alfabetización de IA y videos educativos que promueven un uso seguro y reflexivo.

La carga de IA para los padres: ¿Quién está realmente a cargo?

La realidad incómoda es que gran parte de la responsabilidad de manejar la IA generativa ha cambiado a los padres.

Incluso suponiendo, generosamente, que la IA es una neta positiva para el desarrollo infantil, quedan muchas preguntas sin respuesta. Un despliegue responsable de la IA generativa debe involucrar la responsabilidad compartida entre los sectores. Eso aún no es evidente en la práctica.

Las empresas tecnológicas deben hacer más para que estas herramientas realmente sean realmente seguras y constructivas. La construcción de habilidades en torno a la navegación segura debe ser una prioridad para los usuarios de todas las edades. Los gobiernos también tienen un papel educativo que desempeñar: crear conciencia entre los niños y ayudarlos a distinguir entre la interacción y el contenido generado por AI y generados por humanos.

Pero por ahora, la mayor parte de esa estructura de soporte está faltante o poco cocinada. El dilema, al parecer, no cambia: si AI es prometedor para los padres, la energía requerida para navegar por sus trampas podría cancelar los beneficios por completo.

Entonces, ¿cuándo los niños deberían comenzar a usar herramientas de IA? ¿Cuánto es demasiado? ¿Y quién decide cuándo es el momento de intervenir? Estas pueden ser las nuevas preguntas que mantienen a los padres modernos por la noche, y no vienen con respuestas amigables para los chatbot.

Continue Reading

Trending