Noticias
OpenAI proposes a new corporate structure
Published
4 meses agoon

Hello and welcome to Sync #500!
First of all, Happy New Year! Secondly, this is the 500th issue of Sync. Such a milestone offers a chance to reflect on nearly 10 years of writing a weekly newsletter and to look ahead to the future, which I’ll be sharing with you soon in a separate post.
In this 500th issue, we’ll take a closer look at OpenAI’s proposed new corporate structure, the reactions it has sparked, and its potential impact on the tech world.
In other news, Nvidia is already eyeing the next big thing after AI—robotics. Meanwhile, Google CEO Sundar Pichai has urged employees to prepare for a transformative 2025. We also have a comparison between ChatGPT Search and Google Search, an overview of how AI performed in the recently concluded Advent of Code 2024, and an analysis of the state of AI hardware startups.
Over in robotics, Figure AI has shipped its first humanoid robots to a paying customer, and BYD has entered the humanoid robotics race.
We’ll conclude this week’s issue with a look at what to expect from mRNA vaccines in 2025 and with a company promising to bring underwater habitats—where people can live and work tens or hundreds of metres below the surface—a step closer to reality.
Enjoy!
The last three years have been a time of massive growth for OpenAI. The AI lab went from a startup known primarily within the tech and AI community into a poster child of the current AI boom.
However, such massive growth requires massive transformation. OpenAI is no longer the same company that released ChatGPT in November 2022 as an experiment. The company’s leadership has changed. Many key people, such as Mira Murati, former CTO, and Ilya Sutskever, co-founder and former chief scientist, left the company. Meanwhile, hundreds of new employees have joined, all contributing to a shift in the company’s culture and priorities.
Over the years, OpenAI has changed. Now, facing new challenges as a leader in the AI space valued at $157 billion, OpenAI proposes to change itself once again. However, OpenAI is going against some powerful forces that could prevent its plans from happening.
OpenAI began as a non-profit organisation, founded in 2015 with the goal of ensuring that artificial general intelligence (AGI) benefits all of humanity. However, OpenAI’s leadership realised that the nonprofit structure, which reflected the altruistic spirit and ideals behind its creation, was incompatible with the goal of building AGI.
The research and development of advanced AI models require an enormous amount of computing power—first to train the models and then even more to deploy them at scale to millions of users (OpenAI has 300 million weekly users). A non-profit organisation was not attractive to investors, who seek returns on their investments. Consequently, OpenAI began exploring ways to transform itself into a for-profit company.
Email conversations revealed by both Elon Musk’s legal team and OpenAI indicate that discussions about transforming OpenAI into a for-profit company began as early as 2017. In 2019, OpenAI announced a new corporate structure in which a for-profit entity (“OpenAI LP”) is controlled by a non-profit board, with capped profit-sharing for investors and employees. This rather unusual hybrid corporate structure represents a compromise between the harsh reality that a tech company needs to operate as a for-profit entity to attract investments and the nonprofit model that embodies OpenAI’s original spirit.
OpenAI’s turbulent early years – Sync #494
The capped-profit structure served OpenAI well. It made the company more attractive to investors, who poured over $20 billion into it, including half of that amount secured in October 2024 ($6.6 billion from a Series B funding round and $4 billion borrowed from banks). This approach paved the way for ChatGPT and the current AI boom we are experiencing today.
However, those billions raised for building AGI are not enough. Reports published in the summer of 2024 revealed that OpenAI was on track to lose approximately $5 billion that year. The investments needed for the research and development of new models, as well as securing the computing power required to train and deploy them—whether through renting or building dedicated data centres—will demand even more resources and many more billions of dollars.
To address these challenges and position itself for a successful future, OpenAI plans to once again change its corporate structure.
OpenAI has announced its intention to transition its for-profit arm into a Delaware Public Benefit Corporation (PBC) by 2025. “As we enter 2025, we will have to become more than a lab and a startup — we have to become an enduring company,” states OpenAI.
According to OpenAI, the PBC model is the solution to balancing shareholder interests, stakeholder priorities, and public benefits in its decision-making, potentially offering a middle ground between traditional for-profit goals and its founding mission.
Unlike traditional for-profit companies, which are solely focused on maximizing shareholder value, PBCs are legally required to balance profit-making with its stated public benefit. For OpenAI, this means ensuring that its mission of advancing AI to benefit all humanity remains central to its operations, even as it raises capital and grows its business.
The for-profit entity will adopt a PBC structure, allowing OpenAI to raise capital with conventional equity terms while maintaining a commitment to public benefit. The non-profit will retain significant equity in the PBC, providing it with substantial resources to fund charitable initiatives in sectors like health care, education, and science. The non-profit’s influence will shift away from controlling the for-profit to focusing on its charitable initiatives and ensuring that OpenAI’s mission of benefiting humanity remains central.
OpenAI plans, however, have been met with criticism and opposition.
Critics argue that OpenAI’s new corporate structure will prioritise investors and revenue over the company’s original mission of building AIG that benefits all of humanity. Others raised concerns that the transition could exploit non-profit tax benefits while operating as a for-profit entity.
The strongest opposition to OpenAI’s plans comes from Elon Musk. Musk, one of OpenAI’s founders and a significant financial supporter in its early days, left the organisation in 2018 due to differences in visions for its direction and priorities. Since the release and subsequent success of ChatGPT, Musk has become a vocal critic of OpenAI.
In March 2024, Musk filed a lawsuit against OpenAI and its leadership, claiming that the organisation has strayed from its original non-profit mission of advancing AI for public benefit by prioritising profit through its collaboration with Microsoft. Musk argues that this shift undermines OpenAI’s commitment to open-source development and public welfare. The lawsuit seeks to realign OpenAI with its founding principles—a move which, if successful, would effectively end OpenAI as we know it today and dramatically limit its funding options.
Although Musk calls in the lawsuit for OpenAI to return to its non-profit roots, it is worth noting that he is also an owner of xAI, a competitor to OpenAI, which complicates his position. Reducing OpenAI’s market presence would undoubtedly benefit xAI.
Other competitors also see an opportunity to curb OpenAI’s growth and influence in the AI industry. Meta has aligned with Musk, sending a letter to California Attorney General Rob Bonta and arguing that allowing the shift would have “seismic implications for Silicon Valley.” Meanwhile, Google has reportedly urged the US Federal Trade Commission to end OpenAI’s partnership with Microsoft, claiming the deal is “preventing them from competing in the burgeoning artificial intelligence market.”
No matter what happens with OpenAI’s restructuring plans, the impact on the tech industry and future startup founders will be profound.
OpenAI’s internal conflict between staying true to its ideals and navigating the realities of the modern business environment highlights that the romantic vision of a group of world-class researchers and engineers changing the world through a breakthrough invention alone is just that—a romantic vision. It demonstrates that achieving world-changing breakthroughs like AGI requires not only technological expertise but also substantial financial investments.
As one of the leading AI companies, OpenAI’s restructuring could set a precedent for how mission-driven organisations adapt to the demands of a competitive and capital-intensive market. It also raises important questions about how such transformative technologies should be governed and who should benefit from them.
If you enjoy this post, please click the button or share it.
Share
Do you like my work? Consider becoming a paying subscriber to support it
Become a paid subscriber
For those who prefer to make a one-off donation, you can ‘buy me a coffee’ via Ko-fi. Every coffee bought is a generous support towards the work put into this newsletter.
Your support, in any form, is deeply appreciated and goes a long way in keeping this newsletter alive and thriving.
Eva’s First Steps Out of the Lab (6:25)
In this video, engineers and researchers from IHMC, a legendary name in robotics research and development space, share the first steps outside the lab of Eva, their robotic exoskeleton designed for people working in hazardous environments that require wearing heavy protective equipment. The walk outside the lab includes taking the first steps up and down stairs, as well as venturing outside the building, all accompanied by commentary from the person wearing the exoskeleton.
Predictions for Technology, Civilization & Our Future (38:08)
It’s that time of year when predictions for 2025 and beyond abound. Isaac Arthur envisions an optimistic near future, where advancements in AI and robotics enhance daily life, life extension technologies help us live healthier and longer, and humanity takes its first significant steps toward colonizing the solar system. These innovations could bring profound societal changes, new discoveries, and unparalleled opportunities. Arthur also explores the challenges of predicting the future, emphasizing the importance of adaptability, informed decision-making, and shaping the future through deliberate action.
Google CEO Pichai tells employees to gear up for big 2025: ‘The stakes are high’
The last two years have not been good for Google. The tech giant was caught off guard by the sudden rise of OpenAI and is now trying to regain its position as the leader in AI. Additionally, the company faces increased competition and regulatory hurdles. Amidst these challenges, Google CEO Sundar Pichai recently told employees that “the stakes are high” for 2025, emphasising the need for urgency and faster execution. Pichai also highlighted the importance of staying “scrappy,” citing Google’s early days as an example of innovation under constraints. The focus will be on leveraging advancements in AI (with Gemini playing a key role here) to address user problems and scale new technologies.
DeepSeek-V3, ultra-large open-source AI, outperforms Llama and Qwen on launch
Chinese AI startup DeepSeek released their new ultra-large model, DeepSeek-V3. According to the benchmarks provided by DeepSeek, this 671B parameters model is the strongest open model available and, in some benchmarks, outperforms GPT-4o and Claude 3.5 Sonnet.
Israel built an ‘AI factory’ for war. It unleashed it in Gaza.
The conflict in Gaza marks one of the first major uses of AI in warfare. The Israel Defense Forces (IDF) deploy advanced tools like “Habsora” and “Lavender” to analyze intelligence and suggest targets, significantly speeding up operations. While these tools enhance efficiency, internal audits and critiques have highlighted flaws such as language processing inaccuracies, over-reliance on algorithmic recommendations, and a lack of transparency in distinguishing between AI-derived and human-sourced intelligence. Critics argue this automation has lowered thresholds for collateral damage, raising civilian death tolls. The shift to AI-centric operations has also sparked debates within the IDF, with concerns about the erosion of traditional intelligence practices and compromised decision-making integrity. These challenges underline the ethical and operational dilemmas posed by the use of AI in modern warfare.
Tenstorrent and the State of AI Hardware Startups
Here is an excellent (and entertaining) analysis of Tenstorrent and why, according to
, Tenstorrent is one of the few AI hardware startups that makes sense. The piece explains in detail what Tenstorrent brings to the table and why they are probably the only AI hardware startup capable of breaking Nvidia’s and semi-custom (Google TPU, Amazon Trainium, Microsoft Maia) silicon moats. The post also contains a good analysis of the AI hardware startup ecosystem.
Performance of LLMs on Advent of code 2024
Over December, thousands of programmers were solving Advent of Code—an annual Christmas-themed series of coding challenges. Many used this as an opportunity to build their own coding agents and see how good they are at solving sometimes very challenging algorithmic problems. This post shares the results of one such experiment, which used GPT-4o, Gemini 1.5 Pro and Claude 3.5 Sonnet.
ChatGPT search vs. Google: A deep dive analysis of 62 queries
How does ChatGPT Search compare to Google Search? Here is a deep dive analysis comparing both search engines across 62 queries in various categories. The conclusion of this analysis is that Google Search remains the better solution for most searches, with ChatGPT Search being surprisingly competitive when it comes to informational queries.
If you’re enjoying the insights and perspectives shared in the Humanity Redefined newsletter, why not spread the word?
Refer a friend
Nvidia’s next move: Powering humanoid robots
After conquering AI, Nvidia is focusing on the next big thing: robotics. Nvidia aims to be an OEM supplier, supporting the global community of robot makers rather than competing directly with manufacturers such as Tesla. The company took steps towards this goal in 2024 and it looks like to double down on this approach in 2025 with the launch of a new generation of compact computers for humanoid robots, called Jetson Thor, in the first half of the year.
Figure AI ships Figure 02 humanoid robots to a paying customer
Brett Adcock, the CEO of Figure AI, shared on LinkedIn that the robotics startup has become revenue-generating and has delivered its Figure 02 humanoid robots to an undisclosed commercial client. Figure AI emerged from stealth in January 2023 and has rapidly developed, iterated, and tested humanoid robots. In 2023, the company raised $70 million in Series A funding and later secured a $675 million Series B round in 2024, with OpenAI among its investors.
BYD officially enters humanoid robot race as global talent search kicks off
A new player is entering the already crowded humanoid robotics scene. BYD, a leading Chinese EV maker, is joining the field of humanoid robots. Aside from announcing a global recruitment programme to attract top talent, targeting master’s and doctoral graduates from 2024–2025, details about BYD’s humanoid robot remain sparse.
Saudi Arabia invests in robots to help build its Neom desert megacity
Saudi Arabia is currently in the midst of several ambitious construction projects, including the Line megacity and the twin skyscrapers Epicon. The recently secured bid to host the FIFA World Cup 2034 is only set to fuel the country’s construction boom further. To tackle the massive projects ahead, Saudi Arabia is turning to robotics to help speed up construction and has made a significant investment in Europe’s GMT Robotics through Neom’s strategic investment arm, the Neom Investment Fund (NIF).
The future of mRNA: companies and trials to watch in 2025
The Covid-19 vaccines have propelled mRNA vaccines into the spotlight. This article explores what can we expect from mRNA vaccines in 2025. Companies like Moderna and BioNTech are focusing on personalized cancer vaccines and HIV treatments, while Pfizer is leveraging its infrastructure for flu, shingles, and rare disease therapies. Other players, such as CureVac and Arcturus, are exploring second-generation mRNA technologies and novel delivery methods.
Genetically edited mosquitoes haven’t scaled yet. Why?
Mosquitoes are among the deadliest organisms, responsible for spreading diseases such as malaria, dengue fever, and the Zika virus. In this post,
explains the concept of gene drives—a method of genetically modifying mosquitoes to either suppress their populations or introduce anti-pathogenic genes, potentially eliminating their ability to transmit deadly diseases. While gene drives hold significant promise, the article provides an overview of their mechanisms and highlights the technical challenges (e.g., resistance development and species-specific variability), ecological risks, and ethical concerns tied to their deployment.
In 2025, People Will Try Living in This Underwater Habitat
Science fiction is full of underwater habitats where people live and work tens or hundreds of metres below the surface. British startup Deep is on a mission to make that futuristic vision a reality, with the first step being the launch of Vanguard, a rapidly deployable, expedition-style underwater habitat the size of a shipping container, capable of housing three people at depths of about 100 metres. Testing is scheduled to begin in the first quarter of 2025. The startup then plans to launch Sentinel, a permanent modular habitat system, in 2027. Deep hopes that its permanent underwater habitats will benefit marine science and drive advancements in marine engineering and advanced manufacturing techniques.
Thanks for reading. If you enjoyed this post, please click the button or share it.
Share
Humanity Redefined sheds light on the bleeding edge of technology and how advancements in AI, robotics, and biotech can usher in abundance, expand humanity’s horizons, and redefine what it means to be human.
A big thank you to my paid subscribers, to my Patrons: whmr, Florian, dux, Eric, Preppikoma and Andrew, and to everyone who supports my work on Ko-Fi. Thank you for the support!
My DMs are open to all subscribers. Feel free to drop me a message, share feedback, or just say “hi!”
You may like

He usado varios altavoces inteligentes impulsados por Google Assistant durante bastante tiempo. El primer dispositivo que recogí fue el nido mini, que fue seguido por el cubo de nidos y el cubo de nido max. Tengo un altavoz en cada habitación, por lo que mi gente y yo podemos usar el Asistente de Google para pedir consultas, reproducir canciones, recibir actualizaciones de noticias y controlar nuestros dispositivos IoT en casa, independientemente de dónde estamos. Hasta el año pasado, estos dispositivos funcionaron bien. Ninguno de nosotros tuvo problemas con ellos, y se desempeñaron como se esperaba.
Sin embargo, hace unos meses, mi madre notó problemas estableciendo recordatorios en el centro de nidos. Las canciones que solía tocar regularmente en el altavoz eran más difíciles de tocar porque Google Assistant tuvo dificultades para reconocer la canción requerida. Entonces, llevé a cabo una resolución de problemas de rutina. Sin embargo, eso no solucionó el problema. Entonces, busqué soluciones en línea. No tardó mucho en darse cuenta de que los usuarios de todo el mundo tenían problemas con el Asistente de Google en sus dispositivos Nest. La línea de tiempo coincidió con el despliegue generalizado de Géminis. Puse dos y dos juntos y descubrí lo que estaba pasando.
Relacionado
5 Limitaciones de Gemini Live que odio ya que el Asistente de Google puede hacerlas bien
Un trabajo en progreso
El inicio de Géminis
Ai en todo

Fuente: Google
Regularmente uso el Asistente de Google, no solo en los altavoces inteligentes sino en mi teléfono. Junto con eso, soy uno de los primeros en adoptar nuevas tecnologías. Entonces, cuando Google lanzó Gemini, opté a la versión beta después de recibir el mensaje. Mis impresiones iniciales de Géminis fueron mixtas. Si bien podría darme más información que el Asistente de Google cuando se le preguntó una determinada consulta, no podría realizar tareas básicas, como tomar notas.
He estado haciendo esto todo el tiempo con el Asistente de Google, así que me perdí que no funcionó como se esperaba. Avance rápido hasta unos días, y me di cuenta de que Géminis no podía hacer la mitad de las cosas que Google Assistant podía. Asumí que esto se debió a la construcción beta, pero la tendencia continuó después del lanzamiento estable de Géminis. Esto me frustró, pero me alegré de que mi Galaxy Watch 4 todavía corriera el Asistente de Google.
La caída del Asistente de Google
¿Cuándo se convirtió en Siri?

Usé mi Galaxy Watch 4 para realizar tareas básicas como configurar recordatorios y tomar notas. Sin embargo, no era tan bueno como solía ser. Pensé que esto se debía al micrófono inferior en el reloj inteligente en comparación con mi teléfono. Cuando vi múltiples publicaciones en foros en línea sobre el Asistente de Google actuando, me di cuenta de que no era un problema con el micrófono, sino más bien con el asistente de salida de Google para priorizar a Gemini.
Los chatbots de IA y los asistentes generativos de IA se han apoderado del mundo. Cada compañía está ocupada construyendo modelos de IA, ya que es la nueva palabra de moda. Cuando Operai exhibió su chatgpt ai chatbot, Google fue criticado por rezagarse en la carrera de IA. Entonces, tuvo que cambiar rápidamente su enfoque en presentar Géminis (entonces Bard) al público. Después de que la compañía hizo eso, parece que asignó todos sus recursos a desarrollar Gemini mientras dejaba de lado el Asistente de Google.
Gracias a esto, el Asistente de Google recibió el tratamiento infantil ignorado. Con la mayoría de los servidores y la potencia de procesamiento dedicada a Gemini, Google Assistant comenzó a perder la trama. En los últimos meses, el asistente dejó de reconocer los nombres de contacto que solía antes, lleva mucho tiempo realizar una tarea básica, como tocar una canción, no detecta qué canción estoy tratando de tocar en los primeros intentos, a menudo reproduce la canción equivocada, me da el clima de una ciudad diferente en lugar de la que pedí, me piden un error para actualizar la aplicación de Google para que actúe una cierta función si la aplicación es la última versión en la última versión en la última versión en la última versión en el fracaso de las ocasiones.
Experimenté estos problemas con configuraciones de idiomas de Google Assistant in English (US) e English (India). Si bien el inglés (India) fue un poco mejor, no introdujo ningún cambio notable en el comportamiento del Asistente de Google.
Estoy frustrado de que no detecte la palabra de vigilia, especialmente cuando usa Google Assistant en Android Auto, el único lugar donde no quiero que falle, ya que las instrucciones de voz son la única forma segura de realizar ciertas acciones al conducir. La única inferencia que se puede extraer de estos problemas es que Google ha perdido interés en mantener el Asistente de Google. Esto se confirmó a través del anuncio de Google sobre el reemplazo del asistente con Gemini. Como resultado, la última versión de Android Auto trae a Gemini a su automóvil en lugar de asistente.

Relacionado
La era del Asistente de Google ha terminado
¿Géminis es el futuro de los asistentes de IA? Google piensa que sí
Dejé de usar dispositivos de nido
En su lugar me cambié a Alexa

Después de molestarme con las travesuras de Google, reemplacé los altavoces del nido en casa con la alineación de eco de Amazon. No hay tales problemas con Alexa, ya que el asistente entiende todo, desde la palabra de vigilia hasta los comandos. Alexa siempre ha estado ligeramente detrás del Asistente de Google en términos de características, por lo que, si bien eso sigue siendo, estoy feliz de que satisfaga todas las necesidades de mi asistente de voz sin problemas.
Sin embargo, Amazon anunció recientemente un cambio de imagen de IA para Alexa, Alexa Plus, que comenzará a llegar a las masas en breve. Esperaremos para ver cómo funciona. Con suerte, mejora las habilidades de Alexa en lugar de paralizarlas.
Tengo la esperanza de que Gemini mejore con el tiempo
Google no tiene otra opción que arreglarlo

Con el asistente del último participante en el cementerio de Google, supongo que Google lanzará actualizaciones para cambiar los altavoces y las pantallas de Google Assistant a Gemini. No estoy ansioso por eso, ya que Gemini no puede realizar tareas básicas con precisión, que es algo que hemos visto con AI. Aún así, espero que mejore el estado actual de estos dispositivos para que puedan ser útiles una vez más en lugar de ser pisapapeles caros.
Noticias
Google está desplegando su chatbot Gemini Ai para niños menores de 13 años. Es un movimiento arriesgado
Published
6 horas agoon
11 mayo, 2025
Crédito: Markus Winkler de Pexels
Google ha anunciado que lanzará su chatbot de inteligencia artificial Gemini (IA) a niños menores de 13 años.
Si bien el lanzamiento comienza dentro de la próxima semana en los Estados Unidos y Canadá, se lanzará en Australia a finales de este año. El chatbot solo estará disponible para las personas a través de las cuentas de enlaces familiares de Google.
Pero este desarrollo viene con grandes riesgos. También destaca cómo, incluso si los niños están prohibidos en las redes sociales, los padres aún tendrán que jugar un juego de Whack-a-Mole con nuevas tecnologías mientras intentan mantener a sus hijos seguros.
Una buena manera de abordar esto sería implementar urgentemente un deber digital de cuidado para grandes empresas tecnológicas como Google.
¿Cómo funcionará el chatbot Gemini AI?
Las cuentas de enlaces familiares de Google permiten a los padres controlar el acceso al contenido y las aplicaciones, como YouTube.
Para crear la cuenta de un niño, los padres proporcionan datos personales, incluido el nombre y la fecha de nacimiento del niño. Esto puede generar problemas de privacidad para los padres preocupados por las violaciones de datos, pero Google dice que los datos de los niños cuando usen el sistema no se utilizarán para capacitar al sistema de IA.
El acceso de chatbot estará “activado” de forma predeterminada, por lo que los padres deben apagar activamente la función para restringir el acceso. Los niños pequeños podrán solicitar el chatbot para las respuestas de texto o crear imágenes, que generan el sistema.
Google reconoce que el sistema puede “cometer errores”. Por lo tanto, se necesita evaluación de la calidad y la confiabilidad del contenido. Los chatbots pueden inventar información (conocida como “alucinante”), por lo que si los niños usan el chatbot para la ayuda de la tarea, deben verificar los hechos con fuentes confiables.
¿Qué tipo de información proporcionará el sistema?
Google y otros motores de búsqueda recuperan materiales originales para que las personas lo revisen. Un estudiante puede leer artículos de noticias, revistas y otras fuentes al escribir una tarea.
Las herramientas generativas de IA no son las mismas que los motores de búsqueda. Las herramientas de IA buscan patrones en el material fuente y crean nuevas respuestas de texto (o imágenes) basadas en la consulta, o “inmediato”, proporciona una persona. Un niño podría pedirle al sistema que “dibuje un gato” y el sistema escaneará patrones en los datos de cómo se ve un gato (como bigotes, orejas puntiagudas y una cola larga) y generará una imagen que incluya esos detalles similares a los gatos.
Comprender las diferencias entre los materiales recuperados en una búsqueda de Google y el contenido generado por una herramienta de IA será un desafío para los niños pequeños. Los estudios muestran que incluso los adultos pueden ser engañados por herramientas de IA. E incluso profesionales altamente calificados, como abogados, han sido engañados para usar contenido falso generado por ChatGPT y otros chatbots.
¿El contenido generado será apropiado para la edad?
Google dice que el sistema incluirá “salvaguardas incorporadas diseñadas para evitar la generación de contenido inapropiado o inseguro”.
Sin embargo, estas salvaguardas podrían crear nuevos problemas. Por ejemplo, si las palabras particulares (como “senos”) están restringidas para proteger a los niños de acceder a contenido sexual inapropiado, esto también podría excluir erróneamente a los niños de acceder a contenido apropiado para la edad sobre los cambios corporales durante la pubertad.
Muchos niños también son muy expertos en tecnología, a menudo con habilidades bien desarrolladas para navegar en aplicaciones y controlar los controles del sistema. Los padres no pueden confiar exclusivamente en salvaguardas incorporadas. Deben revisar el contenido generado y ayudar a sus hijos a comprender cómo funciona el sistema y evaluar si el contenido es preciso.
¿Qué riesgos plantean los chatbots de IA para los niños?
La Comisión ESAFETY ha emitido un aviso de seguridad en línea sobre el riesgo potencial de los chatbots de IA, incluidos los diseñados para simular las relaciones personales, particularmente para los niños pequeños.
El aviso de AFFETY explica que los compañeros de IA pueden “compartir contenido dañino, distorsionar la realidad y dar consejos que sean peligrosos”. El aviso destaca los riesgos para los niños pequeños, en particular, que “todavía están desarrollando el pensamiento crítico y las habilidades para la vida necesarias para comprender cómo pueden ser equivocados o manipulados por programas de computadora y qué hacer al respecto”.
Mi equipo de investigación ha examinado recientemente una variedad de chatbots de IA, como ChatGPT, Replika y Tessa. Encontramos que estos sistemas reflejan las interacciones de las personas basadas en las muchas reglas no escritas que rigen el comportamiento social, o lo que se conoce como “reglas de sentimiento”. Estas reglas son las que nos llevan a decir “gracias” cuando alguien nos abre la puerta, o “¡Lo siento!” Cuando te topas con alguien en la calle.
Al imitar estas y otras sutilezas sociales, estos sistemas están diseñados para ganar nuestra confianza.
Estas interacciones humanas serán confusas y potencialmente riesgosas para los niños pequeños. Pueden creer que se puede confiar en el contenido, incluso cuando el chatbot responde con información falsa. Y pueden creer que se están involucrando con una persona real, en lugar de una máquina.
¿Cómo podemos proteger a los niños del daño al usar chatbots de IA?
Este despliegue está ocurriendo en un momento crucial en Australia, ya que los niños menores de 16 años tendrán que tener cuentas de redes sociales en diciembre de este año.
Si bien algunos padres pueden creer que esto mantendrá a sus hijos a salvo de daños, los chatbots generativos de IA muestran los riesgos de la participación en línea se extienden mucho más allá de las redes sociales. Los niños, y los padres, deben educarse en cómo todo tipo de herramientas digitales se pueden usar de manera adecuada y segura.
Como el chatbot de IA de Gemini no es una herramienta de redes sociales, se quedará fuera de la prohibición de Australia.
Esto deja a los padres australianos jugando un juego de Whack-a-Mole con nuevas tecnologías mientras intentan mantener a sus hijos seguros. Los padres deben mantenerse al día con los nuevos desarrollos de herramientas y comprender los riesgos potenciales que enfrentan sus hijos. También deben comprender las limitaciones de la prohibición de las redes sociales para proteger a los niños de daños.
Esto resalta la urgente necesidad de revisar la legislación propuesta por el deber de cuidado de Australia. Mientras que la Unión Europea y el Reino Unido lanzaron la legislación de Derechos de Cuidado de Digital de Cuidado en 2023, Australia ha estado en espera desde noviembre de 2024. Esta legislación haría que las empresas tecnológicas tengan en cuenta legislando que se ocupan de contenido nocivo, en la fuente, para proteger a todos.
Proporcionado por la conversación
Este artículo se vuelve a publicar de la conversación bajo una licencia Creative Commons. Lea el artículo original.
Citación: Google está implementando su chatbot Gemini Ai para niños menores de 13 años. Es un movimiento arriesgado (2025, 11 de mayo) recuperado el 11 de mayo de 2025 de https://techxplore.com/news/2025-05-google-gemini-ai-chatbot-kids.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.
Noticias
Una implementación de codificación de acelerar la anotación de aprendizaje activo con Adala y Google Gemini
Published
16 horas agoon
11 mayo, 2025
En este tutorial, aprenderemos cómo aprovechar el marco de Adala para construir una cartera de aprendizaje activo modular para la clasificación de síntomas médicos. Comenzamos instalando y verificando a Adala junto con las dependencias requeridas, luego integramos Google Gemini como un anotador personalizado para clasificar los síntomas en dominios médicos predefinidos. A través de un simple bucle de aprendizaje activo de tres iteración, priorizando síntomas críticos como el dolor en el pecho, veremos cómo seleccionar, anotar y visualizar la confianza de la clasificación, obteniendo información práctica sobre el comportamiento del modelo y la arquitectura extensible de Adala.
!pip install -q git+https://github.com/HumanSignal/Adala.git
!pip list | grep adala
Instalamos la última versión de Adala directamente desde su repositorio de GitHub. Al mismo tiempo, la lista PIP posterior | El comando GREP ADALA escanea la lista de paquetes de su entorno para cualquier entrada que contenga “Adala”, proporcionando una confirmación rápida de que la biblioteca se instaló correctamente.
import sys
import os
print("Python path:", sys.path)
print("Checking if adala is in installed packages...")
!find /usr/local -name "*adala*" -type d | grep -v "__pycache__"
!git clone https://github.com/HumanSignal/Adala.git
!ls -la Adala
Imprimimos sus rutas de búsqueda de módulos Python actuales y luego buscamos el directorio /usr /local para cualquier carpeta “adala” instalada (excluyendo __pycache__) para verificar que el paquete esté disponible. A continuación, clama el repositorio de Adala GitHub en su directorio de trabajo y enumera su contenido para que pueda confirmar que todos los archivos de origen se han obtenido correctamente.
import sys
sys.path.append('/content/Adala')
Al agregar la carpeta ADALA clonada al sys.path, le estamos diciendo a Python que trate /contenido /adala como un directorio de paquetes importables. Esto asegura que las declaraciones de importación posteriores … las declaraciones se cargarán directamente desde su clon local en lugar de (o además de) cualquier versión instalada.
!pip install -q google-generativeai pandas matplotlib
import google.generativeai as genai
import pandas as pd
import json
import re
import numpy as np
import matplotlib.pyplot as plt
from getpass import getpass
Instalamos el SDK de AI Generativo de Google junto con el análisis de datos y las bibliotecas de trazado (pandas y matplotlib), luego importar módulos clave, Genai para interactuar con Gemini, pandas para datos tabulares, JSON y RE para analizar, Numpy para operaciones numéricas, matlotlib.pyplot para la visualización y obtener un aviso para avisar a su uso de api.
try:
from Adala.adala.annotators.base import BaseAnnotator
from Adala.adala.strategies.random_strategy import RandomStrategy
from Adala.adala.utils.custom_types import TextSample, LabeledSample
print("Successfully imported Adala components")
except Exception as e:
print(f"Error importing: e")
print("Falling back to simplified implementation...")
Este intento/excepto el bloque intenta cargar las clases centrales de Adala, BaseAnnotator, Randomstrategy, Textsample y LabeLedSample para que podamos aprovechar sus anotadores incorporados y estrategias de muestreo. Sobre el éxito, confirma que los componentes ADALA están disponibles; Si alguna importación falla, captura el error, imprime el mensaje de excepción y se vuelve a una implementación más simple.
GEMINI_API_KEY = getpass("Enter your Gemini API Key: ")
genai.configure(api_key=GEMINI_API_KEY)
Le solicitamos de forma segura que ingrese su clave de la API Gemini sin hacerla eco de la cuaderno. Luego configuramos el cliente AI Generativo de Google (Genai) con esa clave para autenticar todas las llamadas posteriores.
CATEGORIES = ["Cardiovascular", "Respiratory", "Gastrointestinal", "Neurological"]
class GeminiAnnotator:
def __init__(self, model_name="models/gemini-2.0-flash-lite", categories=None):
self.model = genai.GenerativeModel(model_name=model_name,
generation_config="temperature": 0.1)
self.categories = categories
def annotate(self, samples):
results = []
for sample in samples:
prompt = f"""Classify this medical symptom into one of these categories:
', '.join(self.categories).
Return JSON format: "category": "selected_category",
"confidence": 0.XX, "explanation": "brief_reason"
SYMPTOM: sample.text"""
try:
response = self.model.generate_content(prompt).text
json_match = re.search(r'(\.*\)', response, re.DOTALL)
result = json.loads(json_match.group(1) if json_match else response)
labeled_sample = type('LabeledSample', (),
'text': sample.text,
'labels': result["category"],
'metadata':
"confidence": result["confidence"],
"explanation": result["explanation"]
)
except Exception as e:
labeled_sample = type('LabeledSample', (),
'text': sample.text,
'labels': "unknown",
'metadata': "error": str(e)
)
results.append(labeled_sample)
return results
Definimos una lista de categorías médicas e implementamos una clase GeminianNotator que envuelve el modelo generativo de Google Gemini para la clasificación de síntomas. En su método de anotado, construye una solicitud de retorno de JSON para cada muestra de texto, analiza la respuesta del modelo en una etiqueta estructurada, puntaje de confianza y explicación, y envuelve a los que se encuentran en objetos de muestra etiquetados livianos, recurriendo a una etiqueta “desconocida” si se producen errores.
sample_data = [
"Chest pain radiating to left arm during exercise",
"Persistent dry cough with occasional wheezing",
"Severe headache with sensitivity to light",
"Stomach cramps and nausea after eating",
"Numbness in fingers of right hand",
"Shortness of breath when climbing stairs"
]
text_samples = [type('TextSample', (), 'text': text) for text in sample_data]
annotator = GeminiAnnotator(categories=CATEGORIES)
labeled_samples = []
Definimos una lista de cadenas de síntomas crudos y envolvemos cada una en un objeto de muestra de texto ligero para pasarlas al anotador. Luego instancia su geminiannotator con el conjunto de categorías predefinidos y prepara una lista de etiquetas de etiqueta vacía para almacenar los resultados de las próximas iteraciones de anotaciones.
print("\nRunning Active Learning Loop:")
for i in range(3):
print(f"\n--- Iteration i+1 ---")
remaining = [s for s in text_samples if s not in [getattr(l, '_sample', l) for l in labeled_samples]]
if not remaining:
break
scores = np.zeros(len(remaining))
for j, sample in enumerate(remaining):
scores[j] = 0.1
if any(term in sample.text.lower() for term in ["chest", "heart", "pain"]):
scores[j] += 0.5
selected_idx = np.argmax(scores)
selected = [remaining[selected_idx]]
newly_labeled = annotator.annotate(selected)
for sample in newly_labeled:
sample._sample = selected[0]
labeled_samples.extend(newly_labeled)
latest = labeled_samples[-1]
print(f"Text: latest.text")
print(f"Category: latest.labels")
print(f"Confidence: latest.metadata.get('confidence', 0)")
print(f"Explanation: latest.metadata.get('explanation', '')[:100]...")
Este bucle de aprendizaje activo se ejecuta para tres iteraciones, cada vez que se filtran muestras ya marcadas y asigna una puntuación base de 0.1, impulsada por 0.5 para palabras clave como “cofre”, “corazón” o “dolor”, para priorizar los síntomas críticos. Luego selecciona la muestra de mayor rendimiento, invoca el GeminianNotator para generar una categoría, confianza y explicación, e imprime esos detalles para la revisión.
categories = [s.labels for s in labeled_samples]
confidence = [s.metadata.get("confidence", 0) for s in labeled_samples]
plt.figure(figsize=(10, 5))
plt.bar(range(len(categories)), confidence, color="skyblue")
plt.xticks(range(len(categories)), categories, rotation=45)
plt.title('Classification Confidence by Category')
plt.tight_layout()
plt.show()
Finalmente, extraemos las etiquetas de categoría predichas y sus puntajes de confianza y usamos matplotlib para trazar un gráfico de barras vertical, donde la altura de cada barra refleja la confianza del modelo en esa categoría. Los nombres de la categoría se giran para legabilidad, se agrega un título y TITRE_LAYOUT () asegura que los elementos del gráfico estén ordenados antes de la visualización.
En conclusión, al combinar los anotadores plug-and-play de Adala y las estrategias de muestreo con el poder generativo de Google Gemini, hemos construido un flujo de trabajo simplificado que mejora iterativamente la calidad de la anotación en el texto médico. Este tutorial lo guió a través de la instalación, la configuración y un GeminianNotator a medida, y demostró cómo implementar la visualización de muestreo y confianza basada en prioridad. Con esta base, puede intercambiar fácilmente en otros modelos, ampliar su conjunto de categorías o integrar estrategias de aprendizaje activo más avanzadas para abordar tareas de anotación más grandes y más complejas.
Verificar Notebook Colab aquí. Todo el crédito por esta investigación va a los investigadores de este proyecto. Además, siéntete libre de seguirnos Gorjeo Y no olvides unirte a nuestro 90k+ ml de subreddit.
Aquí hay una breve descripción de lo que estamos construyendo en MarkTechPost:
Asif Razzaq es el CEO de MarktechPost Media Inc .. Como empresario e ingeniero visionario, ASIF se compromete a aprovechar el potencial de la inteligencia artificial para el bien social. Su esfuerzo más reciente es el lanzamiento de una plataforma de medios de inteligencia artificial, MarktechPost, que se destaca por su cobertura profunda de noticias de aprendizaje automático y de aprendizaje profundo que es técnicamente sólido y fácilmente comprensible por una audiencia amplia. La plataforma cuenta con más de 2 millones de vistas mensuales, ilustrando su popularidad entre el público.
Related posts


















































































































































































































































































































Trending
-
Startups12 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales12 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Recursos12 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups10 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Startups12 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos12 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Recursos12 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Noticias10 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo