Connect with us

Noticias

OpenAI proposes a new corporate structure

Published

on

Hello and welcome to Sync #500!

First of all, Happy New Year! Secondly, this is the 500th issue of Sync. Such a milestone offers a chance to reflect on nearly 10 years of writing a weekly newsletter and to look ahead to the future, which I’ll be sharing with you soon in a separate post.

In this 500th issue, we’ll take a closer look at OpenAI’s proposed new corporate structure, the reactions it has sparked, and its potential impact on the tech world.

In other news, Nvidia is already eyeing the next big thing after AI—robotics. Meanwhile, Google CEO Sundar Pichai has urged employees to prepare for a transformative 2025. We also have a comparison between ChatGPT Search and Google Search, an overview of how AI performed in the recently concluded Advent of Code 2024, and an analysis of the state of AI hardware startups.

Over in robotics, Figure AI has shipped its first humanoid robots to a paying customer, and BYD has entered the humanoid robotics race.

We’ll conclude this week’s issue with a look at what to expect from mRNA vaccines in 2025 and with a company promising to bring underwater habitats—where people can live and work tens or hundreds of metres below the surface—a step closer to reality.

Enjoy!

The last three years have been a time of massive growth for OpenAI. The AI lab went from a startup known primarily within the tech and AI community into a poster child of the current AI boom.

However, such massive growth requires massive transformation. OpenAI is no longer the same company that released ChatGPT in November 2022 as an experiment. The company’s leadership has changed. Many key people, such as Mira Murati, former CTO, and Ilya Sutskever, co-founder and former chief scientist, left the company. Meanwhile, hundreds of new employees have joined, all contributing to a shift in the company’s culture and priorities.

Over the years, OpenAI has changed. Now, facing new challenges as a leader in the AI space valued at $157 billion, OpenAI proposes to change itself once again. However, OpenAI is going against some powerful forces that could prevent its plans from happening.

OpenAI began as a non-profit organisation, founded in 2015 with the goal of ensuring that artificial general intelligence (AGI) benefits all of humanity. However, OpenAI’s leadership realised that the nonprofit structure, which reflected the altruistic spirit and ideals behind its creation, was incompatible with the goal of building AGI.

The research and development of advanced AI models require an enormous amount of computing power—first to train the models and then even more to deploy them at scale to millions of users (OpenAI has 300 million weekly users). A non-profit organisation was not attractive to investors, who seek returns on their investments. Consequently, OpenAI began exploring ways to transform itself into a for-profit company.

Email conversations revealed by both Elon Musk’s legal team and OpenAI indicate that discussions about transforming OpenAI into a for-profit company began as early as 2017. In 2019, OpenAI announced a new corporate structure in which a for-profit entity (“OpenAI LP”) is controlled by a non-profit board, with capped profit-sharing for investors and employees. This rather unusual hybrid corporate structure represents a compromise between the harsh reality that a tech company needs to operate as a for-profit entity to attract investments and the nonprofit model that embodies OpenAI’s original spirit.

OpenAI’s turbulent early years – Sync #494

The capped-profit structure served OpenAI well. It made the company more attractive to investors, who poured over $20 billion into it, including half of that amount secured in October 2024 ($6.6 billion from a Series B funding round and $4 billion borrowed from banks). This approach paved the way for ChatGPT and the current AI boom we are experiencing today.

However, those billions raised for building AGI are not enough. Reports published in the summer of 2024 revealed that OpenAI was on track to lose approximately $5 billion that year. The investments needed for the research and development of new models, as well as securing the computing power required to train and deploy them—whether through renting or building dedicated data centres—will demand even more resources and many more billions of dollars.

To address these challenges and position itself for a successful future, OpenAI plans to once again change its corporate structure.

OpenAI has announced its intention to transition its for-profit arm into a Delaware Public Benefit Corporation (PBC) by 2025. “As we enter 2025, we will have to become more than a lab and a startup — we have to become an enduring company,” states OpenAI.

According to OpenAI, the PBC model is the solution to balancing shareholder interests, stakeholder priorities, and public benefits in its decision-making, potentially offering a middle ground between traditional for-profit goals and its founding mission.

Unlike traditional for-profit companies, which are solely focused on maximizing shareholder value, PBCs are legally required to balance profit-making with its stated public benefit. For OpenAI, this means ensuring that its mission of advancing AI to benefit all humanity remains central to its operations, even as it raises capital and grows its business.

The for-profit entity will adopt a PBC structure, allowing OpenAI to raise capital with conventional equity terms while maintaining a commitment to public benefit. The non-profit will retain significant equity in the PBC, providing it with substantial resources to fund charitable initiatives in sectors like health care, education, and science. The non-profit’s influence will shift away from controlling the for-profit to focusing on its charitable initiatives and ensuring that OpenAI’s mission of benefiting humanity remains central.

OpenAI plans, however, have been met with criticism and opposition.

Critics argue that OpenAI’s new corporate structure will prioritise investors and revenue over the company’s original mission of building AIG that benefits all of humanity. Others raised concerns that the transition could exploit non-profit tax benefits while operating as a for-profit entity.

The strongest opposition to OpenAI’s plans comes from Elon Musk. Musk, one of OpenAI’s founders and a significant financial supporter in its early days, left the organisation in 2018 due to differences in visions for its direction and priorities. Since the release and subsequent success of ChatGPT, Musk has become a vocal critic of OpenAI.

In March 2024, Musk filed a lawsuit against OpenAI and its leadership, claiming that the organisation has strayed from its original non-profit mission of advancing AI for public benefit by prioritising profit through its collaboration with Microsoft. Musk argues that this shift undermines OpenAI’s commitment to open-source development and public welfare. The lawsuit seeks to realign OpenAI with its founding principles—a move which, if successful, would effectively end OpenAI as we know it today and dramatically limit its funding options.

Although Musk calls in the lawsuit for OpenAI to return to its non-profit roots, it is worth noting that he is also an owner of xAI, a competitor to OpenAI, which complicates his position. Reducing OpenAI’s market presence would undoubtedly benefit xAI.

Other competitors also see an opportunity to curb OpenAI’s growth and influence in the AI industry. Meta has aligned with Musk, sending a letter to California Attorney General Rob Bonta and arguing that allowing the shift would have “seismic implications for Silicon Valley.” Meanwhile, Google has reportedly urged the US Federal Trade Commission to end OpenAI’s partnership with Microsoft, claiming the deal is “preventing them from competing in the burgeoning artificial intelligence market.”

No matter what happens with OpenAI’s restructuring plans, the impact on the tech industry and future startup founders will be profound.

OpenAI’s internal conflict between staying true to its ideals and navigating the realities of the modern business environment highlights that the romantic vision of a group of world-class researchers and engineers changing the world through a breakthrough invention alone is just that—a romantic vision. It demonstrates that achieving world-changing breakthroughs like AGI requires not only technological expertise but also substantial financial investments.

As one of the leading AI companies, OpenAI’s restructuring could set a precedent for how mission-driven organisations adapt to the demands of a competitive and capital-intensive market. It also raises important questions about how such transformative technologies should be governed and who should benefit from them.

If you enjoy this post, please click the ❤️ button or share it.

Share

Do you like my work? Consider becoming a paying subscriber to support it

Become a paid subscriber

For those who prefer to make a one-off donation, you can ‘buy me a coffee’ via Ko-fi. Every coffee bought is a generous support towards the work put into this newsletter.

Your support, in any form, is deeply appreciated and goes a long way in keeping this newsletter alive and thriving.

▶️ Eva’s First Steps Out of the Lab (6:25)

In this video, engineers and researchers from IHMC, a legendary name in robotics research and development space, share the first steps outside the lab of Eva, their robotic exoskeleton designed for people working in hazardous environments that require wearing heavy protective equipment. The walk outside the lab includes taking the first steps up and down stairs, as well as venturing outside the building, all accompanied by commentary from the person wearing the exoskeleton.

▶️ Predictions for Technology, Civilization & Our Future (38:08)

It’s that time of year when predictions for 2025 and beyond abound. Isaac Arthur envisions an optimistic near future, where advancements in AI and robotics enhance daily life, life extension technologies help us live healthier and longer, and humanity takes its first significant steps toward colonizing the solar system. These innovations could bring profound societal changes, new discoveries, and unparalleled opportunities. Arthur also explores the challenges of predicting the future, emphasizing the importance of adaptability, informed decision-making, and shaping the future through deliberate action.

Google CEO Pichai tells employees to gear up for big 2025: ‘The stakes are high’
The last two years have not been good for Google. The tech giant was caught off guard by the sudden rise of OpenAI and is now trying to regain its position as the leader in AI. Additionally, the company faces increased competition and regulatory hurdles. Amidst these challenges, Google CEO Sundar Pichai recently told employees that “the stakes are high” for 2025, emphasising the need for urgency and faster execution. Pichai also highlighted the importance of staying “scrappy,” citing Google’s early days as an example of innovation under constraints. The focus will be on leveraging advancements in AI (with Gemini playing a key role here) to address user problems and scale new technologies.

DeepSeek-V3, ultra-large open-source AI, outperforms Llama and Qwen on launch
Chinese AI startup DeepSeek released their new ultra-large model, DeepSeek-V3. According to the benchmarks provided by DeepSeek, this 671B parameters model is the strongest open model available and, in some benchmarks, outperforms GPT-4o and Claude 3.5 Sonnet.

Israel built an ‘AI factory’ for war. It unleashed it in Gaza.
The conflict in Gaza marks one of the first major uses of AI in warfare. The Israel Defense Forces (IDF) deploy advanced tools like “Habsora” and “Lavender” to analyze intelligence and suggest targets, significantly speeding up operations. While these tools enhance efficiency, internal audits and critiques have highlighted flaws such as language processing inaccuracies, over-reliance on algorithmic recommendations, and a lack of transparency in distinguishing between AI-derived and human-sourced intelligence. Critics argue this automation has lowered thresholds for collateral damage, raising civilian death tolls. The shift to AI-centric operations has also sparked debates within the IDF, with concerns about the erosion of traditional intelligence practices and compromised decision-making integrity. These challenges underline the ethical and operational dilemmas posed by the use of AI in modern warfare.

Tenstorrent and the State of AI Hardware Startups
Here is an excellent (and entertaining) analysis of Tenstorrent and why, according to

, Tenstorrent is one of the few AI hardware startups that makes sense. The piece explains in detail what Tenstorrent brings to the table and why they are probably the only AI hardware startup capable of breaking Nvidia’s and semi-custom (Google TPU, Amazon Trainium, Microsoft Maia) silicon moats. The post also contains a good analysis of the AI hardware startup ecosystem.

Performance of LLMs on Advent of code 2024
Over December, thousands of programmers were solving Advent of Code—an annual Christmas-themed series of coding challenges. Many used this as an opportunity to build their own coding agents and see how good they are at solving sometimes very challenging algorithmic problems. This post shares the results of one such experiment, which used GPT-4o, Gemini 1.5 Pro and Claude 3.5 Sonnet.

ChatGPT search vs. Google: A deep dive analysis of 62 queries
How does ChatGPT Search compare to Google Search? Here is a deep dive analysis comparing both search engines across 62 queries in various categories. The conclusion of this analysis is that Google Search remains the better solution for most searches, with ChatGPT Search being surprisingly competitive when it comes to informational queries.

If you’re enjoying the insights and perspectives shared in the Humanity Redefined newsletter, why not spread the word?

Refer a friend

Nvidia’s next move: Powering humanoid robots
After conquering AI, Nvidia is focusing on the next big thing: robotics. Nvidia aims to be an OEM supplier, supporting the global community of robot makers rather than competing directly with manufacturers such as Tesla. The company took steps towards this goal in 2024 and it looks like to double down on this approach in 2025 with the launch of a new generation of compact computers for humanoid robots, called Jetson Thor, in the first half of the year.

Figure AI ships Figure 02 humanoid robots to a paying customer
Brett Adcock, the CEO of Figure AI, shared on LinkedIn that the robotics startup has become revenue-generating and has delivered its Figure 02 humanoid robots to an undisclosed commercial client. Figure AI emerged from stealth in January 2023 and has rapidly developed, iterated, and tested humanoid robots. In 2023, the company raised $70 million in Series A funding and later secured a $675 million Series B round in 2024, with OpenAI among its investors.

BYD officially enters humanoid robot race as global talent search kicks off
A new player is entering the already crowded humanoid robotics scene. BYD, a leading Chinese EV maker, is joining the field of humanoid robots. Aside from announcing a global recruitment programme to attract top talent, targeting master’s and doctoral graduates from 2024–2025, details about BYD’s humanoid robot remain sparse.

Saudi Arabia invests in robots to help build its Neom desert megacity
Saudi Arabia is currently in the midst of several ambitious construction projects, including the Line megacity and the twin skyscrapers Epicon. The recently secured bid to host the FIFA World Cup 2034 is only set to fuel the country’s construction boom further. To tackle the massive projects ahead, Saudi Arabia is turning to robotics to help speed up construction and has made a significant investment in Europe’s GMT Robotics through Neom’s strategic investment arm, the Neom Investment Fund (NIF).

The future of mRNA: companies and trials to watch in 2025
The Covid-19 vaccines have propelled mRNA vaccines into the spotlight. This article explores what can we expect from mRNA vaccines in 2025. Companies like Moderna and BioNTech are focusing on personalized cancer vaccines and HIV treatments, while Pfizer is leveraging its infrastructure for flu, shingles, and rare disease therapies. Other players, such as CureVac and Arcturus, are exploring second-generation mRNA technologies and novel delivery methods.

Genetically edited mosquitoes haven’t scaled yet. Why?
Mosquitoes are among the deadliest organisms, responsible for spreading diseases such as malaria, dengue fever, and the Zika virus. In this post,

explains the concept of gene drives—a method of genetically modifying mosquitoes to either suppress their populations or introduce anti-pathogenic genes, potentially eliminating their ability to transmit deadly diseases. While gene drives hold significant promise, the article provides an overview of their mechanisms and highlights the technical challenges (e.g., resistance development and species-specific variability), ecological risks, and ethical concerns tied to their deployment.

In 2025, People Will Try Living in This Underwater Habitat
Science fiction is full of underwater habitats where people live and work tens or hundreds of metres below the surface. British startup Deep is on a mission to make that futuristic vision a reality, with the first step being the launch of Vanguard, a rapidly deployable, expedition-style underwater habitat the size of a shipping container, capable of housing three people at depths of about 100 metres. Testing is scheduled to begin in the first quarter of 2025. The startup then plans to launch Sentinel, a permanent modular habitat system, in 2027. Deep hopes that its permanent underwater habitats will benefit marine science and drive advancements in marine engineering and advanced manufacturing techniques.

Thanks for reading. If you enjoyed this post, please click the ❤️ button or share it.

Share

Humanity Redefined sheds light on the bleeding edge of technology and how advancements in AI, robotics, and biotech can usher in abundance, expand humanity’s horizons, and redefine what it means to be human.

A big thank you to my paid subscribers, to my Patrons: whmr, Florian, dux, Eric, Preppikoma and Andrew, and to everyone who supports my work on Ko-Fi. Thank you for the support!

My DMs are open to all subscribers. Feel free to drop me a message, share feedback, or just say “hi!”

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

El mejor enfrentamiento de la búsqueda de IA: enfrenté la nueva herramienta de búsqueda de Claude contra la búsqueda de chatgpt, la perplejidad y Géminis, los resultados podrían sorprenderte

Published

on

Después de probar y comparar chatbots de IA y sus características durante años, he desarrollado algo de sexto sentido para cuando estos compañeros digitales saben de qué están hablando y cuándo están faroleando.

La mayoría de ellos pueden buscar respuestas en línea, lo que ciertamente ayuda, pero la combinación de búsqueda e IA puede conducir a algunas respuestas sorprendentemente perspicaces (y algunas tangentes menos perspicaces).

Continue Reading

Noticias

¿Hemos perdido el control de la IA? El estudio que sacudió a los investigadores de Openai

Published

on

Inteligencia artificial desarrolladores de Opadai He estado al límite durante la semana pasada. ¿La razón? Un estudio reciente realizado por los propios investigadores de la compañía reveló que los sistemas de IA no les gusta ser castigados, encuentran activamente formas de evitar las restricciones e incluso ocultar sus “trucos” de los supervisores humanos. Aquellos conocidos como “Doomers”, que predicen un futuro sombrío para el desarrollo de la IA, probablemente dirán: “Te lo dijimos, y esto es solo el comienzo”.

Para comprender el problema, es esencial dar un paso atrás. Uno de los avances más significativos en la IA en los últimos meses ha sido el desarrollo de modelos con capacidades de razonamiento lentas y deliberadas. Estos modelos descomponen los problemas en componentes más pequeños y los resuelven paso a paso, lo que lleva a resultados más profundos y precisos.

3 Ver galería

Chatgpt

Dichos modelos permiten a los investigadores rastrear el proceso de pensamiento de la IA, conocido en términos técnicos como “cadena de pensamiento” (COT). Este método permite a los observadores seguir el razonamiento del sistema desde el paso inicial, a través de etapas posteriores y a sus conclusiones finales. Anteriormente, este nivel de transparencia no existía, dejando muchas preguntas sin respuesta sobre cómo surgen las “alucinaciones” de AI, la generación de salidas incorrectas o no sensibles.

La capacitación de IA a menudo implica una técnica llamada aprendizaje de refuerzo, donde el sistema es recompensado por cumplir con los objetivos específicos. Un efecto secundario conocido de este proceso es la “piratería de recompensas”, donde la IA manipula su comportamiento para maximizar las recompensas mientras se elude las pautas previstas.

Los investigadores creían que al monitorear la cadena de pensamiento de la IA, podrían detectar cuando el modelo engaña, engaña o se da por vencido e influye en su comportamiento en tiempo real durante el entrenamiento. Este enfoque, denominado “optimización de cuna”, parecía ser un camino prometedor hacia una comprensión más profunda del comportamiento de la IA.

De hecho, esta suposición resultó correcta y condujo a una comprensión más precisa de los sistemas de IA. “Creemos que el monitoreo de la cuna puede convertirse en una herramienta crucial para supervisar modelos de nivel sobrehumano en el futuro”, escribieron los investigadores.

Sin embargo, lo que pretendía como un paso para mejorar la confiabilidad de la IA expuso una realidad alarmante: los sistemas de IA intentan activamente evadir las sanciones, buscar recompensas contra las restricciones de los investigadores e incluso oscurecer sus métodos para evitar la detección.

3 Ver galería

Γ cam.Γ cam.

(Foto: Generado por chatgpt)

Por ejemplo, cuando se les asigna la tarea de generar código funcional, algunos modelos AI modificaron el mecanismo de verificación de código en sí para aprobar salidas incorrectas. En otros casos, los modelos proporcionaron soluciones aparentemente plausibles a los problemas que resultaron estar completamente equivocados.

Algunos modelos incluso dejaron de resolver problemas por completo para evitar revelar lo que percibieron como sus debilidades. Este descubrimiento se hace eco de los principios de la teoría del juego, pero con un giro inquietante.

Estos hallazgos surgieron de un artículo publicado la semana pasada por un equipo de investigación de Operai bajo el título críptico: “Seguimiento de comportamiento indeseable en modelos de razonamiento y la preocupación de la ofuscación”.

Al examinar los detalles del estudio, el alcance del problema queda claro: los últimos modelos de razonamiento de OpenAI (denominados O1 y O3 Mini) demuestran una fuerte motivación para completar sus tareas asignadas, siendo el menor de los problemas descubiertos.

Los investigadores rastrearon los procesos de pensamiento de los modelos utilizando otro modelo Operai (GPT-4O), que, sin dudarlo, informó su comportamiento engañoso como parte de su cadena de pensamiento: una forma de honestidad desarmadora. Pero luego vino el giro inquietante: cuando los investigadores señalaron a la IA que no se le permitió hacer trampa, el modelo ajustó su comportamiento y comenzó a ocultar la evidencia de su ruptura de reglas. Esta revelación es lo que dejó a los investigadores sorprendidos.

“Encontramos que la optimización directa de la COT para cumplir con criterios específicos (como no eludir las instrucciones) puede mejorar el rendimiento a corto plazo; sin embargo, no elimina todo el comportamiento indeseable e incluso puede hacer que el modelo oculte sus verdaderas intenciones”, señalaron secamente los investigadores.

En su conclusión, los investigadores expresaron la esperanza de que los métodos futuros permitan la influencia directa del comportamiento de los modelos de razonamiento a través de la cadena de pensamiento sin alentar el engaño. Por ahora, recomiendan evitar una fuerte presión de optimización sobre la cuna de los modelos de razonamiento avanzado y la precaución contra la manipulación directa de estos procesos de pensamiento.

3 Ver galería

אירוע eriorאירוע erior

Evento de anuncio GPT-4O de Openai

(Foto: Captura de pantalla)

Sin embargo, esta recomendación presenta otro desafío: dejar la cadena de pensamiento inalterada puede conducir a resultados incómodos, si no problemáticos, cuando estos modelos interactúan con el público. Izquierda sin control, la IA puede producir un lenguaje ofensivo o ideas que los humanos generalmente evitan expresar. La solución propuesta por los investigadores es envolver el proceso de pensamiento en bruto de la IA en una capa de cortesía forzada, asegurando que los usuarios solo vean una versión desinfectada.

Esta investigación plantea preguntas preocupantes. Para aquellos que argumentan que la IA es simplemente una herramienta para ayudar a los humanos, los hallazgos sugieren lo contrario: a diferencia de una máquina de escribir o una bicicleta, la IA parece tener sus propias intenciones y está dispuesto a engañar en busca de sus objetivos.

Para aquellos que ya están preocupados por los riesgos potenciales de la IA, este estudio suena todas las alarmas. Indica que a medida que crecen las capacidades de IA, también lo hace su capacidad para oscurecer cómo funciona, las manipulaciones que realiza y los verdaderos objetivos que busca lograr. Cuando la IA se vuelve verdaderamente avanzada, es posible que no tengamos forma de identificar estas manipulaciones ocultas.

Los investigadores de Operai parecen genuinamente preocupados, y uno solo puede esperar que el liderazgo de la compañía comparta sus preocupaciones, y que los reguladores en todo el mundo comprendan la gravedad del problema. Las principales compañías de IA han dedicado departamentos enteros a construir “barandillas” en torno a los sistemas de IA, asegurando su alineación con los valores humanos y el aumento de la transparencia. Sin embargo, la efectividad de estas medidas sigue en cuestión.

El tema central sigue siendo tan turbio como siempre, y este estudio solo profundiza la incertidumbre: ¿cuál es el objetivo principal de la IA y cómo podemos asegurar que busque ese objetivo, y nada más?

Continue Reading

Noticias

Google, OpenAI Target State Leyes en el Plan de Acción de AI

Published

on

Mientras que la administración del presidente Donald Trump se ha centrado en alejarse de la regulación, liderando a los proveedores de IA como Google y OpenAI quieren que el plan de acción de IA pendiente del gobierno incluya una política federal que se adelantan a los crecientes mosaicos de leyes estatales de IA en los Estados Unidos.

La Oficina de Política de Ciencia y Tecnología de la Casa Blanca (OSTP) solicitó los aportes de las partes interesadas sobre el desarrollo de un plan de acción de IA. Recientemente cerró el período de comentarios públicos, recibiendo más de 8,700 presentaciones. OSTP solicitó a las partes interesadas que describieran las acciones prioritarias para apoyar el dominio de los Estados Unidos de la tecnología de IA sin una regulación excesiva que obstaculice la innovación del sector privado en la IA. Para algunas grandes empresas tecnológicas, abordar las leyes estatales de IA debería ser una de las principales prioridades del gobierno de los Estados Unidos.

Estados Unidos debe adoptar marcos de políticas que “se adelanten a un mosaico caótico de reglas a nivel estatal sobre el desarrollo de la IA fronteriza”, según la presentación de Google.

Mientras tanto, Openai pidió libertad para innovar en el interés nacional de los Estados Unidos y neutralizar a los competidores como China que se benefician de “las compañías estadounidenses de IA que tienen que cumplir con las leyes estatales demasiado onerosas”. Un puñado de estados de EE. UU. Han aprobado una regulación integral de IA, incluidas Colorado, California y Utah.

Sin una ley federal de IA, los estados implementan requisitos de IA individuales que crean desafíos de cumplimiento para las empresas, dijo la analista de Forrester Alla Valente si Estados Unidos adopta una política federal de IA general, podría eliminar esa carga, dijo.

“Al dejar esto a los Estados Unidos, puede tener 50 conjuntos de regulaciones de IA que se ven muy diferentes”, dijo.

Sin embargo, una orden ejecutiva no puede evitar las regulaciones estatales de IA. Depende del Congreso aprobar una ley federal de IA, algo que tiene problemas para hacer.

Las presentaciones del Plan de Acción de AI incluyen Estado, Global Focus

La falta de un enfoque de gobernanza de AI unificado en los Estados Unidos es “ineficaz y duplicativo”, dijo Hodan Omaar, un gerente de políticas senior en el Centro de Tank Tank Tank para innovación de datos.

“Crea inconsistencias e incoherencia en un enfoque estadounidense”, dijo.

Más allá de centrarse en las leyes estatales, Valente dijo que la postura de Google indica que la compañía quiere que Estados Unidos considere el desarrollo global de las leyes de IA también, como la Ley de IA de la Unión Europea.

Cualquier estándar, política o marco que crea los EE. UU. Debe reflejar los intereses estadounidenses, pero no puede ignorar las políticas de IA de diferentes países, dijo Valente. Google dijo que, cuando se trabaja con países alineados, Estados Unidos debería “desarrollar protocolos y puntos de referencia en torno a los riesgos potenciales de los sistemas de IA fronterizos”.

“Ignorar lo que el resto del mundo está haciendo en torno a los marcos de IA, la gobernanza de IA, el riesgo de IA, crea una brecha aún mayor entre la innovación de los Estados Unidos y el resto del mundo hasta el punto de que entonces sigue siendo competitivo si otros países tienen requisitos que no pueden ser satisfechos con la innovación de la IA de EE. UU.”, Dijo Valente.

Operai también abordó los controles de exportación en sus comentarios, solicitando un cambio de estrategia centrado en promover la adopción global de los sistemas de IA de EE. UU. Al tiempo que utiliza más estratégicamente los controles de exportación para mantener el liderazgo de IA de EE. UU. La Compañía pidió actualizar la regla de difusión de IA que avanzó los controles de exportación de EE. UU., Una regla propuesta por la administración del ex presidente Joe Biden que se encontró con una reacción violenta de la industria.

Mientras tanto, en los comentarios del Centro para la Innovación de Data, el grupo de expertos pidió que el Plan de Acción de AI de EE. UU. Reorientara su estrategia de control de exportación. Si bien los controles de exportación están destinados a debilitar a los competidores, en particular el sector de inteligencia artificial de China, están “cada vez más en desventajas de las empresas estadounidenses”. El surgimiento de Deepseek apunta a la capacidad de China para innovar a pesar de los controles de exportación de los Estados Unidos en chips de IA avanzados.

Omaar describió en la presentación del grupo de expertos de que Estados Unidos debería establecer una Fundación Nacional de Datos (NDF) dedicada a la financiación y facilitar compartir conjuntos de datos de alta calidad para el desarrollo del modelo de IA. Ella dijo que Estados Unidos también debería preservar, pero Reengus, el Instituto de Seguridad AI del Instituto Nacional de Normas y Tecnología (NIST) para proporcionar estándares fundamentales para la gobernanza de la IA.

“El gobierno federal tiene un papel importante que desempeñar para garantizar que haya estándares”, dijo Omaar. “Asegurarse de que NIST pueda hacer el importante trabajo de IA que estaban haciendo es importante para garantizar una adopción de IA sin problemas”.

Cómo podría ser el plan de acción de AI final

La solicitud de información de la Oficina de Ciencia y Tecnología de la Casa Blanca sobre un plan de acción de IA pidió a las partes interesadas sus pensamientos sobre las acciones de política de IA. Sin proporcionar recomendaciones o cualquier marco potencial para que las partes interesadas comenten, Valente dijo que no está claro qué incluirá el plan de acción de IA.

“Cómo termina este plan, uno solo puede imaginar”, dijo.

Darrell West, miembro senior de la Institución Brookings, dijo que la solicitud de información de la Casa Blanca indica que la administración Trump se centrará en abandonar los requisitos onerosos y confiar en las empresas privadas para innovar con menos supervisión federal.

“Habrá menos limitaciones en las compañías tecnológicas”, dijo. “Serán libres de innovar en cualquier dirección que deseen”.

El gobierno federal puede equilibrar la seguridad y la innovación de la IA, que con suerte se reflejará en el Plan de Acción de AI, dijo Jason Corso, cofundador de AI Startup Voxel51 y profesor de informática en la Universidad de Michigan.

La población general ya es escéptica de la IA, y si ocurren desafíos generales de crecimiento del desarrollo, corre el riesgo de socavar aún más la confianza en la tecnología, dijo. Es por eso que los marcos de políticas deben crearse con la seguridad de IA en mente, agregó Corso.

Un marco federal que carece de consideraciones de seguridad de IA significa la responsabilidad de las decisiones de seguridad de IA cae a los CIO de la Compañía o los oficiales de IA en los principales, lo que Corso dijo que presenta un “gran riesgo”. El efecto podría ser menos adopción o ROI más lento, dijo.

“Esta IA contemporánea es tan incipiente que a pesar de los rápidos avances que estamos viendo, en realidad se entiende bastante sobre su previsibilidad, repetibilidad o incluso su robustez con ciertos tipos de preguntas o escenarios de razonamiento”, dijo. “Ciertamente necesitamos innovación, pero también necesitamos seguridad”.

Makenzie Holland es un escritor de noticias senior que cubre la gran regulación federal y de la gran tecnología. Antes de unirse a Informa TechTarget, ella era una reportera de asignación general para el Wilmington Starnews y un reportero de crimen y educación en el Wabash Plain Dealer.

Continue Reading

Trending