Noticias
OpenAI’s Economic Blueprint – Sync #502
Published
4 meses agoon

Hello and welcome to Sync #502!
In this week’s issue, we take a closer look at OpenAI’s Economic Blueprint, which outlines policy proposals preferred by OpenAI for how the US can maximise AI’s benefits, bolster national security, and drive economic growth.
Elsewhere in AI, Mark Zuckerberg said that AI could soon do the work of Meta’s midlevel engineers, Elon Musk wants courts to force OpenAI to auction off a significant ownership stake, and President Joe Biden issued an executive order to accelerate the domestic construction of AI infrastructure.
Over in robotics, OpenAI is taking robotics seriously again and is looking for people to join its newly reformed robotics team. We also have another video of a humanoid robot, and how soft robotics can help create more flexible, quieter, and adaptable robots.
In other news, Neuralink announced that its brain-computer interface has been implanted in a third patient. We also look at how AI is helping archaeologists read ancient texts, meet a startup planning to bury micro-nuclear reactors to power data centres and explore the future of nanotechnology.
Enjoy!
The car was not invented in America—it was invented in Europe. This invention promised to revolutionise the world and completely reimagine every aspect of our lives—how we work, how we do business, and how we live our everyday lives. It promised to unlock new ways of living and new opportunities for economic growth.
However, not everyone saw cars and the emerging automotive industry as an opportunity. Many countries introduced laws and regulations that hindered cars—this new, exciting technology—from reaching their full potential. Meanwhile, America seized this opportunity and transformed the automotive industry into one of the pillars of its 20th-century economy. While individual states invested in the necessary infrastructure and business incentives for the automotive industry to thrive, the federal government funded the massive highway system that connected the country.
This is the story that OpenAI opens its recently released Economic Blueprint and argues that history repeats before our eyes. However, instead of cars, this new vehicle of innovation, opportunity, and economic growth is AI. In this 15-page document, OpenAI outlines its preferred AI policies and how these can ensure shared and responsible AI benefits while fostering US leadership in AI development. It urges US policymakers to fully embrace AI, much as the country did a century ago with automobiles, and to create a fertile environment where the AI industry can thrive and become the new engine of economic growth.
OpenAI’s Economic Blueprint and the proposed policies are organised into three sections: Competitiveness and Security, Rules of the Road and Infrastructure as Destiny.
In the first section, OpenAI focuses on policies aimed at maintaining US leadership in AI and emphasises the need for the United States to lead in AI development through clear, consistent rules that promote innovation, ensure national security, and prevent misuse. It advocates aligning AI development with democratic values, such as free-market competition and user freedom while holding developers and users accountable for responsible use.
OpenAI warns of the risks posed by adversarial misuse of AI, including authoritarian governments using it for control, industrial espionage, novel cyber threats, and unchecked global investments flowing to nations like China.
To counter these risks, the blueprint calls for federal leadership to develop a cohesive strategy for AI. This includes prioritising the development of state-of-the-art frontier models with robust safeguards, streamlining regulations, and promoting collaboration with international allies. OpenAI also advocates for deeper collaboration with national security organizations (the company highlights here its partnerships with agencies like Los Alamos National Laboratory and the Air Force Research Laboratory, as well as recently the announced partnership with defence startup Andruil), to develop best practices for deploying AI securely and addressing emerging threats.
Export policies should securely share AI advancements with partner nations to strengthen their AI ecosystems while restricting access for adversaries. OpenAI also emphasises the need for an international coalition to establish shared safety standards and prevent regulatory fragmentation.
OpenAI highlights the importance of establishing clear and practical guidelines to ensure AI is developed and used responsibly while maximising its benefits for society. It emphasises that AI, like past transformative technologies, requires thoughtful governance to unlock its full potential. By setting these rules early, OpenAI argues, the US can lay the foundation for the rapid and widespread adoption of AI and empower users across the country.
OpenAI advocates for robust safeguards to prevent the creation of harmful AI-generated content and calls for stronger collaboration between AI companies and law enforcement. To build public trust in AI, it proposes using provenance data to trace AI-generated content back to its source. OpenAI also emphasises empowering users with control over their AI tools, including how personal data is used and the ability to personalise AI to their preferences.
OpenAI encourages states to serve as testing grounds for AI innovation, particularly in education and healthcare, fostering local AI ecosystems while increasing public confidence in the technology. By implementing these “rules of the road,” OpenAI believes the US can establish a secure, innovative, and user-centric AI ecosystem that benefits all Americans.
OpenAI underscores the critical role of infrastructure in securing US leadership in AI and fostering economic growth. Drawing parallels to the transformative impact of the automobile industry, OpenAI emphasises the need to develop the foundational resources—chips, data, energy, and talent—necessary for the AI industry to thrive. OpenAI argues that timely investment in these areas could catalyse a “reindustrialisation” of the US, creating widespread economic opportunities and bolstering global competitiveness.
To meet the growing demand for AI compute and energy, OpenAI proposes initiatives such as AI Economic Zones to fast-track infrastructure projects, increased investment in new energy sources, and a National AI Infrastructure Highway to connect regional power and communication grids. It also advocates digitising public data to support US AI developers of all sizes. In return, OpenAI suggests, developers using this data could collaborate with the government to generate insights that inform the development of better public policies.
The document envisions the creation of AI research labs aligned with local industries. As an example, the blueprint suggests Kansas could establish a hub dedicated to applying AI in agriculture, while Texas or Pennsylvania could develop hubs focused on integrating AI into power production and grid resilience.
The section also warns of the risks of inaction, such as allowing global AI investments (which OpenAI estimates at $175 billion) to flow to adversaries like China, and emphasises the importance of policies that ensure AI is built on democratic foundations. By investing in infrastructure and fostering the growth of AI ecosystems, OpenAI envisions a future where the US remains at the forefront of innovation while unlocking economic opportunities across the country.
In essence, OpenAI’s Economic Blueprint brings together what OpenAI and its CEO, Sam Altman, have been advocating for for the last two years. It calls on the US government to take decisive action to establish a federal legal framework that sets clear rules for the AI industry. At the same time, OpenAI urges the US government to step in and support the development of infrastructure necessary for an AI-powered economy — from creating new energy sources to investing in the chip industry and education.
With these policies in place, OpenAI argues, the US can win the AI race. In fact, OpenAI goes even further and says the US must win this race. The document suggests that if these policies are not implemented, it will be China—not the US—that benefits most from AI and dictates the course of the technology. This “us versus them” rhetoric appears throughout the document, aiming to use patriotism or nationalism to rally support for OpenAI’s proposed policies. OpenAI frames AI development as a critical battle for technological leadership and security between democratic nations like the US and authoritarian adversaries like China—a framing reminiscent of the Cold War.
With the new Trump administration set to take power soon, OpenAI might find greater success in convincing the White House and the US government to adopt its preferred AI policies.
By using the car industry as an analogy to the AI industry, OpenAI references one of the industries that defined the 20th-century United States. The car and the automotive industry redefined what America is and transformed how people work, conduct business, and live. OpenAI argues that AI will play a similarly transformative role in the 21st century. However, for history to repeat itself, decisive actions must be taken, according to OpenAI. Otherwise, AI will not be associated with the US, and the benefits of AI will be reaped by someone else.
The full Blueprint is available here.
If you enjoy this post, please click the button or share it.
Share
Do you like my work? Consider becoming a paying subscriber to support it
Become a paid subscriber
For those who prefer to make a one-off donation, you can ‘buy me a coffee’ via Ko-fi. Every coffee bought is a generous support towards the work put into this newsletter.
Your support, in any form, is deeply appreciated and goes a long way in keeping this newsletter alive and thriving.
Musk Says Neuralink Implanted Third Patient With Brain Device
Speaking at an event in Las Vegas, Elon Musk announced that Neuralink’s brain-computer interface has been implanted in a third patient. “We’ve now got three humans with Neuralinks implanted, and they’re all working well,” said Musk, adding that the company plans to carry out about 20 to 30 more implants in 2025.
It’s not fair having 12 pairs of legs (9:58)
I’ve recently been reminded about this TED Talk by Aimee Mullins from 2009. While her talk focuses on redefining disability and turning it into a superpower, it is also about how people react to someone who changed their body beyond what most will ever encounter. The story Mullins shares about someone telling her it’s unfair that she can choose her height offers insight into how people might respond if—or when—radical human augmentation becomes a reality.
Omi, a competitor to Friend, wants to boost your productivity using AI and a ‘brain interface’
Meet Omi, yet another AI-first device revealed at CES 2025. Similar to other devices in this category, such as Rabbit, Humane, and Friend, this AI wearable offers functions like answering questions, summarising conversations, creating to-do lists, and scheduling meetings. Like its predecessors, it features a sleek, futuristic design. However, unlike its predecessors, Omi is positioned as a complementary device to smartphones rather than a replacement or AI companion. Additionally, it includes a built-in brain interface to detect user commands without requiring a wake word.I have some doubts, but let’s wait for independent reviews, which are expected in Q2 2025 when the device is planned to be shipped.
Nanotechnology: The Future of Everything (36:48)
In this video, Isaac Arthur takes a closer look at nanotechnology—exploring its origins, the challenges and risks of engineering at the nanoscale, and the enormous potential this technology holds for manufacturing, medicine, and many other areas. Arthur compares the current state of nanotechnology to that of artificial intelligence a decade ago—when the AI we have today seemed like science fiction. The same, Arthur argues, could happen to nanotechnology and massively transform our lives.
Mark Zuckerberg says AI could soon do the work of Meta’s midlevel engineers
In a conversation with Joe Rogan, Mark Zuckerberg revealed Meta’s plans to automate the work of mid-level software engineers by 2025. Meta aims to have all coding for its apps eventually generated by AI, potentially making coding a fully automated skill which could lead to significant cost savings.
Biden opens federal land for AI data centers, sets rules for developers
President Joe Biden issued an executive order to accelerate the domestic construction of AI infrastructure and address national security risks associated with the technology. The US Department of Defense and Department of Energy are authorised to lease federal sites for gigawatt-scale AI data centres. The order also issued guidelines for AI developers using the sites to not only build, operate, and maintain the leased centres at full cost, but also to deliver clean energy resources to match their capacity needs to prevent increases in electricity costs. The move aligns with efforts to keep AI development onshore and reduce reliance on foreign resources. Agencies will now select federal sites for AI data centres, after which developers can submit lease proposals.
Elon Musk wants courts to force OpenAI to auction off a large ownership stake
The battle between OpenAI and Elon Musk continues. According to a report by the Financial Times, Elon Musk’s lawyer has urged the attorneys general of California and Delaware to force OpenAI to auction a significant stake in its business. OpenAI plans to convert into a public benefit corporation, with its nonprofit retaining shares—a move Musk has legally challenged, arguing it undervalues the nonprofit’s assets and unfairly consolidates power. OpenAI defends the conversion as a means to fund its mission better, while Musk and allies, including Meta, continue to voice concerns over governance, transparency, and potential monopolisation.
AI researcher François Chollet founds a new AI lab focused on AGI
There is a new AI lab focusing on AGI on the block. It’s called Ndea and was founded by François Chollet—a well-respected AI researcher, the author of Keras (a popular deep learning framework) and the co-creator of the ARC Benchmark and ARC-AGI Prize—and Mike Knoop, the founder of Zapier. As Chollet writes in his tweet, Ndea will focus on researching deep learning-guided program synthesis, a promising new method of building AI systems, which the team hopes will eventually lead to AGI.
How AI is unlocking ancient texts — and could rewrite history
AI is revolutionising archaeology by helping decipher ancient texts, reconstruct incomplete documents, and analyse vast historical archives. Recent projects include the Vesuvius Challenge, where AI revealed text from carbonised Herculaneum scrolls, and the Ithaca model, which restores missing words and dates Greek inscriptions. AI has also translated Korean royal archives and made strides in decoding rare scripts like Linear B. By combining machine learning with human expertise, researchers are uncovering hidden knowledge and making new discoveries about the ancient world.
Asimov’s Laws of Robotics Need an Update for AI
For decades, Asimov’s famous Three Laws of Robotics have been shaping the discourse on AI and robotics ethics. Times, however, have changed, and we now live in a world flooded with deepfakes and AI-generated misinformation. To address the rise in AI-generated misinformation and deepfakes, this article proposes a fourth law: A robot or AI must not deceive a human by impersonating a human being, and suggests how this fourth law could be implemented.
It’s Time to Move Past AI Nationalism
”AI nationalism depicts AI as a battle to be won, rather than an opportunity to be harnessed,” writes Verity Harding in this article calling to stop viewing the AI race from a nationalistic point of view, to not view AI through a competitive and nationalistic lens, influenced by geopolitical tensions, and to embrace diplomacy and collaborative frameworks in managing AI’s global impact. As Harding notes, there are signs that this shift is happening.
AI Brad Pitt dupes French woman out of €830,000
Here is yet another example of AI is being used by scammers. A 53-year-old French woman was conned out of €830,000 by scammers posing as actor Brad Pitt. For over 18 months, the scammers used AI-generated photos, videos, and fabricated news reports to convince the woman that she was interacting with the real Brad Pitt. When she realised it was a scam, the woman contacted the authorities and later publicly shared her story. While mockery dominated online responses, some posts and media highlighted the need for empathy and greater awareness of modern digital scams.
Transformer²: Self-Adaptive LLMs
Researchers from the Japanese AI lab Sakana.ai present Transformer²—a new approach to developing large language models that can adjust their own weights dynamically and adapt to new knowledge. The results presented in the paper look promising. Researchers hope this new approach will eventually lead to models embodying “living intelligence” that continually learn, evolve and adapt over time.
If you’re enjoying the insights and perspectives shared in the Humanity Redefined newsletter, why not spread the word?
Refer a friend
New OpenAI job listings reveal the company’s robotics plans
After dismantling its robotics team in 2021, OpenAI is now taking robotics seriously again and is looking for people to join its newly reformed robotics team. Caitlin Kalinowski, who leads OpenAI’s robotics efforts, recently tweeted that the company has open job listings for robotics engineers to develop “general-purpose,” “adaptive,” and “versatile” robots capable of human-like intelligence in dynamic, real-world settings. The company is looking to recruit engineers experienced in designing systems for high-volume manufacturing (1M+ units), hinting at potential plans for “full-scale production” of robots. While there are no further details on the type of robots OpenAI intends to build, rumours suggest that humanoid robots may be on the table.
Unitree G1 Bionic: Agile Upgrade (1:06)
Another week, another video of a humanoid robot. This time, the Chinese company Unitree showcases how its humanoid robot, G1, can navigate challenging terrain, such as stone-laden surfaces, running up and down hills, and climbing stairs.
How we can make robots more human-like (12:50)
In this talk, Robert Katzschmann, Assistant Professor of Robotics at ETH Zurich, shares his vision for soft robotics, which takes inspiration from nature to create more flexible, quieter, and adaptable robots. Katzschmann explains how these robots differ from traditional robots and demonstrates one on the stage. He also showcases his latest research project—a robotic leg powered by artificial hydraulic muscles—and its potential to revolutionise robotics for everyday life.
Illumina, Nvidia Launch AI-Based Genomics Partnership
Nvidia and Illumina announced a partnership to apply genomics and AI technologies in drug discovery, clinical research, and human health. The partnership will focus on developing biology foundation models, integrating Nvidia tools like RAPIDS and BioNeMo with Illumina’s multi-omics analysis tools, with production-ready solutions expected before the end of the year.
Nuclear startup Deep Fission plans to bury micro-reactors to power data centers
The growing demand for greater computing power has spurred interest in nuclear power and brought attention to the emerging ecosystem of startups focused on nuclear energy. One such startup is Deep Fission, which recently signed a deal with data centre developer Endeavour to deliver 2 gigawatts from its small modular reactors (SMRs) buried in boreholes one mile deep, using depth as a substitute for extensive concrete shielding. Deep Fission’s reactors are designed to be affordable, targeting electricity costs of 5–7 cents per kilowatt-hour, significantly lower than current nuclear power costs. The company aims to activate its first reactor by 2029.
Thanks for reading. If you enjoyed this post, please click the button or share it.
Share
Humanity Redefined sheds light on the bleeding edge of technology and how advancements in AI, robotics, and biotech can usher in abundance, expand humanity’s horizons, and redefine what it means to be human.
A big thank you to my paid subscribers, to my Patrons: whmr, Florian, dux, Eric, Preppikoma and Andrew, and to everyone who supports my work on Ko-Fi. Thank you for the support!
My DMs are open to all subscribers. Feel free to drop me a message, share feedback, or just say “hi!”
You may like
Noticias
Su asistente de Google Gemini está obteniendo 8 características útiles: aquí está el registro de actualizaciones
Published
14 horas agoon
20 mayo, 2025
Google Gemini ya ofrece una gran cantidad de capacidades útiles. Desde generar texto y crear imágenes hasta conversaciones en vivo, investigaciones profundas y analizar archivos, la IA de Google ha demostrado ser un fuerte contendiente en el campo de IA.
También: Todo anunciado en Google I/O 2025: Gemini, Search, Android XR y más
En Google I/O 2025 el martes, la compañía reveló una serie de características nuevas y mejoradas ahora disponibles con su asistente de IA.
1. Nuevos planes Google AI Pro y Ultra
Primero hay dos nuevas suscripciones de Google AI que ofrecen más funciones, pero naturalmente vienen con sus propios precios.
El primer plan se conoce como Google AI Pro, que en realidad es el mismo plan de AI Premium que ha existido por un tiempo solo con un nuevo nombre. Todavía con un precio de $ 20 por mes, AI Pro ofrece las mismas funciones de IA disponibles con la versión gratuita de Gemini, pero agrega límites de tarifa más altos y características especiales.
AI Pro también incluye la aplicación Gemini anteriormente conocida como Gemini Advanced, junto con productos como NotebookLM y el nuevo editor de video de AI Flow. Esas dos características llegarán a los suscriptores de AI Pro primero en los EE. UU. Y luego se expandirán a otros países.
Los estudiantes universitarios en los Estados Unidos, el Reino Unido, Brasil, Indonesia y Japón pueden obtener un año escolar gratuito de Google AI Pro.
Si necesita más potencia y características y está dispuesto a gastar mucho dinero, también hay un plan de Google Al Ultra. Este ofrece los modelos más poderosos, los límites de tarifa más altos y el acceso temprano a las características experimentales de AL.
También: Google presenta su suscripción de AI Ultra de $ 250 por mes: lo que está incluido
Como ejemplo, el Ultra Plan le otorgará acceso temprano al modo de agente, una nueva herramienta de agente basada en escritorio que llevará a cabo tareas para usted. Simplemente describa su solicitud o pregunta; En respuesta, el agente navega por la Web, realiza su propia investigación y se integra con sus aplicaciones de Google para abordar tareas complejas de varios pasos de principio a fin.
El Ultra Plan cuesta $ 250 al mes, aunque los suscriptores por primera vez obtienen un 50% de descuento durante los primeros tres meses.
2. Géminis en vivo
El siguiente es Gemini Live, el práctico modo de chat en el que llevas una conversación de voz de ida y vuelta con la IA. Anteriormente, solo los usuarios de Android podían compartir su pantalla o vista de cámara y hacer preguntas de Gemini al respecto. Ahora, Google está expandiendo esta función para que los usuarios de Android e iOS puedan usar la cámara y el intercambio de pantalla.
También: el intercambio de pantalla en vivo de Gemini y la cámara ahora están disponibles para todos, gratis
Para probar esto, abra la aplicación Gemini en su dispositivo iPhone o Android y toque el icono de Gemini Live a la derecha de la solicitud. El icono de la cámara en la parte inferior le permite apuntar su teléfono en cualquier objeto o escena y pedirle a Gemini que lo describiera o responda preguntas al respecto. El segundo icono le permite compartir cualquier pantalla en su dispositivo para que Gemini analice.
Hay más: en las próximas semanas, Gemini Live funcionará con otras aplicaciones y servicios de Google, incluidos los mapas de Google, el calendario, las tareas y el mantenimiento. Esto significa que podrá pedirle a Gemini Live que realice tareas tales como crear una cita de calendario o proporcionar instrucciones a su próximo destino.
3. Imagen 4 Generación de imágenes
Anteriormente, Google usó su modelo Imagen 3 para generar imágenes basadas en sus descripciones. Ahora, la compañía se ha actualizado a Imagen 4, que según él ofrecerá un rendimiento más rápido, más detalles realistas y una mejor producción de texto. Cualquiera ahora podrá probar Imagen 4 a través de la aplicación móvil Gemini.
4. Veo 3 Generación de videos
También recibe una actualización es el generador de video VEO de Gemini. Avanzando de VEO versión 2, VEO 3 ofrece una generación de audio nativa con soporte para el diálogo entre personajes, ruidos de fondo y efectos de sonido. Como Google lo describe, ahora puede agregar cualquier cosa, desde los sonidos de la ciudad bulliciosos hasta el susurro de las hojas hasta el diálogo del personaje solo desde sus descripciones de texto. La barrera principal aquí es que VEO 3 estará disponible solo para Google AI Ultra suscriptores en los EE. UU.
5. Mejoras de lienzo
La herramienta Canvas de Google le ofrece un espacio de trabajo interactivo y colaborativo en el que puede crear código, diseñar páginas web e idear otro contenido visual, con los resultados que aparecen de lado a lado en tiempo real. Utilizando el último modelo Gemini 2.5, Canvas promete ser más intuitivo y poderoso, según Google.
También: Google Beam está listo para traer videoconferencia 3D convencional
Puede crear infografías interactivas, cuestionarios y descripciones de audio al estilo de podcast en cualquiera de los 45 idiomas. Con las habilidades de codificación de Gemini 2.5 Pro, Canvas ahora es más experto en convertir sus ideas en código real, lo que le ayuda a desarrollar aplicaciones completas.
6. Tamizios interactivos
¿Tratando de aprender un nuevo tema complicado? Géminis puede ayudar. Ahora puede pedirle a la IA que cree un cuestionario sobre su tema de interés. En respuesta, Gemini lo desafía con una serie de preguntas diseñadas para expandir su conocimiento. A medida que responde a cada pregunta, la IA le dirá cómo está y se concentrará en cualquier área que necesite atención especial. Esta característica ahora se está implementando en todos los usuarios de Gemini en los dispositivos de escritorio y móviles.
7. Géminis en Chrome
Hasta el miércoles, Gemini comenzará a aparecer en Chrome en el escritorio tanto en Windows como en MacOS. Aquí, podrá pedirle a Gemini que analice o responda preguntas sobre su página web actual. En el futuro, la IA también funcionará a través de múltiples pestañas e incluso lanzará diferentes sitios web para usted.
También: Conoce a Gemini-in Chrome, tu nuevo asistente de navegación de IA, aquí es quién lo usa
Suena útil, pero el acceso será limitado. Gemini-in Chrome estará disponible solo para los suscriptores de Google Al Pro y Google Al Ultra en los EE. UU. Que usan el inglés como idioma en el navegador.
8. Investigación profunda
Finalmente, el modo de investigación profunda de Gemini es una herramienta de agente que puede realizar una investigación en línea para usted y presentar los resultados en un informe detallado, por sí solo. Anteriormente, Deep Research solo pudo consultar a los sitios web para obtener la información que necesitaba. Ahora, también puede ver sus propios PDF e imágenes. Esto significa que podría decirle a Gemini que incluya tendencias y temas que ya han sido capturados en sus propios archivos personales o de trabajo.
En un ejemplo citado por Google, un investigador de mercado podría cargar cifras de ventas internas almacenadas en un PDF para referencias cruzadas con las tendencias del mercado público. En otro ejemplo, un investigador académico podría decirle a Gemini que consulte a los artículos de revistas descargados para agregar a una revisión de la literatura en línea. Como un elemento más, Google dijo que planea integrar una investigación profunda con Google Drive y Gmail para expandir el número de fuentes disponibles.
También: Google le da al video generado por IA una voz con VEO 3 – Cómo probarlo
Vaya, eso es mucho para desempacar. Pero con AI impactando cada vez más tanto individuos como organizaciones, Google está demostrando que está tratando de mantenerse competitivo. E incluso con la nueva y costosa suscripción Ultra, hay suficiente aquí para los usuarios gratuitos de Gemini y los suscriptores de AI Pro para tratar de ver si pueden aprovechar los últimos desarrollos y cómo y cómo.
¿Quieres más historias sobre AI? Regístrese para la innovaciónnuestro boletín semanal.
Noticias
Operai gana la demanda por difamación presentada por el activista de los derechos de las armas sobre reclamos de malversación de fondos alucinados
Published
24 horas agoon
20 mayo, 2025
En la decisión de ayer por el juez Tracie Cason (Georgia Super. Ct. Gwinnett County) en Walters v. Openai, LLCel activista de los derechos de armas Mark Walters demandó a OpenAi después de que el periodista Frederick Riehl (“editor de Ammoland.com, un sitio de noticias y defensa relacionada con los derechos de la Segunda Enmienda”) recibió una alucinación generada por IA de Chatgpt que alegaba que Walters estaba siendo demandado por presunta presunta sobresslemento. El tribunal otorgó un juicio sumario de OpenAI, concluyendo que OpenAi debe prevalecer “por tres razones independientes”:
[1.] En Contexto, un lector razonable no habría entendido las acusaciones “podrían ser” razonablemente entendidas que describen hechos reales “,”, “,” que es un elemento clave de un reclamo de difamación. El Tribunal no concluyó que OpenAi y otras compañías similares son categóricamente inmunes cada vez que incluyen un descargo de responsabilidad, sino que declaró que “el descargo de responsabilidad o el lenguaje de advertencia pesan en la determinación de si este objetivo objetivo, el estándar de ‘lector razonable’ se cumple”, y que “en las circunstancias presentes aquí, un lector razonable en la posición de Riehl no podría haber concluido que el chatgptutputppppput en la comunicación ” en realidad ‘: las hechos reales’ en realidad ” en realidad ”.
{Riehl pegó secciones del Fergusón queja [a Complaint in a civil case that Riehl was researching] en Chatgpt y le pidió que resumiera esas secciones, que hizo con precisión. Riehl luego proporcionó un enlace de Internet, o URL, a la queja a ChatGPT y le pidió que resumiera la información disponible en el enlace. ChatGPT respondió que “no tenía acceso a Internet y no puede leer ni recuperar ningún documento”. Riehl proporcionó la misma URL nuevamente. Esta vez, Chatgpt proporcionó un resumen diferente e inexacto del Fergusón Queja, diciendo que implicaba acusaciones de malversación de malversación por parte de un tesorero y director financiero no identificado de SAF. Riehl nuevamente proporcionó la URL y le preguntó a ChatGPT si podía leerla. Chatgpt respondió “sí” y nuevamente dijo que la queja involucraba acusaciones de malversación de fondos; esta vez, dijo que el malversador acusado era un individuo llamado Mark Walters, quien Chatgpt dijo que era el tesorero y director financiero de la SAF.}
En esta interacción específica, ChatGPT advirtió a Riehl que no podía acceder a Internet o acceder al enlace al Fergusón Queja que Riehl le proporcionó y que no tenía información sobre el período de tiempo en el que se presentó la queja, que fue después de su “fecha de corte de conocimiento”. Antes de que Riehl proporcionara el enlace a la queja, ChatGPT resumió con precisión el Fergusón Queja basada en el texto riehl ingresada. Después de que Riehl proporcionó el enlace, y después de ChatGPT inicialmente advirtió que no podía acceder al enlace, ChatGPT proporcionó un resumen completamente diferente e inexacto.
Además, los usuarios de ChatGPT, incluido Riehl, fueron advertidos repetidamente, incluso en los términos de uso que gobiernan las interacciones con ChatGPT, que ChatGPT puede y a veces proporciona información fácticamente inexacta. Un usuario razonable como Riehl, que era consciente de la experiencia pasada que ChatGPT puede y sí proporciona “respuestas ficticias planas”, y quién había recibido las repetidas renuncias que advierte que la producción equivocada era una posibilidad real, no habría creído que el resultado estaba diciendo “hechos reales” sobre Walters sin intentar verificarlo …
Eso es especialmente cierto aquí, donde Riehl ya había recibido un comunicado de prensa sobre el Fergusón Queja y tuvo acceso a una copia de la queja que le permitió verificar de inmediato que la salida no fuera verdadera. Riehl admitió que “en aproximadamente una hora y media” había establecido que “lo que sea [Riehl] estaba viendo “en la producción de Chatgpt” no era cierto “. Como Riehl testificó, él ” entendió que la máquina fantaseaba por completo. …
Por separado, es indiscutible que Riehl en realidad no creyera que el Fergusón La queja acusó a Walters de malversación de la SAF. Si el individuo que lee una declaración desafiada no cree subjetivamente que sea real, entonces la declaración no es difamatoria como una cuestión de derecho.… [Riehl] Sabía que Walters no era, y nunca había sido, el tesorero o director financiero de la SAF, una organización para la cual Riehl sirvió en la junta directiva …
[2.a.] El tribunal también concluyó que Walters no podía mostrar ni siquiera negligencia Por parte de Operai, que se requiere para todas las reclamaciones de difamación sobre asuntos de preocupación pública:
El Tribunal de Apelaciones ha sostenido que, en un caso de difamación “,[t]El estándar de conducta requerido de un editor … se definirá por referencia a los procedimientos de un editor razonable en [its] El puesto habría empleado antes de publicar [an item] como [the] uno [at issue. A publisher] será mantenido a la habilidad y experiencia normalmente ejercida por miembros de [its] profesión. La costumbre en el comercio es relevante pero no controladora “. Walters no ha identificado evidencia de qué procedimientos un editor razonable en la posición de Openal habría empleado en función de la habilidad y la experiencia que normalmente ejercen los miembros de su profesión. Tampoco Walters ha identificado ninguna evidencia que OpenAI no cumpliera con este estándar.
Y Openai ha ofrecido evidencia de su experto, el Dr. White, que Walters no refutó ni se abordó, lo que demuestra que Operai lidera a la industria de la Liga Americana al intentar reducir y evitar la producción equivocada como la producción desafiada aquí. Específicamente, “Openai ejerció un cuidado razonable en el diseño y la liberación de Chatgpt basado en ambos (1) los esfuerzos líderes en la industria OpenAi emprendió para maximizar la alineación de la producción de ChatGPT a la intención del usuario y, por lo tanto, reducen la probabilidad de alucinamiento; y (2), proporcionando a las advertencias recurrentes a los usuarios sobre la posibilidad de alucinaciones en la producción de Chatgpt. ChatGPT y los diversos LLM que OpenAI ha puesto a disposición de los usuarios a través de ChatGPT. Operai también ha tomado medidas extensas para advertir a los usuarios que ChatGPT puede generar resultados inexactos a veces, lo que niega aún más cualquier posibilidad de que Walters pueda mostrar OpenAi fue negligente …
Ante esta evidencia indiscutible, el abogado de Walters afirmó el argumento oral de que OpenAi era negligente porque “un hombre prudente se encargaría de no desatar un sistema en el público que forme declaraciones falsas aleatorias sobre los demás … En otras palabras, el abogado de Walters argumentó que debido a que ChatGPT es capaz de producir una producción errónea, OpenAi tuvo la culpa simplemente al operar ChatGpt en absoluto, sin tener en cuenta los procedimientos de un editor razonable en [OpenAl’s] el puesto habría empleado “o a la” habilidad y experiencia normalmente ejercida por miembros de [its] profesión. “El tribunal no es persuadido por el argumento del demandante.
Walters no ha identificado ningún caso que tenga en cuenta que un editor es negligente como una cuestión de ley de difamación simplemente porque sabe que puede cometer un error y por una buena razón. Tal regla impondría un estándar de responsabilidad estricta, no negligencia, porque sería responsable de OpenAi por lesiones sin ninguna “referencia a” un grado razonable de habilidad y cuidado “medido contra una determinada comunidad”. La Corte Suprema de los Estados Unidos y la Corte Suprema de Georgia han sostenido claramente que un demandante de difamación debe demostrar que el acusado actuó con “al menos negligencia ordinaria” y puede no responsabilizar a un acusado “sin culpa”. …
[2.b.] El tribunal también concluyó que Walters era una figura pública y, por lo tanto, tuvo que mostrar no solo negligencia, sino también Falsidad Conocer o imprudente por parte de OpenAi (llamada “malicia real”):
Walters califica como una figura pública dada su prominencia como presentador de radio y comentarista sobre los derechos constitucionales, y la gran audiencia que ha construido para su programa de radio. Admite que su programa de radio atrae a 1,2 millones de usuarios por cada segmento de 15 minutos y se llama a sí mismo ” la voz más fuerte en Estados Unidos que lucha por los derechos de las armas “. Como el demandante en Williams v. Trust Company of Georgia (Ga. App.), Walters es una figura pública porque ha “recibido publicidad generalizada por sus derechos civiles … actividades”, tiene “su propio programa de radio”, ” llevó su causa a la gente a pedir el apoyo del público “, y es” franco sobre asignaturas de interés público “. Además, Walters califica como una figura pública porque tiene” una oportunidad más real para contrarrestar falsas declaraciones falsas que las personas privadas que normalmente disfrutan de las personas que normalmente se disfrutan de la radio de radio con una gran audiencia con una gran audiencia de radio con una gran audiencia con un audiencia de radio. Las declaraciones de chatgpt falsas en cuestión aquí … [And] Como mínimo, Walters califica como una figura pública de propósito limitado aquí porque estas declaraciones son claramente “pertinentes” a la “participación” admitida de Walters en los “controversos públicos[ies]”que están relacionados con la salida de chatgpt en cuestión aquí …
Los dos argumentos de Walters de que ha demostrado malicia real. Primero, argumenta que Operai actuó con “malicia real” porque OpenAi dijo a los usuarios que ChatGPT es una “herramienta de investigación”. Pero esta afirmación no se relaciona de ninguna manera con si OpenAi sabía subjetivamente que la producción de ChatGPT desafiada era falsa en el momento en que se publicó, o ignoraba imprudentemente la posibilidad de que pudiera ser falso y lo publicara de todos modos, que es lo que requiere el estándar de “malicia real”. Walters no presenta evidencia de que alguien en OpenAi tuviera forma de saber que la producción que recibió probablemente sería falsa … [The] El estándar de “malicia real” requiere prueba de la “conciencia subjetiva del acusado de la falsedad probable” …
En segundo lugar, Walters parece argumentar que Operai actuó con “malicia real” porque es indiscutible que OpenAi era consciente de que ChatGPT podría cometer errores al proporcionar salida a los usuarios. El mero conocimiento de que un error fue posible Se encuentra muy por debajo de la “evidencia clara y convincente” requerida de que OpenAi en realidad “tenía una conciencia subjetiva de la falsedad probable” cuando ChatGPT publicó la producción cuidada específica en sí …
[3.] Y el tribunal concluyó que en cualquier caso Walters tuvo que perder porque (a) no podía mostrar daños reales, (b) No pudo recuperar presuntos daños, porque aquí la evidencia refuta cualquier presunción de daño, dado que Riehl era la única persona que vio la declaración y no lo creyó, y (c) bajo la ley de Georgia “,”.[A]LL Libel Demandantes que tienen la intención de buscar daños punitivos [must] Solicite una corrección o retracción antes de presentar su acción civil contra cualquier persona para publicar una declaración falsa y difamatoria “, y no se hizo dicha solicitud aquí.
Una decisión interesante, y bien podría ser correcta (ver mi Modelos de difamación grandes Artículo para la imagen legal más grande), pero está vinculado estrechamente a sus hechos: en otro caso, donde el usuario no tenía tantas señales de que la afirmación sea falsa, o cuando el usuario distribuyó más ampliamente el mensaje (que puede haber producido más daños), o cuando el demandante no fue una cifra pública, o cuando el demandante había alertado al demandante del demandante y aún no lo hizo a la demandante que no lo hizo, el resultado, el resultado. Para comparar, consulte el Starbuck v. Meta Platforms, Inc. Caso discutido en esta publicación de hace tres semanas.
Tenga en cuenta que, como es común en los tribunales de algunos estados, la decisión adopta en gran medida una orden propuesta presentada por la parte que prevaleció sobre la moción de juicio sumario. Por supuesto, el juez ha aprobado la orden y está de acuerdo con lo que dice (ya que podría haber editado fácilmente partes con las que no estaba de acuerdo); Pero el encuadre retórico en tales casos a menudo es más el de la parte prevaleciente que la del juez.
Operai está representado por Stephen T. Labriola y Ethan M. Knott (Fellows Labriola LLP); Ted Botrous, Orin Snyder y Connor S. Sullivan (Gibson, Dunn & Crutcher LLP); y Matthew MacDonald (Wilson Sonsini Goodrich y Rosati, PC).
Noticias
New Android 16, Gemini AI y todo lo demás que esperar en la nota clave del martes
Published
1 día agoon
20 mayo, 2025Google I/O, la conferencia anual de desarrolladores del gigante de la búsqueda, comienza el martes 20 de mayo. El evento es posiblemente el más importante en el calendario anual de la compañía, ofreciendo la oportunidad para que la compañía comparta un vistazo a todo lo que ha estado trabajando durante el año pasado, y contextualiza sus mayores prioridades durante los próximos doce meses.
Aparentemente, la tarjeta de baile para Google estaba tan llena que la compañía salió de un escaparate de Android dedicado una semana antes. (Vea todo lo que se anunció en el Show de Android o vaya a nuestro Blog LiveBlog para tener una idea de cómo se desarrollaron las cosas). Con ese evento ahora detrás de nosotros, Google puede mantenerse enfocado en su competencia central más importante: la IA.
La presentación de Google vendrá inmediatamente después de los anuncios de tres grandes rivales en los últimos días. Además de la costa del Pacífico, Microsoft está organizando su Conferencia de Desarrollador Build, donde ya ha presentado una aplicación de AI de copilotas actualizada. Mientras tanto, en el Show de Computex en Taiwán, el CEO de NVIDIA, Jensen Huang, destacó una asociación con Foxconn para desarrollar una “supercomputadora de fábrica de IA” impulsada por 10,000 chips de IA Blackwell. Y Meta celebró su conferencia debut Llamacon AI el mes pasado, pero los planes del CEO Mark Zuckerberg para el dominio de la inteligencia artificial han llegado a algunos enganches. (Apple compartirá su hoja de ruta AI actualizada el 9 de junio cuando comience su conferencia de desarrolladores de WWDC).
Si desea sintonizar desde casa y seguir mientras Google hace sus anuncios, consulte nuestro artículo sobre cómo ver la nota clave de Google I/O 2025. También estaremos en Live Blogging el evento, por lo que puede venir a Engadget para las últimas noticias.
Android 16
La presentación presentó al presidente del ecosistema de Android, Sameer Samat, quien se hizo cargo de Burke en 2024. Vimos a Samat y a sus colegas mostrar años, Android no ha tenido mucha atención en la conferencia anual de desarrolladores de Google. Afortunadamente, el show de Android de la semana pasada, el sistema operativo móvil de Google permitió que el centro de atención tome el centro de atención durante al menos un día.
La presentación presentó al presidente del ecosistema de Android, Sameer Samat, quien se hizo cargo de Burke en 2024. Vimos a Samat y sus colegas mostrar el nuevo diseño expresivo del nuevo material 3, y lo que aprendimos confirmó algunas de las características que se filtraron anteriormente, como la barra de “notificaciones continuas”. Material 3 Expressive también está llegando a Wear OS 6, y la compañía está ampliando el alcance de Gemini al llevarlo a su plataforma Smartwatch, Android Auto y Google TV. Android también está ampliando sus características de detección de estafas y un centro de búsqueda refinado que verá soporte para la conectividad satelital más adelante en el año.
Hablando de tiempo, Google ya ha confirmado que el nuevo sistema operativo llegará en algún momento antes de la segunda mitad del año. Aunque hoy no lanzó una construcción estable de Android 16, Samat compartió durante el programa que Android 16 (o al menos parte) llegará el próximo mes a los dispositivos de píxeles. Y aunque la compañía cubrió algunas características nuevas que llegaron a Android XR, el director senior de Android Product y UX Guemmy Kim dijo durante la presentación que “compartiremos más en Android XR en E/S la próxima semana”.
Claramente parece que aún está por venir, y no solo para Android XR. No obtuvimos confirmación en el Autoridad de Android Informe que Google podría agregar un selector de fotos más robusto, con soporte para soluciones de almacenamiento en la nube. Eso no significa que no estará en Android 16, podría ser algo que la compañía no pudiera mencionar en su escaparate de 30 minutos. Además, Google ha estado lanzando nuevas funciones de Android en una cadencia trimestral últimamente, en lugar de esperar hasta una ventana de actualización anual para poner a disposición actualizaciones. Es posible que veamos más a Android 16 a medida que avanza el año.
Uno de los mejores lugares para tener una idea de lo que vendrá en Android 16 está en su versión beta, que ya ha estado disponible para los desarrolladores y actualmente está en su cuarta iteración. Por ejemplo, aprendimos en marzo que Android 16 traerá el soporte de Auracast, lo que podría facilitar la escucha y cambiar entre múltiples dispositivos Bluetooth. Esto también podría permitir a las personas recibir audio Bluetooth en audífonos que han emparejado con sus teléfonos o tabletas.
Android XR
¿Recuerdas Google Glass? ¿No? ¿Qué tal Daydream? ¿Quizás cartón? Después de enviar (al menos) tres proyectos XR al cementerio, pensaría que incluso Google diría que lo suficiente es suficiente. En cambio, la compañía se está preparando para lanzar Android XR después de una vista previa de la plataforma a fines del año pasado. Esta vez, la compañía dice que el poder de sus modelos Gemini AI hará que las cosas sean diferentes. Sabemos que Google está trabajando con Samsung en un proyecto con nombre en código auricular Moohan. El otoño pasado, Samsung insinuó que el dispositivo podría llegar en algún momento de este año.
Ya sea que Google y Samsung Demo Project Moohan en E/S, imagino que el gigante de la búsqueda tendrá más que decir sobre Android XR y los socios del ecosistema que ha trabajado para llevar a su lado para la iniciativa. Esto está en línea con lo que Kim dijo sobre más sobre Android XR que se comparte en E/S.
Ai, ai y más ai
Si Google sintió la necesidad de dividir a Android en su propio escaparate, es probable que obtengamos más anuncios relacionados con la IA en E/S que nunca. La compañía no ha proporcionado muchas sugerencias sobre lo que podemos esperar en ese frente, pero si tuviera que adivinar, es probable que las características como las descripciones de IA y el modo AI obtengan actualizaciones sustantivas. Sospecho que Google también tendrá algo que decir sobre Project Mariner, el agente de vigilancia web que se demostró en la E/S 2024. De cualquier manera, Google es una compañía de IA ahora, y cada E/S en el futuro lo reflejará.
Proyecto Astra
Hablando de la IA, Project Astra fue una de las demostraciones más impresionantes que Google mostró en I/O 2024. La tecnología aprovechó al máximo las últimas capacidades multimodales de los modelos Gemini de Google para ofrecer algo que no habíamos visto antes de la compañía. Es un asistente de voz con características avanzadas de reconocimiento de imágenes que le permite conversar sobre las cosas que ve. Google visualiza el proyecto Astra algún día proporciona un asistente artificial verdaderamente útil.
Sin embargo, después de ver una demostración en persona de Astra, el equipo de Engadget sintió que la tecnología necesitaba mucho más trabajo. Dado el proyecto Splash que Astra realizó el año pasado, hay una buena posibilidad de que pudiéramos obtener una actualización sobre él en I/O 2025.
Un competidor de Pinterest
Según un informe de La informaciónGoogle podría estar planeando presentar su propia versión de Pinterest en E/S. Esa caracterización es cortesía deLa información, Pero según las características descritas en el artículo, los miembros del equipo de Engadget lo encontraron más que recuerdan a Cosmos. Cosmos es una versión reducida de Pinterest, que permite que las personas guarden y seleccionen todo lo que vean en Internet. También le permite compartir sus páginas guardadas con otros.
Según los informes, la versión de Google mostrará los resultados de la imagen basados en sus consultas, y puede guardar las imágenes en diferentes carpetas en función de sus propias preferencias. Entonces, digamos que estás organizando un lookbook basado en Jennie de Blackpink. Puede buscar sus atuendos y guardar sus favoritos en una carpeta que puede titular “Lewks”, tal vez.
No está claro si esto está simplemente incorporado en la búsqueda o existe como un producto independiente, y tendremos que esperar hasta que E/S para ver si el informe era preciso y cómo es realmente la característica.
Usa el sistema operativo
El año pasado, Wear OS no recibió una mención durante la principal nota principal de la compañía, pero Google realizó una vista previa de Wear OS 5 durante las sesiones de desarrolladores que siguieron. La compañía solo comenzó a implementar Wear OS 5.1 a Pixel Devices en marzo. Este año, ya hemos aprendido en el Show de Android que Wear OS 6 se acerca, con el material 3 expresivo en el adorno de su interfaz. ¿Aprenderemos más en I/O? No está claro, pero no sería un shock si eso fuera todo el tiempo de tiempo de aire que OS obtiene este año.
Cuaderno
Google ha saltado el arma y ya lanzó una aplicación independiente Notebooklm antes de E/S. La aplicación de toma de notas de aprendizaje automático, disponible en los navegadores de escritorio desde 2023, puede resumir documentos e incluso sintetizar resúmenes de podcast de estilo NPR completo para arrancar.
Todo lo demás
Google tiene un historial terrible cuando se trata de prevenir fugas dentro de sus rangos internos, por lo que la probabilidad de que la compañía pueda sorprendernos es baja. Aún así, Google podría anunciar algo que no esperamos. Como siempre, su mejor opción es visitar Engadget el 20 y 21 de mayo. Tendremos lo último de Google, junto con nuestro LiveBlog and Analysis.
Actualización, 5 de mayo 2025, 7:08 PM ET: Esta historia se ha actualizado para incluir detalles en una publicación de blog filtrada que discute “Material 3 Expresivo”.
Actualización, 6 de mayo 2025, 5:29 PM ET: Esta historia se ha actualizado para incluir detalles sobre Android 16 Beta, así como el soporte de Auracast.
Actualización, 8 de mayo 2025, 3:20 pm ET: Esta historia se ha actualizado para incluir detalles sobre cómo ver el programa de Android y la nota clave de E/S de Google, así como ajustar la introducción para la frescura.
Actualización, 13 de mayo de 2025, 3:22 PM ET: Esta historia se ha actualizado para incluir todos los anuncios del programa de Android y un nuevo informe de La información Acerca de una posible función de búsqueda de imágenes que debutan en E/S. La introducción también fue editada para reflejar con precisión lo que ha sucedido desde la última vez que se actualizó este artículo.
Actualización, 14 de mayo de 2025, 4:32 PM ET: Esta historia se ha actualizado para incluir detalles sobre otros eventos que ocurren al mismo tiempo que la E/S de Google, incluidas Microsoft Build 2025 y ComputeX 2025.
Actualización, 19 de mayo de 2025, 5:13 PM ET: Las noticias de IA competidores actualizadas de Microsoft, Meta y Nvidia, y los rumores e informes finales contextualizados antes de la E/S.
Si compra algo a través de un enlace en este artículo, podemos ganar comisión.
Related posts


























































































































































































































































































































Trending
-
Startups12 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales1 año ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Startups10 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Recursos1 año ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups1 año ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos12 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Recursos1 año ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Noticias10 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo