Noticias
Cómo convertir el chatgpt en su herramienta de alimentación de codificación de IA y duplicar su salida
Published
3 meses agoon

He estado experimentando con el uso de chatgpt para ayudar a turbocarga mi salida de programación durante más de dos años. Cuando ChatGPT me ayudó a encontrar un error preocupante, me di cuenta de que había algo que valía la pena en la inteligencia artificial (IA).
Muchas personas con las que hablo piensan que la IA es un genio mágico que puede manifestar un programa o aplicación completo de un solo deseo apenas formado. Aquí hay una analogía mucho mejor: la IA es una herramienta eléctrica.
También: la mejor IA para codificar en 2025 (y qué no usar, incluido Deepseek R1)
Claro, puede usar una sierra anticuada para cortar madera, pero una sierra de mesa va mucho más rápido. Ninguna herramienta fabrica muebles. Ellos simplemente ayudarte a hacer muebles. Tenga en cuenta que la IA no va a escribir su código por usted. Le ayudará a escribir su código.
Aunque no hay una forma objetiva para decirle exactamente cuánto ChatGPT me ha ayudado, estoy bastante convencido de que ha duplicado mi salida de programación. En otras palabras, he hecho el doble usando chatgpt como parte de mi kit de herramientas.
También: cómo pruebo la capacidad de codificación de un chatbot de ai, y tú también puedes
Principalmente he estado usando CHATGPT más en lugar de la versión gratuita de ChatGPT. Inicialmente, fue porque el modelo GPT-4 en Plus fue mejor en la codificación que el modelo GPT-3.5 en la versión gratuita. Sin embargo, ahora que ambas versiones admiten alguna variante del modelo GPT-4O, sus capacidades de codificación son idénticas. Recuerde que solo obtiene tantas consultas con la versión gratuita antes de que se le pida que espere un tiempo, y encuentro que interrumpe mi flujo de programación. Entonces, uso la versión de $ 20/mes más.
Debo tener en cuenta que he probado muchos modelos de idiomas grandes (LLM) contra mi codificación del mundo real y descubrí que solo unos pocos (y todos basados en los LLM de ChatGPT) podrían manejar todo lo que he arrojado. Entonces, aunque hay muchas herramientas geniales de IA para programadores que están disponibles (algunos incluso de forma gratuita), no serán tan útiles a menos que el código que la IA produce realmente funcione. La buena noticia es que inevitablemente mejorará la codificación con el tiempo, por lo que esto debería dejar de ser un gran problema.
También: los cinco errores más grandes que cometen las personas al solicitar una IA
Pensando en todos mis proyectos, me di cuenta de que hay algunos consejos tangibles que puedo compartir sobre cómo aprovechar al máximo un socio de programación de IA. Cavemos.
1. Dale a la IA muchos trabajos pequeños
La IA no maneja bien los conjuntos complejos de instrucciones, especialmente si espera que haga el diseño de productos. Sin embargo, la IA es extremadamente buena para analizar y procesar instrucciones pequeñas y bien definidas.
2. Piense en el bot como alguien al final de una conversación floja
En lugar del ritmo que podría provenir de un correo electrónico de ida y vuelta con un colega, que podría tener cada interacción separada por horas, imagine que está en una charla floja donde cada interacción es mucho más pequeña, pero separada por segundos.
3. Para rutinas más complejas, indique iterativamente
Comience con una tarea simple y, cuando se haya escrito correctamente, agregue más, elemento por elemento. Corto y pego el aviso anterior, agregando y eliminando bits de la solicitud, ya que obtengo trozos de código que funcionan para lo que estoy buscando.
4. Pruebe cada pequeña porción de código que la IA devuelve
Nunca asuma que el código funcionará. Parche el código en su proyecto y vea cómo funciona.
5. Use el depurador
Para una prueba más profunda, no dude en caer en el depurador y caminar por el código generado por la IA paso a paso. Mire las variables y exactamente lo que hace la IA. Recuerde, está bien dejar que escriba fragmentos de código para usted siempre que verifique cada declaración y línea para el funcionamiento adecuado.
6. No necesita una asistencia de codificación Al incorporada directamente en su IDE
Muchos proveedores de herramientas de codificación están lanzando la idea de AIS integrados en sus herramientas. Entre otras cosas, este enfoque les permite mejorar las características de la IA. Sin embargo, prefiero usar ChatGPT para codificar como una herramienta separada de mi entorno de desarrollo. No quiero que una IA pueda llegar a mi entorno de codificación primario y cambiar lo que hay allí.
7. Siéntase libre de canibalizar líneas de código de las rutinas generadas
No siempre tienes que usar todo lo que la IA produce para ti. De la misma manera que puede ir a Stack Overflow para buscar muestras de código, y luego elegir las líneas que desea copiar, puede hacer lo mismo con el código generado por AI.
8. Evite pedirle a la IA que realice codificación propietaria o use el conocimiento institucional que no tiene
AI LLMS se ejecutan en datos de capacitación o lo que pueden encontrar en la web. Eso significa que generalmente no saben nada sobre su aplicación única o lógica comercial. Entonces, evite tratar de hacer que la IA escriba cualquier cosa que requiera este nivel de conocimiento. Ese es tu trabajo.
9. Dé los ejemplos de IA para trabajar para que comprenda el contexto de su código
Le di a Chatgpt un fragmento de una página HTML y le pedí que agregara una función para expandir un bloque de texto. La IA me devolvió HTML, JS y CSS. Más tarde le pedí un selector CSS adicional y luego le pedí que justifique su trabajo, por lo que me explicó por qué hizo lo que hizo. Todo ese proceso funcionó porque los ejemplos que le di la IA lo ayudaron a comprender el contexto.
10. Use la IA para la codificación de conocimiento común
El mayor beneficio de la IA es escribir bloques de código que usan conocimiento común, bibliotecas populares y prácticas regulares. La IA no podrá escribir su lógica comercial única. Pero si le pide a la IA que escriba el código para las capacidades de las bibliotecas y las API, le ahorrará mucho tiempo.
11. No dude en pedir fragmentos de una o dos líneas
Incluso si necesita algo que solo pueda generar una o dos líneas de una respuesta, use la IA, ya que usará cualquier herramienta de investigación si puede ahorrarle tiempo.
12. Dígale a la IA cuando el código que escribió no funciona
Encuentro que AI a menudo escupe un código incompleto o no funcional. Dígale lo que no funciona y quizás sugiera aclarar. Luego pídale a la IA que escriba algo nuevo. Por lo general, lo hace y el código revisado a veces es mejor que el original.
13. Use una AL para verificar el trabajo de otro AL
Es interesante ver cómo dos modelos de lenguaje interpretan el mismo código. Como hemos visto, no todos los modelos de idiomas funcionan tan bien, pero sus resultados pueden ser instructivos. Incluso puede hacer que una sesión de chatgpt verifique los resultados de otra sesión de chatgpt.
14. Use la IA para escribir selectores CSS
Los selectores CSS son los codificadores de expresiones que usan para definir un elemento en una página web para el estilo u otras acciones. Se vuelven complejos y arcanos rápidamente. A menudo copio un bloque de HTML y pido un selector para una pieza determinada de ese HTML. Este enfoque puede ahorrar mucho tiempo. Sin embargo, recuerde que generalmente tendrá que iterar, diciéndole a la IA que los primeros selectores no funcionan hasta que genera uno que lo haga.
15. Use la IA para escribir expresiones regulares para usted
Las expresiones regulares son secuencias de matemáticas simbólicas que se usan con mayor frecuencia para el texto de análisis. No me gusta escribirlos casi tanto como no me gusta escribir selectores CSS. La IA es excelente para escribir expresiones regulares, aunque necesitará probarlas.
16. Use la IA para probar expresiones regulares
Utilizo los patrones de aplicaciones para probar expresiones regulares generadas en mi Mac Studio. Pero la IA también puede ayudar. A menudo alimento una instancia separada de la IA, una expresión regular generada por ChatGPT. Entonces le pido esa instancia separada: “¿Qué hace esto?” Si recupero una descripción en línea con lo que quería que hiciera la función, siento más seguro de que la IA hizo lo que quería.
17. Deje que la IA haga matemáticas complejas de bucle
Al igual que con los selectores CSS y las expresiones regulares, las matemáticas de bucle complejas pueden ser tediosas y propensas a errores. Esta es una aplicación ideal para una IA. Al especificar su aviso, no le digas a la IA qué está en el bucle. Deje que escriba los elementos de envoltorio de bucle apropiados, luego escriba la lógica de negocios después de que funcione ese proceso.
18. Use ‘¿Qué pasa con este código?’ como un aviso
A menudo alimentaré bloques de código, especialmente expresiones regulares generadas por la IA, a la IA. Puede ser muy instructivo ver lo que la IA cree que está mal con el código, a menudo destacando las condiciones de error que el código no prueba. Luego, por supuesto, pídale a la IA que regenere el código que corre los errores que encontró.
19. Use ‘¿Qué hace esto?’ como un aviso
Del mismo modo, me gusta alimentar bloques de código a la IA y preguntarle: “¿Qué hace esto?” A menudo es instructivo, incluso para mi propio código. Pero el mayor beneficio se produce cuando se trabaja en el código escrito por otra persona. Alimentar una función o un bloque a la IA puede ahorrar tiempo en la ingeniería inversa del código original.
20. Sepa cuándo renunciar a la IA
A veces, la IA no puede hacer el trabajo. Descubrí que si intentas que la IA reescribe su código más de dos o tres veces, ya pasas el punto de no retorno. Si desea un código generado por IA, comience con un nuevo y nuevo mensaje y vea lo que obtiene desde allí. Y a veces, tendrás que ir solo.
21. Sea específico en su función y nombres de variables
La IA recoge la intención de los nombres variables y de funciones y escribe mejor código. Por ejemplo, especificar un nombre de variable como $ Order_Date ayuda a decirle a la IA que está tratando con un pedido y un valor de fecha. Es mucho mejor que algo como $ OD. Aún mejor, el código generado a partir de nombres de variables bien nombradas también es a menudo más legible, porque la IA sabe usar nombres más descriptivos para las otras variables que crea.
22. Lea las notas de pre y posts.
La IA generalmente genera notas sobre cada mensaje antes y después del código que escribe. Puede haber gemas que pueden ayudarlo a comprender lo que hizo la IA o cómo abordó el problema. A veces, la IA también lo señalará a otras bibliotecas o funciones que podrían ser útiles.
23. Está bien volver y pedir más ayuda en un fragmento de código
Tome las diversas piezas de código de su proyecto para ilustrar lo que necesita, dígale a ChatGPT que las lea y luego pregunte qué quiere. Necesitaba construir una exclusión para los campos de entrada en un área ampliada y pregunté a la IA. Menos de un minuto después, tenía un código que me habría llevado entre 10 minutos y una hora para escribirme.
24. Use el AL para ayudarlo a reescribir bloques de código obsoletos
Tenía un módulo PHP escrito en una versión anterior de PHP que usaba una función de idioma que ahora está en desuso. Para actualizar el código, pegé el segmento de código desaprobado en ChatGPT y le pedí que me dijera cómo reescribirlo para que sea compatible con la mayoría de la versión actual de PHP. Lo hizo, y funcionó.
25. Use AI para ayudarlo a escribir para idiomas menos familiares
Me siento muy cómodo recogiendo nuevos lenguajes de programación, pero he descubierto que la IA puede ser útil si necesito codificar en un lenguaje en el que no soy un experto. Le pregunto a la IA cómo escribir lo que quiero y especificar el idioma. Digamos que quiero saber cómo hacer una declaración de caso en Python y los he estado haciendo para siempre en PHP. Solo pregunte: “Compare escribir una declaración de caso en PHP y Python”, o “Cómo concatenar una cadena en Python vs PHP”. Obtendrá una excelente comparación y el proceso hace que escribir un código desconocido sea mucho más fácil.
Además: era un escéptico de IA hasta que estas 5 herramientas cambiaron de opinión
Aquí hay un consejo de bonificación. Consulte con su empresa sobre los problemas legales del código generado. Si no está seguro de por dónde comenzar, lea mi artículo sobre IA y propiedad del código. Si usa los consejos que compartí con usted, nunca usará AI para escribir una lógica comercial única o el núcleo de lo que hace que su código sea único. Como tal, es probable que pueda retener los derechos de autor de ese código, lo que debería compensar el elemento clave de su valor único.
Escribo código para uso interno por parte de una empresa o código de código abierto, por lo que no me preocupa los problemas de propiedad de los fragmentos generados por IA.
¿Ha utilizado una IA para ayudar a escribir código? ¿Tiene algún consejo para agregar a mi lista anterior? Háganos saber en los comentarios a continuación.
Puede seguir mis actualizaciones de proyecto diarias en las redes sociales. Asegúrese de suscribirse a mi boletín de actualizaciones semanales y sígueme en Twitter/X en @Davidgewirtzen Facebook en Facebook.com/davidgewirtz, en Instagram en Instagram.com/davidgewirtz, y en YouTube en youtube.com/davidgewirtztv.
You may like
Noticias
‘Empire of AI’ author on OpenAI’s cult of AGI and why Sam Altman tried to discredit her book
Published
2 horas agoon
19 mayo, 2025
When OpenAI unleashed ChatGPT on the world in November 2022, it lit the fuse that ignited the generative AI era.
But Karen Hao, author of the new book, Empire of AI: Dreams and Nightmares in Sam Altman’s OpenAI, had already been covering OpenAI for years. The book comes out on May 20, and it reveals surprising new details about the company’s culture of secrecy and religious devotion to the promise of AGI, or artificial general intelligence.
Hao profiled the company for MIT Technology Review two years before ChatGPT launched, putting it on the map as a world-changing company. Now, she’s giving readers an inside look at pivotal moments in the history of artificial intelligence, including the moment when OpenAI’s board forced out CEO and cofounder Sam Altman. (He was later reinstated because of employee backlash.)
Empire of AI dispels any doubt that OpenAI’s belief in ushering in AGI to benefit all of humanity had messianic undertones. One of the many stories from Hao’s book involves Ilya Sutskever, cofounder and former chief scientist, burning an effigy on a team retreat. The wooden effigy “represented a good, aligned AGI that OpenAI had built, only to discover it was actually lying and deceitful. OpenAI’s duty, he said, was to destroy it.” Sutskever would later do this again at another company retreat, Hao wrote.
And in interviews with OpenAI employees about the potential of AGI, Hao details their “wide-eyed wonder” when “talking about how it would bring utopia. Someone said, ‘We’re going to reach AGI and then, game over, like, the world will be perfect.’ And then speaking to other people, when they were telling me that AGI could destroy humanity, their voices were quivering with that fear.”
Hao’s seven years of covering AI have culminated in Empire of AI, which details OpenAI’s rise to dominance, casting it as a modern-day empire. That Hao’s book reminded me of The Anarchy, the account of the OG corporate empire, The East India Company, is no coincidence. Hao reread William Dalrymple’s book while writing her own “to remind [herself] of the parallels of a company taking over the world.”
This is likely not a characterization that OpenAI wants. In fact, Altman went out of his way to discredit Hao’s book on X. “There are some books coming out about OpenAI and me. We only participated in two… No book will get everything right, especially when some people are so intent on twisting things, but these two authors are trying to.”
This Tweet is currently unavailable. It might be loading or has been removed.
The two authors Altman named are Keach Hagey and Ashlee Vance, and they also have forthcoming books. The unnamed author was Hao, of course. She said OpenAI promised to cooperate with her for months, but never did.
We get into that drama in the interview below, plus OpenAI’s religious fervor for AGI, the harms AI has already inflicted on the Global South, and what else Hao would have included if she’d kept writing the book.
Order ‘Empire of AI’ by Karen Hao
Mashable: I was particularly fascinated by this religious belief or faith that AGI could be achieved, but also without being able to define it. You wrote about Ilya [Sutskever] being seen as a kind of prophet and burning an effigy. Twice. I’d love to hear more of your thoughts on that.
Karen Hao: I’m really glad that you used religious belief to describe that, because I don’t remember if I explicitly used that word, but I was really trying to convey it through the description. This was a thing that honestly was most surprising to me while reporting the book. There is so much religious rhetoric around AGI, you know, ‘AI will kill us’ versus ‘AI will bring us to utopia.’ I thought it was just rhetoric.
When I first started reporting the book, the general narrative among more skeptical people is, ‘Oh, of course they’re going to say that AI can kill people, or AI will bring utopia, because it creates this image of AI being incredibly powerful, and that’s going to help them sell more products.’
What I was surprised by was, no, it’s not just that. Maybe there are some people who do just say this as rhetoric, but there are also people who genuinely believe these things.
I spoke to people with wide-eyed wonder when they were talking about how it would bring utopia. Someone said, ‘We’re going to reach AGI and then, game over, like, the world will be perfect.’ And then speaking to other people, when they were telling me that AGI could destroy humanity, their voices were quivering with that fear.
The amount of power to influence the world is so profound that I think they start to need religion; some kind of belief system or value system to hold on to.

Ilya Sutskever (pictured here at a 2023 event in Tel Aviv with Sam Altman) burned a wooden effigy at a company retreat that represented AGI gone rogue.
Credit: Photo by Jack Guez / AFP / Getty Images
I was really shocked by that level of all-consuming belief that a lot of people within this space start to have, and I think part of it is because they’re doing something that is kind of historically unprecedented. The amount of power to influence the world is so profound that I think they start to need religion; some kind of belief system or value system to hold on to. Because you feel so inadequate otherwise, having all that responsibility.
Also, the community is so insular. Because I talked with some people over several years, I noticed that the language they use and how they think about what they’re doing fundamentally evolves. As you get more and more sucked into this world. You start using more and more religious language, and more and more of this perspective really gets to you.
It’s like Dune, where [Lady Jessica] tells a myth that she builds around Paul Atreides that she purposely kind of constructs to make it such that he becomes powerful, and they have this idea that this is the way to control people. To create a religion, you create a mythology around it. Not only do the people who hear it for the first time genuinely believe this because they don’t realize that it was a construct, but also Paul Atreides himself starts to believe it more and more, and it becomes a self-fulfilling prophecy. Honestly, when I was talking with people for the book, I was like, this is Dune.
Something I’ve been wondering lately is, what am I not seeing? What are they seeing that is making them believe this so fervently?
I think what’s happening here is twofold. First, we need to remember that when designing these systems, AI companies prioritize their own problems. They do this both implicitly—in the way that Silicon Valley has always done, creating apps for first-world problems like laundry and food delivery, because that’s what they know—and explicitly.
My book talks about how Altman has long pushed OpenAI to focus on AI models that can excel at code generation because he thinks they will ultimately help the company entrench its competitive advantage. As a result, these models are designed to best serve the people who develop them. And the farther away your life is from theirs in Silicon Valley, the more this technology begins to break down for you.
The second thing that’s happening is more meta. Code generation has become the main use case in which AI models are more consistently delivering workers productivity gains, both for the reasons aforementioned above and because code is particularly well suited to the strengths of AI models. Code is computable.
To people who don’t code or don’t exist in the Silicon Valley worldview, we view the leaps in code-generation capabilities as leaps in just one use case. But in the AI world, there is a deeply entrenched worldview that everything about the world is ultimately, with enough data, computable. So, to people who exist in that mind frame, the leaps in code generation represent something far more than just code generation. It’s emblematic of AI one day being able to master everything.
Mashable Light Speed
How did your decision to frame OpenAI as a modern-day empire come to fruition?
I originally did not plan to focus the book that much on OpenAI. I actually wanted to focus the book on this idea that the AI industry has become a modern-day empire. And this was based on work that I did at MIT Technology Review in 2020 and 2021 about AI colonialism.
To really understand the vastness and the scale of what’s happening, you really have to start thinking about it more as an empire-like phenomenon.
It was exploring this idea that was starting to crop up a lot in academia and among research circles that there are lots of different patterns that we are starting to see where this pursuit of extremely resource-intensive AI technologies is leading to a consolidation of resources, wealth, power, and knowledge. And in a way, it’s no longer sufficient to kind of call them companies anymore.
To really understand the vastness and the scale of what’s happening, you really have to start thinking about it more as an empire-like phenomenon. At the time, I did a series of stories that was looking at communities around the world, especially in the Global South, that are experiencing this kind of AI revolution, but as vulnerable populations that were not in any way seeing the benefits of the technology, but were being exploited by either the creation of the technology or the deployment of it.
And that’s when ChatGPT came out… and all of a sudden we were recycling old narratives of ‘AI is going to transform everything, and it’s amazing for everyone.’ So I thought, now is the time to reintroduce everything but in this new context.
Then I realized that OpenAI was actually the vehicle to tell this story, because they were the company that completely accelerated the absolute colossal amount of resources that is going into this technology and the empire-esque nature of it all.

Sam Altman, under President Donald Trump’s administration, announced OpenAI’s $500 billion Stargate Project to build AI infrastructure in the U.S.
Credit: Jim Watson / AFP / Getty Images
Your decision to weave the stories of content moderators and the environmental impact of data centers from the perspective of the Global South was so compelling. What was behind your decision to include that?
As I started covering AI more and more, I developed this really strong feeling that the story of AI and society cannot be understood exclusively from its centers of power. Yes, we need reporting to understand Silicon Valley and its worldview. But also, if we only ever stay within that worldview, you won’t be able to fully understand the sheer extent of how AI then affects real people in the real world.
The world is not represented by Silicon Valley, and the global majority or the Global South are the true test cases for whether or not a technology is actually benefiting humanity, because the technology is usually not built with them in mind.
All technology revolutions leave some people behind. But the problem is that the people who are left behind are always the same, and the people who gain are always the same. So are we really getting progress from technology if we’re just exacerbating inequality more and more, globally?
That’s why I wanted to write the stories that were in places far and away from Silicon Valley. Most of the world lives that way without access to basic resources, without a guarantee of being able to put healthy food on the table for their kids or where the next paycheck is going to come from. And so unless we explore how AI actually affects these people, we’re never really going to understand what it’s going to mean ultimately for all of us.
Another really interesting part of your book was the closing off of the research community [as AI labs stopped openly sharing details about their models] and how that’s something that we totally take for granted now. Why was that so important to include in the book?
I was really lucky in that I started covering AI before all the companies started closing themselves off and obfuscating technical details. And so for me, it was an incredibly dramatic shift to see companies being incredibly open with publishing their data, publishing their model weights, publishing the analyses of how their models are performing, independent auditors getting access to models, things like that, and now this state where all we get is just PR. So that was part of it, just saying, it wasn’t actually like this before.
And it is yet another example of why empires are the way to think about this, because empires control knowledge production. How they perpetuate their existence is by continuously massaging the facts and massaging science to allow them to continue to persist.
But also, if it wasn’t like this before, I hope that it’ll give people a greater sense of hope themselves, that this can change. This is not some inevitable state of affairs. And we really need more transparency in how these technologies are developed.
The levels of opacity are so glaring, and it’s shocking that we’ve kind of been lulled into this sense of normalcy. I hope that it’s a bit of a wake-up call that we shouldn’t accept this.
They’re the most consequential technologies being developed today, and we literally can’t say basic things about them. We can’t say how much energy they use, how much carbon they produce, we can’t even say where the data centers are that are being built half the time. We can’t say how much discrimination is in these tools, and we’re giving them to children in classrooms and to doctors’ offices to start supporting medical decisions.
The levels of opacity are so glaring, and it’s shocking that we’ve kind of been lulled into this sense of normalcy. I hope that it’s a bit of a wake-up call that we shouldn’t accept this.
When you posted about the book, I knew that it was going to be a big thing. Then Sam Altman posted about the book. Have you seen a rise in interest, and does Sam Altman know about the Streisand Effect?

Sam Altman (pictured at a recent Senate hearing) alluded to ‘Empire of AI’ in an X post as a book OpenAI declined to participate in. Hao says she tried for six months to get their cooperation.
Credit: Nathan Howard / Bloomberg / Getty Images
Obviously, he’s a very strategic and tactical person and generally very aware of how things that he does will land with people, especially with the media. So, honestly, my first reaction was just… why? Is there some kind of 4D chess game? I just don’t get it. But, yeah, we did see a rise in interest from a lot of journalists being like, ‘Oh, now I really need to see what’s in the book.’
When I started the book, OpenAI said that they would cooperate with the book, and we had discussions for almost six months of them participating in the book. And then at the six-month mark, they suddenly reversed their position. I was really disheartened by that, because I felt like now I have a much harder task of trying to tell this story and trying to accurately reflect their perspective without really having them participate in the book.
But I think it ended up making the book a lot stronger, because I ended up being even more aggressive in my reporting… So in hindsight, I think it was a blessing.
Why do you think OpenAI reversed its decision to talk to you, but talked to other authors writing books about OpenAI? Do you have any theories?
When I approached them about the book, I was very upfront and said, ‘You know all the things that I’ve written. I’m going to come with a critical perspective, but obviously I want to be fair, and I want to give you every opportunity to challenge some of the criticisms that I might bring from my reporting.’ Initially, they were open to that, which is a credit to them.
I think what happened was it just kept dragging out, and I started wondering how sincere they actually were or whether they were offering this as a carrot to try and shape how many people I reached out to myself, because I was hesitant to reach out to people within the company while I was still negotiating for interviews with the communications team. But at some point, I realized I’m running out of time and I just need to go through with my reporting plan, so I just started reaching out to people within the company.
My theory is that it frustrated them that I emailed people directly, and because there were other book opportunities, they decided that they didn’t need to participate in every book. They could just participate in what they wanted to. So it became kind of a done decision that they would no longer participate in mine, and go with the others.
The book ends at the beginning of January 2025, and so much has happened since then. If you were going to keep writing this book, what would you focus on?
For sure the Stargate Project and DeepSeek. The Stargate Project is just such a perfect extension of what I talk about in the book, which is that the level of capital and resources, and now the level of power infrastructure and water infrastructure that is being influenced by these companies is hard to even grasp.
Once again, we are getting to a new age of empire. They’re literally land-grabbing and resource-grabbing. The Stargate Project was originally announced as a $500 billion spend over four years. The Apollo Program was $380 billion over 13 years, if you account for it in 2025. If it actually goes through, it would be the largest amount of capital spent in history to build infrastructure for technology that ultimately the track record for is still middling.
Once again, we are getting to a new age of empire. They’re literally land-grabbing and resource-grabbing.
We haven’t actually seen that much economic progress; it’s not broad-based at all. In fact, you could argue that the current uncertainty that everyone feels about the economy and jobs disappearing is actually the real scorecard of what the quest for AGI has brought us.
And then DeepSeek… the fundamental lesson of DeepSeek was that none of this is actually necessary. I know that there’s a lot of controversy around whether they distilled OpenAI’s models or actually spent the amount that they said they did. But OpenAI could have distilled their own models. Why didn’t they distill their models? None of this was necessary. They do not need to build $500 billion of infrastructure. They could have spent more time innovating on more efficient ways of reaching the same level of performance in their technologies. But they didn’t, because they haven’t had the pressure to do so with the sheer amount of resources that they can get access to through Altman’s once-in-a-generation fundraising capabilities.
What do you hope readers will take away from this book?
The story of the empire of AI is so deeply connected to what’s happening right now with the Trump Administration and DOGE and the complete collapse of democratic norms in the U.S., because this is what happens when you allow certain individuals to consolidate so much wealth, so much power, that they can basically just manipulate democracy.
AI is just the latest vehicle by which that is happening, and democracy is not inevitable. If we want to preserve our democracy, we need to fight like hell to protect it and recognize that the way Silicon Valley is currently talking about weaponizing AI as a sort of a narrative for the future is actually cloaking this massive acceleration of the erosion of democracy and reversal of democracy.
Empire of AI will be published by Penguin Random House on Tuesday, May 20. You can purchase the book through Penguin, Amazon, Bookshop.org, and other retailers.
Editor’s Note: This conversation has been edited for clarity and grammar.
Disclosure: Ziff Davis, Mashable’s parent company, in April filed a lawsuit against OpenAI, alleging it infringed Ziff Davis copyrights in training and operating its AI systems.
Topics
Artificial Intelligence
OpenAI
Noticias
El Proyecto Stargate de Openai tiene como objetivo construir infraestructura de IA en países asociados de todo el mundo
Published
7 horas agoon
19 mayo, 2025
Operai ha anunciado una nueva iniciativa llamada “OpenAi para países” como parte de su proyecto Stargate, con el objetivo de ayudar a las naciones a desarrollar infraestructura de IA basada en principios democráticos. Esta expansión sigue al plan de inversión inicial de $ 500 millones de la compañía para la infraestructura de IA en los Estados Unidos.
“Introducción a OpenAi para países, una nueva iniciativa para apoyar a países de todo el mundo que desean construir sobre los rieles demócratas de IA”, declaró Openai en su anuncio. La compañía informa que su proyecto Stargate, reveló por primera vez en enero con el presidente Trump y los socios Oracle y Softbank, ha comenzado la construcción de su primer campus de supercomputación en Abilene, Texas.
Según OpenAI, la iniciativa responde al interés internacional en un desarrollo similar de infraestructura. “Hemos escuchado de muchos países pidiendo ayuda para construir una infraestructura de IA similar: que quieren sus propios Stargates y proyectos similares”, explicó la compañía, señalando que dicha infraestructura será “la columna vertebral del futuro crecimiento económico y el desarrollo nacional”.
La compañía enfatizó su visión de la IA democrática como tecnología que incorpora principios que protegen las libertades individuales y evitan la concentración de control del gobierno. Operai cree que este enfoque “contribuye a una amplia distribución de los beneficios de la IA, desalienta la concentración de poder y ayuda a avanzar en nuestra misión”.
El proyecto Stargate opera a través de un consorcio de principales compañías de tecnología que se desempeñan como inversores y socios técnicos. SoftBank, Openai, Oracle y MGX proporcionan la financiación inicial de capital, con las responsabilidades financieras de manejo de SoftBank, mientras que OpenAI administra las operaciones.
En el lado técnico, cinco compañías tecnológicas importantes forman la base de la implementación del proyecto. “Arm, Microsoft, Nvidia, Oracle y OpenAI son los socios de tecnología iniciales clave”, según OpenAI. El desarrollo de infraestructura aprovecha las relaciones establecidas entre estas compañías, particularmente basándose en la colaboración de larga data de OpenAI con Nvidia que se remonta a 2016 y su asociación más reciente con Oracle.
La compañía describe un marco integral de asociación para colaborar con naciones extranjeras.
“Openai está ofreciendo un nuevo tipo de asociación para la era de la inteligencia. A través de colaboraciones de infraestructura formal y en coordinación con el gobierno de los Estados Unidos”, explica el anuncio, destacando la alineación de la compañía con los intereses de política exterior estadounidense en el desarrollo tecnológico.
El modelo de asociación incluye múltiples componentes que abordan la infraestructura, el acceso y el desarrollo económico. Operai planea “asociarse con países para ayudar a construir capacidad de centro de datos en el país” para respaldar la soberanía de los datos al tiempo que permite la personalización de la IA para las necesidades locales.
Los ciudadanos de los países participantes recibirían servicios de “CHATGPT personalizados” adaptados a idiomas y culturas locales, destinados a mejorar la prestación de atención médica, educación y servicios públicos. Operai describe esto como “ai de, por y para las necesidades de cada país en particular”.
La compañía también enfatiza las inversiones de seguridad y el desarrollo económico a través de un enfoque de financiación de inicio donde “los países asociados también invertirían en la expansión del proyecto global de Stargate, y por lo tanto en el liderazgo continuo de IA liderado por Estados Unidos”, reforzando la conexión de la iniciativa con el liderazgo tecnológico estadounidense.
Las asociaciones internacionales de OpenAI incorporan amplios protocolos de seguridad diseñados para proteger los modelos de IA y la propiedad intelectual. La compañía ha desarrollado un enfoque de seguridad para abordar las posibles vulnerabilidades.
“Salvaguardar nuestros modelos es un compromiso continuo y un pilar central de nuestra postura de seguridad”, Estados Openai, que describe su marco de seguridad como “riguroso” y “evolucionando continuamente”. Este marco abarca la seguridad de la información, la gobernanza y la protección de la infraestructura física.
La arquitectura de seguridad se adapta a las capacidades del modelo de coincidencia, con OpenAi señalando que “nuestras medidas de seguridad no son estáticas; escaman con las capacidades de nuestros modelos e incorporan protecciones de vanguardia”. Estas protecciones incluyen seguridad respaldada por hardware, arquitectura de mudanza cero y salvaguardas criptográficas.
El acceso al personal representa otra dimensión de seguridad crítica. “Operai mantendrá una supervisión explícita y continua sobre todo el personal con acceso a nuestros sistemas de información, propiedad intelectual y modelos”, enfatiza la compañía, y agrega que “ninguna persona o entidad obtendrá dicho acceso sin nuestra aprobación directa”.
Antes de implementar modelos internacionalmente, OpenAI realiza evaluaciones de riesgos a través de su marco de preparación. “Cada implementación de nuevos modelos se someterá a una evaluación de riesgos antes de la implementación”, reconociendo que algunos modelos avanzados pueden presentar riesgos incompatibles con ciertos entornos.
El CEO de Operai, Sam Altman, expresó entusiasmo por el progreso en el sitio de Texas, tuiteando:
Genial ver el progreso en el primer Stargate en Abilene con nuestros socios en Oracle Today. Será la instalación de entrenamiento de IA más grande del mundo. La escala, la velocidad y la habilidad de las personas que construyen esto es increíble.
Sin embargo, el desarrollo masivo de infraestructura ha planteado preocupaciones ambientales. Greg Osuri, fundador de Akash Network, cuestionó el enfoque de sostenibilidad del proyecto:
Este centro de datos está generando 360 MW quemando gas natural, causando una fuerte contaminación y emitiendo hasta 1 millón de toneladas métricas de carbono cada año. Entiendo que las opciones son limitadas, pero me gustaría comprender sus planes futuros para cambiar a fuentes más limpias o sostenibles.
Zach DeWitt, socio de Wing VC, comentó las implicaciones más amplias de este movimiento:
Operai parece estar construyendo y vendiendo productos en cada capa de la pila de IA: chips, centros de datos, API y la capa de aplicación. No está claro qué capa (s) se comercializarán y no se comercializarán y OpenAi está cubriendo sus apuestas de arriba a abajo por la pila de IA. Muy inteligente.
La compañía ha especificado limitaciones geográficas para su estrategia de expansión internacional, manteniendo restricciones sobre las cuales las naciones pueden acceder a su tecnología a través de su documentación de “países y territorios respaldados”.
Noticias
¿Qué es Codex, el último agente de codificación de IA de OpenAI capaz de multitarea? | Noticias tecnológicas
Published
12 horas agoon
18 mayo, 2025
Operai el viernes 16 de mayo, introdujo una nueva herramienta de IA llamada Codex que está diseñada para manejar múltiples tareas relacionadas con la ingeniería de software al mismo tiempo, desde la generación del código para nuevas funciones hasta responder preguntas sobre la base de código de un usuario, solucionar errores y sugerir solicitudes de revisión del código
La herramienta de codificación basada en la nube y el agente de IA ejecuta estas tareas en su propio entorno de Sandbox en la nube que se ha precargado con el repositorio de código de un usuario.
Codex ha sido publicado bajo Vista previa de investigación. Sin embargo, todos los usuarios de ChatGPT Pro, Enterprise y Team tienen acceso a la herramienta de codificación AI. “Los usuarios tendrán acceso generoso sin costo adicional durante las próximas semanas para que pueda explorar qué puede hacer Codex, después de lo cual lanzaremos el acceso limitado a la tarifa y las opciones de precios flexibles que le permiten comprar un uso adicional a pedido”, dijo Openii en una publicación de blog.
La historia continúa debajo de este anuncio
Los clientes de ChatGPT Plus y EDU recibirán acceso en una fecha posterior, agregó la inicio de IA respaldada por Microsoft.
Hoy estamos presentando Codex.
Es un agente de ingeniería de software que se ejecuta en la nube y hace tareas por usted, como escribir una nueva característica de arreglar un error.
Puede ejecutar muchas tareas en paralelo.
– Sam Altman (@sama) 16 de mayo de 2025
https://platform.twitter.com/widgets.js
La última oferta de Openai llega en un momento en que AI está listo para interrumpir el sector de ingeniería de software, lo que aumenta los temores generalizados del desplazamiento laboral. La CEO de Microsoft, Satya Nadella, dijo recientemente que el 30 por ciento del código de la compañía ahora está generado por IA. Unas semanas más tarde, el gigante de la tecnología anunció que está despidiendo a los 6,000 empleados o al 3 por ciento de su fuerza laboral, y los programadores se han impactado más.
“Todavía sigue siendo esencial que los usuarios revisen y validen manualmente todo el código generado por el agente antes de la integración y la ejecución”, señaló Openai en su publicación de blog de anuncios de Codex.
¿Qué es Codex?
Con Codex, los desarrolladores pueden delegar tareas de programación simples a un agente de IA. Tiene su propia interfaz única a la que se puede acceder desde la barra lateral en la aplicación Web CHATGPT.
La historia continúa debajo de este anuncio
Codex funciona con Codex-1, un modelo AI que es una variación del modelo de razonamiento O3 de OpenAI. Excepto que Codex-1 se ha entrenado específicamente en una amplia gama de tareas de codificación del mundo real para analizar y generar código “que refleja estrechamente el estilo humano y las preferencias de relaciones públicas, se adhiere precisamente a las instrucciones”.
https://www.youtube.com/watch?v=hhhdpnbfh6nu
Sus resultados se han ajustado más bien utilizando el aprendizaje de refuerzo para que Codex-1 pueda “ejecutar las pruebas hasta que reciba un resultado de aprobación”. En términos de rendimiento y precisión, OpenAi dijo que Codex-1 le fue mejor que su modelo O3 AI cuando se evaluó en su punto de referencia SWE interno, así como en el La versión de la empresa validada (Bench SWE verificado).
¿Cómo funciona Codex?
Codex puede leer y editar archivos, así como ejecutar comandos, incluidos arneses de prueba, revestimientos y comprobantes de tipo. Por lo general, lleva entre un minuto a 30 minutos completar una tarea dependiendo del nivel de dificultad, según OpenAI.
El agente de codificación de IA realiza cada tarea en un entorno aislado distinto y aislado que se precarga con la base de código del usuario que sirve como contexto. “Al igual que los desarrolladores humanos, los agentes de Codex funcionan mejor cuando se les proporciona entornos de desarrollo configurados, configuraciones de pruebas confiables y documentación clara”, dijo Openii.
La historia continúa debajo de este anuncio
Los usuarios pueden hacer que el Codex funcione de manera más efectiva para ellos al incluir archivos de agentes.md colocados dentro de su repositorio. “Estos son archivos de texto, similares a ReadMe.md, donde puede informar a Codex cómo navegar por su base de código, que comandan ejecutarse para las pruebas y la mejor manera de cumplir con las prácticas estándar de su proyecto”, dijo Openii.
Otra característica única de Codex es que Muestra su pensamiento y trabajo con cada paso a medida que completa la (s) tarea (s). En el pasado, varios desarrolladores han señalado que los agentes de codificación de IA producen scripts de codificación que no siguen los estándares y son difíciles de depurar.
“Codex proporciona evidencia verificable de sus acciones a través de citas de registros de terminales y salidas de prueba, lo que le permite rastrear cada paso tomado durante la finalización de la tarea”, dijo Openii.
Una vez que Codex completa una tarea, comete sus cambios en su entorno. Sin embargo, los usuarios también pueden revisar los resultados, solicitar más revisiones, abrir una solicitud de extracción de GitHub o realizar directamente cambios en el entorno de desarrollo local.
La historia continúa debajo de este anuncio
¿Cómo usar Codex? ¿Cuáles son sus casos de uso?
Para que Codex comience a generar código, los usuarios deben ingresar un mensaje y hacer clic en ‘Código’. Si desean que los agentes de codificación de IA respondan preguntas o proporcionen sugerencias, entonces los usuarios deben seleccionar la opción ‘Preguntar’ antes de enviar el mensaje.
Cuando OpenAI abrió el acceso temprano a Codex para socios externos, utilizaron la herramienta AI Coding Agent para acelerar el desarrollo de características, los problemas de depuración, escribir y ejecutar pruebas, y refactorizar grandes bases de código. Otro probador temprano utilizó códigos para acelerar las tareas pequeñas pero repetitivas, como mejorar la cobertura de la prueba y la reparación de fallas de integración “.
También se puede utilizar para escribir herramientas de depuración y ayudar a los desarrolladores a comprender partes desconocidas de la base de código al aparecer en el contexto relevante y los cambios pasados.
Los desarrolladores de OpenAI también están utilizando Codex internamente para refactorizar, renombrar y escribir pruebas, así como andamios nuevas características, componentes de cableado, corrección de errores y documentación de redacción.
La historia continúa debajo de este anuncio
“Según los aprendizajes de los primeros evaluadores, recomendamos asignar tareas bien escoltas a múltiples agentes simultáneamente, y experimentar con diferentes tipos de tareas y indicaciones para explorar las capacidades del modelo de manera efectiva”, dijo la compañía.
¿Cuál es la diferencia entre Codex y Codex CLI?
En abril de este año, Openai lanzó otra herramienta de agente de codificación de IA llamada Codex CLI. Se dice que es una herramienta de línea de comandos de código abierto capaz de leer, modificar y ejecutar código localmente en el terminal de un usuario.
El agente de codificación integra los modelos de OpenAI con la interfaz de línea de comandos (CLI) del cliente utilizada para ejecutar programas, administrar archivos y más.
Codex CLI funciona con el último modelo O4-Mini de OpenAI de forma predeterminada. Sin embargo, los usuarios pueden elegir su modelo OperaI preferido a través de la opción API de respuestas. Codex CLI solo puede ejecutarse en sistemas MacOS y Linux por ahora, con soporte para Windows todavía en la etapa experimental.
La historia continúa debajo de este anuncio
https://www.youtube.com/watch?v=o-zfxbfamku
En la publicación del blog del viernes, OpenAI también anunció actualizaciones a Codex CLI. Una versión más pequeña de Codex-1 está llegando a Codex CLI. “Está disponible ahora como el modelo predeterminado en Codex CLI y en la API como Codex-Mini-Latest”, dijo Openii.
La compañía también ha simplificado el proceso de inicio de sesión de desarrolladores para Codex CLI. En lugar de tener que generar y configurar manualmente un token API, los desarrolladores ahora pueden usar su cuenta ChatGPT para iniciar sesión en Codex CLI y seleccionar la organización API que desean usar. “Los usuarios de Plus y Pro que inician sesión en Codex CLI con CHATGPT también pueden comenzar a canjear $ 5 y $ 50 en créditos API gratuitos, respectivamente, más tarde hoy durante los próximos 30 días”, dijo Openii.
Related posts
























































































































































































































































































































Trending
-
Startups12 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales1 año ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Startups10 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Recursos1 año ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups1 año ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos12 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Recursos1 año ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Noticias10 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo