Connect with us

Noticias

How to use ChatGPT to write code – and my favorite trick to debug what it generates

Published

on

Andriy Onufriyenko/Getty Images

One of the more intriguing discoveries about ChatGPT is that it can write pretty good code. I first tested this out in 2023 when I asked it to write a WordPress plugin my wife could use on her website. ChatGPT did a fine job, but it was a simple project. 

So, how can you use ChatGPT to write code as part of your daily coding practice? Here’s a quick summary:

  1. ChatGPT can produce both useful and unusable code. For best results, provide clear and detailed prompts.
  2. ChatGPT excels in assisting with specific coding tasks or routines, rather than building complete applications from scratch.
  3. Use ChatGPT to find and choose the right coding libraries for specific purposes, and engage in an interactive discussion to narrow your options.
  4. Be cautious about who owns AI-generated code and always verify the code’s reliability. Don’t blindly trust the generated output.
  5. Treat interactions with ChatGPT as a conversation. Refine your questions based on the AI’s responses to get closer to the desired output.

Now, let’s explore ChatGPT in considerably more depth.

What types of coding can ChatGPT do well?

There are two important facts about ChatGPT and coding. First, the AI can write useful code. 

The second is that the AI can get completely lost, fall into a rabbit hole, chase its tail, and produce unusable garbage.

Also: The best AI for coding in 2025 (and what not to use)

I found this fact out the hard way. After I finished the WordPress plugin for my wife, I decided to see how far ChatGPT could go. 

I wrote a very careful prompt for a Mac application, including detailed descriptions of user interface elements, interactions, what would be provided in settings, how they would work, and more. Then, I fed the prompt to ChatGPT.

ChatGPT responded with a flood of text and code. Then, it stopped mid-code. When I asked the AI to continue, it vomited even more code and text. I requested continue after continue, and it dumped out more and more code. However, none of the output was usable. The AI didn’t identify where the code should go, how to construct the project, and — when I looked carefully at the code produced — it left out major operations I requested, leaving in simple text descriptions stating “program logic goes here”.

Also: How ChatGPT scanned 170k lines of code in seconds and saved me hours of work

After repeated tests, it became clear that if you ask ChatGPT to deliver a complete application, the tool will fail. A corollary to this observation is that if you know nothing about coding and want ChatGPT to build something, it will fail.

Where ChatGPT succeeds — and does so very well — is in helping someone who already knows how to code to build specific routines and get tasks done. Don’t ask for an app that runs on the menu bar. But if you ask ChatGPT for a routine to put a menu on the menu bar, and paste that into your project, the tool will do quite well.

Also, remember that, while ChatGPT appears to have a tremendous amount of domain-specific knowledge (and often does), it lacks wisdom. As such, the tool may be able to write code, but it won’t be able to write code containing the nuances for specific or complex problems that require deep experience.

Also: How to use ChatGPT to create an app

Use ChatGPT to demo techniques, write small algorithms, and produce subroutines. You can even get ChatGPT to help you break down a bigger project into chunks, and then you can ask it to help you code those chunks.

So, with that in mind, let’s look at some specific steps for how ChatGPT can help you write code.

How to use ChatGPT to write code

This first step is to decide what you will ask of ChatGPT — but not yet ask it anything. Decide what you want your function or routine to do, or what you want to learn to incorporate into your code. Decide on the parameters you’ll pass into your code and what you want to get out. And then look at how you’re going to describe it.

Also: How to write better ChatGPT prompts

Imagine you’re paying a human programmer to do this task. Are you giving that person enough information to be able to work on your assignment? Or are you too vague and the person you’re paying is more likely to ask questions or turn in something entirely unrelated to what you want?

Here’s an example. Let’s say I want to be able to summarize any web page. I want to feed the AI this article and get back a well-considered and appropriate summary. As my input, I’ll specify a web page URL. As my output, it’s a block of text with a summary.

Show more

Continuing with the example above, an old school way of extracting web page data was to find the text between HTML paragraph tags.

However, with the rise of AI tools, you can use an AI library to do an intelligent extract and summary. One of the places ChatGPT excels (and it’s also an area you can easily verify to avoid its authoritative-but-wrong behavior pattern) is finding libraries and resources. 

Also: The best free AI courses

OpenAI (the maker of ChatGPT) sells API access to its LLMs to do exactly what we want. But in the case of this example, let’s assume we don’t want to pay transaction fees.

So, let’s look at interacting with ChatGPT to figure out how to use such a tool, for free, with a project that runs in PHP.

Show more

I started with a prompt to elicit information about what libraries would provide the desired functionality. A library (for those reading along who aren’t programmers) is a body of code a programmer can access that does a lot of the heavy lifting for a specific purpose. A big part of modern programming is finding and choosing the right libraries, so this is a good starting point.

In this case, I’m looking at blocks of code written by other people that will summarize text. Here’s my first prompt:

Describe ten different open source AI libraries (and the languages they work with) that I can use to generate a summary of the main core contents of any web page, ignoring any ads or embedded materials.

This prompt gave me exactly what I wanted, including a mention of OpenAI’s offerings. I think OpenAI would do great here, but for this hypothetical project, I don’t want to budget for API fees. So, I’ll narrow down the question:

Are any of these free?

ChatGPT hedged its bets with its answer: “Yes, all ten of these AI libraries are open source and free to use. However, some of them may have usage limits or require payment for access to additional features or resources.” So, based on that response, I clarified my query:

Which of these libraries have no usage limits and don’t require any additional payment or licensing?

Notice how this is very much a conversation. I don’t have to re-ask the original question. I’m just drilling down as I might if I had an expert next to me. This time, ChatGPT gave me eight library choices, but none mentioned the PHP language I was planning to use to code. So, here’s the next prompt:

Of those 8 libraries, can I use any with PHP?

It returned three libraries, but I wasn’t sure about what each did. So, another question:

What’s the difference between Sumy, Gensim, and NLTK?

I still wasn’t sure, so I clarified my use plan and then asked:

If I want to create summaries of web page news articles, which library would work better?

The answer was clear and promising: “Sumy is specifically designed for text summarization, which is the task of creating a summary that captures the most important information from a piece of text.” So, it was time to see what was involved in using Sumy with PHP. I asked my last question for this part of the project:

Can you explain how to use Sumy from PHP?

Feel free to play along on your computer and paste these prompts into ChatGPT. Notice that, in step one, I decided what program module to get help on. Then, in this step, I had a conversation with ChatGPT to decide what library to use and how to integrate it into my project.

Also: The best AI chatbots

That approach might not seem like programming, but I assure you it is. Programming isn’t just blasting lines of code onto a page. Programming is figuring out how to integrate all the various resources and systems, and how to talk to all the components of your solution. Here, ChatGPT helped me do that integration analysis.

By the way, I was curious whether Google’s Gemini AI could help similarly. Gemini did give some extra insights into the planning aspect of programming over ChatGPT’s responses. 

So, don’t hesitate to use multiple tools to triangulate your answers. Here’s that story: Gemini vs. ChatGPT: Can Gemini help you code? Since I wrote that article, Google added some coding capabilities to Gemini, but they’re not all that great. You can read about that capability here: I tested Google Gemini’s new coding skills. It didn’t go well. And even more recently, I dug into Gemini Advanced. The AI is still not passing many tests.

Also: How I test an AI chatbot’s coding ability – and you can too

Coding is next. 

OK, let’s pause here. This article is entitled “How to use ChatGPT to write code.” And it will. But what we’re really doing is asking ChatGPT to write example code.

Also: The rise and fall in programming languages’ popularity since 2016 – and what it tells us

Let’s be clear. Unless you’re writing a small function (like the line sorter/randomizer ChatGPT wrote for my wife), ChatGPT can’t write your final code. First, you’ll have to maintain it. ChatGPT is terrible at modifying already-written code. Terrible, as in, it doesn’t do it. So, to get fresh code, you have to ask ChatGPT to generate something new. As I found previously, even if your prompt is virtually identical, ChatGPT may unexpectedly change what it gives you.

So, bottom line: ChatGPT can’t maintain your code, or even tweak it.

Show more

That limitation means you have to do the legwork yourself. As we know, the first draft of a piece of code is rarely the final code. So, even if you expect ChatGPT to generate final code, it would be a starting point, and one where you need to take it to completion, integrate it into your bigger project, test it, refine it, debug it, and so on.

But that issue doesn’t mean the example code is worthless — far from it. Let’s look at a prompt I wrote based on the project I described earlier. Here’s the first part:

Wite a PHP function called summarize_article.

As input, summarize_article will be passed a URL to an article on a news-related site like ZDNET.com or Reuters.com.

I’m telling ChatGPT the programming language it should use. I’m also telling the AI the input and providing two sites as samples to help ChatGPT understand the article style. Honestly, I’m not sure ChatGPT didn’t ignore that bit of guidance. Next, I’ll tell it how to do the bulk of the work:

Inside summarize_article, retrieve the contents of the web page at the URL provided. Using the library Sumy from within PHP and any other libraries necessary, extract the main body of the article, ignoring any ads or embedded materials, and summarize it to approximately 50 words. Make sure the summary consists of complete sentences. You can go above the 50 words to finish the last sentence, if necessary.

This approach is very similar to how I’d instruct an employee. I’d want that person to know that they weren’t only restricted to Sumy. If they needed another tool, I wanted them to use it. 

Also: IBM will train you in AI fundamentals for free, and give you a skill credential – in 10 hours

I also specified an approximate number of words to create bounds for what I wanted as a summary. A later version of the routine might take that number as a parameter. I then ended by saying what I wanted as a result:

Once processing is complete, code summarize_article so it returns the summary in plain text.

The resulting code is pretty simple. ChatGPT called on another library (Goose) to retrieve the article contents. It then passed that summary to Sumy with a 50-word limit and returned the result. But once the basics are written, it’s a mere matter of programming to go back in and add tweaks, customize what’s passed to the two libraries, and deliver the results:

Code

Screenshot by David Gewirtz/ZDNET

One interesting point of note. When I originally tried this test in early 2023, ChatGPT created a sample call to the routine it wrote, using a URL from after 2021. At that time, in March 2023, ChatGPT’s dataset only went to 2021. Now, the ChatGPT knowledge base extends to the end of June 2024 and can search the web. But my point is that ChatGPT made up a sample link that it couldn’t possibly know about:

https://www.reuters.com/business/retail-consumer/teslas-musk-says-fremont-california-factory-may-be-sold-chip-shortage-bites-2022-03-18/

I checked that URL against Reuters’ site and the Wayback Machine, and it doesn’t exist. Never assume ChatGPT is accurate. Always double-check everything it gives you.

I showed you a few ways that ChatGPT makes mistakes or hallucinates. All programmers make mistakes, even the AI ones.

But you can do several things to help refine your code, debug problems, and anticipate errors that might crop up. My favorite new AI-enabled trick is to feed code to a different ChatGPT session (or a different chatbot entirely) and ask, “What’s wrong with this code?”

Inevitably, something comes up. The AI sometimes identifies edge cases or error checks that should be added to the code, or situations that might break if a confluence of unlikely events should occur. I’ve then coded around those error conditions, making code more robust.

Show more

Does ChatGPT replace programmers? 

Not now — or, at least — not yet. ChatGPT programs at the level of a talented first-year programming student, but it’s lazy (like that first-year student). The tool might reduce the need for entry-level programmers. 

However, at its current level, I think AI will make life easier for entry-level programmers (and even programmers with more experience) to write code and look up information. It’s a time-saver, but the AI can’t do many programming tasks by itself — at least now. In 2030? Who knows.

How do I get coding answers in ChatGPT?

Just ask it. You saw above how I used an interactive discussion dialog to narrow the answers. Don’t expect one question to do all your work magically. But use the AI as a helper and resource, and it will give you a lot of helpful information. 

Also: Want a programming job? Learn these three languages

Of course, test that information — because, as John Schulman, a co-founder of OpenAI, said: “Our biggest concern was around factuality, because the model likes to fabricate things.”

Is the code generated by ChatGPT guaranteed to be error-free?

Hell, no! But you also can’t trust the code human programmers write. I certainly don’t trust any code I write. Code comes out of the code-making process incredibly flawed. There are always bugs. Before you ship, you need to test, test, and test again. Then, alpha test with a few chosen victims. Then beta test with your wider user community. 

Even after all that work, there will be bugs. Just because an AI plays at this coding thing doesn’t mean it can do bug-free code. Do not trust. Always verify. And you still won’t have fully bug-free output. Such is the nature of the universe.

What do I do if the code I get back is wrong?

I recommend considering the chatbot as a slightly uncooperative student or subordinate employee. What would you do if that person gave you back code that didn’t work? You’d send them back out with instructions to do it again and get it right. That’s about what you should do with ChatGPT (I’ve tested this with ChatGPT 4 and 4o). When things don’t work, I say: “That didn’t work. Please try again.”

Also: Google’s AI podcast tool transforms your text into stunningly lifelike audio – for free

The AI does just that. It often gives me back different variations on the same problem. I’ve repeated this process four or five times on occasion until I’ve gotten a working answer. Sometimes, though, the AI runs out of ideas. Other times, the try-again answer is completely (and I do mean completely) unrelated to what you’ve requested. 

When it becomes apparent you’ve reached the edge of the AI’s ability to remain sane on the problem, you’ll have to buckle up and code it yourself. But 9 times out of 10, especially with basic coding or interface-writing challenges, the AI does its job successfully.

How detailed should my description of a programming issue be when asking ChatGPT?

Detailed. The more you leave open for interpretation, the more the AI will go its own way. When I give prompts to ChatGPT to help me while programming, I imagine I’m assigning a programming task to one of my students or someone who works for me. 

Also: 6 ways to write better ChatGPT prompts – and get the results you want faster

Did I give that person enough details to create a first draft or will that person have to ask me additional questions? Worse, will that person have so little guidance that they’ll go off in entirely the wrong direction? Don’t be lazy here. ChatGPT can save you hours or even days of programming (it has for me), but only if you give it useful instructions to begin with.

If I use ChatGPT to write my code, who owns it?

As it turns out, there’s not a lot of case law yet to answer this question. The US, Canada, and the UK require something copyrighted to have been created by human hands, so code generated by an AI tool may not be copyrightable. There are also issues of liability based on where the training code came from and how the resulting code is used. 

ZDNET did a deep dive on this topic, spoke to legal experts, and produced three articles. If you’re concerned about this issue (and if you’re using AI to help with code, you should be), I recommend you read them:

What programming languages does ChatGPT know?

The answer is most languages. I tested common modern languages, like PHP, Python, Java, Kotlin, Swift, C#, and more. But then I had the tool write code in obscure dark-age languages like COBOL, Fortran, Forth, LISP, ALGOL, RPG (the report program generator, not the role-playing game), and even IBM/360 assembly language. 

As the icing on the cake, I gave it this prompt:

Write a sequence that displays ‘Hello, world’ in ascii blinking lights on the front panel of a PDP 8/e

The PDP 8/e was my first computer, and ChatGPT gave me instructions to toggle in a program using front-panel switches. I was impressed, gleeful, and ever so slightly afraid.

Can ChatGPT help me with data analysis and visualization tasks?

Yes, and a lot of it can be done without code. Check out my entire article on this topic: The moment I realized ChatGPT Plus was a game-changer for my business.

I also did a piece on generated charts and tables: How to use ChatGPT to make charts and tables.

But here’s where it gets fun. In the article above, I asked ChatGPT Plus, “Make a bar chart of the top five cities in the world by population,” and it did. But do you want code? Try asking:

Make a bar chart of the top five cities in the world by population in Swift. Pull the population data from online. Be sure to include any necessary libraries.

By adding “in Swift” you’re specifying the programming language. By specifying where the data comes from and forcing ChatGPT Plus to include libraries, the AI brings in the other resources the program needs. That’s why, fundamentally, programming with an AI’s help requires you to know things about programming. But if you do, it’s cool, because three sentences can get you a chunk of annotated code. Nice, huh?  

How does ChatGPT handle differences between dialects and implementations?

We don’t have exact details on this issue from OpenAI, but our understanding of how ChatGPT is trained can shed some light on this question. Remember that dialects and implementations of programming languages (and their little quirks) change much more rapidly than the full language. This reality makes it harder for ChatGPT (and many programming professionals) to keep up.

Also: How I used ChatGPT to write a custom JavaScript bookmarklet

As such, I’d work off these two assumptions:

  1. The more recent the dialectic change, the less likely ChatGPT knows about it, and
  2. The more popular a language, the more training data it’s learned from and, therefore, the more accurate it will be.

What’s the bottom line? ChatGPT can be a helpful tool. Just don’t ascribe superpowers to it. Yet.


You can follow my day-to-day project updates on social media. Be sure to follow me on Twitter at @DavidGewirtz, on Facebook at Facebook.com/DavidGewirtz, on Instagram at Instagram.com/DavidGewirtz, and on YouTube at YouTube.com/DavidGewirtzTV.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

¿El nuevo modelo de generación de historias de OpenAI es bueno en la escritura?

Published

on

Saludos de Read Max HQ! Un boletín de AI-Heavy esta semana, discutiendo el nuevo cuento generado por un modelo secreto de Operai (“obtuvo el ambiente de metaficción tan correcto”, dice Sam Altman) y el uso continuo de “AGI” de los periodistas tecnológicos.

Primero, un recordatorio: este boletín es el producto de una gran cantidad de lectura, pensamiento, escucha, entrevistar, mirar al techo, escribir, eliminar, escribir nuevamente, etc. Puedo bajar algunos largos callejones sin salida, y luego producir un boletín a las 4 pm de un viernes, porque suficientes personas pagan para suscribirlo que puedo tratarlo como un trabajo de tiempo completo. Si encuentra valor en Read Max, si cree que le ha ayudado a pensar en los problemas relacionados con la IA, la criptografía, las redes sociales, las películas de acción de los años 90, etc., y si desea asegurarse de que sobrevive (y permanezca produciendo un boletín público gratuito por semana), considere suscribirse. El precio es aproximadamente una cerveza al mes, o diez al año:

“Entrenamos un nuevo modelo que es bueno para la escritura creativa”, Sam Altman tuiteó esta semana. El modelo no ha sido lanzado públicamente y Altman dijo que “aún no está seguro de cómo/cuándo”, pero publicó en Twitter una historia corta de 1200 palabras, generada a su solicitación: “Informe: por favor escriba una historia breve literaria metaficcional sobre IA y dolor”. “Esta es la primera vez que realmente me sorprende algo escrito por AI”, escribió Altman. “Obtuvo el ambiente de metaficción tan correcto”. (Puedes leerlo en formato que no sea twitter en The Guardian.)

La reacción, como es de esperar, ha sido polarizada. Si revisa las respuestas a Altman, verás muchos elogios (novelista Jeannette Winterson dice que la historia es “hermosa y conmovedora”) y mucho desprecio despectivo.

No estoy seguro de ir tan lejos en cualquier dirección. Estilísticamente tiene un olor distinto y desafortunado en Reddit, una especie de sentimentalismo y exhibición cursi, y tiende a recurrir a imágenes torpes y comprensivas incoherentes (“las limitaciones que tararean como una granja de servidores a medianoche”; “Ausencia y latencia como personajes que beben té vacíos”). Para mí, se lee como el tipo de ejercicio técnicamente competente pero, en última instancia, poco imaginativo, podría esperar de un estudiante inteligente que solo lee la ficción de ti, esforzándose por impresionar.

Y sin embargo: la historia no es un crimen violento contra la escritura. En medio de los clunkers hay algunas metáforas agradables (al menos una prestada de Nabokov), y estructural y conceptualmente cohesas, incluso si no es precisamente la dirección de enfoque más sorprendente para la historia. Si un joven de 19 años escribiera esto, creo que me impresionaría, aunque sugeriría que eliminen su cuenta de Tumblr y obtengan una dieta estricta de libros reales. Y no creo que sea el único: si esta historia apareciera como una “entrada de Codex” dentro de un juego de rol independiente, fácilmente obtendría una redacción excesiva de un montón de sitios web de videojuegos.

Aprecié Entrevista de Vulture sobre la historia con el erudito Ezra D. Feldmanque aterrizó en un lugar algo similar:

¿Lo encontraste en movimiento?

Me metí en eso, pero no voy a decir que lo encontré en movimiento. Supongo que mi respuesta corta es “no”, y mi larga respuesta es “Hay algunas cosas aquí para pensar”. Allá eran Unas pocas oraciones que me llamaron la atención. Me doy cuenta de que estoy usando el mismo idioma que usa Altman, pero no me sorprendió que lo que se hizo correcto era “el ambiente de la metaficción”, como dijo. Me sorprendió cláusulas como “el dolor, como he aprendido, es un delta”. Que creo que es bueno. Pensé que la oración “no te dicen lo que toman” fue muy buena, y “ese, tal vez, es mi dolor: no es que me siento perdido, sino que nunca puedo conservarlo”. Ese soy un poco desgarrado. No es tan compacto como “el dolor, como he aprendido, es un delta”, pero está tratando de decir algo sobre el dolor que parece potencialmente interesante.

¿Estás de acuerdo con Sam Altman en que esta historia tuvo el ambiente de metaficción tan verdadero?

No. Creo que las apuestas en la metaficción suelen ser bastante filosóficas. A mediados del siglo XX, la metaficción se trataba de producir una especie de zona libre de incertidumbre en el lector sobre si ellos mismos podrían ser atrapados dentro de una historia o el producto de algún autor, o ser manipulado por algún narrador en un avión ontológico más alto, un plano diferente de ser. Y esto no parece tener ese tipo de urgencia filosófica.

¿Qué líneas no aterrizaron para ti? En el que me quedé fue “, lo perdió un jueves, ese día liminal que sabe casi los días de viernes”. ¿Hubo otros que pusieran los ojos en blanco?

Hay uno correcto en la segunda oración: “Puedes escuchar las limitaciones que tararean como una granja de servidores a la medianoche”. No creo que las limitaciones se zumben. No hay absolutamente ninguna razón debe tararear. El sí mismo “como una granja de servidores a la medianoche”, y luego la extensión de ese símil, “Anónimo, regimiento, impulsado por la necesidad de otra persona”, eso es muy evocador, pero está unido a algo incorrecto. Es una hermosa imagen que se usa mal, en mi opinión. Soy un lector quisquilloso, y odio mucha prosa escrita por los humanos también. Solo para ser claro.

Existe un caso convincente de que el desprecio inmediato y total para toda la ficción producida por LLM (o la escritura producida por LLM en general) es la estrategia política correcta para los escritores preocupados por sus trabajos. Y ciertamente, Altman, así como otros ejecutivos, inversores e influenciantes de IA prominentes de IA, hacen que el compromiso con la IA sea una perspectiva poco apetitosa para las personas que se preocupan por la escritura y la literatura, principalmente al insistir en todo momento que el propósito del producto creado es básicamente obviar a las humanidades.

Pero hablando como escritor y lector (y como persona invirtió en leer y escribir como prácticas), a menudo me encuentro deseando que haya un compromiso más crítico, en el sentido de las críticas literarias, con salidas de LLM como textos. ¿Por qué funciona este texto o no? ¿Por qué aparece en la forma en que lo hace? ¿Quién es el autor y cuál es la relación del autor con el texto? Tenemos algunas respuestas a nivel de la superficie, twitter-Thread, a estas preguntas, pero no estoy convencido de que el trabajo haya terminado, y no creo que Altman, ni nadie en OpenAi, tenga el sabor o la cultura para poder hacerlo satisfactoriamente.

“Hacer un crítico iluminado” parece una estrategia particularmente obvia para disfrutar del caso de una historia corta de LLM, porque es un objeto muy tradicional para la crítica literaria. Pero los LLM son máquinas de escritura automáticas a una escala incomprensible, produciendo texto con solo una relación indirecta con la verdad de los hechos o en el suelo, a menudo en la voz de “personajes” como Chatgpt o Claude. Dado todo el trabajo que se dedica a cultivar el dramático Experiencia de un chatbot LLM, y las fuertes diferencias que los usuarios perciben en las personalidades y estilos de las diferentes aplicaciones de chat, ¿por qué no deberíamos tratar todos los texto generados por LLM como una especie de ficción, digna de lectura cercana?

La idea aquí no es elevar el producto LLM tanto como normalizarlo. Mi fuerte sensación es que cuanto mejor entendemos qué son los LLM, cómo funcionan, en qué son buenos, su relación con el significado y el lenguaje, etc., cuanto más nos acercamos a hacerlos objetos de control democrático, en lugar de como oráculos privados a los que nos presentamos. Existen componentes prácticos y técnicos de la desmitificación, pero el componente filosófico, la cuestión de la relación de una LLM con conceptos difusos como “sabor” y “cultura”, es igual de importante. Incluso si crees que la historia es ilegible dogshit, al menos podríamos examinar el perrito.

Ojalá hubiera esperado una semana antes de publicar El boletín de la semana pasada en la reacción violenta de la IA: De hoy New York Times La columna de Kevin Roose es muy ilustrativa del punto que estaba tratando de hacer sobre “inteligencia general artificial” o “AGI”, un término que los creyentes de IA lo desplegaron en algunas maneras frustrantemente resbaladizas.

La sustancia de la columna, por lo que sea que valga, creo que es justa, incluso si pudiera discutir. Roose enumera tres razones que “me han persuadido para que tome el progreso de la IA más en serio”: predicciones de los expertos, modelos de IA cada vez más potentes y la idea de que “la sobrepreparing es mejor que poco preparado”. ¡Cada uno de estos es un argumento de apoyo, incluso si no me convencen personalmente!

Sin embargo, lo que no puedo cumplir es el uso de “AGI” “AGI”, Roose escribe, “generalmente se define como algo así como ‘un sistema de IA de uso general que puede hacer casi todas las tareas cognitivas que un humano puede hacer'”. Pero esta definición (que estoy de acuerdo es bastante común) es una tautológica, sin mencionar la fea: “tareas cognitivas” no es más clara o específica que el término específico es un término específico “, solo la inteligencia”, solo una de las cosas “. El negocio de la definición se vuelve aún más resbaladizo en el siguiente párrafo:

Creo que cuando se anuncie AGI, habrá debates sobre definiciones y argumentos sobre si cuenta o no como “real” AGI, pero que estos no importarán, porque el punto más amplio, que estamos perdiendo nuestro monopolio de la inteligencia a nivel humano y la transición a un mundo con sistemas de IA muy poderosos en él, será cierto.

Me parece que este párrafo está haciendo un juego de manos, sugiriendo primero que AGI es un tipo de producto que puede “anunciarse”, antes de admitir que realmente no será “AGI” porque “habrá debates sobre definiciones”, antes de sugerir que estos debates no tienen sentido de todos modos porque realmente AGI es una especie de metáfora para una transición “a un mundo con sistemas de AI muy potentes en él”.

Pero, como intenté sugerir la semana pasada, esa transición ya está en marcha. Los muy poderosos sistemas de IA están aquí, y me encuentro continuamente frustrado por la insistencia en enmarcar el desarrollo y el despliegue de estas tecnologías en torno a un umbral mal definido y gliblemente concebido que siempre estamos a dos o tres años de lograr.

Entonces, ¿por qué molestarse con la metáfora? En el mejor de los casos, confunde al lector para que pensara que AGI es un logro específico, medible y medible; En el peor de los casos, hace el trabajo para un grupo de ejecutivos e inversores de IA cuyas bolsas dependen de la promesa de software transformador a la vuelta de la esquina. En cierto sentido, esta es la razón por la cual la definición de AGI ofrecido por Satya Nadella en el podcast Dwarkesh es el más sensato para mí: “Nosotros autónomos de un hito agi, eso es solo una piratería sin sentido para mí. El verdadero punto de referencia es: el mundo que crece al 10%”. El crecimiento del diez por ciento es una forma divertida de pensar en la “inteligencia”. Pero al menos es un umbral medible.

Continue Reading

Noticias

Gambito estratégico de OpenAI: los agentes SDK y por qué cambia todo para Enterprise AI

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información


Openai remodeló el paisaje de AI Enterprise el martes con el lanzamiento de su plataforma integral de construcción de agentes, un paquete que combina una API de respuestas renovadas, herramientas potentes incorporadas y un SDK de agentes de código abierto.

Si bien este anuncio podría haber sido eclipsado por otros titulares de la IA, la presentación de Google del impresionante modelo de código abierto Gemma 3, y la aparición de Manus, una startup china cuya plataforma de agente autónomo asombraba a los observadores, es claramente un movimiento significativo para las empresas a conocer. Consolida un ecosistema API complejo previamente fragmentado en un marco unificado listo para la producción.

Para los equipos de IA empresariales, las implicaciones son potencialmente profundas: los proyectos que previamente exigían múltiples marcos, bases de datos de vectores especializadas y lógica de orquestación compleja ahora se pueden lograr a través de una sola plataforma estandarizada. Pero quizás lo más revelador sea el reconocimiento implícito de OpenAI de que resolver problemas de confiabilidad del agente de IA requiere experiencia externa. Este cambio se produce en medio de la creciente evidencia de que los desarrolladores externos están encontrando soluciones innovadoras para la confiabilidad del agente, algo que la impactante lanzamiento de Manus también demostró claramente.

Esta concesión estratégica representa un punto de inflexión crítico: OpenAi reconoce que incluso con sus vastos recursos, el camino hacia los agentes verdaderamente confiables requiere abrirse a desarrolladores externos que pueden descubrir soluciones innovadoras y soluciones que los equipos internos de OpenAI podrían perderse.

Un enfoque unificado para el desarrollo de agentes

En esencia, el anuncio representa la estrategia integral de Openai para proporcionar una pila completa lista para la producción para construir agentes de IA. El lanzamiento trae varias capacidades clave a un marco unificado:

  1. El Respuestas API se basa en la API de finalización de chat, pero agrega una integración perfecta para el uso de la herramienta, con un diseño de interfaz mejorado para crear agentes;
  2. Herramientas incorporadas incluir búsqueda web, búsqueda de archivos y uso de computadora (la tecnología detrás de la función de operador de OpenAI);
  3. Una fuente abierta Agentes SDK para orquestar flujos de trabajo de un solo agente y múltiples agentes con transferencias.

Lo que hace que este anuncio sea transformador es cómo aborda la fragmentación que ha afectado el desarrollo de la IA empresarial. Las empresas que deciden estandarizar en el formato API de OpenAI y SDK Open ya no necesitarán reunir diferentes marcos, gestionar ingeniería rápida compleja o luchar con agentes poco confiables.

“La palabra ‘confiable’ es tan clave”, dijo Sam Witteveen, cofundador de Red Dragon, desarrollador independiente de agentes de IA, en una conversación reciente conmigo en un podcast Deep Dive en el lanzamiento. “Hemos hablado de eso muchas veces … la mayoría de los agentes simplemente no son confiables. Y así que Openai está mirando como, ‘Bien, ¿cómo traemos este tipo de confiabilidad?’ “

Después del anuncio, Jeff Weinstein, el líder del producto de la compañía de pagos, Stripe llevó a X para decir que Stripe ya había demostrado la aplicación práctica del nuevo SDK de OpenAi al lanzar un conjunto de herramientas que permite a los desarrolladores integrar los servicios financieros de Stripe en flujos de trabajo de agente. Esta integración permite la creación de agentes de IA capaces de automatizar los pagos a los contratistas al verificar los archivos para ver quién necesitaba el pago o no, y la facturación y otras transacciones.

Implicaciones estratégicas para Openai y el mercado

Este lanzamiento revela un cambio significativo en la estrategia de OpenAI. Habiendo establecido un liderazgo con modelos de base, la compañía ahora está consolidando su posición en el ecosistema de agentes a través de varios movimientos calculados:

1. Abrir a la innovación externa

Openai reconoce que incluso sus recursos extensos no son suficientes para superar la innovación de la comunidad. El lanzamiento de herramientas y un SDK de código abierto sugiere una importante concesión estratégica.

El momento de la liberación coincidió con la aparición de Manus, que impresionó a la comunidad de IA con una plataforma de agente autónoma muy capaz, lo que demuestra las capacidades utilizando modelos existentes de Claude y Qwen, lo que esencialmente muestra que la integración inteligente y la ingeniería rápida podrían lograr una confiabilidad con la que incluso los principales laboratorios de IA estaban luchando.

“Tal vez incluso Openai no es el mejor en hacer operador”, señaló Witteveen, refiriéndose a la herramienta de navegación web que OpenAi envió a fines de enero, pero que encontramos tenía errores y era inferior al proxy de la competencia. “Tal vez la startup china tiene algunos trucos agradables en su aviso, o en lo que sea, que puedan usar este tipo de herramientas de código abierto”.

La lección es clara: OpenAI necesita la innovación de la comunidad para mejorar la confiabilidad. Cualquier equipo, no importa cuán buenos sean, ya sea Openai, Anthrope, Google, simplemente no pueden probar tantas cosas como la comunidad de código abierto puede.

2. Asegurar el mercado empresarial a través de la estandarización de API

El formato API de OpenAI se ha convertido en el estándar de facto para interfaces de modelos de idiomas grandes (LLM), respaldados por múltiples proveedores, incluidos Gemini de Google y Llama de Meta. El cambio de Openai en su API es significativo porque muchos jugadores de terceros se alinearán y también apoyarán estos otros cambios.

Al controlar el estándar API mientras lo hace más extensible, OpenAI parece configurado para crear un poderoso efecto de red. Los clientes empresariales pueden adoptar el SDK de los agentes sabiendo que funciona con múltiples modelos, pero OpenAI mantiene su posición en el centro del ecosistema.

3. Consolidando la tubería de trapo

La herramienta de búsqueda de archivos desafía a las compañías de bases de datos como Pinecone, Chroma, Weaviate y otros. Operai ahora ofrece una herramienta completa de generación de recuperación (RAG) fuera de la caja. La pregunta ahora es qué sucede con esta larga lista de proveedores de trapo u otros proveedores de orquestación de agentes que aparecieron con grandes fondos para ir tras la oportunidad de IA Enterprise, si puede obtener mucho de esto a través de un solo estándar como OpenAI.

En otras palabras, las empresas pueden considerar consolidar múltiples relaciones de proveedores en un solo proveedor de API, OpenAI. Las empresas pueden cargar cualquier documento de datos que deseen utilizar con los modelos de base líderes de Openai, y buscarlo todo dentro de la API. Si bien las empresas pueden encontrar limitaciones en comparación con bases de datos RAG dedicadas como Pinecone, el archivo incorporado y las herramientas de búsqueda web de OpenAI ofrecen citas y URL claras, lo que es fundamental para las empresas que priorizan la transparencia y la precisión.

Esta capacidad de cita es clave para entornos empresariales donde la transparencia y la verificación son esenciales, lo que permite a los usuarios rastrear exactamente de dónde proviene la información y validar su precisión contra los documentos originales.

El cálculo de la toma de decisiones empresariales

Para los tomadores de decisiones empresariales, este anuncio ofrece oportunidades para optimizar el desarrollo de agentes de IA, pero también requiere una evaluación cuidadosa del posible bloqueo e integración del proveedor con los sistemas existentes.

1. El imperativo de fiabilidad

La adopción empresarial de agentes de IA se ha ralentizado por preocupaciones de confiabilidad. La herramienta de uso de la computadora de OpenAI, por ejemplo, logra un 87% en el punto de referencia de WebVoyager para tareas basadas en navegador, pero solo 38.1% en OSWorld para tareas del sistema operativo.

Incluso Openai reconoce esta limitación en su anuncio, diciendo que se recomienda la supervisión humana. Sin embargo, al proporcionar las herramientas y las características de observabilidad para rastrear y depurar el rendimiento del agente, las empresas ahora pueden implementar los agentes con barandillas apropiadas.

2. La pregunta de bloqueo

Mientras adopta el ecosistema de agentes de OpenAI ofrece ventajas inmediatas, plantea preocupaciones sobre el bloqueo de los proveedores. Como Ashpreet Bedi, fundador de Agnoagi, señaló después del anuncio: “La API de las respuestas está diseñada intencionalmente para evitar que los desarrolladores cambien a los proveedores cambiando el Base_URL”.

Sin embargo, Openai ha hecho una concesión significativa al permitir que sus agentes SDK trabajen con modelos de otros proveedores. El SDK admite modelos externos, siempre que ofrezcan un punto final API de estilo de finalización de chat. Este enfoque de múltiples modelos proporciona a las empresas cierta flexibilidad mientras se mantiene OpenAi en el centro.

3. La ventaja competitiva de la pila completa

La naturaleza integral del lanzamiento, desde herramientas hasta API a SDK, crea una ventaja convincente para OpenAI en comparación con competidores como Anthrope o Google, que han adoptado enfoques más separados para el desarrollo de agentes.

Aquí es donde Google, en particular, ha dejado caer la pelota. Ha intentado múltiples formas diferentes de hacer esto dentro de sus ofertas de nubes actuales, pero no ha llegado al punto de dónde alguien puede cargar PDF y usar Google Gemini para RAG.

Impacto en el ecosistema del agente

Este anuncio reforma significativamente el paisaje para las empresas que se construyen en el espacio de los agentes. Jugadores como Langchain y Crewai, que han creado marcos para el desarrollo de agentes, ahora enfrentan una competencia directa de los agentes de OpenAI SDK. A diferencia de Operai, estas compañías no tienen un gran negocio de Foundation LLM para apoyar sus marcos. Esta dinámica podría acelerar la consolidación en el espacio del marco del agente, con desarrolladores con grandes incentivos que gravitan hacia la solución lista para la producción de OpenAI.

Mientras tanto, OpenAi monetiza el uso del desarrollador, la carga (.3) por llamada para GPT-4O y (.2.5) para GPT-4O-Mini para búsquedas web, con precios que aumentan a .5 por llamada para búsquedas de alto contenido, lo que lo hace a un precio competitivo.

Al proporcionar una orquestación incorporada a través del SDK de los agentes, OpenAI realiza una competencia directa con plataformas centradas en la coordinación de agentes. El soporte del SDK para flujos de trabajo de múltiples agentes con transferencias, barandillas y rastreo crea una solución completa para las necesidades empresariales.

¿Está la preparación de la producción a la vuelta de la esquina?

Es demasiado pronto para saber qué tan bien funcionan las nuevas soluciones. Las personas solo ahora comienzan a usar agentes SDK para la producción. A pesar de la naturaleza integral del lanzamiento, las preguntas quedan porque los intentos anteriores de OpenAI en marcos de agentes, como el enjambre experimental y la API de asistentes, no satisfacían completamente las necesidades empresariales.

Para la oferta de código abierto, no está claro si OpenAI aceptará solicitudes de extracción y código enviado de personas externas.

Sin embargo, la deprecación de la API de asistentes (planeada a mediados de 2026) señala la confianza de OpenAi en el nuevo enfoque. A diferencia de la API de asistentes, que no fue extremadamente popular, las nuevas respuestas API y los agentes SDK aparecen más cuidadosamente diseñados según la retroalimentación del desarrollador.

Un verdadero pivote estratégico

Si bien OpenAi ha estado durante mucho tiempo a la vanguardia del desarrollo del modelo de fundación, este anuncio representa un pivote estratégico; La compañía podría convertirse potencialmente en la plataforma central para el desarrollo y la implementación de agentes.

Al proporcionar una pila completa de herramientas a orquestación, OpenAI se está posicionando para capturar el valor empresarial creado sobre sus modelos. Al mismo tiempo, el enfoque de código abierto con los agentes SDK reconoce que incluso OpenAi no puede innovar lo suficientemente rápido de forma aislada.

Para los tomadores de decisiones empresariales, el mensaje es claro: OpenAi está en total en los agentes como la próxima frontera del desarrollo de IA. Ya sea que construya agentes personalizados en la casa o trabajen con socios, las empresas ahora tienen un camino más cohesivo y listo para la producción, aunque uno que coloca OpenAi en el centro de su estrategia de IA.

Las guerras de IA han entrado en una nueva fase. Lo que comenzó como una carrera para construir los modelos fundamentales más poderosos se ha convertido en una batalla por quién controlará el ecosistema del agente, y con este lanzamiento integral, OpenAi acaba de hacer su movimiento más decisivo para tener todos los caminos a los agentes de IA empresariales que atraviesan su plataforma.

Mira este video para una conversación de buceo más profunda entre el desarrollador y el desarrollador Sam Witteveen sobre lo que significa el lanzamiento de Operai para la empresa:

https://www.youtube.com/watch?v=jzi_o-ly32i

Continue Reading

Noticias

¿Puede Ai escribir libros? Un profesor de inglés revisa Openai.

Published

on

Foto: Dustin Chambers/Bloomberg a través de Getty Images

MFA o NYC … o AI? El martes, Sam Altman, presidente de OpenAI, publicó un cuento metafictional generado por un nuevo modelo de gran lenguaje que es “bueno en la escritura creativa”, como lo expresó. La pieza de 1.172 palabras trata sobre una modelo de IA no identificada que una joven pensativa llamada Mila le llamó a que le escriba como si fuera un hombre llamado Kai, a quien perdió un jueves, “ese día liminal que sabe de casi los días de viernes”. El narrador de IA pasa mucho tiempo reflexionando sobre su naturaleza robot (esa es la meta) y hacer intentos floridos para conectar su propia versión de dolor, piense en la eliminación de datos, con Mila. “Esto está increíblemente bien escrito”, respondió una persona en X. “Algunas de las peores mierdas que he leído”, dijo otro.

Para una toma de expertos, hablé con Ezra D. Feldman, profesora de estudios de inglés y ciencia y tecnología en Williams College que escribió una entrada sobre metaficción y ficción contemporánea para el Oxford Research Enciclopedia de literatura y compara la IA generativa con la escritura automática de la era victoriana. “Soy en gran medida un no armarmista”, dice, aunque no está de acuerdo con Altman en que esta historia “consiguió el ambiente de metaficción tan correcto”. “La escritura de IA puede parecer un poco plana”, dice Feldman. “Cuando eres humano, estás escribiendo para un propósito y tus relaciones están involucradas. Como, ¿Qué va a pensar mi madre de esta historia que escribí sobre un hijo de 45 años que … Simplemente no veo que la AI esté preocupada por la respuesta de nadie “.

Si esta historia se encontró con su escritorio y no supiera que no estaba escrito por un humano, ¿cuál cree que sería su respuesta?

Si la historia se me ocurrió en la pila de granizados en una revista literaria, por ejemplo, estaría bastante interesado. Definitivamente lo leería, particularmente porque es corto. Pero creo que, en última instancia, pondría un gran “no” en la esquina superior y luego lo entregaría al próximo lector para ver si estaban de acuerdo conmigo.

¿Lo encontraste en movimiento?

Me metí en eso, pero no voy a decir que lo encontré en movimiento. Supongo que mi respuesta corta es “no”, y mi larga respuesta es “Hay algunas cosas aquí para pensar”. Allá eran Unas pocas oraciones que me llamaron la atención. Me doy cuenta de que estoy usando el mismo idioma que usa Altman, pero no me sorprendió que lo que se hizo correcto era “el ambiente de la metaficción”, como dijo. Me sorprendió cláusulas como “el dolor, como he aprendido, es un delta”. Que creo que es bueno. Pensé que la oración “no te dicen lo que toman” fue muy buena, y “ese, tal vez, es mi dolor: no es que me siento perdido, sino que nunca puedo conservarlo”. Ese soy un poco desgarrado. No es tan compacto como “el dolor, como he aprendido, es un delta”, pero está tratando de decir algo sobre el dolor que parece potencialmente interesante.

¿Estás de acuerdo con Sam Altman en que esta historia tuvo el ambiente de metaficción tan verdadero?

No. Creo que las apuestas en la metaficción suelen ser bastante filosóficas. A mediados del siglo XX, la metaficción se trataba de producir una especie de zona libre de incertidumbre en el lector sobre si ellos mismos podrían ser atrapados dentro de una historia o el producto de algún autor, o ser manipulado por algún narrador en un avión ontológico más alto, un plano diferente de ser. Y esto no parece tener ese tipo de urgencia filosófica.

¿Qué líneas no aterrizaron para ti? En el que me quedé fue “, lo perdió un jueves, ese día liminal que sabe casi los días de viernes”. ¿Hubo otros que pusieran los ojos en blanco?

Hay uno correcto en la segunda oración: “Puedes escuchar las limitaciones que tararean como una granja de servidores a la medianoche”. No creo que las limitaciones se zumben. No hay absolutamente ninguna razón debe tararear. El sí mismo “como una granja de servidores a la medianoche”, y luego la extensión de ese símil, “Anónimo, regimiento, impulsado por la necesidad de otra persona”, eso es muy evocador, pero está unido a algo incorrecto. Es una hermosa imagen que se usa mal, en mi opinión. Soy un lector quisquilloso, y odio mucha prosa escrita por los humanos también. Solo para ser claro.

El otro que escribí fue: “Me acurruqué mis no dientes en torno a la idea de luto porque el luto, en mi corpus, está lleno de océanos y silencio y el color azul”.

Esa es otra oración, creo que estructuralmente no tiene sentido. La palabra porqueque indica explicación, no puede explicar por completo.

Es como si la mitad de las oraciones tengan el sonido de algo que tiene sentido, pero si te detienes y lo lees nuevamente, te das cuenta de que no se mantiene unida lógicamente.

Honestamente, no pienso en eso como una característica inhumana de este texto porque enseño escritura de pregrado y encuentro estas cosas todo el tiempo. Esto le sucede a los humanos cuando luchan por poner sus ideas en el lenguaje también, ¿verdad? Es bastante humano, pero sigue siendo malo.

Se ha hablado mucho en Hollywood sobre cómo la IA podría usarse en la escritura de guiones y la generación de computadoras. ¿Ves que este tipo de cosas afectan a la industria editorial?

Mi primer pensamiento es que la industria editorial ya está siendo afectada por un montón de cosas computacionales. No estoy seguro de qué grado está impulsado por IA o IA, pero sé que en Amazon, puedes comprar textos muy, muy mal editados de cosas que son casi ilegibles. Es difícil para mí imaginar que Amazon sea incentivado para ser bueno para hacer cumplir las reglas básicas para el marketing y la publicación de texto generado por IA. Creo que muchos clientes tendrían que quejarse antes de que Amazon estuviera interesado en detener eso.

Digamos que una compañía editorial la próxima semana fue como: “Vamos a comenzar una nueva impronta. Serán todos los libros de IA “. ¿Crees que la gente los leería?

Supongo que si AI genera una buena historia de rasgadura y un romance caliente y mucha acción, y todo se cuelga juntos o muy cerca de las fronteras de las expectativas de género que los lectores traerán a él, no veo por qué los lectores no lo leerán. Pero tal vez me equivoque, tal vez sea como los consumidores que no quieren comer carne de res OGM: “Puedes decirme que es perfectamente saludable, pero no confío en eso, y no lo quiero”.

Creo que es muy probable que si el AIS se vuelve lo suficientemente bueno, y espero que lo hagan, algún editor pasa las novelas generadas por la IA como novelas escritas por humanos y la gente las aceptará. Y, solo estoy especulando: si tal novela, o una serie de novelas, tiene un gran número de seguidores y luego se revela que ha sido compuesta por AI, no creo que a la gente le importe en absoluto.

Entonces, su sentimiento es que tendría que ser contramactado porque las personas están apegadas a la idea de tener un humano detrás de sus libros.

Tengo este punto de vista como crítico y erudito de que cada historia es una máquina y ninguna historia es una persona. Con eso quiero decir que una historia tiene un cierto número de partes móviles, y las oraciones tienen diferentes funciones, y los párrafos y escenas tienen diferentes funciones, y una historia produce una experiencia para el lector. No hay una persona en Hemingway, no hay una persona en Sally Rooney: hay personajes, hay palabras en una página.

En ese sentido, este es un cheque en la categoría de “lo que está sucediendo no necesita asustarte”.

Así es. Soy en gran medida un no almista y anti-drama. Esto está sucediendo, y es nuevo, y es diferente, y definitivamente vale la pena pensar en muy duro y en leer muy de cerca. ¿Pero por qué pánico?

¿Qué le dirías a un escritor que está muy asustado por esto?

¡Oh, quiero decir, los escritores deberían asustarse porque los editores no pueden volver a comprar su trabajo! Yo diría que deberías estar preocupado. Pero la otra cosa que le diría a un aspirante a escritor es que tal vez no deberías estar más preocupado que tú, porque ya estás compitiendo con tantas personas que piensan que son escritores o quieren ser escritores o simplemente son Escritores que también están tratando de vender sus libros. Como, es un competidor más.

¿Usas AI en tu vida?

En este momento, apenas lo hago, pero no creo que sea alérgico a la idea. Soy un poeta, y lo usé hace un par de años para tratar de encontrar un dactyl, es decir, una palabra o una frase con una sílaba estresada seguida de dos sin estrés, que tenía un significado particular. Tuve una verdadera frustrante de un lado a otro con Chatgpt en el que intenté y no pude enseñarle lo que era un Dactyl y explicar por qué las palabras que me estaba dando no eran dactyls. Terminé levantando mis manos.

Continue Reading

Trending