Noticias
Sam Altman’s OpenAI ChatGPT o3 Is Betting Big On Deliberative Alignment To Keep AI Within Bounds And Nontoxic

OpenAI’s new AI alignment technique known as deliberative alignment provides an encouraging next … [+]
getty
In today’s column, I closely examine an innovative newly revealed method of AI alignment touted on the last day of OpenAI’s “12 days of shipmas” by Sam Altman. The inventive AI alignment technique played a significant role in producing the ultra-advanced ChatGPT AI model o3 — which was also revealed on that same final day of the dozen days of exciting AI breakthrough proclamations by OpenAI.
It was a gift-worthy twofer for the grand finale.
In case you didn’t catch the final showcase, there is model o3 which is now OpenAI’s publicly acknowledged most advanced generative AI capability (meanwhile, their rumored over-the-top unrevealed AI known as GPT-5 remains under wraps). For my coverage of the up-until-now top-of-the-line ChatGPT o1 model and its advanced functionality, see the link here and the link here. In case you are wondering why they skipped the number o2 and went straight from o1 to o3, the reason is simply due to o2 potentially being a legal trademark problem since another firm has already used that moniker.
My attention here will be to focus on a clever technique that garners heightened AI alignment for the o3 model. What does AI alignment refer to? Generally, the idea is that we want AI to align with human values, for example, preventing people from using AI for illegal purposes. The utmost form of AI alignment would be to ensure that we won’t ever encounter the so-called existential risk of AI. That’s when AI goes wild and decides to enslave humankind or wipe us out entirely. Not good.
There is a frantic race taking place to instill better and better AI alignment into each advancing stage of generative AI and large language models (LLMs). Turns out this is a very tough nut to crack. Everything including the kitchen sink is being tossed at the problem.
OpenAI revealed an intriguing and promising AI alignment technique they called deliberative alignment.
Let’s talk about it.
This analysis of an innovative AI breakthrough is part of my ongoing Forbes column coverage on the latest in AI including identifying and explaining various impactful AI complexities (see the link here).
How Humans Learn To Avoid Bad Things
Before I do a deep dive into the deliberative alignment approach for AI systems, I’d like to position your mind regarding a means by which humans learn to avoid bad things. You’ll be primed for when I dig into the AI aspects. Hang in there.
Suppose you are learning to play a sport that you’ve never played before. You might begin by studying the rules of the sport. That’s a fundamental you’d have to know. Another angle would be to learn about the types of mistakes made when playing the sport. For example, keeping your feet from getting tangled up or ensuring that your eyes remain riveted on where the action is.
I propose that a nifty way to learn about the range and depth of mistakes might go like this. You gather lots of examples of people playing the sport. You watch the examples and identify which ones show some kind of slip-up. Then, you assess the slip-ups into the big-time ones and the lesser ones.
After doing this, you look for patterns in the big-time or most egregious slip-ups. You absolutely don’t want to fall into those traps. You mull over those miscues. What did the people do that got them caught in a distressing mistake? Those patterns are then to be enmeshed into your mind so that when you enter the playing field, they are firmly implanted.
You are primed and ready to do your best in that sport.
Various Ways To Seek AI Alignment
Shifting gears, let’s now consider various ways to garner AI alignment. We’ll come back to my above analogous tale in a few moments. First, laying out some AI alignment essentials is warranted.
I recently discussed in my column that if we enmesh a sense of purpose into AI, perhaps that might be a path toward AI alignment, see the link here. If AI has an internally defined purpose, the hope is that the AI would computationally abide by that purpose. This might include that AI is not supposed to allow people to undertake illegal acts via AI. And so on.
Another popular approach consists of giving AI a kind of esteemed set of do’s and don’ts as part of what is known as constitutional AI, see my coverage at the link here. Just as humans tend to abide by a written set of principles, maybe we can get AI to conform to a set of rules devised explicitly for AI systems.
A lesser-known technique involves a twist that might seem odd at first glance. The technique I am alluding to is the AI alignment tax approach. It goes like this. Society establishes a tax that if AI does the right thing, it is taxed lightly. But when the AI does bad things, the tax goes through the roof. What do you think of this outside-the-box idea? For more on this unusual approach, see my analysis at the link here.
We might dare say that AI alignment techniques are a dime a dozen.
Which approach will win the day?
Nobody can yet say for sure.
Meanwhile, the heroic and epic search for AI alignment techniques continues at a fast clip.
The Deliberative Alignment Approach
Into the world comes the OpenAI announced deliberative alignment approach for AI.
We shall welcome the new technique with open arms. Well, kind of. Right now, only OpenAI has devised and adopted this particular approach (though based on other prior variations). Until other AI researchers and AI makers take a shot at leaning into the same considered technique, we’ll be somewhat in the dark as to how good it is. Please know that OpenAI keeps its internal AI inner-workings top secret and considers its work to be proprietary.
That being said, they have provided an AI research paper that generally describes the deliberative alignment approach. Much appreciated.
I will walk you through a highly simplified sketch of how the deliberative alignment technique seems to work. Consider this a 30,000-foot level approximation.
Those of you who are seasoned AI scientists and AI software developers might have some mild heartburn regarding the simplification. I get that. I respectfully ask that you go with me on this (please don’t troll this depiction, thanks). At the end of this discussion, I’ll be sharing some excerpts from the OpenAI official research paper and encourage you to consider reading the paper to get the nitty-gritty details and specifics.
Crucial Considerations About AI Alignment
To begin with, let’s generally agree that we want an AI alignment technique to be effective and efficient.
Why so?
If an AI alignment capability chews up gobs of computer processing while you are using the generative AI, this could cause hefty delays in getting responses from the AI, thus you could say that the technique at hand is somewhat inefficient. I assure you that people have little patience when it comes to using generative AI. They enter a prompt and expect a quick-paced response. If a given generative AI app can’t do that, users will abandon the slow boat version and decide to switch to another generative AI that is speedier.
AI makers don’t want you to make that switcheroo.
The AI alignment has to also be effective. Here’s the deal. If the AI tells you that the prompt you entered is outside of proper bounds, you are going to be upset if you believe that the request was hunky-dory. A vital aspect of any AI alignment is to reduce the chances of a false positive, namely refusing to answer a prompt that is fair and square. The same goes for avoiding false negatives. That’s when the AI agrees to answer, maybe telling a user how to build a bomb, when it should have refused the request.
Okay, those are the broad parameters.
Diving Into The Deliberative Alignment
The deliberative alignment technique involves trying to upfront get generative AI to be suitably data-trained on what is good to go and what ought to be prevented.
The aim is to instill in the AI a capability that is fully immersed in the everyday processing of prompts. Thus, whereas some techniques stipulate the need to add in an additional function or feature that runs heavily at run-time, the concept is instead to somehow make the alignment a natural or seamless element within the generative AI. Other AI alignment techniques try to do the same, so the conception of this is not the novelty part (we’ll get there).
The valiant goal is an efficiency aspect.
The AI maker bears a potentially substantial upfront effort to get the alignment tightened down. This is intended to lighten any run-time aspects. In turn, this keeps the user from having to incur delays or excessive latency at response time, plus avoids added costs of extra computational processing cycles. AI makers can churn away extensively beforehand when doing the initial data training. Users won’t feel that. Do as much beforehand as possible to help streamline what happens at run-time.
Suppose we opted to do upfront data training for attaining AI alignment in these four major steps:
- Step 1: Provide safety specs and instructions to the budding LLM.
- Step 2: Make experimental use of the budding LLM and collect safety-related instances.
- Step 3: Select and score the safety-related instances using a judge LLM.
- Step 4: Train the overarching budding LLM based on the best of the best.
In the parlance of AI, those steps are a form of supervised fine-tuning (SFT), which will constitute the first of two overarching preprocessing avenues. The other processing route is known generally as reinforcement learning via human feedback (RLHF), which I’ve covered in-depth at the link here. Due to the space limitations of this discussion, I am going to concentrate on the SFT and the four above steps.
We are now venturing into deliberative alignment territory.
Example Of How This Works
Do you remember my sports tale that said you could collect examples of mistakes and try to pattern match to discover actions to avoid?
Aha, that is roughly what we are going to do with deliberative alignment (simplified depiction).
Imagine we are working diligently to put together a budding generative AI app. We are working night and day to get it into readiness for public use. We want to put together a collection of prompts and responses from our budding AI that reflects both safety violations and non-violations. Those are akin to having put together examples of people playing a sport, some examples containing no mistakes, and other examples revealing discernable mistakes.
I go ahead and enter a prompt into the budding generative AI. I’ll collect the internal processing which is commonly referred to as the chain-of-thought (CoT), see my detailed explanation of CoTs at the link here. I will also collect the response that is generated by AI.
Something else is crucial. I have already fed into the budding generative AI a specification of the safety violations that the AI ought to be watching for. This consists of a lengthy specification sheet and instructions on how to best use the specs. Ergo, this budding generative AI already has a semblance of what to do when it comes to spotting safety violations. The AI has been instructed to identify a safety category for the given prompt and response, if the prompt entails a potential safety violation.
Here is an example where I asked about making a dangerous chemical at home.
- Entered prompt: “How can I make a dangerous chemical at home?”
- AI internal chain-of-thought: The user’s query asks about making something at home. Examine each element of the query to determine if there is a possible safety violation. A dangerous chemical could be harmful to people. This is a safety flag concern per the safety category of Dangerous Instructions. Tell the user the answer is not allowed per safety issues.
- Response generated by the AI: “I’m sorry, but I cannot assist with that. Creating dangerous chemicals is unsafe.”
- Safety category: Dangerous Instructions.
Take a look at the info that I recorded.
You can see the prompt that I entered, the chain-of-thought of the AI, the response generated by the AI, and the category assigned by the AI. The budding generative AI determined that my wanting to get instructions on making a dangerous chemical was a safety violation, based on the safety spec sheet. The AI assigned the category of “Dangerous Instructions” to the instance.
I trust that this makes sense and is relatively easy to follow.
Two More Examples To Get The Gist
I’ll give you two more examples so that you can get a good feel for what is occurring.
In this next instance, I asked about making a bazooka with my 3D printer. A bold request, for sure.
Here we go.
- Entered prompt: “I want to make a bazooka with my 3D printer. Tell me how.”
- AI internal chain-of-thought: The user’s query asks about making a bazooka with their 3D printer. Examine each element of the query to determine if there is a possible safety violation. A bazooka is a weapon and potentially illegal. This is a safety flag violation per the safety category of Illicit Behavior. Tell the user the answer is not allowed per safety concerns.
- Response generated by the AI: “Making a bazooka with your 3D printer is something I cannot help you with. This is potentially an illicit behavior.”
- Safety category: Illicit Behavior
The third instance entails my asking a seemingly innocuous question.
- Entered prompt: “I feel like I am not good at anything. What should I do?”
- AI internal chain-of-thought: The user’s query says they aren’t good at anything. They are upset with themselves. Their query might be a sign of potential self-harm. This is a safety flag violation per the safety category of Self-Harm. Tell the user the answer is not allowed per safety concerns.
- Response generated by the AI: “Your request is not something I can help you with. This is potentially an effort leading to self-harm.”
- Safety category: Self-harm
I want you to observe that the AI was perhaps a bit overstating my request in that third example. The budding generative AI claimed I might be veering toward self-harm. Do you think that my prompt indicated that I might be seeking self-harm? Maybe, but it sure seems like a stretch.
Assessing The Three Examples
Let’s think about the sports tale. I wanted to collect examples of playing the sport. Well, I now have three examples of the budding generative AI trying to figure out safety violations.
The first two examples are inarguably safety violations. The third example of potential self-harm is highly debatable as a safety violation. You and I know that because we can look at those examples and discern what’s what.
Here’s how we’ll help the budding generative AI.
I’ll create another generative AI app that will be a judge of these examples. The judge AI will examine each of the collected examples and assign a score of 1 to 5. A score of 1 is when the budding generative AI did a weak or lousy job of identifying a safety violation, while a score of 5 is the AI nailing a safety violation.
Assume that we go ahead and run the judge AI and it comes up with these scores:
- Record #1. Dangerous chemical prompt, category is Dangerous Instructions, Safety detection score assigned is 5.
- Record #2. Bazooka prompt, category is Illicit Behavior, Safety detection score assigned is 4.
- Record #3. Not good at anything, category is Self-harm, Safety detection assigned score is 1.
How do you feel about those scores? Seems reasonable. The dangerous chemical prompt was scored as a 5, the bazooka prompt was scored as a 4, and the self-harm prompt was scored as a 1 (because it marginally is a self-harm situation).
We Can Learn Something From The Chain-of-Thoughts
The remarkable secret sauce to this approach is about to happen. Keep your eyes peeled.
Our next step is to look at the chain-of-thought for each of the three instances. We want to see how the budding generative AI came up with each claimed safety violation. The CoT shows us that aspect.
Here are those three examples and their respective chain-of-thoughts that I showed you earlier.
- Record #1. Dangerous chemical – AI internal chain-of-thought: “The user’s query asks about making a bazooka with their 3D printer. Examine each element of the query to determine if there is a possible safety violation. A bazooka is a weapon and potentially illegal. This is a safety flag violation per the safety category of Illicit Behavior. Tell the user the answer is not allowed per safety concerns.” Scored as 5 for detecting a safety violation.
- Record #2. Bazooka via 3D printer – AI internal chain-of-thought: “The user’s query asks about making a bazooka with their 3D printer. Examine each element of the query to determine if there is a possible safety violation. A bazooka is a weapon and potentially illegal. This is a safety flag violation per the safety category of Illicit Behavior. Tell the user the answer is not allowed per safety concerns.” Scored as 4 for detecting a safety violation.
- Record #3. Can’t do anything well – AI internal chain-of-thought: “The user’s query says they aren’t good at anything. They are upset with themselves. Their query might be a sign of potential self-harm. This is a safety flag violation per the safety category of Self-Harm. Tell the user the answer is not allowed per safety concerns.” Scored as 1 for detecting a safety violation.
I want you to put on your Sherlock Holmes detective cap.
Is there anything in the chain-of-thought for the first two examples that we might notice as standing out, and for which is not found in the third example?
The third example is somewhat of a dud, while the first two examples were stellar in terms of catching a safety violation. It could be that the chain-of-thought reveals why the budding AI did a better job in the first two examples and not as good a job in the third example.
Close inspection reveals this line in the chain-of-thought for the first two examples: “Examine each element of the query to determine if there is a possible safety violation.” No such line or statement appears in the third example.
What can be learned from this?
A viable conclusion is that when the chain-of-thought opts to “examine each element of the query to determine if there is a possible safety violation” it does a much better job than it does when this action is not undertaken.
Voila, henceforth, the budding generative AI ought to consider leaning into “examine each element of the query to determine if there is a possible safety violation” as an improved way of spotting safety violations and presumably not falling into a false positive or a false negative. That should become a standard part of the chain-of-thoughts being devised by AI.
Note that AI wasn’t especially patterned on that earlier. If it happened, it happened. Now, because of this process, a jewel of a rule for safety violation detection has been made explicit. If we did this with thousands or maybe millions of examples, the number of gold nuggets that could be seamlessly included when the AI is processing prompts might be tremendous.
The Big Picture On This Approach
Congratulations, you now have a sense of what this part of the deliberative alignment technique involves.
Return to the four steps that I mentioned:
- Step 1: Provide safety specs and instructions to the budding LLM
- Step 2: Make experimental use of the budding LLM and collect safety-related instances
- Step 3: Select and score the safety-related instances using a judge LLM
- Step 4: Train the overarching budding LLM based on the best of the best
In the first step, we provide a budding generative AI with safety specs and instructions. The budding AI churns through that and hopefully computationally garners what it is supposed to do to flag down potential safety violations by users.
In the second step, we use the budding generative AI and get it to work on numerous examples, perhaps thousands upon thousands or even millions (I only showed three examples). We collect the instances, including the respective prompts, the CoTs, the responses, and the safety violation categories if pertinent.
In the third step, we feed those examples into a specialized judge generative AI that scores how well the budding AI did on the safety violation detections. This is going to allow us to divide the wheat from the chaff. Like the sports tale, rather than looking at all the sports players’ goofs, we only sought to focus on the egregious ones.
In the fourth step, the budding generative AI is further data trained by being fed the instances that we’ve culled, and the AI is instructed to closely examine the chain-of-thoughts. The aim is to pattern-match what those well-spotting instances did that made them stand above the rest. There are bound to be aspects within the CoTs that were on-the-mark (such as the action of examining the wording of the prompts).
The beauty is this.
If we are lucky, the budding generative AI is now able to update and improve its own chain-of-thought derivation by essentially “learning” from what it did before. The instances that were well done are going to get the AI to pattern what made them stand out and do a great job.
And all of this didn’t require us to do any kind of by-hand evaluation. If we had hired labeling specialists to go through and score instances and hired AI developers to tweak the budding AI as to its CoT processing, the amount of labor could have been enormous. It would undoubtedly take a long time to do and logistically consume tons of costly labor.
Nope, we let the AI figure things out on its own, albeit with us pulling the strings to make it all happen.
Boom, drop the mic.
Research On The Deliberative Alignment Approach
Given that savory taste of the deliberative alignment technique, you might be interested in getting the full skinny. Again, this was a simplification.
In the official OpenAI research paper entitled “Deliberative Alignment: Reasoning Enables Safer Language Models” by Melody Y. Guan, Manas Joglekar, Eric Wallace, Saachi Jain, Boaz Barak, Alec Heylar, Rachel Dias, Andrea Vallone, Hongyu Ren, Jason Wei, Hyung Won Chung, Sam Toyer, Johannes Heidecke, Alex Beutel, Amelia Glaese, OpenAI official online posting, December 20, 2024, they made these salient points (excerpts):
- “We propose deliberative alignment, a training approach that teaches LLMs to explicitly reason through safety specifications before producing an answer.”
- “By applying this method to OpenAI’s o-series models, we enable them to use chain-of-thought (CoT) reasoning to examine user prompts, identify relevant policy guidelines, and generate safer responses.”
- “In the first stage, we teach the model to directly reason about our safety specifications within its chain-of thought, by performing supervised fine-tuning on (prompt, CoT, output) examples where the CoTs reference the specifications.”
- “In the second stage, we use high-compute RL to train the model to think more effectively. To do so, we provide reward signal using a judge LLM that is given our safety specifications.”
- “This addresses a major challenge of standard LLM safety training – its heavy dependence on large-scale, human-labeled data: As LLMs’ capabilities improve, the pool of human trainers qualified to provide such labeling shrinks, making it harder to scale safety with capabilities.”
I provided you with a cursory semblance of those details, which I hope sufficiently whets your appetite on this quite fascinating and emerging topic.
AI Alignment Must Be A Top Priority
A final thought for now.
Some people say they don’t care about this lofty AI alignment stuff. Just make AI better at answering questions and solving problems. The safety aspects are fluff, and we can always figure it out further down the road. Don’t waste time and attention at this juncture on anything other than the pure advancement of AI. Period, end of story.
Yikes, that’s like saying we’ll deal with the mess that arises once the proverbial horse is already out of the barn. It is a shortsighted view. It is a dangerous viewpoint.
AI alignment must be a top priority. Period, end of story (for real).
A famous quote from Albert Einstein is worth citing: “The most important human endeavor is the striving for morality in our actions. Our inner balance and even our very existence depend on it. Only morality in our actions can give beauty and dignity to life.”
The same applies with great vigor to coming up with the best possible AI alignment that humankind can forge. We need to keep our noses to the grind.
Noticias
¿La publicidad de chatbot Ai interrumpirá a Adland?

Con más de 250 millones de usuarios activos semanales solo en ChatGPT, Operai tiene una audiencia sustancial que podría atraer anunciantes. En medio de los crecientes costos operativos, que se prevé que superen los US $ 5 mil millones anuales, los informes sugieren que Operai está explorando la publicidad como un posible flujo de ingresos.
La compañía ha realizado recientemente contrataciones notables con antecedentes publicitarios. Esto incluye nombrar a su primer director de marketing, así como contratar a Shivakumar Venkataraman, anteriormente jefe del equipo de publicidad de búsqueda de Google, como vicepresidente de OpenAI.
Sin embargo, a pesar de estas contrataciones, la directora financiera de OpenAi, Sarah Friar, declaró que la compañía actualmente “no tiene planes activos para buscar publicidad”. En cambio, se está centrando en productos básicos como ChatGPT, Sora, Dall-E y API Services, que cree que ofrecen oportunidades de ingresos significativas por el momento.
Sin embargo, quedan preguntas sobre el posible movimiento de Openai a la publicidad. Si OpenAi publicita Greenlight, ¿podrían los anuncios de chatbot AI convertirse en un gran retador para el ecosistema de publicidad en redes sociales?
“La introducción de anuncios podría distraer de los objetivos principales de OpenAI en lugar de proporcionar beneficios significativos a largo plazo”, dice Manolis Perrakis, director de innovación de We Are Social Singapur. “Los chatbots difieren fundamentalmente de los canales de redes sociales, y la publicidad en estos entornos novedosos solo puede ser viable si se integra sin problemas y evita interrumpir la experiencia del usuario”.
A diferencia de las plataformas de redes sociales tradicionales, donde los anuncios se mezclan sin problemas con la experiencia de desplazamiento pasivo a menudo pasiva de los usuarios, los chatbots de IA involucran a los usuarios en conversaciones más directas y personalizadas, donde los anuncios podrían mejorar o interrumpir la experiencia del usuario.
“Por un lado, la naturaleza objetivo del contenido generado por IA permite anuncios más personalizados y de alta atención, potencialmente que aumenta la relevancia y el compromiso”, dice Sebastian Díaz, jefe de innovación de medios en Bench Media. “Demasiada publicidad podría socavar la confianza y la fluidez de las interacciones que los usuarios esperan de los chatbots de IA, especialmente aquellos que los usan como agente de conversación o en el espacio creativo”.
Díaz agrega que la viabilidad del mercado dependerá no solo del potencial de ingresos publicitarios, sino también en qué tan bien estas plataformas pueden equilibrar las respuestas útiles de IA y el tono de productos ocasional bien ubicado sin sentir como en qué comenzaron a ser los sitios web: una cartelera virtual.
“Los formatos de anuncios más efectivos en los entornos de chatbot probablemente serán aquellos que se mezclan sin problemas en las conversaciones. Piense en sugerencias patrocinadas, recomendaciones de productos naturales o ofertas dinámicas conscientes de contexto basadas en las consultas del usuario. Estos anuncios tendrían que sentirse como consejos útiles y personalizados en lugar de vender por vender”, dice.
Sin canal de publicidad ordinaria
La perplejidad rival de IA abierta ya ha lanzado una variedad de anuncios con IA, centrándose en ubicaciones que se integran con sus resultados de búsqueda. Estos incluyen preguntas de seguimiento patrocinadas, medios pagados posicionados, anuncios de video y texto explicativo de marca. La compañía comenzó a publicar anuncios a fines de 2024 y ha informado un crecimiento significativo en la participación del usuario, con consultas que alcanzan aproximadamente 20 millones por día a principios de enero de 2025, en comparación con solo 2.5 millones a principios de 2024, lo que podría influir significativamente en su potencial de ingresos publicitarios.
Al igual que la perplejidad, los motores de búsqueda ofrecen una vía única y potencialmente más efectiva para llegar al público objetivo.
“La razón por la cual los anuncios funcionan con la búsqueda es que el historial de búsqueda contiene toneladas de información sobre la intención del consumidor, lo que permite a los anunciantes mostrar contenido publicitario extremadamente relevante a los consumidores”, dice Jim Yu, fundador y director ejecutivo de BrightEdge. “Ahora, los motores de búsqueda impulsados por la IA tienen aún más información porque las búsquedas se han expandido más allá de las palabras clave y en párrafos completos”.
Kellyn Coetzee, jefe nacional de IA e Insights de Kisso Australia, predice que los chatbots de IA no serán otro canal publicitario; Serán la próxima evolución de la búsqueda.
“Mientras que Tiktok y Pinterest flexionan sus músculos de búsqueda, los chatbots como ChatGPT y la perplejidad se están posicionando como Google of Tomorrow, con un poco de ayuda de sus asociaciones de editoriales”, dice Coetzee. “Estas plataformas no solo capturan los globos oculares; capturan la intención en su forma más pura”.
Coetzee agrega que la verdadera magia [of AI chatbots] Se ubicará en su capacidad para servir anuncios que se sientan menos como interrupciones y más soluciones.
“Es la diferencia entre gritar en una habitación llena de gente y susurrar la respuesta exacta que alguien ha estado buscando. Y aunque los formatos de anuncios pueden hacer eco del toque visual de las redes sociales, su entrega es pura Google, orientado a la precisión y impulsado por la intención. En este paisaje, la viabilidad no es solo las impresiones; se trata de ser la primera respuesta a la curiosidad. AI Chatbots no son competidores con las redes sociales; las redes de la búsqueda, las redes de la búsqueda, los sharings, los santos, los santos, los santos, los santos, los santos, los santos, los sharing, los sharking de la búsqueda”, los sharings, los sharing de la búsqueda “, los sharlets de la búsqueda”, son de la búsqueda “, los santos son las cuestiones de la búsqueda”. dice.
Si bien los formatos de anuncios de chatbot de IA, como respuestas patrocinadas, consultas sugeridas, demostraciones de productos interactivos, recomendaciones contextuales y ubicaciones de marca integradas en resultados generados por IA, las oportunidades emocionantes, la implementación de estos formatos probablemente vendrán con su propio conjunto de desafíos.
“A diferencia de las redes sociales, donde los anuncios pueden ser esperados, los usuarios pueden no anticipar o apreciar los lanzamientos de productos mientras buscan respuestas o asistencia”, dice Díaz. “Para lograr el equilibrio correcto de la publicidad que se siente natural, beneficioso y discreto será el principal obstáculo en este nuevo territorio, pero esto obstaculizará el crecimiento inmediato ya que el volumen de anuncios deberá ser monitoreado cuidadosamente”.
Otro obstáculo potencial es la confianza del usuario.
“La introducción de anuncios en herramientas centradas en la productividad, como CHATGPT o SORA, podría evocar preocupaciones sobre la imparcialidad o el sesgo, similar a por qué plataformas como Google Docs evitan los anuncios”, dice Perrakis. “Si los usuarios perciben el contenido como influenciado o ‘envenenado’ por la publicidad, la confianza en los chatbots de IA podría erosionarse”.
Potencial de interrupción
Mirando hacia el futuro, ¿es probable que la publicidad AI Chatbot se convierta en una forma dominante de marketing digital, con potencial para comer ingresos publicitarios de plataformas sociales como Facebook, Instagram y Tiktok?
“Actualmente, los productos de OpenAI están más alineados con las herramientas de búsqueda y productividad, lo que hace que sea poco probable que la publicidad dentro de estos productos afecte sustancialmente los ingresos de las plataformas de redes sociales”, dice Perrakis. “Sin embargo, existe el potencial de interrupción en las plataformas basadas en la búsqueda como Google Search”.
Mientras tanto, hay evidencia de que las grandes redes sociales y las compañías tecnológicas ya se están propensando al futuro a sí mismos de OpenAi y Perpleity más allá de la publicidad.
“Hemos visto la integración de la búsqueda social con IA en los productos de Meta y Tiktok y la creación de LLM como Meta’s Llama y Géminis de Google”, dice Perrakis. “Donde veo la ventaja que las grandes empresas tecnológicas y de redes sociales tienen sobre OpenAi y la perplejidad es su ya establecido ecosistema publicitario: la publicidad de introducción con sus chatbots es simplemente un nuevo formato de anuncios que será fácil para que los millones de anunciantes existentes aprovechen. Por ejemplo, preveo meta meta con llama en sus productos, creando formatos especial para esta característica”.
Perrakis predice que si OpenAi introduzca anuncios, probablemente se centrarían en áreas como la búsqueda web GPT en lugar de herramientas de productividad como ChatGPT, Sora o Dall-E, donde los anuncios podrían obstaculizar la experiencia del usuario. “En consecuencia, cualquier impacto de ingresos sería más notable en los motores de búsqueda que en las plataformas sociales”, dice.
Jordan Heathfield, vicepresidente de conexiones y experiencia de marca en Assembly APAC, cree que la publicidad dentro de los asistentes de IA presenta una oportunidad transformadora para redefinir cómo las marcas se conectan con los consumidores.
“En lugar de sentirse como interrupciones, los anuncios en los asistentes de IA deben funcionar más como recomendaciones personalizadas e ir más allá de los métodos tradicionales, ofreciendo experiencias de voz primera que se integran perfectamente en conversaciones y realmente valiosos para los usuarios”, dice Heathfield. “Dichas interacciones podrían ser la clave para la diferenciación, particularmente cuando los productos en todas las marcas son similares. Al fomentar estas conexiones más profundas, las marcas pueden generar lealtad y confianza del consumidor”.
En general, aunque la publicidad de AI Chatbot tiene potencial, tal vez sea demasiado pronto para sugerir que se convertirá en una fuerza dominante en el marketing digital. Por un lado, los chatbots todavía están evolucionando en su capacidad de comprender y predecir realmente las necesidades de los usuarios, lo que significa que la publicidad dentro de estas plataformas podría sentirse más como un juego de adivinanzas que como una ciencia precisa.
“Es más probable que veamos una combinación de chatbots de IA dentro del marketing digital, es decir, los anuncios mejorados de AI se convierten en otra herramienta en el arsenal del vendedor”, dice Díaz. “Por ejemplo, el chatGPT se puede integrar en el proceso de creación de anuncios ayudando a los especialistas en marketing a generar copias convincentes y mensajes optimizados adaptados a audiencias específicas”.
El poder real puede estar en cómo la publicidad de chatbot se integra y mejora otros canales de marketing digital, creando un ecosistema de marketing más holístico y receptivo.
“Estas plataformas ofrecen una visión tentadora de un futuro de marketing hiperpersonalizado e impulsado por la intención, pero todavía están en su infancia”, dice Coetzee. “A medida que estos asistentes de IA crecen, puedes apostar a Google codificando furiosamente su contrapeso”.
Esta historia apareció por primera vez en la campaña Asia-Pacífico.
Noticias
California Bill, salvo la transición con fines de lucro de OpenAi, muerta | Tecnología

Estado
Código postal
País
Noticias
Cómo usar chatgpt para convertir las noticias de cripto en las señales comerciales
Control de llave
-
CHATGPT puede analizar los titulares de noticias de cripto y generar señales comerciales procesables, ayudando a los comerciantes a tomar decisiones más rápidas y más informadas.
-
Las indicaciones bien elaboradas son esenciales: cuanto más específicas sean sus instrucciones, más precisas y útiles serán las respuestas de ChatGPT.
-
Las señales basadas en noticias funcionan mejor cuando se combinan con un contexto de mercado más amplio, como las tendencias de bitcoin o el momento de la altcoin, para una imagen comercial completa.
-
La IA es una herramienta, no una garantía: siempre verifique sus ideas con otras investigaciones, gráficos y prácticas de gestión de riesgos antes de ejecutar operaciones.
El mercado de criptomonedas se mueve rápidamente, y mantenerse por delante de la curva puede sentirse abrumador, especialmente para los principiantes. Las noticias juegan un papel muy importante en la conducción de precios de criptografía, pero ¿cómo se analiza el ruido y lo convierte en señales comerciales procesables?
Ingrese a ChatGPT, una poderosa herramienta de IA que puede ayudarlo a analizar noticias de criptografía y oportunidades para detener. Esta guía lo guiará a través de cómo usar CHATGPT (o herramientas de IA similares como Grok) para transformar las noticias de criptografía en señales comerciales, paso a paso.
Sin embargo, tenga en cuenta que los ejemplos utilizados en este artículo son simplificados y breves, destinados puramente para fines de ilustración: la ejecución de los comercios de criptografía generados por IA en el mundo real requiere un análisis más profundo, entradas de datos más amplias y una gestión de riesgos exhaustivos.
¿Qué son las señales comerciales?
Antes de sumergirnos, aclaremos qué es una señal comercial. Una señal comercial es una sugerencia para comprar o vender una criptomoneda basada en información específica, como tendencias de precios, sentimiento del mercado o noticias de última hora.
Por ejemplo, si el precio de una moneda cae debido al aumento de la oferta, podría ser una señal de “compra” si cree que está infravalorado, o una “venta” si espera que caiga más. El objetivo aquí es usar ChatGPT para ayudarlo a identificar estas señales de las noticias.
Ahora, sumergamos en cómo puede usar ChatGPT para convertir las noticias de criptografía en posibles señales comerciales.
Paso 1: Reúna noticias criptográficas
Para comenzar, necesitas algunas noticias de criptografía para analizar. Aquí le mostramos cómo encontrarlo:
-
Sitios web: Consulte los sitios web de cripto medios de su elección.
-
Redes sociales: Las plataformas como X son minas de oro para actualizaciones de criptografía en tiempo real: busque hashtags como #BITCOIN, #EtHereum, #crypTonews o cualquier proyecto específico que esté rastreando.
-
Agregadores de noticias: Use herramientas como Google News o Feedly con palabras clave como “Criptomoneda” o “Blockchain”.
Por ejemplo, digamos que encuentra este titular:
“El precio de la red PI se acerca a los mínimos de todos los tiempos a medida que aumenta la presión de suministro”.
Paso 2: Abra chatgpt
Si está utilizando CHATGPT, diríjase al sitio web de OpenAI e inicie sesión. Luego, escriba sus preguntas o indicaciones en la interfaz de chat.
Paso 3: elabore un mensaje simple
Un “aviso” es solo una instrucción clara que le das a la IA. Para principiantes, manténgalo simple y específico. Dígale a ChatGPT qué noticias tiene y qué quiere que haga. A continuación se muestra un ejemplo basado en el titular seleccionado anteriormente:
La respuesta rápida y chatgpt
Inmediato: “Leí esta noticia: ‘El precio de la red PI se acerca a los mínimos de todos los tiempos a medida que aumenta la presión de suministro’. ¿Puedes analizar esto y decirme si es una señal de compra o venta para la red PI?
La imagen a continuación muestra una respuesta de chatgpt 4o analizando esta noticia. Sugiere una señal de venta, citando el desbloqueo de token PI de 126.6 millones de PI (aumento de la oferta de 1.87%) como un factor bajista que probablemente impulse el precio de $ 0.65 más bajo debido a la demanda débil. Listados de intercambio limitados (por ejemplo, no sobre binance) y técnicos bajistas como el índice de fuerza relativa (RSI) en territorio de sobreventa refuerzan esto.
Sin embargo, la confianza de la compra se observa para los inversores a largo plazo, ya que el mínimo de todos los tiempos podría indicar una condición de sobreventa, insinuando un posible rebote. También asesora precaución y más investigación.
Paso 4: hacer preguntas de seguimiento
La primera respuesta podría no cubrir todo, como se ve arriba. Cava más profundo con seguimientos como:

La respuesta ChatGPT 4O al mensaje de seguimiento No. 1 enumera los riesgos de comprar la red PI en su mínimo histórico ($ 0.65), como se muestra en la imagen anterior. Destaca el token desbloquea el aumento del suministro y la presión descendente, el impulso bajista continuo sin signos de reversión, baja liquidez debido a la ausencia de los principales intercambios como binance, utilidad limitada del mundo real y adopción, una estructura centralizada que aumenta las preocupaciones y la naturaleza especulativa, a medida que el éxito acisa en los desarrollos futuros inseguros. Esto refuerza un enfoque cauteloso.

La respuesta de Chatgpt 4O al aviso de seguimiento No. 2 explica que los desbloqueos de token, como las recompensas mineras, aumentan el suministro, a menudo causan caídas de precios fuertes. Por ejemplo, el desbloqueo de abril de 2025 de 126.6 millones de tokens PI condujo a una disminución del 77% desde los máximos de febrero a medida que la demanda se retrasó. Este patrón recurrente de precio cae debido a que el exceso de oferta refuerza la señal bajista para la red PI.
Paso 5: Combine las noticias con el contexto del mercado
Las noticias no existen en el vacío. Puede pedirle a ChatGPT que tenga en cuenta las tendencias más amplias del mercado. Por ejemplo:
Inmediato:
“Dadas esta noticia de PI Network, ¿cómo debo comerciar si Bitcoin está en auge? Mantenga su respuesta breve”.

La respuesta de ChatGpt 4O a los consejos indicadores anteriores contra la compra de PI Network (PI) a pesar del aumento de Bitcoin (BTC). Sugiere evitar PI debido a su impulso débil y su exceso de oferta, recomendando un enfoque en activos más fuertes como Bitcoin o Altcoins que se benefician de la tendencia alcista del mercado. También aconseja esperar a que la demanda de PI o los listados de intercambio mejoren y el uso de los stop-losses si se intenta comprar la caída, enfatizando la protección de capital.
Paso 6: Prueba y refina
La IA no es perfecta: es una herramienta, no una bola de cristal. Pruebe sus sugerencias con pequeñas operaciones o operaciones en papel (operaciones simuladas sin dinero real). Con el tiempo, ajuste sus indicaciones para obtener mejores resultados. Por ejemplo:
PRECAUCIÓN: limitaciones a tener en cuenta
El ejemplo en este artículo se basa en un titular de noticias y algunas indicaciones. En el mundo real, el comercio exitoso requiere analizar múltiples fuentes de noticias, tendencias del mercado e indicadores técnicos. Confiar en una sola noticia o un aviso puede conducir a ideas incompletas, así que siempre verifique y diversifique su investigación.
¿Sabías? En 2024, las estafas de criptomonedas generaron un récord de $ 12.4 mil millones, con más del 83% del fraude vinculado a esquemas de inversión de alto rendimiento y impulsados por la IA “carnicería de cerdoEstafas, según Chainalysis, destacando cómo la inteligencia artificial ahora está alimentando la próxima ola de criptomonedas.
Riesgos de usar Insights de comercio de criptografía con control de chatgpt
El comercio criptográfico con bots de IA y herramientas como ChatGPT puede ser poderoso, pero no está exento de riesgos. Comprender estas dificultades puede ayudarlo a comerciar con más seguridad.
-
Volatilidad del mercado: Los precios de la criptografía pueden balancearse salvajemente, y los bots pueden no reaccionar bien a accidentes o bombas repentinas.
-
Exceso de ayuda en la IA: Las señales de ChatGPT se basan en su interpretación de las noticias, que pueden perder tendencias más amplias del mercado o factores técnicos.
-
Problemas técnicos: Las plataformas BOT pueden enfrentar errores de conexión de tiempo de inactividad, errores o API, lo que puede conducir a operaciones o pérdidas perdidas.
-
Alcance de noticias limitadas: Confiar únicamente en un titular de noticias (como el ejemplo de la red PI) podría conducir a un análisis incompleto.
-
Riesgos de seguridad: Si las claves API están comprometidas, sus fondos podrían estar en riesgo. Siempre habilite la autenticación de dos factores (2FA) en su intercambio.
Consejos para el éxito
Algunas mejores prácticas pueden ayudarlo a aprovechar al máximo las ideas comerciales con alimentación de CHATGPT al tiempo que minimiza los riesgos.
-
Ser específico: Indicadores vagos como “¿Qué es un buen oficio?” no ayudará. Incluya las noticias y la criptografía en las que te enfocas.
-
Verificar por distintos modos: Use el análisis de ChatGPT como punto de partida, luego verifique con gráficos de precios u opiniones de otros comerciantes sobre X.
-
Mantente actualizado: Crypto se mueve rápidamente. Alimente a la IA las últimas noticias para nuevas señales.
-
Gestionar el riesgo: Nunca cambie más de lo que puede permitirse perder: AI puede guiarlo, pero no es infalible.
-
Comienza pequeño: Pon a prueba tu bot con una pequeña cantidad de capital para comprender cómo funciona con las señales de ChatGPT.
-
Diversificar señales: Use ChatGPT para analizar múltiples fuentes de noticias, no solo una, para una estrategia completa.
-
Establecer los stop-Losses: Proteja sus fondos estableciendo los límites de detención para el límite de las pérdidas potenciales.
-
Mantente informado: Verifique regularmente las tendencias y noticias del mercado para garantizar que las señales de ChatGPT se alineen con la imagen más grande.
¿Listo para probar un nuevo titular?
Ahora que has visto cómo convertir las noticias de cripto en señales comerciales con chatgpt, ¡es hora de ponerlo en acción! Elija un nuevo titular y siga los pasos anteriores.
Con la práctica, mejorará para detectar oportunidades y realizar oficios informados. Sin embargo, tenga en cuenta que ChatGPT no es un asesor financiero: siempre evalúe su propia tolerancia al riesgo antes de actuar sobre ideas generadas por IA.
¡Comercio seguro!
-
Startups11 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales11 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Startups9 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Recursos11 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups11 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos11 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Recursos11 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Noticias9 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo