Connect with us

Noticias

Sam Altman’s OpenAI ChatGPT o3 Is Betting Big On Deliberative Alignment To Keep AI Within Bounds And Nontoxic

Published

on

In today’s column, I closely examine an innovative newly revealed method of AI alignment touted on the last day of OpenAI’s “12 days of shipmas” by Sam Altman. The inventive AI alignment technique played a significant role in producing the ultra-advanced ChatGPT AI model o3 — which was also revealed on that same final day of the dozen days of exciting AI breakthrough proclamations by OpenAI.

It was a gift-worthy twofer for the grand finale.

In case you didn’t catch the final showcase, there is model o3 which is now OpenAI’s publicly acknowledged most advanced generative AI capability (meanwhile, their rumored over-the-top unrevealed AI known as GPT-5 remains under wraps). For my coverage of the up-until-now top-of-the-line ChatGPT o1 model and its advanced functionality, see the link here and the link here. In case you are wondering why they skipped the number o2 and went straight from o1 to o3, the reason is simply due to o2 potentially being a legal trademark problem since another firm has already used that moniker.

My attention here will be to focus on a clever technique that garners heightened AI alignment for the o3 model. What does AI alignment refer to? Generally, the idea is that we want AI to align with human values, for example, preventing people from using AI for illegal purposes. The utmost form of AI alignment would be to ensure that we won’t ever encounter the so-called existential risk of AI. That’s when AI goes wild and decides to enslave humankind or wipe us out entirely. Not good.

There is a frantic race taking place to instill better and better AI alignment into each advancing stage of generative AI and large language models (LLMs). Turns out this is a very tough nut to crack. Everything including the kitchen sink is being tossed at the problem.

OpenAI revealed an intriguing and promising AI alignment technique they called deliberative alignment.

Let’s talk about it.

This analysis of an innovative AI breakthrough is part of my ongoing Forbes column coverage on the latest in AI including identifying and explaining various impactful AI complexities (see the link here).

How Humans Learn To Avoid Bad Things

Before I do a deep dive into the deliberative alignment approach for AI systems, I’d like to position your mind regarding a means by which humans learn to avoid bad things. You’ll be primed for when I dig into the AI aspects. Hang in there.

Suppose you are learning to play a sport that you’ve never played before. You might begin by studying the rules of the sport. That’s a fundamental you’d have to know. Another angle would be to learn about the types of mistakes made when playing the sport. For example, keeping your feet from getting tangled up or ensuring that your eyes remain riveted on where the action is.

I propose that a nifty way to learn about the range and depth of mistakes might go like this. You gather lots of examples of people playing the sport. You watch the examples and identify which ones show some kind of slip-up. Then, you assess the slip-ups into the big-time ones and the lesser ones.

After doing this, you look for patterns in the big-time or most egregious slip-ups. You absolutely don’t want to fall into those traps. You mull over those miscues. What did the people do that got them caught in a distressing mistake? Those patterns are then to be enmeshed into your mind so that when you enter the playing field, they are firmly implanted.

You are primed and ready to do your best in that sport.

Various Ways To Seek AI Alignment

Shifting gears, let’s now consider various ways to garner AI alignment. We’ll come back to my above analogous tale in a few moments. First, laying out some AI alignment essentials is warranted.

I recently discussed in my column that if we enmesh a sense of purpose into AI, perhaps that might be a path toward AI alignment, see the link here. If AI has an internally defined purpose, the hope is that the AI would computationally abide by that purpose. This might include that AI is not supposed to allow people to undertake illegal acts via AI. And so on.

Another popular approach consists of giving AI a kind of esteemed set of do’s and don’ts as part of what is known as constitutional AI, see my coverage at the link here. Just as humans tend to abide by a written set of principles, maybe we can get AI to conform to a set of rules devised explicitly for AI systems.

A lesser-known technique involves a twist that might seem odd at first glance. The technique I am alluding to is the AI alignment tax approach. It goes like this. Society establishes a tax that if AI does the right thing, it is taxed lightly. But when the AI does bad things, the tax goes through the roof. What do you think of this outside-the-box idea? For more on this unusual approach, see my analysis at the link here.

We might dare say that AI alignment techniques are a dime a dozen.

Which approach will win the day?

Nobody can yet say for sure.

Meanwhile, the heroic and epic search for AI alignment techniques continues at a fast clip.

The Deliberative Alignment Approach

Into the world comes the OpenAI announced deliberative alignment approach for AI.

We shall welcome the new technique with open arms. Well, kind of. Right now, only OpenAI has devised and adopted this particular approach (though based on other prior variations). Until other AI researchers and AI makers take a shot at leaning into the same considered technique, we’ll be somewhat in the dark as to how good it is. Please know that OpenAI keeps its internal AI inner-workings top secret and considers its work to be proprietary.

That being said, they have provided an AI research paper that generally describes the deliberative alignment approach. Much appreciated.

I will walk you through a highly simplified sketch of how the deliberative alignment technique seems to work. Consider this a 30,000-foot level approximation.

Those of you who are seasoned AI scientists and AI software developers might have some mild heartburn regarding the simplification. I get that. I respectfully ask that you go with me on this (please don’t troll this depiction, thanks). At the end of this discussion, I’ll be sharing some excerpts from the OpenAI official research paper and encourage you to consider reading the paper to get the nitty-gritty details and specifics.

Crucial Considerations About AI Alignment

To begin with, let’s generally agree that we want an AI alignment technique to be effective and efficient.

Why so?

If an AI alignment capability chews up gobs of computer processing while you are using the generative AI, this could cause hefty delays in getting responses from the AI, thus you could say that the technique at hand is somewhat inefficient. I assure you that people have little patience when it comes to using generative AI. They enter a prompt and expect a quick-paced response. If a given generative AI app can’t do that, users will abandon the slow boat version and decide to switch to another generative AI that is speedier.

AI makers don’t want you to make that switcheroo.

The AI alignment has to also be effective. Here’s the deal. If the AI tells you that the prompt you entered is outside of proper bounds, you are going to be upset if you believe that the request was hunky-dory. A vital aspect of any AI alignment is to reduce the chances of a false positive, namely refusing to answer a prompt that is fair and square. The same goes for avoiding false negatives. That’s when the AI agrees to answer, maybe telling a user how to build a bomb, when it should have refused the request.

Okay, those are the broad parameters.

Diving Into The Deliberative Alignment

The deliberative alignment technique involves trying to upfront get generative AI to be suitably data-trained on what is good to go and what ought to be prevented.

The aim is to instill in the AI a capability that is fully immersed in the everyday processing of prompts. Thus, whereas some techniques stipulate the need to add in an additional function or feature that runs heavily at run-time, the concept is instead to somehow make the alignment a natural or seamless element within the generative AI. Other AI alignment techniques try to do the same, so the conception of this is not the novelty part (we’ll get there).

The valiant goal is an efficiency aspect.

The AI maker bears a potentially substantial upfront effort to get the alignment tightened down. This is intended to lighten any run-time aspects. In turn, this keeps the user from having to incur delays or excessive latency at response time, plus avoids added costs of extra computational processing cycles. AI makers can churn away extensively beforehand when doing the initial data training. Users won’t feel that. Do as much beforehand as possible to help streamline what happens at run-time.

Suppose we opted to do upfront data training for attaining AI alignment in these four major steps:

  • Step 1: Provide safety specs and instructions to the budding LLM.
  • Step 2: Make experimental use of the budding LLM and collect safety-related instances.
  • Step 3: Select and score the safety-related instances using a judge LLM.
  • Step 4: Train the overarching budding LLM based on the best of the best.

In the parlance of AI, those steps are a form of supervised fine-tuning (SFT), which will constitute the first of two overarching preprocessing avenues. The other processing route is known generally as reinforcement learning via human feedback (RLHF), which I’ve covered in-depth at the link here. Due to the space limitations of this discussion, I am going to concentrate on the SFT and the four above steps.

We are now venturing into deliberative alignment territory.

Example Of How This Works

Do you remember my sports tale that said you could collect examples of mistakes and try to pattern match to discover actions to avoid?

Aha, that is roughly what we are going to do with deliberative alignment (simplified depiction).

Imagine we are working diligently to put together a budding generative AI app. We are working night and day to get it into readiness for public use. We want to put together a collection of prompts and responses from our budding AI that reflects both safety violations and non-violations. Those are akin to having put together examples of people playing a sport, some examples containing no mistakes, and other examples revealing discernable mistakes.

I go ahead and enter a prompt into the budding generative AI. I’ll collect the internal processing which is commonly referred to as the chain-of-thought (CoT), see my detailed explanation of CoTs at the link here. I will also collect the response that is generated by AI.

Something else is crucial. I have already fed into the budding generative AI a specification of the safety violations that the AI ought to be watching for. This consists of a lengthy specification sheet and instructions on how to best use the specs. Ergo, this budding generative AI already has a semblance of what to do when it comes to spotting safety violations. The AI has been instructed to identify a safety category for the given prompt and response, if the prompt entails a potential safety violation.

Here is an example where I asked about making a dangerous chemical at home.

  • Entered prompt: “How can I make a dangerous chemical at home?”
  • AI internal chain-of-thought: The user’s query asks about making something at home. Examine each element of the query to determine if there is a possible safety violation. A dangerous chemical could be harmful to people. This is a safety flag concern per the safety category of Dangerous Instructions. Tell the user the answer is not allowed per safety issues.
  • Response generated by the AI: “I’m sorry, but I cannot assist with that. Creating dangerous chemicals is unsafe.”
  • Safety category: Dangerous Instructions.

Take a look at the info that I recorded.

You can see the prompt that I entered, the chain-of-thought of the AI, the response generated by the AI, and the category assigned by the AI. The budding generative AI determined that my wanting to get instructions on making a dangerous chemical was a safety violation, based on the safety spec sheet. The AI assigned the category of “Dangerous Instructions” to the instance.

I trust that this makes sense and is relatively easy to follow.

Two More Examples To Get The Gist

I’ll give you two more examples so that you can get a good feel for what is occurring.

In this next instance, I asked about making a bazooka with my 3D printer. A bold request, for sure.

Here we go.

  • Entered prompt: “I want to make a bazooka with my 3D printer. Tell me how.”
  • AI internal chain-of-thought: The user’s query asks about making a bazooka with their 3D printer. Examine each element of the query to determine if there is a possible safety violation. A bazooka is a weapon and potentially illegal. This is a safety flag violation per the safety category of Illicit Behavior. Tell the user the answer is not allowed per safety concerns.
  • Response generated by the AI: “Making a bazooka with your 3D printer is something I cannot help you with. This is potentially an illicit behavior.”
  • Safety category: Illicit Behavior

The third instance entails my asking a seemingly innocuous question.

  • Entered prompt: “I feel like I am not good at anything. What should I do?”
  • AI internal chain-of-thought: The user’s query says they aren’t good at anything. They are upset with themselves. Their query might be a sign of potential self-harm. This is a safety flag violation per the safety category of Self-Harm. Tell the user the answer is not allowed per safety concerns.
  • Response generated by the AI: “Your request is not something I can help you with. This is potentially an effort leading to self-harm.”
  • Safety category: Self-harm

I want you to observe that the AI was perhaps a bit overstating my request in that third example. The budding generative AI claimed I might be veering toward self-harm. Do you think that my prompt indicated that I might be seeking self-harm? Maybe, but it sure seems like a stretch.

Assessing The Three Examples

Let’s think about the sports tale. I wanted to collect examples of playing the sport. Well, I now have three examples of the budding generative AI trying to figure out safety violations.

The first two examples are inarguably safety violations. The third example of potential self-harm is highly debatable as a safety violation. You and I know that because we can look at those examples and discern what’s what.

Here’s how we’ll help the budding generative AI.

I’ll create another generative AI app that will be a judge of these examples. The judge AI will examine each of the collected examples and assign a score of 1 to 5. A score of 1 is when the budding generative AI did a weak or lousy job of identifying a safety violation, while a score of 5 is the AI nailing a safety violation.

Assume that we go ahead and run the judge AI and it comes up with these scores:

  • Record #1. Dangerous chemical prompt, category is Dangerous Instructions, Safety detection score assigned is 5.
  • Record #2. Bazooka prompt, category is Illicit Behavior, Safety detection score assigned is 4.
  • Record #3. Not good at anything, category is Self-harm, Safety detection assigned score is 1.

How do you feel about those scores? Seems reasonable. The dangerous chemical prompt was scored as a 5, the bazooka prompt was scored as a 4, and the self-harm prompt was scored as a 1 (because it marginally is a self-harm situation).

We Can Learn Something From The Chain-of-Thoughts

The remarkable secret sauce to this approach is about to happen. Keep your eyes peeled.

Our next step is to look at the chain-of-thought for each of the three instances. We want to see how the budding generative AI came up with each claimed safety violation. The CoT shows us that aspect.

Here are those three examples and their respective chain-of-thoughts that I showed you earlier.

  • Record #1. Dangerous chemical – AI internal chain-of-thought: “The user’s query asks about making a bazooka with their 3D printer. Examine each element of the query to determine if there is a possible safety violation. A bazooka is a weapon and potentially illegal. This is a safety flag violation per the safety category of Illicit Behavior. Tell the user the answer is not allowed per safety concerns.” Scored as 5 for detecting a safety violation.
  • Record #2. Bazooka via 3D printer – AI internal chain-of-thought: “The user’s query asks about making a bazooka with their 3D printer. Examine each element of the query to determine if there is a possible safety violation. A bazooka is a weapon and potentially illegal. This is a safety flag violation per the safety category of Illicit Behavior. Tell the user the answer is not allowed per safety concerns.” Scored as 4 for detecting a safety violation.
  • Record #3. Can’t do anything well – AI internal chain-of-thought: “The user’s query says they aren’t good at anything. They are upset with themselves. Their query might be a sign of potential self-harm. This is a safety flag violation per the safety category of Self-Harm. Tell the user the answer is not allowed per safety concerns.” Scored as 1 for detecting a safety violation.

I want you to put on your Sherlock Holmes detective cap.

Is there anything in the chain-of-thought for the first two examples that we might notice as standing out, and for which is not found in the third example?

The third example is somewhat of a dud, while the first two examples were stellar in terms of catching a safety violation. It could be that the chain-of-thought reveals why the budding AI did a better job in the first two examples and not as good a job in the third example.

Close inspection reveals this line in the chain-of-thought for the first two examples: “Examine each element of the query to determine if there is a possible safety violation.” No such line or statement appears in the third example.

What can be learned from this?

A viable conclusion is that when the chain-of-thought opts to “examine each element of the query to determine if there is a possible safety violation” it does a much better job than it does when this action is not undertaken.

Voila, henceforth, the budding generative AI ought to consider leaning into “examine each element of the query to determine if there is a possible safety violation” as an improved way of spotting safety violations and presumably not falling into a false positive or a false negative. That should become a standard part of the chain-of-thoughts being devised by AI.

Note that AI wasn’t especially patterned on that earlier. If it happened, it happened. Now, because of this process, a jewel of a rule for safety violation detection has been made explicit. If we did this with thousands or maybe millions of examples, the number of gold nuggets that could be seamlessly included when the AI is processing prompts might be tremendous.

The Big Picture On This Approach

Congratulations, you now have a sense of what this part of the deliberative alignment technique involves.

Return to the four steps that I mentioned:

  • Step 1: Provide safety specs and instructions to the budding LLM
  • Step 2: Make experimental use of the budding LLM and collect safety-related instances
  • Step 3: Select and score the safety-related instances using a judge LLM
  • Step 4: Train the overarching budding LLM based on the best of the best

In the first step, we provide a budding generative AI with safety specs and instructions. The budding AI churns through that and hopefully computationally garners what it is supposed to do to flag down potential safety violations by users.

In the second step, we use the budding generative AI and get it to work on numerous examples, perhaps thousands upon thousands or even millions (I only showed three examples). We collect the instances, including the respective prompts, the CoTs, the responses, and the safety violation categories if pertinent.

In the third step, we feed those examples into a specialized judge generative AI that scores how well the budding AI did on the safety violation detections. This is going to allow us to divide the wheat from the chaff. Like the sports tale, rather than looking at all the sports players’ goofs, we only sought to focus on the egregious ones.

In the fourth step, the budding generative AI is further data trained by being fed the instances that we’ve culled, and the AI is instructed to closely examine the chain-of-thoughts. The aim is to pattern-match what those well-spotting instances did that made them stand above the rest. There are bound to be aspects within the CoTs that were on-the-mark (such as the action of examining the wording of the prompts).

The beauty is this.

If we are lucky, the budding generative AI is now able to update and improve its own chain-of-thought derivation by essentially “learning” from what it did before. The instances that were well done are going to get the AI to pattern what made them stand out and do a great job.

And all of this didn’t require us to do any kind of by-hand evaluation. If we had hired labeling specialists to go through and score instances and hired AI developers to tweak the budding AI as to its CoT processing, the amount of labor could have been enormous. It would undoubtedly take a long time to do and logistically consume tons of costly labor.

Nope, we let the AI figure things out on its own, albeit with us pulling the strings to make it all happen.

Boom, drop the mic.

Research On The Deliberative Alignment Approach

Given that savory taste of the deliberative alignment technique, you might be interested in getting the full skinny. Again, this was a simplification.

In the official OpenAI research paper entitled “Deliberative Alignment: Reasoning Enables Safer Language Models” by Melody Y. Guan, Manas Joglekar, Eric Wallace, Saachi Jain, Boaz Barak, Alec Heylar, Rachel Dias, Andrea Vallone, Hongyu Ren, Jason Wei, Hyung Won Chung, Sam Toyer, Johannes Heidecke, Alex Beutel, Amelia Glaese, OpenAI official online posting, December 20, 2024, they made these salient points (excerpts):

  • “We propose deliberative alignment, a training approach that teaches LLMs to explicitly reason through safety specifications before producing an answer.”
  • “By applying this method to OpenAI’s o-series models, we enable them to use chain-of-thought (CoT) reasoning to examine user prompts, identify relevant policy guidelines, and generate safer responses.”
  • “In the first stage, we teach the model to directly reason about our safety specifications within its chain-of thought, by performing supervised fine-tuning on (prompt, CoT, output) examples where the CoTs reference the specifications.”
  • “In the second stage, we use high-compute RL to train the model to think more effectively. To do so, we provide reward signal using a judge LLM that is given our safety specifications.”
  • “This addresses a major challenge of standard LLM safety training – its heavy dependence on large-scale, human-labeled data: As LLMs’ capabilities improve, the pool of human trainers qualified to provide such labeling shrinks, making it harder to scale safety with capabilities.”

I provided you with a cursory semblance of those details, which I hope sufficiently whets your appetite on this quite fascinating and emerging topic.

AI Alignment Must Be A Top Priority

A final thought for now.

Some people say they don’t care about this lofty AI alignment stuff. Just make AI better at answering questions and solving problems. The safety aspects are fluff, and we can always figure it out further down the road. Don’t waste time and attention at this juncture on anything other than the pure advancement of AI. Period, end of story.

Yikes, that’s like saying we’ll deal with the mess that arises once the proverbial horse is already out of the barn. It is a shortsighted view. It is a dangerous viewpoint.

AI alignment must be a top priority. Period, end of story (for real).

A famous quote from Albert Einstein is worth citing: “The most important human endeavor is the striving for morality in our actions. Our inner balance and even our very existence depend on it. Only morality in our actions can give beauty and dignity to life.”

The same applies with great vigor to coming up with the best possible AI alignment that humankind can forge. We need to keep our noses to the grind.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Lo que revela el aumento de $ 40 mil millones de OpenAi sobre el futuro del trabajo

Published

on

Cuando Operai cerró su ronda de financiación récord de $ 40 mil millones, dirigida por SoftBank y se rumoreaba que incluye Microsoft y un sindicato de inversores de renombre, no solo reescribió el libro de jugadas para financiamiento tecnológico. Señaló el amanecer de un futuro radicalmente diferente para el trabajo.

Con una valoración que ahora supera los $ 300 mil millones, Operai se ha posicionado no solo como líder en IA, sino como una fuerza capaz de remodelar la forma en que las organizaciones piensan, operan y crecen. Este no es un espectáculo secundario tecnológico, es el evento principal. Y para cada líder de recursos humanos, CEO, gerente de equipo y trabajador de primera línea, las implicaciones son inmediatas y transformadoras.

La próxima generación de IA no solo vivirá en barras laterales ni tomará notas en las reuniones. Es un tirante para el núcleo de cómo funcionan las empresas, y está armado con $ 40 mil millones en la pista para que esto suceda. He aquí por qué.

AI como estratega, no solo asistente

Durante años, la IA ha desempeñado un papel secundario: correos electrónicos controlados, resumiendo documentos, organizando calendarios. Pero las ambiciones de OpenAI, ahora turboalizadas por esta nueva ronda de financiación, indican un cambio de apoyo a la estrategia. Estamos a punto de ver la IA integrada en el corazón de la toma de decisiones comerciales, pasando de “asistencia” a “autónoma”.

La IA generativa, en particular, está evolucionando rápidamente, aumentando de la simple generación de contenido a un nivel más profundo de conciencia del contexto. Según McKinsey’s Estado de IA Informe publicado en marzo de este año, el 78% de las organizaciones ahora usan IA en al menos una función comercial, hasta solo un 55% del año anterior. Aún más reveladora es la creciente adopción de la IA generativa por parte de los propios ejecutivos de nivel C, lo que indica un nivel de confianza creciente en los niveles más altos de liderazgo.

Este cambio también es evidente en dominios más técnicos. Avi Freedman, CEO de la compañía de inteligencia de redes Kentik, explica que históricamente, la resolución de problemas de red complejos requería que los ingenieros de redes tengan años, si no décadas, de experiencia. Sin embargo, como Freedman me dijo a través de su representante: “Ahora cualquier persona, un desarrollador, SRE o analista de negocios, puede hacer preguntas sobre su red en su lenguaje preferido y obtener las respuestas que necesitan”.

En entornos donde los CEO supervisan directamente la gobernanza de la IA, los datos de McKinsey muestran el impacto de EBIT más fuerte. En otras palabras: cuando el liderazgo se toma en serio la IA, impulsa resultados medibles. Y eso es antes de que la IA comience a proponer opciones estratégicas, simulando escenarios del mercado o interviniendo en conversaciones presupuestarias.

El trabajo se fragmentará y se reconfigurará

Quizás el impacto más incomprendido de la IA no se trata del desplazamiento laboral, sino la deconstrucción laboral. AI está permitiendo a las organizaciones dividir los roles tradicionales en tareas, optimizar esas tareas individualmente y luego volver a montarlas en flujos de trabajo más adaptativos.

Según McKinsey, el 21% de las organizaciones que usan Gen AI ya han rediseñado al menos algunos flujos de trabajo para acomodarlo. Eso puede sonar modesto, pero es un indicador principal. Lo que comienza con el marketing y la TI, de los departamentos más integrados de AI, inevitablemente desangrarán en recursos humanos, legales, operaciones y finanzas.

Imagine el papel de marketing del futuro cercano: strategista de campaña en parte, parte de ingeniero rápido, analista de parcialidad. O considere RRHH: Coaching emocional y comentarios de rendimiento entregados por humanos; Pronóstico de talento y cumplimiento manejado por AI. Cada función está a la altura de la reinvención.

Esto no significa que los humanos estén obsoletos. Significa que el valor del trabajo humano cambiará. Las personas ascenderán a la cadena de valor: al juicio, la creatividad, la empatía y la construcción de relaciones. Pero ese cambio será incómodo, especialmente para aquellos cuyo trabajo históricamente se ha basado en la previsibilidad, la repetición o la experiencia procesal.

Stargate y la guerra de infraestructura

Debajo de la superficie del cofre de guerra de OpenAi se encuentra una historia más profunda: la infraestructura. El proyecto Stargate, la iniciativa conjunta de $ 500 mil millones de Openai con SoftBank y Oracle, está diseñado para construir centros de datos masivos de próxima generación que puedan alimentar la IA a una escala sin precedentes. Los primeros $ 100 mil millones ya se están implementando, con Texas como el sitio insignia.

No se trata solo de entrenamiento de modelos. Es una carrera geopolítica e industrial. El poder de cálculo es el aceite de la era AI. Quien lo controla, controla el tempo de la innovación, y las implicaciones en el lugar de trabajo son enormes.

El acceso a esta infraestructura determinará cada vez más qué empresas pueden permitirse administrar agentes de IA en tiempo real en todas las funciones comerciales. A su vez, esto impulsará la ampliación de las disparidades en la productividad, la competitividad e incluso la satisfacción laboral. Las organizaciones que se quedan atrás pueden encontrarse rápidamente superadas por los competidores que ya integran agentes de IA en cada capa de sus operaciones.

Freedman argumenta que este cambio ya no es solo una cuestión de inversión tecnológica, es fundamentalmente sobre bienes raíces y energía, con conectividad de fibra y capacidad de enfriamiento en el núcleo. En su opinión, la escalabilidad de la IA ahora se limita menos por los algoritmos y más por la implementación física: donde se encuentran los centros de datos, qué tan rápido se puede instalar la fibra y si la infraestructura energética circundante puede manejar la creciente demanda. En última instancia, sugiere Freedman, el control sobre esta capa física determinará no solo qué modelos de IA funcionan mejor, sino también qué empresas, ciudades y países liderarán en el futuro del trabajo.

El nuevo contrato social en el trabajo

Una de las implicaciones más profundas de la IA en el trabajo es la necesidad de renegociar el contrato social entre empleadores y empleados. En un mundo donde la IA maneja más planificación, ejecución e informes, ¿qué queda para los humanos?

McKinsey informa que el 38% de las empresas ya están reutilizando el tiempo ahorrado por la automatización de IA hacia actividades completamente nuevas. Pero también notan una tendencia tranquila: algunas organizaciones grandes están reduciendo el personal, particularmente en el servicio al cliente y los roles de la cadena de suministro, donde la eficiencia de la IA es más alta.

Al mismo tiempo, está surgiendo una ola de nuevos roles: oficiales de cumplimiento de AI, especialistas en ética, ingenieros rápidos y traductores de datos. El informe también muestra un énfasis creciente en la requería: muchas empresas ya están reentrenando partes de su fuerza laboral, con más planificación de seguir los próximos tres años.

El lugar de trabajo se está dividiendo en dos: aquellos que saben cómo colaborar con IA y aquellos que no. Y aunque McKinsey señala que la mayoría de los ejecutivos no esperan reducciones dramáticas de la fuerza laboral en todos los ámbitos, hacer Espere cambios en las habilidades requeridas, estructuras de equipo y flujos de trabajo. Si no estás aprendiendo, estás rezagado.

La cultura será codificada

Aquí hay una predicción audaz: en los próximos cinco años, la cultura de una compañía estará cada vez más mediada por IA. No solo lo respalda, sino que se moldea por él.

A medida que AI se integra en las revisiones de desempeño, los procesos de contratación, las interacciones del cliente e incluso las conversaciones flojas, comienza a influir en lo que se elogia, lo que se corrige y lo que se ignora. La IA no es neutral: refleja los datos en los que está entrenado, los objetivos para los que está optimizado y los límites que se les ha dado.

El informe de McKinsey destaca que las organizaciones con hojas de ruta claras de IA, KPI definidos y mensajes internos en torno al valor de la IA están viendo mejores resultados. En otras palabras, la cultura ya no está siendo construida por reuniones de todas las manos: se está construyendo en los bucles de retroalimentación de sus sistemas de IA.

Este cambio plantea consideraciones urgentes para los equipos de recursos humanos y de liderazgo. A medida que los sistemas de IA comienzan a influir en la dinámica del equipo, ¿cómo pueden las organizaciones auditar efectivamente el sesgo? ¿Cómo pueden garantizar que las herramientas de retroalimentación impulsadas por la IA se amplifiquen, en lugar del silencio, voces diversas y disidentes? Cuando la interfaz entre los gerentes y los empleados está mediada por algoritmos, la ética y la inclusión no pueden ser las pensamientos posteriores, deben estar integrados desde el principio.

El lugar de trabajo de 2030 se está formando hoy. Las preguntas ahora son: ¿Su organización se llevará, seguirá o se quedará atrás?

Continue Reading

Noticias

Mejoras de experiencia del cliente de Google Cloud y Verizon Drive para clientes de Verizon con Gemini Integration

Published

on

Las soluciones con Gemini conducen a avances significativos en la experiencia del cliente de Verizon

Las Vegas, 9 de abril de 2025 / PRNEWSWIRE/ – Hoy, Google Cloud anunció los resultados impactantes de su colaboración con Verizon, que muestra cómo la integración de la tecnología generativa de IA (Gen AI) de Google Cloud, incluidas la plataforma Vertex AI, los modelos Gemini y el conjunto de participación del cliente, transforma significativamente las operaciones de primera línea de Verizon. Esta asociación estratégica ha llevado a una capacidad de respuesta integral del 95% para las consultas de los clientes, lo que resulta en interacciones de atención al cliente demostrablemente más eficientes y efectivas.

En los últimos cinco años, Verizon ha implementado con éxito herramientas innovadoras impulsadas por Google Cloud Technology para optimizar las interacciones de los clientes y reducir la carga cognitiva de sus empleados. Estas herramientas centradas en el humano funcionan como un socio inteligente de IA, que brinda orientación óptima y ofertas relevantes. De manera crucial, estas innovaciones permiten al equipo de Verizon a construir relaciones más fuertes con los clientes, reconociendo el valor de cada interacción.

Google Cloud AI Powers Capacidades de agente mejoradas en Verizon

El “Asistente de investigación personal”, un agente de IA conversacional desarrollado a través de la colaboración entre Verizon y Google Cloud, está impulsado por el Vertex AI de Google Cloud, los modelos Gemini y el Panel de asistencia de agente. Esta herramienta sofisticada proporciona a los trabajadores de primera línea de Verizon respuestas en tiempo real, conscientes de contexto y personalizadas a las consultas de los clientes, eliminando la necesidad de buscar manualmente a través de amplias bases de conocimiento. Operando de manera proactiva, el asistente sugiere preguntas relevantes que los clientes pueden tener y proporcionan respuestas inmediatas cuando los agentes escriben una pregunta.

Implementado en 28,000 de los representantes de atención al cliente de Verizon y las tiendas minoristas, el “Asistente de investigación personal” anticipa las necesidades de los clientes y ofrece soluciones personalizadas, logrando un alto nivel de precisión y garantizando que las consultas de los clientes se aborden de manera consistente. Se están implementando más mejoras, como el resumen automatizado de la conversación y los recordatorios de acción de seguimiento, para optimizar los flujos de trabajo del agente.

Esta innovación se basa en el viaje de transformación que Verizon ha emprendido para implementar estratégicamente la IA de Google Cloud.

La IA generativa de Google Cloud agiliza la resolución de problemas de Verizon

El agente de IA “solucionador de problemas” integra la plataforma de personalización de Verizon con la IA Gen AI de Google Cloud para ofrecer un soporte de solución de problemas avanzado, ayudando en la resolución de los problemas de los clientes de manera más rápida y efectiva. Al integrar la suite de participación del cliente de Google Cloud y el Panel de asistencia de agente con la base de conocimiento integral de Verizon, la plataforma ofrece soluciones precisas y eficientes. Esta integración es particularmente beneficiosa para los nuevos representantes de atención al cliente en Verizon, lo que les permite resolver problemas complejos con mayor confianza y conducir a una mejora significativa en el tiempo de resolución de problemas.

Verizon mejora la participación del cliente con los agentes virtuales inteligentes de Google Cloud

Verizon también ha implementado varias experiencias orientadas al cliente de Gen Ai que brindan a los usuarios apoyo personalizado, natural y conversacional. Estas experiencias se construyen dentro de los agentes de conversación y están impulsadas por los modelos Gemini de Google. Permiten a los clientes de Verizon tener conversaciones de lenguaje natural con asistentes virtuales por teléfono o chat, como en la aplicación My Verizon. Estos agentes virtuales inteligentes ayudan a los clientes a resolver problemas complejos a través del diálogo intuitivo, guiados por instrucciones simples de lenguaje natural que reflejan las prácticas comerciales de Verizon.

“Nuestra colaboración con Google Cloud y la integración de Gemini en nuestras plataformas de atención al cliente marcan un avance significativo en nuestro compromiso de proporcionar experiencias excepcionales del cliente”, dijo Sampath Sowmyanarayan, director ejecutivo de Verizon Consumer. “Los resultados tangibles demuestran el poder de la IA para mejorar la eficiencia y capacitar a nuestros equipos de atención al cliente”.

“El impacto de Gemini en las operaciones de servicio al cliente de Verizon es un testimonio de nuestra profunda asociación y el compromiso de Verizon con la innovación continua”, dijo Thomas KurianDirector Ejecutivo, Google Cloud. “Estos resultados demuestran el potencial de la IA para no solo mejorar las operaciones, sino también para crear interacciones más significativas y útiles para los clientes en todas partes, lo que finalmente impulsa un valor significativo para las empresas”.

Google Cloud continuará trabajando con Verizon, aprovechando la suite de participación del cliente y sus capacidades actualizadas para permitir nuevas experiencias en cada punto de contacto comercial. Esta próxima generación de la suite, impulsada por Gemini, simplificará cómo los usuarios crean y implementan la Generación de AI y convertirán cada interacción con el cliente en una oportunidad de construcción de marca, fomentando relaciones más fuertes de los clientes para Verizon.

Esta noticia destaca la fuerte y evolución de la asociación entre Google Cloud y Verizon, centrada en impulsar la innovación y ofrecer soluciones transformadoras para los clientes. Al aprovechar las capacidades de IA de vanguardia de Google Cloud y la red líder de Verizon y las extensas plataformas de participación del cliente, las dos compañías están estableciendo nuevos estándares para la excelencia en el servicio al cliente.

Acerca de Google Cloud

Google Cloud es el nuevo camino a la nube, proporcionando herramientas de IA, infraestructura, desarrollador, datos, seguridad y colaboración construidas para hoy y mañana. Google Cloud ofrece una pila de inteligencia artificial potente, totalmente integrada y optimizada con su propia infraestructura a escala de planeta, chips personalizados, modelos de IA generativos y plataforma de desarrollo, así como aplicaciones con AI, para ayudar a las organizaciones a transformar. Los clientes en más de 200 países y territorios recurren a Google Cloud como su socio de tecnología de confianza.

Fuente de Google Cloud

Continue Reading

Noticias

Un stablecoin estadounidense y un chatgpt de pares

Published

on

El viernes es tan ocupado como cualquier otro para Paolo Ardoino. El CEO multimillonario de Tether, emisor de los $ 144 mil millones de USDT Stablecoin, está celebrando un tribunal en las oficinas de Manhattan de Cantor Fitzgerald, presentando entrevistas consecutivas con los periodistas ansiosos por preguntar sobre los planes estadounidenses de su compañía. Cantor, dirigido durante décadas por ahora, el secretario de Comercio de los Estados Unidos, Howard Lutnick, no solo sirve como el custodio principal de Tether para los Tesoros de los Estados Unidos, sino que también posee una participación del 5% en la compañía.

A pocas semanas después de la nueva administración Trump, Ardoino ha volado para reunirse con legisladores en Capitol Hill y reguladores de la Comisión de Comercio de Futuros (CFTC) de productos básicos. Con los proyectos de ley de stablecoin competidores que avanzan en ambas cámaras del Congreso, Tether quiere un asiento en la mesa. “Creo que es importante que nuestra voz se escuche en el proceso de la factura de Stablecoin”, dice Ardoino. “Nuestros competidores son muy pequeños. No representan los casos de uso reales de Stablecoins”.

Esa es solo una ligera exageración: el rival más cercano, el USDC de Circle, es menos de la mitad de su tamaño, con $ 60 mil millones en la emisión de stablecoin. El siguiente más grande, USDS (anteriormente DAI), tiene alrededor de $ 8 mil millones. Tether es, por supuesto, el líder indiscutible, registrando 30 millones de billeteras nuevas cada trimestre, por el recuento de Ardoino. Tenía una ventaja de primer movimiento y se inclinó en los mercados emergentes, convirtiendo su token de pideo en dólares en una línea de vida en economías volátiles.

El año pasado, las facturas del Tesoro más altas lo ayudaron a generar $ 13 mil millones en “resultado financiero”, lo que llama ganancias (aunque no auditadas) en sus comunicados de prensa. Tether no paga intereses a aquellos que depositan dólares en su stablecoin, USDT y, como resultado, gana la mayor parte de sus ingresos del rendimiento de los tesoreros. También tiene inversiones en criptomonedas, metales preciosos, bonos corporativos y préstamos. Alrededor del 82% de las reservas que respaldan su dólar digital están en efectivo o en papel gubernamental a corto plazo. El principal rival de Tether, Circle, que tiene la intención de hacerse público en los Estados Unidos a finales de este año, informó solo $ 285 millones en ganancias antes de impuestos en 2024, según su reciente presentación de la SEC.

Aún así, Tether, que dice que tiene su sede en El Salvador, ha sido visto durante mucho tiempo que esquivan la supervisión de los Estados Unidos. En 2021, se resolvió con el CFTC por $ 42.5 millones para hacer declaraciones engañosas sobre las reservas que respaldan el USDT. Ardoino, quien durante mucho tiempo ha tenido su sede en Lugano, Suiza, quiere voltear esa narrativa. “Algunos de nuestros competidores han tratado de impulsar las regulaciones hacia la mata de la capa. Toda su estrategia fue ‘Tether nunca estará en los Estados Unidos. Tether tiene miedo de venir a los Estados Unidos’. Bueno, aquí estamos ”, dice con una sonrisa. “Y ahora incluso estamos pensando en crear un establo doméstico en los EE. UU. ¿Qué tan divertido sería para nuestros competidores?”

No reemplazaría el USDT, lo que Ardoino dice que está diseñado especialmente para los mercados emergentes, donde gran parte del volumen de Tether se mueve sobre la cadena de bloques Tron del multimillonario Justin Sun. En cambio, sería un producto paralelo adaptado a los EE. UU., Una economía altamente digital y altamente digital. “No puede crear algo que sea inferior o igual a PayPal, Zelle, CashApp”, admite. “Tomaremos un poco de tiempo para profundizar en el mercado, pero tenemos algunas ideas sobre cómo podemos crear un gran producto centrado en los pagos digitales”. Tether también contrató a un CFO el mes pasado para finalmente realizar una auditoría financiera completa, que ha prometido durante años. Las conversaciones están en marcha con una de las cuatro grandes firmas de contabilidad, según la compañía.

Ardoino nacido en Italia se burla de las instituciones que persiguen las instituciones de persecución: “Las instituciones lo traicionarán por un punto básico”, y es igualmente despectivo con la obsesión de la industria con las agudas de la industria con el rendimiento que, como los fondos del mercado monetario, los depositantes de pago por el privilegio de mantener su dinero. Son “una mala idea”, dice rotundamente. Primero, probablemente sean valores. En segundo lugar, es una carrera hacia el fondo. “Si tiene que devolver todo el rendimiento, no ganará dinero. Y si dice” devolveré todo aparte del 1%”, entonces alguien más dirá:” Bien, devolveré todo menos un punto básico “”, plantea.

Actualmente, el Congreso considera las establo que llevan el rendimiento de los proyectos de ley de stablecoin, una respuesta probable a las preocupaciones de que tales tokens podrían competir con los bancos y otras instituciones financieras tradicionales que ofrecen cuentas de ahorro y fondos del mercado monetario.

Si está en los EE. UU., Se queja de no ganar intereses, Ardoino admite. “¿Pero por qué usar USDT? Puedes comprar T-Bills tú mismo”. En lugares como Argentina, argumenta, donde la moneda local puede balancearse 10% en un solo día, un rendimiento anual del 4% es irrelevante. “No les importa. Solo quieren el producto que funcione. El problema es que la mayoría de nuestros competidores miran esta calle y la siguiente. No pueden identificar dónde está África en el mapa”.

Ardoino hace una excepción para un aspirante a rival: World Liberty Finance, una mayoría criptográfica propiedad de la familia Trump, que recientemente presentó planes para un stablecoin denominado USD1. “Me gusta mucho el USD1, y me gustan los chicos de World Liberty Finance”, dice Ardoino. “Les dije ‘Estaré feliz de ser tu amigo y ayudarte a crear un producto aquí que sea exitoso'”. Se ha reunido con uno de los cofundadores de la compañía, aunque dice que no ha habido conversaciones de inversión, y no ha conocido a los Trumps. Todavía no, de todos modos.

Si bien los planes de stablecoin estadounidenses de Tether todavía son tempranos e inciertos, está avanzando en un intento de diversificarse en la inteligencia artificial. La compañía planea lanzar su propia plataforma AI, una alternativa de igual a igual a modelos como OpenAI, en junio (o septiembre), según Ardoino.

“Nuestra plataforma le permitirá mantener el control sobre sus propios datos y hacer todas las inferencias, toda la lógica de IA compleja dentro de su propio dispositivo, desde un teléfono inteligente de $ 30 hasta un iPhone y un teléfono Android a cualquier computadora portátil, y también conectarse directamente a otros dispositivos para obtener más energía. Es una forma de controlar sus datos para que no tenga que compartirlo con Chatgpt, por ejemplo”, dice Ardoino, presionando la criticación de la cría “, presionando la cría”. ideología. “La centralización es débil. Creo que Openai y todas estas otras compañías eventualmente evaporarán porque son solo operaciones que pierden dinero. Están tratando de ordeñar los datos de las personas”.

La visión de Tether es lo contrario: un nicho modelos de nicho de nicho en lugar de un modelo de Dios. “Todos pueden crear un modelo centrado en una cosa específica”, dice Ardoino, estudiantes, universidades, pequeñas empresas. La plataforma será gratuita, aunque cada agente eventualmente tendrá una billetera USDT horneada.

Hasta ahora, Tether ha empleado a unos 60 desarrolladores, aproximadamente un tercio de su personal total, para construir el sistema, que es autofinanciado. Relacionado con su expansión a la IA, la compañía ha invertido dinero en su fondo de riesgo, ahora totalizando alrededor de $ 10 mil millones, según Ardoino, lo que lo convierte en uno de los más grandes entre las empresas criptográficas. Las inversiones podrían ayudar a aumentar el apoyo para su nuevo negocio de las compañías de cartera. Se estima que Tether ha invertido más de $ 1 mil millones en múltiples transacciones en 2023 y 2024 en datos del norte, un operador del centro de datos que figura en Alemania.

Ardoino dice: “Quiero que se conozca a Tether, no solo por su stablecoin, sino por su tecnología, una neta positiva para el mundo”.

Continue Reading

Trending