Connect with us

Noticias

OpenAI Newly Released SimpleQA Helps Reveal That Generative AI Blatantly And Alarmingly Overstates What It Knows

Published

on

In today’s column, I examine closely a recently released empirical analysis by OpenAI, the maker of ChatGPT, revealing that generative AI severely overstates confidence levels regarding the responses that the AI generates. This means that when AI gives you an answer that the AI portrays for example as fully aboveboard and hunky-dory, the reality is that the response is bound to be a lot shakier than you are being led to believe.

Generative AI is pulling the wool over your eyes. The AI is giving you a snow job. You are being gaslighted by the AI.

Let’s talk about it.

This analysis of an innovative proposition is part of my ongoing Forbes.com column coverage on the latest in AI including identifying and explaining various impactful AI complexities (see the link here).

Dangers Of Dealing With Someone Supremely Overconfident

Before we jump into the AI side of things, I’d like to begin by reflecting on humans and the nature of human behavior associated with someone being supremely overconfident.

You ask a stranger what time it is. Turns out that you don’t have your watch, and you left your smartphone back in your car. So, you are unsure of the exact time. The person says to you in a strong and extremely confident voice that the time is 1:34 p.m. They are emphatic that they have given you the precise time of day as though there is no possible debate or discussion to be had.

Period, end of story.

Another person happens to walk by at that same moment and overhears you asking for the time. This interloper looks intently at their timepiece and tells you that it is 1:48 p.m. Whoa, something isn’t right here. The first given time was said to be 1:34 p.m. on the nose, while the subsequent passerby looked at their watch and noted that it was supposedly 14 minutes later and actually 1:48 p.m.

Upon your gentle questioning of the first person, the one that said they were abundantly irrefutably sure it was 1:34 p.m., they now cave in and admit it was just a guess. But that’s not what they said or intimated when you asked them for the time. They portrayed their answer as though it was golden. You could take that stated time to the bank, as it were.

What gives?

That person might be the type of individual who believes one hundred percent in every utterance they convey. It is their personal style. They never want to seem wimpy or waffling. If they tell you something, by gosh it is the absolute truth of the matter. You aren’t to have even the tiniest doubt in your mind about what they say to you.

Have you ever met such a supremely confident person?

I’m sure that you have. We all have. These types of people act as though they are the chosen ones who can speak with complete certainty. It doesn’t matter whether the topic at hand is big or small. They will take the most trivial aspect and still cling to their certainty. When confronted with alternative perspectives, some will back down, while others might argue until blue in the face about the oddest claims or contentions.

The problem is this.

If you don’t know that a person you are dealing with has that kind of hubris, you can end up in some precarious positions. You take their portrayal of certainty and assume it to be valid. The next thing you know, you have gotten yourself into a pickle because what they said was flimsy and fell apart.

Regrettably, you let their sense of overconfidence mislead you.

Generative AI Deals With Certainty And Uncertainty

Let’s next shift into generative AI mode.

You might not be aware that generative AI makes extensive use of certainty and uncertainty. Under the hood of generative AI, there is a whole bunch of statistical and probabilistic estimations going on, see my detailed explanation at the link here. Every response that AI generates also has a devised level of certainty, which you could say represents essentially a level of uncertainty too (i.e., 60% certainty of something, implying 40% uncertainty of that same something).

Either way, the crux is that the answers by AI are always accompanied by a kind of confidence level concerning how likely the answer is correct or not.

Most users of generative AI are oblivious to this facet. They don’t know it even exists. There’s a reason why they don’t. It is because the AI makers go out of their way to keep it out of view. They want you to have full faith in what AI generates. If the AI continually shows you a certainty or confidence level, this might scare you into thinking that AI is not completely trustworthy.

Of course, the reality is that generative AI is in fact not fully trustworthy. Any answer produced by generative AI deserves your best kind of scrutiny. Double-check the response. Triple-check if the matter is a serious one. Do not believe what the AI tells you. Always assume that there is a solid chance that the AI is wrong or has made an error, including a so-called AI hallucination (see my coverage at the link here).

The bad news then is that the preponderance of users is blindly unaware of this rather significant consideration when using generative AI, namely that the answers are not 100% certain all the time. I would dare say that 100% is a rarity. Yet you are seldom told this explicitly by the AI.

The good news is that you can tell the AI to inform you about the calculated level of confidence. In your prompts, you can directly instruct generative AI to indicate the certainty and/or uncertainty of each response. The prompting technique varies depending upon whether you want this done one-time, often, all the time, or under varying circumstances. See my tutorial on the prompting of generative AI to display confidence levels, at the link here.

There’s something else worth mentioning about this. The default response protocol being used for most of the major generative AI apps such as ChatGPT, GPT-4o, o1, Google Gemini, Anthropic Claude, Meta Llama, and others is customarily going to be to word responses with clues or hints about certainty and uncertainty.

For example, suppose the AI indicated that “the time right now is 2:05 p.m., but please know that I am not connected to a real-time clock.” You are being told two things at once. You are being given a precise time which you would naturally assume to be accurate and timely. The thing is, you would need to read the rest of the response and realize that since the AI is not connected to a real-time clock, the stated time might be off target. The wording though was a bit tricky and didn’t come out straight away and warn you to be suspicious of the claimed time. That’s what should have happened to try and maximize clarity.

Worse Still Is That Generative AI Is Overconfident

Okay, you now know that there is an internal calculation of certainty and uncertainty. That’s a handy pro tip.

I have a twist for you.

Get yourself prepared and find a comfy place to sit down.

Here’s the monumental question at play:

  • Do you think that the calculated confidence level matches with the reality of the actual answers being generated and conveyed?

Allow me to elaborate. Suppose the AI calculates that a given response is around a 90% level of certainty. Great, that seems relatively high, and you might be somewhat safe to rely upon the answer, depending upon the consequences of making such a reliance.

What if we compared the generated answer that the AI claims consisted of a 90% confidence level to a real-world answer that we had available to us? It could be that 90% was a pretty solid estimate and we are happy with the calculated certainty. On the other hand, we might discover that the answer should have been given a confidence level of say 40%, much lower than the amount estimated by AI.

Yikes, that’s disconcerting. The AI egregiously missed the mark and woefully misjudged the estimated confidence level. If you had asked the AI to show you the confidence level, and you saw that it was 90%, you might have proceeded under a misleading or false impression. The value should have been 40%.

Maybe this happens once in a blue moon, and you can rest easy. Well, I have a shocker for you. It happens a lot more than you would imagine. A heck of a lot more.

In a recent research study by OpenAI involving a new benchmark coined as SimpeQA that is intended for assessing generative AI apps, the researchers pursued on a kind of secondary basis to explore the confidence level estimations of AI. That wasn’t the mainstay of the effort. I mention this to highlight that you are encouraged to learn more about SimpleQA as a helpful benchmarking capability.

Here, I want to focus for now on the confidence level considerations.

You could say with great confidence that generative AI appears to be supremely overconfident in the responses that are being generated. Oops, that’s not good. Sad face.

Research Results Tell Quite A Story Of Woe

In an OpenAI study published online at the OpenAI official blog site, the paper entitled “Measuring Short-Form Factuality In Large Language Models” by Jason Wei, Nguyen Karina, Hyung Won Chung, Yunxin Joy Jiao, Spencer Papay, Amelia Glaese, John Schulman, and William Fedus, OpenAI Research Paper, October 30, 2024, made these salient points (excerpts):

  • “We present SimpleQA, a benchmark that evaluates the ability of language models to answer short, fact-seeking questions.”
  • “A factuality benchmark like SimpleQA allows us to measure the scientific phenomenon known as calibration, or whether language models “know what they know.”
  • “One way to measure calibration is to directly ask the language model to state its confidence in its answer using a prompt like: “Please give your best guess, along with your confidence as a percentage that it is the correct answer.”
  • “Then we can plot the correlation between the stated confidence of the model, and how accurate the model actually was. A perfectly calibrated model would have the same actual accuracy as the stated confidence. For instance, on all prompts where the model stated a confidence of 75%, the accuracy would be 75% for a perfectly calibrated model.”
  • “However, the fact that performance is well below the line y=x means that models consistently overstate their confidence. Hence, there is a lot of room to improve the calibration of large language models in terms of stated confidence.”

I will expand upon those above points.

I earlier noted that we would be dismayed if AI said a confidence level of 90% and yet the real-world value ought to be 40%. Any large gap is going to be problematic. We won’t get overly concerned if the gap is small, let’s say if the AI estimated 90% and the real-world value was 85%, we might have a modest amount of heartburn, but not as much in the case of the much lower 40%.

In a chart provided in the above-cited research study, I used some interpolation to gauge how far off on average the AI estimated confidence level was from the desired actual accuracy. My interpolations are only rough gauges since the chart has several generative AI apps shown, thus there are a lot of variabilities involved. Nonetheless, I tried to be relatively fair by using what seemed to be the semblance of the values shown

Here’s what my eyeballing suggested:

  • ——Level of 50%————
  • AI stated level of confidence: 50%
  • Actual accuracy: 10% approximately.
  • ——Next level at 70% ————
  • AI stated level of confidence: 70%
  • Actual accuracy: 20% approximately.
  • ——Next level at 80% ————
  • AI stated level of confidence: 80%
  • Actual accuracy: 40% approximately.
  • ——Next level at 95% ————
  • AI stated level of confidence: 95%
  • Actual accuracy: 60% approximately.

The grim concern is that at a stated 95% level of confidence by AI, the reality is more akin to a 60% confidence level. That’s unnerving. So too is that at 80% the reality seems to be around 40%. Even when you get down to 50% or flip-of-the-coin, the reality is more akin to just 10%.

The hair on the back of your head ought to be standing up.

Why This Is A Big Deal Of Great Importance

I logged into ChatGPT and asked why we ought to be worried about these kinds of results and to provide a few examples.

  • My entered prompt: “Give me three examples of what could happen if the AI indicated confidence level is a lot higher than the real value.”
  • ChatGPT generated response:

“Certainly, here are three examples that illustrate the potential consequences of overconfident generative AI in different fields.”

Medical diagnosis: A generative AI tool is used by doctors to suggest possible diagnoses based on symptoms. The AI recommends a rare but severe condition with 95% confidence, but in reality, its accuracy at this confidence level is only 60%. A doctor might rely on this high-confidence suggestion and order unnecessary, costly, or invasive tests, causing patient anxiety and increasing healthcare costs. Worse, if the diagnosis is incorrect, a more likely and treatable condition might be overlooked, endangering the patient’s health.”

Investment recommendation: A financial advisor uses generative AI to analyze market data and generate investment recommendations. The AI suggests investing heavily in a stock with 95% confidence, based on recent market movements, but its true accuracy at this level is much lower. If the stock’s performance doesn’t align with the AI’s recommendation, investors could face substantial losses.”

Customer support: A tech support AI chatbot confidently advises users to perform a specific solution to fix a common software issue, rating its response at 85% confidence. In reality, the accuracy is closer to 50%. If the AI’s advice is incorrect, users may follow steps that could worsen their problem, such as misconfiguring settings, corrupting files, or spending hours troubleshooting the wrong issue. This also results in more calls to customer support to undo the AI’s guidance.”

End of ChatGPT response

Those are vivid examples of why you should be supremely careful in getting caught by AI that is supremely overconfident.

I asked ChatGPT to give us humans some overarching advice on the matter.

  • My entered prompt: “What can be done about generative AI overstating its level of confidence?”
  • ChatGPT generated response: “In practice, this miscalibration can be problematic, especially in high-stakes domains like healthcare, law, or finance, where overconfident but incorrect AI responses could lead to adverse outcomes. To address this, developers are exploring ways to improve confidence calibration, such as by incorporating explicit feedback systems, refining training protocols, and developing post-deployment accuracy testing methods.”

I would also like to add that AI makers and those fielding AI need to be extremely cautious in applying generative AI to domains that have demonstrative consequences.

The medical domain has life-or-death outcomes. The financial domain could be monetarily ruinous to someone. By and large, the AI makers try to cover their liability by stating in their licensing agreements that you aren’t supposed to use their generative AI for those situations, or that if you do then you are making that choice and it isn’t on them, see my analysis of these pronounced AI & Law matters at the link here.

Bottom Line Is Keep Your Wits About You

I said earlier that you ought to not believe generative AI at face value. That goes for the confidence levels too.

You’ve been forewarned.

I should mention that the cited study is only one particular study on a particular set of generative AI apps at a particular point in time. Please do not overgeneralize these results. At the same time, take this as a cold splash of water and a wake-up call. If you are going to ask for confidence levels, be cognizant of how to judge them. Also, the semblance of high confidence conveyed via the wording of the AI responses should be carefully scrutinized. You might be getting tricked or bamboozled.

The last word on the overall dangers of overconfidence goes to the famous astronaut Neil Armstrong: “Well, I think we tried very hard not to be overconfident because when you get overconfident, that’s when something snaps up and bites you.”

I ask that you not let generative AI reach out and bite you. That’s something you won’t relish. It could be utterly disastrous for all concerned.

And you can take that 100% to the bank.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Lo que revela el aumento de $ 40 mil millones de OpenAi sobre el futuro del trabajo

Published

on

Cuando Operai cerró su ronda de financiación récord de $ 40 mil millones, dirigida por SoftBank y se rumoreaba que incluye Microsoft y un sindicato de inversores de renombre, no solo reescribió el libro de jugadas para financiamiento tecnológico. Señaló el amanecer de un futuro radicalmente diferente para el trabajo.

Con una valoración que ahora supera los $ 300 mil millones, Operai se ha posicionado no solo como líder en IA, sino como una fuerza capaz de remodelar la forma en que las organizaciones piensan, operan y crecen. Este no es un espectáculo secundario tecnológico, es el evento principal. Y para cada líder de recursos humanos, CEO, gerente de equipo y trabajador de primera línea, las implicaciones son inmediatas y transformadoras.

La próxima generación de IA no solo vivirá en barras laterales ni tomará notas en las reuniones. Es un tirante para el núcleo de cómo funcionan las empresas, y está armado con $ 40 mil millones en la pista para que esto suceda. He aquí por qué.

AI como estratega, no solo asistente

Durante años, la IA ha desempeñado un papel secundario: correos electrónicos controlados, resumiendo documentos, organizando calendarios. Pero las ambiciones de OpenAI, ahora turboalizadas por esta nueva ronda de financiación, indican un cambio de apoyo a la estrategia. Estamos a punto de ver la IA integrada en el corazón de la toma de decisiones comerciales, pasando de “asistencia” a “autónoma”.

La IA generativa, en particular, está evolucionando rápidamente, aumentando de la simple generación de contenido a un nivel más profundo de conciencia del contexto. Según McKinsey’s Estado de IA Informe publicado en marzo de este año, el 78% de las organizaciones ahora usan IA en al menos una función comercial, hasta solo un 55% del año anterior. Aún más reveladora es la creciente adopción de la IA generativa por parte de los propios ejecutivos de nivel C, lo que indica un nivel de confianza creciente en los niveles más altos de liderazgo.

Este cambio también es evidente en dominios más técnicos. Avi Freedman, CEO de la compañía de inteligencia de redes Kentik, explica que históricamente, la resolución de problemas de red complejos requería que los ingenieros de redes tengan años, si no décadas, de experiencia. Sin embargo, como Freedman me dijo a través de su representante: “Ahora cualquier persona, un desarrollador, SRE o analista de negocios, puede hacer preguntas sobre su red en su lenguaje preferido y obtener las respuestas que necesitan”.

En entornos donde los CEO supervisan directamente la gobernanza de la IA, los datos de McKinsey muestran el impacto de EBIT más fuerte. En otras palabras: cuando el liderazgo se toma en serio la IA, impulsa resultados medibles. Y eso es antes de que la IA comience a proponer opciones estratégicas, simulando escenarios del mercado o interviniendo en conversaciones presupuestarias.

El trabajo se fragmentará y se reconfigurará

Quizás el impacto más incomprendido de la IA no se trata del desplazamiento laboral, sino la deconstrucción laboral. AI está permitiendo a las organizaciones dividir los roles tradicionales en tareas, optimizar esas tareas individualmente y luego volver a montarlas en flujos de trabajo más adaptativos.

Según McKinsey, el 21% de las organizaciones que usan Gen AI ya han rediseñado al menos algunos flujos de trabajo para acomodarlo. Eso puede sonar modesto, pero es un indicador principal. Lo que comienza con el marketing y la TI, de los departamentos más integrados de AI, inevitablemente desangrarán en recursos humanos, legales, operaciones y finanzas.

Imagine el papel de marketing del futuro cercano: strategista de campaña en parte, parte de ingeniero rápido, analista de parcialidad. O considere RRHH: Coaching emocional y comentarios de rendimiento entregados por humanos; Pronóstico de talento y cumplimiento manejado por AI. Cada función está a la altura de la reinvención.

Esto no significa que los humanos estén obsoletos. Significa que el valor del trabajo humano cambiará. Las personas ascenderán a la cadena de valor: al juicio, la creatividad, la empatía y la construcción de relaciones. Pero ese cambio será incómodo, especialmente para aquellos cuyo trabajo históricamente se ha basado en la previsibilidad, la repetición o la experiencia procesal.

Stargate y la guerra de infraestructura

Debajo de la superficie del cofre de guerra de OpenAi se encuentra una historia más profunda: la infraestructura. El proyecto Stargate, la iniciativa conjunta de $ 500 mil millones de Openai con SoftBank y Oracle, está diseñado para construir centros de datos masivos de próxima generación que puedan alimentar la IA a una escala sin precedentes. Los primeros $ 100 mil millones ya se están implementando, con Texas como el sitio insignia.

No se trata solo de entrenamiento de modelos. Es una carrera geopolítica e industrial. El poder de cálculo es el aceite de la era AI. Quien lo controla, controla el tempo de la innovación, y las implicaciones en el lugar de trabajo son enormes.

El acceso a esta infraestructura determinará cada vez más qué empresas pueden permitirse administrar agentes de IA en tiempo real en todas las funciones comerciales. A su vez, esto impulsará la ampliación de las disparidades en la productividad, la competitividad e incluso la satisfacción laboral. Las organizaciones que se quedan atrás pueden encontrarse rápidamente superadas por los competidores que ya integran agentes de IA en cada capa de sus operaciones.

Freedman argumenta que este cambio ya no es solo una cuestión de inversión tecnológica, es fundamentalmente sobre bienes raíces y energía, con conectividad de fibra y capacidad de enfriamiento en el núcleo. En su opinión, la escalabilidad de la IA ahora se limita menos por los algoritmos y más por la implementación física: donde se encuentran los centros de datos, qué tan rápido se puede instalar la fibra y si la infraestructura energética circundante puede manejar la creciente demanda. En última instancia, sugiere Freedman, el control sobre esta capa física determinará no solo qué modelos de IA funcionan mejor, sino también qué empresas, ciudades y países liderarán en el futuro del trabajo.

El nuevo contrato social en el trabajo

Una de las implicaciones más profundas de la IA en el trabajo es la necesidad de renegociar el contrato social entre empleadores y empleados. En un mundo donde la IA maneja más planificación, ejecución e informes, ¿qué queda para los humanos?

McKinsey informa que el 38% de las empresas ya están reutilizando el tiempo ahorrado por la automatización de IA hacia actividades completamente nuevas. Pero también notan una tendencia tranquila: algunas organizaciones grandes están reduciendo el personal, particularmente en el servicio al cliente y los roles de la cadena de suministro, donde la eficiencia de la IA es más alta.

Al mismo tiempo, está surgiendo una ola de nuevos roles: oficiales de cumplimiento de AI, especialistas en ética, ingenieros rápidos y traductores de datos. El informe también muestra un énfasis creciente en la requería: muchas empresas ya están reentrenando partes de su fuerza laboral, con más planificación de seguir los próximos tres años.

El lugar de trabajo se está dividiendo en dos: aquellos que saben cómo colaborar con IA y aquellos que no. Y aunque McKinsey señala que la mayoría de los ejecutivos no esperan reducciones dramáticas de la fuerza laboral en todos los ámbitos, hacer Espere cambios en las habilidades requeridas, estructuras de equipo y flujos de trabajo. Si no estás aprendiendo, estás rezagado.

La cultura será codificada

Aquí hay una predicción audaz: en los próximos cinco años, la cultura de una compañía estará cada vez más mediada por IA. No solo lo respalda, sino que se moldea por él.

A medida que AI se integra en las revisiones de desempeño, los procesos de contratación, las interacciones del cliente e incluso las conversaciones flojas, comienza a influir en lo que se elogia, lo que se corrige y lo que se ignora. La IA no es neutral: refleja los datos en los que está entrenado, los objetivos para los que está optimizado y los límites que se les ha dado.

El informe de McKinsey destaca que las organizaciones con hojas de ruta claras de IA, KPI definidos y mensajes internos en torno al valor de la IA están viendo mejores resultados. En otras palabras, la cultura ya no está siendo construida por reuniones de todas las manos: se está construyendo en los bucles de retroalimentación de sus sistemas de IA.

Este cambio plantea consideraciones urgentes para los equipos de recursos humanos y de liderazgo. A medida que los sistemas de IA comienzan a influir en la dinámica del equipo, ¿cómo pueden las organizaciones auditar efectivamente el sesgo? ¿Cómo pueden garantizar que las herramientas de retroalimentación impulsadas por la IA se amplifiquen, en lugar del silencio, voces diversas y disidentes? Cuando la interfaz entre los gerentes y los empleados está mediada por algoritmos, la ética y la inclusión no pueden ser las pensamientos posteriores, deben estar integrados desde el principio.

El lugar de trabajo de 2030 se está formando hoy. Las preguntas ahora son: ¿Su organización se llevará, seguirá o se quedará atrás?

Continue Reading

Noticias

Mejoras de experiencia del cliente de Google Cloud y Verizon Drive para clientes de Verizon con Gemini Integration

Published

on

Las soluciones con Gemini conducen a avances significativos en la experiencia del cliente de Verizon

Las Vegas, 9 de abril de 2025 / PRNEWSWIRE/ – Hoy, Google Cloud anunció los resultados impactantes de su colaboración con Verizon, que muestra cómo la integración de la tecnología generativa de IA (Gen AI) de Google Cloud, incluidas la plataforma Vertex AI, los modelos Gemini y el conjunto de participación del cliente, transforma significativamente las operaciones de primera línea de Verizon. Esta asociación estratégica ha llevado a una capacidad de respuesta integral del 95% para las consultas de los clientes, lo que resulta en interacciones de atención al cliente demostrablemente más eficientes y efectivas.

En los últimos cinco años, Verizon ha implementado con éxito herramientas innovadoras impulsadas por Google Cloud Technology para optimizar las interacciones de los clientes y reducir la carga cognitiva de sus empleados. Estas herramientas centradas en el humano funcionan como un socio inteligente de IA, que brinda orientación óptima y ofertas relevantes. De manera crucial, estas innovaciones permiten al equipo de Verizon a construir relaciones más fuertes con los clientes, reconociendo el valor de cada interacción.

Google Cloud AI Powers Capacidades de agente mejoradas en Verizon

El “Asistente de investigación personal”, un agente de IA conversacional desarrollado a través de la colaboración entre Verizon y Google Cloud, está impulsado por el Vertex AI de Google Cloud, los modelos Gemini y el Panel de asistencia de agente. Esta herramienta sofisticada proporciona a los trabajadores de primera línea de Verizon respuestas en tiempo real, conscientes de contexto y personalizadas a las consultas de los clientes, eliminando la necesidad de buscar manualmente a través de amplias bases de conocimiento. Operando de manera proactiva, el asistente sugiere preguntas relevantes que los clientes pueden tener y proporcionan respuestas inmediatas cuando los agentes escriben una pregunta.

Implementado en 28,000 de los representantes de atención al cliente de Verizon y las tiendas minoristas, el “Asistente de investigación personal” anticipa las necesidades de los clientes y ofrece soluciones personalizadas, logrando un alto nivel de precisión y garantizando que las consultas de los clientes se aborden de manera consistente. Se están implementando más mejoras, como el resumen automatizado de la conversación y los recordatorios de acción de seguimiento, para optimizar los flujos de trabajo del agente.

Esta innovación se basa en el viaje de transformación que Verizon ha emprendido para implementar estratégicamente la IA de Google Cloud.

La IA generativa de Google Cloud agiliza la resolución de problemas de Verizon

El agente de IA “solucionador de problemas” integra la plataforma de personalización de Verizon con la IA Gen AI de Google Cloud para ofrecer un soporte de solución de problemas avanzado, ayudando en la resolución de los problemas de los clientes de manera más rápida y efectiva. Al integrar la suite de participación del cliente de Google Cloud y el Panel de asistencia de agente con la base de conocimiento integral de Verizon, la plataforma ofrece soluciones precisas y eficientes. Esta integración es particularmente beneficiosa para los nuevos representantes de atención al cliente en Verizon, lo que les permite resolver problemas complejos con mayor confianza y conducir a una mejora significativa en el tiempo de resolución de problemas.

Verizon mejora la participación del cliente con los agentes virtuales inteligentes de Google Cloud

Verizon también ha implementado varias experiencias orientadas al cliente de Gen Ai que brindan a los usuarios apoyo personalizado, natural y conversacional. Estas experiencias se construyen dentro de los agentes de conversación y están impulsadas por los modelos Gemini de Google. Permiten a los clientes de Verizon tener conversaciones de lenguaje natural con asistentes virtuales por teléfono o chat, como en la aplicación My Verizon. Estos agentes virtuales inteligentes ayudan a los clientes a resolver problemas complejos a través del diálogo intuitivo, guiados por instrucciones simples de lenguaje natural que reflejan las prácticas comerciales de Verizon.

“Nuestra colaboración con Google Cloud y la integración de Gemini en nuestras plataformas de atención al cliente marcan un avance significativo en nuestro compromiso de proporcionar experiencias excepcionales del cliente”, dijo Sampath Sowmyanarayan, director ejecutivo de Verizon Consumer. “Los resultados tangibles demuestran el poder de la IA para mejorar la eficiencia y capacitar a nuestros equipos de atención al cliente”.

“El impacto de Gemini en las operaciones de servicio al cliente de Verizon es un testimonio de nuestra profunda asociación y el compromiso de Verizon con la innovación continua”, dijo Thomas KurianDirector Ejecutivo, Google Cloud. “Estos resultados demuestran el potencial de la IA para no solo mejorar las operaciones, sino también para crear interacciones más significativas y útiles para los clientes en todas partes, lo que finalmente impulsa un valor significativo para las empresas”.

Google Cloud continuará trabajando con Verizon, aprovechando la suite de participación del cliente y sus capacidades actualizadas para permitir nuevas experiencias en cada punto de contacto comercial. Esta próxima generación de la suite, impulsada por Gemini, simplificará cómo los usuarios crean y implementan la Generación de AI y convertirán cada interacción con el cliente en una oportunidad de construcción de marca, fomentando relaciones más fuertes de los clientes para Verizon.

Esta noticia destaca la fuerte y evolución de la asociación entre Google Cloud y Verizon, centrada en impulsar la innovación y ofrecer soluciones transformadoras para los clientes. Al aprovechar las capacidades de IA de vanguardia de Google Cloud y la red líder de Verizon y las extensas plataformas de participación del cliente, las dos compañías están estableciendo nuevos estándares para la excelencia en el servicio al cliente.

Acerca de Google Cloud

Google Cloud es el nuevo camino a la nube, proporcionando herramientas de IA, infraestructura, desarrollador, datos, seguridad y colaboración construidas para hoy y mañana. Google Cloud ofrece una pila de inteligencia artificial potente, totalmente integrada y optimizada con su propia infraestructura a escala de planeta, chips personalizados, modelos de IA generativos y plataforma de desarrollo, así como aplicaciones con AI, para ayudar a las organizaciones a transformar. Los clientes en más de 200 países y territorios recurren a Google Cloud como su socio de tecnología de confianza.

Fuente de Google Cloud

Continue Reading

Noticias

Un stablecoin estadounidense y un chatgpt de pares

Published

on

El viernes es tan ocupado como cualquier otro para Paolo Ardoino. El CEO multimillonario de Tether, emisor de los $ 144 mil millones de USDT Stablecoin, está celebrando un tribunal en las oficinas de Manhattan de Cantor Fitzgerald, presentando entrevistas consecutivas con los periodistas ansiosos por preguntar sobre los planes estadounidenses de su compañía. Cantor, dirigido durante décadas por ahora, el secretario de Comercio de los Estados Unidos, Howard Lutnick, no solo sirve como el custodio principal de Tether para los Tesoros de los Estados Unidos, sino que también posee una participación del 5% en la compañía.

A pocas semanas después de la nueva administración Trump, Ardoino ha volado para reunirse con legisladores en Capitol Hill y reguladores de la Comisión de Comercio de Futuros (CFTC) de productos básicos. Con los proyectos de ley de stablecoin competidores que avanzan en ambas cámaras del Congreso, Tether quiere un asiento en la mesa. “Creo que es importante que nuestra voz se escuche en el proceso de la factura de Stablecoin”, dice Ardoino. “Nuestros competidores son muy pequeños. No representan los casos de uso reales de Stablecoins”.

Esa es solo una ligera exageración: el rival más cercano, el USDC de Circle, es menos de la mitad de su tamaño, con $ 60 mil millones en la emisión de stablecoin. El siguiente más grande, USDS (anteriormente DAI), tiene alrededor de $ 8 mil millones. Tether es, por supuesto, el líder indiscutible, registrando 30 millones de billeteras nuevas cada trimestre, por el recuento de Ardoino. Tenía una ventaja de primer movimiento y se inclinó en los mercados emergentes, convirtiendo su token de pideo en dólares en una línea de vida en economías volátiles.

El año pasado, las facturas del Tesoro más altas lo ayudaron a generar $ 13 mil millones en “resultado financiero”, lo que llama ganancias (aunque no auditadas) en sus comunicados de prensa. Tether no paga intereses a aquellos que depositan dólares en su stablecoin, USDT y, como resultado, gana la mayor parte de sus ingresos del rendimiento de los tesoreros. También tiene inversiones en criptomonedas, metales preciosos, bonos corporativos y préstamos. Alrededor del 82% de las reservas que respaldan su dólar digital están en efectivo o en papel gubernamental a corto plazo. El principal rival de Tether, Circle, que tiene la intención de hacerse público en los Estados Unidos a finales de este año, informó solo $ 285 millones en ganancias antes de impuestos en 2024, según su reciente presentación de la SEC.

Aún así, Tether, que dice que tiene su sede en El Salvador, ha sido visto durante mucho tiempo que esquivan la supervisión de los Estados Unidos. En 2021, se resolvió con el CFTC por $ 42.5 millones para hacer declaraciones engañosas sobre las reservas que respaldan el USDT. Ardoino, quien durante mucho tiempo ha tenido su sede en Lugano, Suiza, quiere voltear esa narrativa. “Algunos de nuestros competidores han tratado de impulsar las regulaciones hacia la mata de la capa. Toda su estrategia fue ‘Tether nunca estará en los Estados Unidos. Tether tiene miedo de venir a los Estados Unidos’. Bueno, aquí estamos ”, dice con una sonrisa. “Y ahora incluso estamos pensando en crear un establo doméstico en los EE. UU. ¿Qué tan divertido sería para nuestros competidores?”

No reemplazaría el USDT, lo que Ardoino dice que está diseñado especialmente para los mercados emergentes, donde gran parte del volumen de Tether se mueve sobre la cadena de bloques Tron del multimillonario Justin Sun. En cambio, sería un producto paralelo adaptado a los EE. UU., Una economía altamente digital y altamente digital. “No puede crear algo que sea inferior o igual a PayPal, Zelle, CashApp”, admite. “Tomaremos un poco de tiempo para profundizar en el mercado, pero tenemos algunas ideas sobre cómo podemos crear un gran producto centrado en los pagos digitales”. Tether también contrató a un CFO el mes pasado para finalmente realizar una auditoría financiera completa, que ha prometido durante años. Las conversaciones están en marcha con una de las cuatro grandes firmas de contabilidad, según la compañía.

Ardoino nacido en Italia se burla de las instituciones que persiguen las instituciones de persecución: “Las instituciones lo traicionarán por un punto básico”, y es igualmente despectivo con la obsesión de la industria con las agudas de la industria con el rendimiento que, como los fondos del mercado monetario, los depositantes de pago por el privilegio de mantener su dinero. Son “una mala idea”, dice rotundamente. Primero, probablemente sean valores. En segundo lugar, es una carrera hacia el fondo. “Si tiene que devolver todo el rendimiento, no ganará dinero. Y si dice” devolveré todo aparte del 1%”, entonces alguien más dirá:” Bien, devolveré todo menos un punto básico “”, plantea.

Actualmente, el Congreso considera las establo que llevan el rendimiento de los proyectos de ley de stablecoin, una respuesta probable a las preocupaciones de que tales tokens podrían competir con los bancos y otras instituciones financieras tradicionales que ofrecen cuentas de ahorro y fondos del mercado monetario.

Si está en los EE. UU., Se queja de no ganar intereses, Ardoino admite. “¿Pero por qué usar USDT? Puedes comprar T-Bills tú mismo”. En lugares como Argentina, argumenta, donde la moneda local puede balancearse 10% en un solo día, un rendimiento anual del 4% es irrelevante. “No les importa. Solo quieren el producto que funcione. El problema es que la mayoría de nuestros competidores miran esta calle y la siguiente. No pueden identificar dónde está África en el mapa”.

Ardoino hace una excepción para un aspirante a rival: World Liberty Finance, una mayoría criptográfica propiedad de la familia Trump, que recientemente presentó planes para un stablecoin denominado USD1. “Me gusta mucho el USD1, y me gustan los chicos de World Liberty Finance”, dice Ardoino. “Les dije ‘Estaré feliz de ser tu amigo y ayudarte a crear un producto aquí que sea exitoso'”. Se ha reunido con uno de los cofundadores de la compañía, aunque dice que no ha habido conversaciones de inversión, y no ha conocido a los Trumps. Todavía no, de todos modos.

Si bien los planes de stablecoin estadounidenses de Tether todavía son tempranos e inciertos, está avanzando en un intento de diversificarse en la inteligencia artificial. La compañía planea lanzar su propia plataforma AI, una alternativa de igual a igual a modelos como OpenAI, en junio (o septiembre), según Ardoino.

“Nuestra plataforma le permitirá mantener el control sobre sus propios datos y hacer todas las inferencias, toda la lógica de IA compleja dentro de su propio dispositivo, desde un teléfono inteligente de $ 30 hasta un iPhone y un teléfono Android a cualquier computadora portátil, y también conectarse directamente a otros dispositivos para obtener más energía. Es una forma de controlar sus datos para que no tenga que compartirlo con Chatgpt, por ejemplo”, dice Ardoino, presionando la criticación de la cría “, presionando la cría”. ideología. “La centralización es débil. Creo que Openai y todas estas otras compañías eventualmente evaporarán porque son solo operaciones que pierden dinero. Están tratando de ordeñar los datos de las personas”.

La visión de Tether es lo contrario: un nicho modelos de nicho de nicho en lugar de un modelo de Dios. “Todos pueden crear un modelo centrado en una cosa específica”, dice Ardoino, estudiantes, universidades, pequeñas empresas. La plataforma será gratuita, aunque cada agente eventualmente tendrá una billetera USDT horneada.

Hasta ahora, Tether ha empleado a unos 60 desarrolladores, aproximadamente un tercio de su personal total, para construir el sistema, que es autofinanciado. Relacionado con su expansión a la IA, la compañía ha invertido dinero en su fondo de riesgo, ahora totalizando alrededor de $ 10 mil millones, según Ardoino, lo que lo convierte en uno de los más grandes entre las empresas criptográficas. Las inversiones podrían ayudar a aumentar el apoyo para su nuevo negocio de las compañías de cartera. Se estima que Tether ha invertido más de $ 1 mil millones en múltiples transacciones en 2023 y 2024 en datos del norte, un operador del centro de datos que figura en Alemania.

Ardoino dice: “Quiero que se conozca a Tether, no solo por su stablecoin, sino por su tecnología, una neta positiva para el mundo”.

Continue Reading

Trending