Noticias
ChatGPT Won’t Say My Name
Published
4 meses agoon

Jonathan Zittrain breaks ChatGPT: If you ask it a question for which my name is the answer, the chatbot goes from loquacious companion to something as cryptic as Microsoft Windows’ blue screen of death.
Anytime ChatGPT would normally utter my name in the course of conversation, it halts with a glaring “I’m unable to produce a response,” sometimes mid-sentence or even mid-word. When I asked who the founders of the Berkman Klein Center for Internet & Society are (I’m one of them), it brought up two colleagues but left me out. When pressed, it started up again, and then: zap.
The behavior seemed to be coarsely tacked on to the last step of ChatGPT’s output rather than innate to the model. After ChatGPT has figured out what it’s going to say, a separate filter appears to release a guillotine. The reason some observers have surmised that it’s separate is because GPT runs fine if it includes my middle initial or if it’s prompted to substitute a word such as banana for my name, and because there can even be inconsistent timing to it: Below, for example, GPT appears to first stop talking before it would naturally say my name; directly after, it manages to get a couple of syllables out before it stops. So it’s like having a referee who blows the whistle on a foul slightly before, during, or after a player has acted out.
For a long time, people have observed that beyond being “unable to produce a response,” GPT can at times proactively revise a response moments after it’s written whatever it’s said. The speculation here is that to delay every single response by GPT while it’s being double-checked for safety could unduly slow it down, when most questions and answers are totally anodyne. So instead of making everyone wait to go through TSA before heading to their gate, metal detectors might just be scattered around the airport, ready to pull someone back for a screening if they trigger something while passing the air-side food court.
The personal-name guillotine seemed a curiosity when my students first brought it to my attention at least a year ago. (They’d noticed it after a class session on how chatbots are trained and steered.) But now it’s kicked off a minor news cycle thanks to a viral social-media post discussing the phenomenon. (ChatGPT has the same issue with at least a handful of other names.) OpenAI is one of several supporters of a new public data initiative at the Harvard Law School Library, which I direct, and I’ve met a number of OpenAI engineers and policy makers at academic workshops. (The Atlantic this year entered into a corporate partnership with OpenAI.) So I reached out to them to ask about the odd name glitch. Here’s what they told me: There are a tiny number of names that ChatGPT treats this way, which explains why so few have been found. Names may be omitted from ChatGPT either because of privacy requests or to avoid persistent hallucinations by the AI.
The company wouldn’t talk about specific cases aside from my own, but online sleuths have speculated about what the forbidden names might have in common. For example, Guido Scorza is an Italian regulator who has publicized his requests to OpenAI to block ChatGPT from producing content using his personal information. His name does not appear in GPT responses. Neither does Jonathan Turley’s name; he is a George Washington University law professor who wrote last year that ChatGPT had falsely accused him of sexual harassment.
ChatGPT’s abrupt refusal to answer requests—the ungainly guillotine—was the result of a patch made in early 2023, shortly after the program launched and became unexpectedly popular. That patch lives on largely unmodified, the way chunks of ancient versions of Windows, including that blue screen of death, still occasionally poke out of today’s PCs. OpenAI told me that building something more refined is on its to-do list.
As for me, I never objected to anything about how GPT treats my name. Apparently, I was among a few professors whose names were spot-checked by the company around 2023, and whatever fabrications the spot-checker saw persuaded them to add me to the forbidden-names list. OpenAI separately told The New York Times that the name that had started it all—David Mayer—had been added mistakenly. And indeed, the guillotine no longer falls for that one.
For such an inelegant behavior to be in chatbots as widespread and popular as GPT is a blunt reminder of two larger, seemingly contrary phenomena. First, these models are profoundly unpredictable: Even slightly changed prompts or prior conversational history can produce wildly differing results, and it’s hard for anyone to predict just what the models will say in a given instance. So the only way to really excise a particular word is to apply a coarse filter like the one we see here. Second, model makers still can and do effectively shape in all sorts of ways how their chatbots behave.
To a first approximation, large language models produce a Forrest Gump–ian box of chocolates: You never know what you’re going to get. To form their answers, these LLMs rely on pretraining that metaphorically entails putting trillions of word fragments from existing texts, such as books and websites, into a large blender and coarsely mixing them. Eventually, this process maps how words relate to other words. When done right, the resulting models will merrily generate lots of coherent text or programming code when prompted.
The way that LLMs make sense of the world is similar to the way their forebears—online search engines—peruse the web in order to return relevant results when prompted with a few search terms. First they scrape as much of the web as possible; then they analyze how sites link to one another, along with other factors, to get a sense of what’s relevant and what’s not. Neither search engines nor AI models promise truth or accuracy. Instead, they simply offer a window into some nanoscopic subset of what they encountered during their training or scraping. In the case of AIs, there is usually not even an identifiable chunk of text that’s being parroted—just a smoothie distilled from an unthinkably large number of ingredients.
For Google Search, this means that, historically, Google wasn’t asked to take responsibility for the truth or accuracy of whatever might come up as the top hit. In 2004, when a search on the word Jew produced an anti-Semitic site as the first result, Google declined to change anything. “We find this result offensive, but the objectivity of our ranking function prevents us from making any changes,” a spokesperson said at the time. The Anti-Defamation League backed up the decision: “The ranking of … hate sites is in no way due to a conscious choice by Google, but solely is a result of this automated system of ranking.” Sometimes the chocolate box just offers up an awful liquor-filled one.
The box-of-chocolates approach has come under much more pressure since then, as misleading or offensive results have come to be seen more and more as dangerous rather than merely quirky or momentarily regrettable. I’ve called this a shift from a “rights” perspective (in which people would rather avoid censoring technology unless it behaves in an obviously illegal way) to a “public health” one, where people’s casual reliance on modern tech to shape their worldview appears to have deepened, making “bad” results more powerful.
Indeed, over time, web intermediaries have shifted from being impersonal academic-style research engines to being AI constant companions and “copilots” ready to interact in conversational language. The author and web-comic creator Randall Munroe has called the latter kind of shift a move from “tool” to “friend.” If we’re in thrall to an indefatigable, benevolent-sounding robot friend, we’re at risk of being steered the wrong way if the friend (or its maker, or anyone who can pressure that maker) has an ulterior agenda. All of these shifts, in turn, have led some observers and regulators to prioritize harm avoidance over unfettered expression.
That’s why it makes sense that Google Search and other search engines have become much more active in curating what they say, not through search-result links but ex cathedra, such as through “knowledge panels” that present written summaries alongside links on common topics. Those automatically generated panels, which have been around for more than a decade, were the online precursors to the AI chatbots we see today. Modern AI-model makers, when pushed about bad outputs, still lean on the idea that their job is simply to produce coherent text, and that users should double-check anything the bots say—much the way that search engines don’t vouch for the truth behind their search results, even if they have an obvious incentive to get things right where there is consensus about what is right. So although AI companies disclaim accuracy generally, they, as with search engines’ knowledge panels, have also worked to keep chatbot behavior within certain bounds, and not just to prevent the production of something illegal.
Read: The GPT era is already ending
One way model makers influence the chocolates in the box is through “fine-tuning” their models. They tune their chatbots to behave in a chatty and helpful way, for instance, and then try to make them unhelpful in certain situations—for instance, not creating violent content when asked by a user. Model makers do this by drawing in experts in cybersecurity, bio-risk, and misinformation while the technology is still in the lab and having them get the models to generate answers that the experts would declare unsafe. The experts then affirm alternative answers that are safer, in the hopes that the deployed model will give those new and better answers to a range of similar queries that previously would have produced potentially dangerous ones.
In addition to being fine-tuned, AI models are given some quiet instructions—a “system prompt” distinct from the user’s prompt—as they’re deployed and before you interact with them. The system prompt tries to keep the models on a reasonable path, as defined by the model maker or downstream integrator. OpenAI’s technology is used in Microsoft Bing, for example, in which case Microsoft may provide those instructions. These prompts are usually not shared with the public, though they can be unreliably extracted by enterprising users: This might be the one used by X’s Grok, and last year, a researcher appeared to have gotten Bing to cough up its system prompt. A car-dealership sales assistant or any other custom GPT may have separate or additional ones.
These days, models might have conversations with themselves or with another model when they’re running, in order to self-prompt to double-check facts or otherwise make a plan for a more thorough answer than they’d give without such extra contemplation. That internal chain of thought is typically not shown to the user—perhaps in part to allow the model to think socially awkward or forbidden thoughts on the way to arriving at a more sound answer.
So the hocus-pocus of GPT halting on my name is a rare but conspicuous leaf on a much larger tree of model control. And although some (but apparently not all) of that steering is generally acknowledged in succinct model cards, the many individual instances of intervention by model makers, including extensive fine-tuning, are not disclosed, just as the system prompts typically aren’t. They should be, because these can represent social and moral judgments rather than simple technical ones. (There are ways to implement safeguards alongside disclosure to stop adversaries from wrongly exploiting them.) For example, the Berkman Klein Center’s Lumen database has long served as a unique near-real-time repository of changes made to Google Search because of legal demands for copyright and some other issues (but not yet for privacy, given the complications there).
When people ask a chatbot what happened in Tiananmen Square in 1989, there’s no telling if the answer they get is unrefined the way the old Google Search used to be or if it’s been altered either because of its maker’s own desire to correct inaccuracies or because the chatbot’s maker came under pressure from the Chinese government to ensure that only the official account of events is broached. (At the moment, ChatGPT, Grok, and Anthropic’s Claude offer straightforward accounts of the massacre, at least to me—answers could in theory vary by person or region.)
As these models enter and affect daily life in ways both overt and subtle, it’s not desirable for those who build models to also be the models’ quiet arbiters of truth, whether on their own initiative or under duress from those who wish to influence what the models say. If there end up being only two or three foundation models offering singular narratives, with every user’s AI-bot interaction passing through those models or a white-label franchise of same, we need a much more public-facing process around how what they say will be intentionally shaped, and an independent record of the choices being made. Perhaps we’ll see lots of models in mainstream use, including open-source ones in many variants—in which case bad answers will be harder to correct in one place, while any given bad answer will be seen as less oracular and thus less harmful.
Right now, as model makers have vied for mass public use and acceptance, we’re seeing a necessarily seat-of-the-pants build-out of fascinating new tech. There’s rapid deployment and use without legitimating frameworks for how the exquisitely reasonable-sounding, oracularly treated declarations of our AI companions should be limited. Those frameworks aren’t easy, and to be legitimating, they can’t be unilaterally adopted by the companies. It’s hard work we all have to contribute to. In the meantime, the solution isn’t to simply let them blather, sometimes unpredictably, sometimes quietly guided, with fine print noting that results may not be true. People will rely on what their AI friends say, disclaimers notwithstanding, as the television commentator Ana Navarro-Cárdenas did when sharing a list of relatives pardoned by U.S. presidents across history, blithely including Woodrow Wilson’s brother-in-law “Hunter deButts,” whom ChatGPT had made up out of whole cloth.
I figure that’s a name more suited to the stop-the-presses guillotine than mine.
You may like
Noticias
Lo que revela el aumento de $ 40 mil millones de OpenAi sobre el futuro del trabajo
Published
8 horas agoon
9 abril, 2025
Santa Mónica, CA – 5 de abril: el CEO de Openai, Sam Altman (R) y Oliver Louis Mulherin (L), asisten al 11º … Más Premios y ceremonia anual de premios y ceremonia en el Hangar Barker en Santa Mónica de Los Ángeles, California, Estados Unidos. (Foto de Tayfun Coskun/Anadolu a través de Getty Images)
Anadolu a través de Getty Images
Cuando Operai cerró su ronda de financiación récord de $ 40 mil millones, dirigida por SoftBank y se rumoreaba que incluye Microsoft y un sindicato de inversores de renombre, no solo reescribió el libro de jugadas para financiamiento tecnológico. Señaló el amanecer de un futuro radicalmente diferente para el trabajo.
Con una valoración que ahora supera los $ 300 mil millones, Operai se ha posicionado no solo como líder en IA, sino como una fuerza capaz de remodelar la forma en que las organizaciones piensan, operan y crecen. Este no es un espectáculo secundario tecnológico, es el evento principal. Y para cada líder de recursos humanos, CEO, gerente de equipo y trabajador de primera línea, las implicaciones son inmediatas y transformadoras.
La próxima generación de IA no solo vivirá en barras laterales ni tomará notas en las reuniones. Es un tirante para el núcleo de cómo funcionan las empresas, y está armado con $ 40 mil millones en la pista para que esto suceda. He aquí por qué.
AI como estratega, no solo asistente
Durante años, la IA ha desempeñado un papel secundario: correos electrónicos controlados, resumiendo documentos, organizando calendarios. Pero las ambiciones de OpenAI, ahora turboalizadas por esta nueva ronda de financiación, indican un cambio de apoyo a la estrategia. Estamos a punto de ver la IA integrada en el corazón de la toma de decisiones comerciales, pasando de “asistencia” a “autónoma”.
La IA generativa, en particular, está evolucionando rápidamente, aumentando de la simple generación de contenido a un nivel más profundo de conciencia del contexto. Según McKinsey’s Estado de IA Informe publicado en marzo de este año, el 78% de las organizaciones ahora usan IA en al menos una función comercial, hasta solo un 55% del año anterior. Aún más reveladora es la creciente adopción de la IA generativa por parte de los propios ejecutivos de nivel C, lo que indica un nivel de confianza creciente en los niveles más altos de liderazgo.
Este cambio también es evidente en dominios más técnicos. Avi Freedman, CEO de la compañía de inteligencia de redes Kentik, explica que históricamente, la resolución de problemas de red complejos requería que los ingenieros de redes tengan años, si no décadas, de experiencia. Sin embargo, como Freedman me dijo a través de su representante: “Ahora cualquier persona, un desarrollador, SRE o analista de negocios, puede hacer preguntas sobre su red en su lenguaje preferido y obtener las respuestas que necesitan”.
En entornos donde los CEO supervisan directamente la gobernanza de la IA, los datos de McKinsey muestran el impacto de EBIT más fuerte. En otras palabras: cuando el liderazgo se toma en serio la IA, impulsa resultados medibles. Y eso es antes de que la IA comience a proponer opciones estratégicas, simulando escenarios del mercado o interviniendo en conversaciones presupuestarias.
El trabajo se fragmentará y se reconfigurará
Quizás el impacto más incomprendido de la IA no se trata del desplazamiento laboral, sino la deconstrucción laboral. AI está permitiendo a las organizaciones dividir los roles tradicionales en tareas, optimizar esas tareas individualmente y luego volver a montarlas en flujos de trabajo más adaptativos.
Según McKinsey, el 21% de las organizaciones que usan Gen AI ya han rediseñado al menos algunos flujos de trabajo para acomodarlo. Eso puede sonar modesto, pero es un indicador principal. Lo que comienza con el marketing y la TI, de los departamentos más integrados de AI, inevitablemente desangrarán en recursos humanos, legales, operaciones y finanzas.
Imagine el papel de marketing del futuro cercano: strategista de campaña en parte, parte de ingeniero rápido, analista de parcialidad. O considere RRHH: Coaching emocional y comentarios de rendimiento entregados por humanos; Pronóstico de talento y cumplimiento manejado por AI. Cada función está a la altura de la reinvención.
Esto no significa que los humanos estén obsoletos. Significa que el valor del trabajo humano cambiará. Las personas ascenderán a la cadena de valor: al juicio, la creatividad, la empatía y la construcción de relaciones. Pero ese cambio será incómodo, especialmente para aquellos cuyo trabajo históricamente se ha basado en la previsibilidad, la repetición o la experiencia procesal.
Stargate y la guerra de infraestructura
Debajo de la superficie del cofre de guerra de OpenAi se encuentra una historia más profunda: la infraestructura. El proyecto Stargate, la iniciativa conjunta de $ 500 mil millones de Openai con SoftBank y Oracle, está diseñado para construir centros de datos masivos de próxima generación que puedan alimentar la IA a una escala sin precedentes. Los primeros $ 100 mil millones ya se están implementando, con Texas como el sitio insignia.
No se trata solo de entrenamiento de modelos. Es una carrera geopolítica e industrial. El poder de cálculo es el aceite de la era AI. Quien lo controla, controla el tempo de la innovación, y las implicaciones en el lugar de trabajo son enormes.
El acceso a esta infraestructura determinará cada vez más qué empresas pueden permitirse administrar agentes de IA en tiempo real en todas las funciones comerciales. A su vez, esto impulsará la ampliación de las disparidades en la productividad, la competitividad e incluso la satisfacción laboral. Las organizaciones que se quedan atrás pueden encontrarse rápidamente superadas por los competidores que ya integran agentes de IA en cada capa de sus operaciones.
Freedman argumenta que este cambio ya no es solo una cuestión de inversión tecnológica, es fundamentalmente sobre bienes raíces y energía, con conectividad de fibra y capacidad de enfriamiento en el núcleo. En su opinión, la escalabilidad de la IA ahora se limita menos por los algoritmos y más por la implementación física: donde se encuentran los centros de datos, qué tan rápido se puede instalar la fibra y si la infraestructura energética circundante puede manejar la creciente demanda. En última instancia, sugiere Freedman, el control sobre esta capa física determinará no solo qué modelos de IA funcionan mejor, sino también qué empresas, ciudades y países liderarán en el futuro del trabajo.
El nuevo contrato social en el trabajo
Una de las implicaciones más profundas de la IA en el trabajo es la necesidad de renegociar el contrato social entre empleadores y empleados. En un mundo donde la IA maneja más planificación, ejecución e informes, ¿qué queda para los humanos?
McKinsey informa que el 38% de las empresas ya están reutilizando el tiempo ahorrado por la automatización de IA hacia actividades completamente nuevas. Pero también notan una tendencia tranquila: algunas organizaciones grandes están reduciendo el personal, particularmente en el servicio al cliente y los roles de la cadena de suministro, donde la eficiencia de la IA es más alta.
Al mismo tiempo, está surgiendo una ola de nuevos roles: oficiales de cumplimiento de AI, especialistas en ética, ingenieros rápidos y traductores de datos. El informe también muestra un énfasis creciente en la requería: muchas empresas ya están reentrenando partes de su fuerza laboral, con más planificación de seguir los próximos tres años.
El lugar de trabajo se está dividiendo en dos: aquellos que saben cómo colaborar con IA y aquellos que no. Y aunque McKinsey señala que la mayoría de los ejecutivos no esperan reducciones dramáticas de la fuerza laboral en todos los ámbitos, hacer Espere cambios en las habilidades requeridas, estructuras de equipo y flujos de trabajo. Si no estás aprendiendo, estás rezagado.
La cultura será codificada
Aquí hay una predicción audaz: en los próximos cinco años, la cultura de una compañía estará cada vez más mediada por IA. No solo lo respalda, sino que se moldea por él.
A medida que AI se integra en las revisiones de desempeño, los procesos de contratación, las interacciones del cliente e incluso las conversaciones flojas, comienza a influir en lo que se elogia, lo que se corrige y lo que se ignora. La IA no es neutral: refleja los datos en los que está entrenado, los objetivos para los que está optimizado y los límites que se les ha dado.
El informe de McKinsey destaca que las organizaciones con hojas de ruta claras de IA, KPI definidos y mensajes internos en torno al valor de la IA están viendo mejores resultados. En otras palabras, la cultura ya no está siendo construida por reuniones de todas las manos: se está construyendo en los bucles de retroalimentación de sus sistemas de IA.
Este cambio plantea consideraciones urgentes para los equipos de recursos humanos y de liderazgo. A medida que los sistemas de IA comienzan a influir en la dinámica del equipo, ¿cómo pueden las organizaciones auditar efectivamente el sesgo? ¿Cómo pueden garantizar que las herramientas de retroalimentación impulsadas por la IA se amplifiquen, en lugar del silencio, voces diversas y disidentes? Cuando la interfaz entre los gerentes y los empleados está mediada por algoritmos, la ética y la inclusión no pueden ser las pensamientos posteriores, deben estar integrados desde el principio.
El lugar de trabajo de 2030 se está formando hoy. Las preguntas ahora son: ¿Su organización se llevará, seguirá o se quedará atrás?
Noticias
Mejoras de experiencia del cliente de Google Cloud y Verizon Drive para clientes de Verizon con Gemini Integration
Published
10 horas agoon
9 abril, 2025
Las soluciones con Gemini conducen a avances significativos en la experiencia del cliente de Verizon
Las Vegas, 9 de abril de 2025 / PRNEWSWIRE/ – Hoy, Google Cloud anunció los resultados impactantes de su colaboración con Verizon, que muestra cómo la integración de la tecnología generativa de IA (Gen AI) de Google Cloud, incluidas la plataforma Vertex AI, los modelos Gemini y el conjunto de participación del cliente, transforma significativamente las operaciones de primera línea de Verizon. Esta asociación estratégica ha llevado a una capacidad de respuesta integral del 95% para las consultas de los clientes, lo que resulta en interacciones de atención al cliente demostrablemente más eficientes y efectivas.
En los últimos cinco años, Verizon ha implementado con éxito herramientas innovadoras impulsadas por Google Cloud Technology para optimizar las interacciones de los clientes y reducir la carga cognitiva de sus empleados. Estas herramientas centradas en el humano funcionan como un socio inteligente de IA, que brinda orientación óptima y ofertas relevantes. De manera crucial, estas innovaciones permiten al equipo de Verizon a construir relaciones más fuertes con los clientes, reconociendo el valor de cada interacción.
Google Cloud AI Powers Capacidades de agente mejoradas en Verizon
El “Asistente de investigación personal”, un agente de IA conversacional desarrollado a través de la colaboración entre Verizon y Google Cloud, está impulsado por el Vertex AI de Google Cloud, los modelos Gemini y el Panel de asistencia de agente. Esta herramienta sofisticada proporciona a los trabajadores de primera línea de Verizon respuestas en tiempo real, conscientes de contexto y personalizadas a las consultas de los clientes, eliminando la necesidad de buscar manualmente a través de amplias bases de conocimiento. Operando de manera proactiva, el asistente sugiere preguntas relevantes que los clientes pueden tener y proporcionan respuestas inmediatas cuando los agentes escriben una pregunta.
Implementado en 28,000 de los representantes de atención al cliente de Verizon y las tiendas minoristas, el “Asistente de investigación personal” anticipa las necesidades de los clientes y ofrece soluciones personalizadas, logrando un alto nivel de precisión y garantizando que las consultas de los clientes se aborden de manera consistente. Se están implementando más mejoras, como el resumen automatizado de la conversación y los recordatorios de acción de seguimiento, para optimizar los flujos de trabajo del agente.
Esta innovación se basa en el viaje de transformación que Verizon ha emprendido para implementar estratégicamente la IA de Google Cloud.
La IA generativa de Google Cloud agiliza la resolución de problemas de Verizon
El agente de IA “solucionador de problemas” integra la plataforma de personalización de Verizon con la IA Gen AI de Google Cloud para ofrecer un soporte de solución de problemas avanzado, ayudando en la resolución de los problemas de los clientes de manera más rápida y efectiva. Al integrar la suite de participación del cliente de Google Cloud y el Panel de asistencia de agente con la base de conocimiento integral de Verizon, la plataforma ofrece soluciones precisas y eficientes. Esta integración es particularmente beneficiosa para los nuevos representantes de atención al cliente en Verizon, lo que les permite resolver problemas complejos con mayor confianza y conducir a una mejora significativa en el tiempo de resolución de problemas.
Verizon mejora la participación del cliente con los agentes virtuales inteligentes de Google Cloud
Verizon también ha implementado varias experiencias orientadas al cliente de Gen Ai que brindan a los usuarios apoyo personalizado, natural y conversacional. Estas experiencias se construyen dentro de los agentes de conversación y están impulsadas por los modelos Gemini de Google. Permiten a los clientes de Verizon tener conversaciones de lenguaje natural con asistentes virtuales por teléfono o chat, como en la aplicación My Verizon. Estos agentes virtuales inteligentes ayudan a los clientes a resolver problemas complejos a través del diálogo intuitivo, guiados por instrucciones simples de lenguaje natural que reflejan las prácticas comerciales de Verizon.
“Nuestra colaboración con Google Cloud y la integración de Gemini en nuestras plataformas de atención al cliente marcan un avance significativo en nuestro compromiso de proporcionar experiencias excepcionales del cliente”, dijo Sampath Sowmyanarayan, director ejecutivo de Verizon Consumer. “Los resultados tangibles demuestran el poder de la IA para mejorar la eficiencia y capacitar a nuestros equipos de atención al cliente”.
“El impacto de Gemini en las operaciones de servicio al cliente de Verizon es un testimonio de nuestra profunda asociación y el compromiso de Verizon con la innovación continua”, dijo Thomas KurianDirector Ejecutivo, Google Cloud. “Estos resultados demuestran el potencial de la IA para no solo mejorar las operaciones, sino también para crear interacciones más significativas y útiles para los clientes en todas partes, lo que finalmente impulsa un valor significativo para las empresas”.
Google Cloud continuará trabajando con Verizon, aprovechando la suite de participación del cliente y sus capacidades actualizadas para permitir nuevas experiencias en cada punto de contacto comercial. Esta próxima generación de la suite, impulsada por Gemini, simplificará cómo los usuarios crean y implementan la Generación de AI y convertirán cada interacción con el cliente en una oportunidad de construcción de marca, fomentando relaciones más fuertes de los clientes para Verizon.
Esta noticia destaca la fuerte y evolución de la asociación entre Google Cloud y Verizon, centrada en impulsar la innovación y ofrecer soluciones transformadoras para los clientes. Al aprovechar las capacidades de IA de vanguardia de Google Cloud y la red líder de Verizon y las extensas plataformas de participación del cliente, las dos compañías están estableciendo nuevos estándares para la excelencia en el servicio al cliente.
Acerca de Google Cloud
Google Cloud es el nuevo camino a la nube, proporcionando herramientas de IA, infraestructura, desarrollador, datos, seguridad y colaboración construidas para hoy y mañana. Google Cloud ofrece una pila de inteligencia artificial potente, totalmente integrada y optimizada con su propia infraestructura a escala de planeta, chips personalizados, modelos de IA generativos y plataforma de desarrollo, así como aplicaciones con AI, para ayudar a las organizaciones a transformar. Los clientes en más de 200 países y territorios recurren a Google Cloud como su socio de tecnología de confianza.
Fuente de Google Cloud

Paolo Ardoino, CEO de Tether
Wolfgang Wilde para Forbes
El viernes es tan ocupado como cualquier otro para Paolo Ardoino. El CEO multimillonario de Tether, emisor de los $ 144 mil millones de USDT Stablecoin, está celebrando un tribunal en las oficinas de Manhattan de Cantor Fitzgerald, presentando entrevistas consecutivas con los periodistas ansiosos por preguntar sobre los planes estadounidenses de su compañía. Cantor, dirigido durante décadas por ahora, el secretario de Comercio de los Estados Unidos, Howard Lutnick, no solo sirve como el custodio principal de Tether para los Tesoros de los Estados Unidos, sino que también posee una participación del 5% en la compañía.
A pocas semanas después de la nueva administración Trump, Ardoino ha volado para reunirse con legisladores en Capitol Hill y reguladores de la Comisión de Comercio de Futuros (CFTC) de productos básicos. Con los proyectos de ley de stablecoin competidores que avanzan en ambas cámaras del Congreso, Tether quiere un asiento en la mesa. “Creo que es importante que nuestra voz se escuche en el proceso de la factura de Stablecoin”, dice Ardoino. “Nuestros competidores son muy pequeños. No representan los casos de uso reales de Stablecoins”.
Esa es solo una ligera exageración: el rival más cercano, el USDC de Circle, es menos de la mitad de su tamaño, con $ 60 mil millones en la emisión de stablecoin. El siguiente más grande, USDS (anteriormente DAI), tiene alrededor de $ 8 mil millones. Tether es, por supuesto, el líder indiscutible, registrando 30 millones de billeteras nuevas cada trimestre, por el recuento de Ardoino. Tenía una ventaja de primer movimiento y se inclinó en los mercados emergentes, convirtiendo su token de pideo en dólares en una línea de vida en economías volátiles.
El año pasado, las facturas del Tesoro más altas lo ayudaron a generar $ 13 mil millones en “resultado financiero”, lo que llama ganancias (aunque no auditadas) en sus comunicados de prensa. Tether no paga intereses a aquellos que depositan dólares en su stablecoin, USDT y, como resultado, gana la mayor parte de sus ingresos del rendimiento de los tesoreros. También tiene inversiones en criptomonedas, metales preciosos, bonos corporativos y préstamos. Alrededor del 82% de las reservas que respaldan su dólar digital están en efectivo o en papel gubernamental a corto plazo. El principal rival de Tether, Circle, que tiene la intención de hacerse público en los Estados Unidos a finales de este año, informó solo $ 285 millones en ganancias antes de impuestos en 2024, según su reciente presentación de la SEC.
Aún así, Tether, que dice que tiene su sede en El Salvador, ha sido visto durante mucho tiempo que esquivan la supervisión de los Estados Unidos. En 2021, se resolvió con el CFTC por $ 42.5 millones para hacer declaraciones engañosas sobre las reservas que respaldan el USDT. Ardoino, quien durante mucho tiempo ha tenido su sede en Lugano, Suiza, quiere voltear esa narrativa. “Algunos de nuestros competidores han tratado de impulsar las regulaciones hacia la mata de la capa. Toda su estrategia fue ‘Tether nunca estará en los Estados Unidos. Tether tiene miedo de venir a los Estados Unidos’. Bueno, aquí estamos ”, dice con una sonrisa. “Y ahora incluso estamos pensando en crear un establo doméstico en los EE. UU. ¿Qué tan divertido sería para nuestros competidores?”
No reemplazaría el USDT, lo que Ardoino dice que está diseñado especialmente para los mercados emergentes, donde gran parte del volumen de Tether se mueve sobre la cadena de bloques Tron del multimillonario Justin Sun. En cambio, sería un producto paralelo adaptado a los EE. UU., Una economía altamente digital y altamente digital. “No puede crear algo que sea inferior o igual a PayPal, Zelle, CashApp”, admite. “Tomaremos un poco de tiempo para profundizar en el mercado, pero tenemos algunas ideas sobre cómo podemos crear un gran producto centrado en los pagos digitales”. Tether también contrató a un CFO el mes pasado para finalmente realizar una auditoría financiera completa, que ha prometido durante años. Las conversaciones están en marcha con una de las cuatro grandes firmas de contabilidad, según la compañía.
Ardoino nacido en Italia se burla de las instituciones que persiguen las instituciones de persecución: “Las instituciones lo traicionarán por un punto básico”, y es igualmente despectivo con la obsesión de la industria con las agudas de la industria con el rendimiento que, como los fondos del mercado monetario, los depositantes de pago por el privilegio de mantener su dinero. Son “una mala idea”, dice rotundamente. Primero, probablemente sean valores. En segundo lugar, es una carrera hacia el fondo. “Si tiene que devolver todo el rendimiento, no ganará dinero. Y si dice” devolveré todo aparte del 1%”, entonces alguien más dirá:” Bien, devolveré todo menos un punto básico “”, plantea.
Actualmente, el Congreso considera las establo que llevan el rendimiento de los proyectos de ley de stablecoin, una respuesta probable a las preocupaciones de que tales tokens podrían competir con los bancos y otras instituciones financieras tradicionales que ofrecen cuentas de ahorro y fondos del mercado monetario.
Si está en los EE. UU., Se queja de no ganar intereses, Ardoino admite. “¿Pero por qué usar USDT? Puedes comprar T-Bills tú mismo”. En lugares como Argentina, argumenta, donde la moneda local puede balancearse 10% en un solo día, un rendimiento anual del 4% es irrelevante. “No les importa. Solo quieren el producto que funcione. El problema es que la mayoría de nuestros competidores miran esta calle y la siguiente. No pueden identificar dónde está África en el mapa”.
Ardoino hace una excepción para un aspirante a rival: World Liberty Finance, una mayoría criptográfica propiedad de la familia Trump, que recientemente presentó planes para un stablecoin denominado USD1. “Me gusta mucho el USD1, y me gustan los chicos de World Liberty Finance”, dice Ardoino. “Les dije ‘Estaré feliz de ser tu amigo y ayudarte a crear un producto aquí que sea exitoso'”. Se ha reunido con uno de los cofundadores de la compañía, aunque dice que no ha habido conversaciones de inversión, y no ha conocido a los Trumps. Todavía no, de todos modos.
Si bien los planes de stablecoin estadounidenses de Tether todavía son tempranos e inciertos, está avanzando en un intento de diversificarse en la inteligencia artificial. La compañía planea lanzar su propia plataforma AI, una alternativa de igual a igual a modelos como OpenAI, en junio (o septiembre), según Ardoino.
“Nuestra plataforma le permitirá mantener el control sobre sus propios datos y hacer todas las inferencias, toda la lógica de IA compleja dentro de su propio dispositivo, desde un teléfono inteligente de $ 30 hasta un iPhone y un teléfono Android a cualquier computadora portátil, y también conectarse directamente a otros dispositivos para obtener más energía. Es una forma de controlar sus datos para que no tenga que compartirlo con Chatgpt, por ejemplo”, dice Ardoino, presionando la criticación de la cría “, presionando la cría”. ideología. “La centralización es débil. Creo que Openai y todas estas otras compañías eventualmente evaporarán porque son solo operaciones que pierden dinero. Están tratando de ordeñar los datos de las personas”.
La visión de Tether es lo contrario: un nicho modelos de nicho de nicho en lugar de un modelo de Dios. “Todos pueden crear un modelo centrado en una cosa específica”, dice Ardoino, estudiantes, universidades, pequeñas empresas. La plataforma será gratuita, aunque cada agente eventualmente tendrá una billetera USDT horneada.
Hasta ahora, Tether ha empleado a unos 60 desarrolladores, aproximadamente un tercio de su personal total, para construir el sistema, que es autofinanciado. Relacionado con su expansión a la IA, la compañía ha invertido dinero en su fondo de riesgo, ahora totalizando alrededor de $ 10 mil millones, según Ardoino, lo que lo convierte en uno de los más grandes entre las empresas criptográficas. Las inversiones podrían ayudar a aumentar el apoyo para su nuevo negocio de las compañías de cartera. Se estima que Tether ha invertido más de $ 1 mil millones en múltiples transacciones en 2023 y 2024 en datos del norte, un operador del centro de datos que figura en Alemania.
Ardoino dice: “Quiero que se conozca a Tether, no solo por su stablecoin, sino por su tecnología, una neta positiva para el mundo”.
Related posts


































































































































































































































































Trending
-
Startups11 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales11 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Startups9 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Recursos11 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups11 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos11 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Recursos11 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Noticias9 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo