Noticias
¿Chatgpt es una droga? Las metáforas muestran lo que piensan los estudiantes de AI

Usar chatgpt para ayudarlo a escribir es como ponerse un par de tacones altos. La razón, según un investigador de posgrado de China: “Hace que mi escritura se vea noble y elegante, aunque ocasionalmente caigo en mi cara en el mundo académico”.
Esta comparación provino de un participante en un estudio reciente de estudiantes que han adoptado inteligencia artificial generativa en su trabajo. Los investigadores pidieron a los estudiantes internacionales que completaron estudios de posgrado en el Reino Unido que explicen el papel de la IA en su escritura utilizando una metáfora.
Las respuestas fueron creativas y diversas: se decía que AI era una nave espacial, un espejo, una droga que mejora el rendimiento, un automóvil autónomo, maquillaje, un puente o comida rápida. Dos personas compararon la IA generativa con Spider-Man, otra con el mapa mágico de los Merodeadores de Harry Potter. Estas comparaciones revelan cómo los adoptantes de esta tecnología están sintiendo su impacto en su trabajo durante un momento en que las instituciones están luchando por dibujar líneas alrededor de las cuales los usos son éticos y cuáles no.
Sobre el apoyo al periodismo científico
Si está disfrutando de este artículo, considere apoyar nuestro periodismo galardonado con suscripción. Al comprar una suscripción, está ayudando a garantizar el futuro de las historias impactantes sobre los descubrimientos e ideas que dan forma a nuestro mundo hoy.
“La IA generativa ha transformado la educación dramáticamente”, dice el autor de estudio senior Chin-Hsi Lin, investigador de tecnología educativa en la Universidad de Hong Kong. “Queremos que los estudiantes puedan expresar sus ideas” sobre cómo las están usando y cómo se sienten al respecto, dice.
Lin y sus colegas reclutaron estudiantes de posgrado de 14 regiones, incluidos países como China, Pakistán, Francia, Nigeria y los Estados Unidos, que estudiaban en el Reino Unido y usaban ChatGPT-4 en su trabajo, que solo estaba disponible para suscriptores pagados en ese momento. Se les pidió a los estudiantes que llegaran y explicaran una metáfora de la forma en que la IA generativa afecta su escritura académica. Para verificar que las 277 metáforas en las respuestas de los participantes fueran fieles a su uso real de la tecnología, los investigadores realizaron entrevistas en profundidad con 24 de los estudiantes y les pidieron que proporcionaran capturas de pantalla de sus interacciones con IA.
Al analizar las respuestas, los investigadores encontraron cuatro categorías sobre cómo los estudiantes usaban y pensaban en la IA en su trabajo. El más básico de estos fue el soporte técnico: el uso de IA para verificar la gramática inglesa o formatear una lista de referencias. Los participantes compararon la IA con las mejoras estéticas, como el maquillaje o los tacones altos, un papel humano, como un tutor o editor de idiomas, o una herramienta mecánica como una máquina de embalaje o una cinta de medición.
En la siguiente categoría, el desarrollo de texto, la IA generativa estuvo más involucrada en el proceso de escritura en sí. Algunos estudiantes lo usaron para organizar la lógica de su escritura; Una persona lo equiparó al piloto automático de Tesla porque les ayudó a mantenerse en el camino. Otros lo usaron para ayudar con su revisión de la literatura y la compararon con un asistente, una metáfora común utilizada en el marketing de IA, o un comprador personal. Y los estudiantes que usaron el chatbot para ayudar a la lluvia de ideas a menudo usaron metáforas que describían la tecnología como una guía. Lo llamaron una brújula, un compañero, un conductor de autobús o un mapa mágico.
En la tercera categoría, los estudiantes usaron AI para transformar de manera más significativa su proceso de escritura y producto final. Aquí, llamaron a la tecnología un “puente” o un “maestro” que podría ayudarlos a superar los límites interculturales en los estilos de comunicación, especialmente importante porque la escritura académica a menudo se realiza en inglés. Ocho personas lo describieron como un lector mental porque, para citar a un participante, ayudó a expresar “esos conceptos profundamente matizados que son difíciles de articular”.
Otros dijeron que les ayudó a comprender realmente esos conceptos difíciles, especialmente al sacar de diferentes disciplinas. Tres personas lo compararon con una nave espacial y dos con Spider-Man: “porque puede navegar rápidamente a través de la compleja red de información académica” en todas las disciplinas.
En la cuarta categoría, las metáforas de los estudiantes destacaron los peligros potenciales de la IA. Algunos de los participantes expresaron molestias con la forma en que permite una falta de innovación (como un pintor que simplemente copia el trabajo de los demás) o una falta de comprensión más profunda (como la comida rápida, conveniente pero no nutritivo). En esta categoría, los estudiantes lo llamaban más comúnmente un medicamento, especialmente adictivo. Una respuesta particularmente adecuada lo comparó con los esteroides en los deportes: “En un entorno competitivo, nadie quiere quedarse atrás porque no lo usan”.
Amanda Montañez; Fuente: “Tacones altos, brújulas, Spider-Man o Drug? 228; Abril de 2025 (datos)
“Las metáforas realmente importan, y han moldeado el discurso público” para todo tipo de nuevas tecnologías, dice Emily Weinstein, investigadora de tecnología en el Centro de Digital Prosping digital de la Universidad de Harvard, que no participó en el nuevo estudio. Las comparaciones que usamos para hablar sobre nuevas tecnologías pueden revelar nuestras suposiciones sobre cómo funcionan, e incluso nuestros puntos ciegos.
Por ejemplo, “hay amenazas implícitas en las otras metáforas que están aquí”, dice ella. Los sistemas de asistencia del conductor a veces causan un bloqueo. Los lectores mental de un mundo de fantasía o los mapas mágicos no pueden ser explicados por la ciencia, sino que simplemente tienen que ser confiables. Y los tacones altos, como se destacó el participante, puede hacer que te hagas más que caer de cara.
Weinstein dice que nunca solo hay una metáfora adecuada para hablar sobre una nueva tecnología. Por ejemplo, las metáforas de drogas o cigarrillos son muy comunes cuando las personas hablan de las redes sociales, y de alguna manera, son aptas. Aplicaciones como Tiktok e Instagram pueden ser genuinamente adictivas y a menudo se dirigen a la adolescencia. Pero cuando intentamos asignar solo una metáfora a una nueva tecnología, corremos el riesgo de aplanarla y pasar por alto sus beneficios y peligros.
“Si su modelo mental de redes sociales es que es crack [cocaine]será difícil para nosotros tener una conversación sobre el uso moderador, por ejemplo ”, dice ella.
Y culturalmente, nuestros modelos mentales de IA generativo todavía carecen seriamente. “El problema es que en este momento nos faltan formas de hablar sobre los detalles. Pero “Creo que muchas de las cosas que nos dan esta reacción moral y emocional … tiene que ver con que no tengamos lenguaje o formas de hablar más específicamente” sobre lo que queremos de esta tecnología.
Crear este nuevo lenguaje requerirá más escucha y discusión en el aula, tal vez incluso por asignación. Esto puede aliviar la presión sobre los maestros para que comprendan cada uso potencial de la IA y asegurarse de que los estudiantes no se queden en un área gris sin orientación. Para ciertas tareas, los maestros y los asesores pueden querer permitir que los estudiantes usen la IA generativa como una brújula para hacer una lluvia de ideas o como el hombre de la araña de su Gwen Stacy para ayudarlos a pasar por la red mundial.
“Hay diferentes objetivos de aprendizaje para diferentes tareas y diferentes contextos”, dice Weinstein. “Y a veces su objetivo podría no estar en tensión con un uso más transformador”.
Noticias
Fallout del sándwich del espacio no autorizado Géminis III

“Escondí un sándwich en mi traje espacial”, confesó el astronauta John W. Young en la edición del 2 de abril de 1965 de Revista Life. La conversación y el consumo del sándwich, que duró solo unos 30 segundos durante el vuelo de Géminis III, se convirtió en un asunto serio que provocó la ira del Congreso y el administrador de la NASA después de que la tripulación regresó a casa. El Congreso estaba particularmente molesto y aportó el asunto a la atención del liderazgo en las audiencias sobre el presupuesto de 1966 de la NASA. El representante George E. Shipley estaba especialmente disgustado, sabiendo cuánto dinero y tiempo habían gastado la NASA para preparar la nave espacial Géminis III para el lanzamiento. El hecho de que un miembro de la tripulación trajera algo a la cabina de la tripulación, que Shipley comparó con un “quirófano del cirujano”, puso las técnicas utilizadas para evitar que una misión de vuelo espacial no fuera en riesgo; Las migajas podrían haberse abrido detrás de los paneles de instrumentos que interfieren con la operación de equipos de vuelo y la pérdida de la misión y su tripulación. Shipley llamó a las travesuras de Young “tontas” y les pidió a los líderes de la NASA que compartieran sus pensamientos.
George Mueller, administrador asociado para el vuelo espacial tripulado, declaró inequívocamente que la agencia no “aprobó [of] objetos no autorizados como los sándwiches que suben a bordo de la nave espacial “. Y prometió a Shipley que la NASA “ha tomado medidas, obviamente, para evitar la recurrencia de sándwiches de carne en conserva en futuros vuelos. No hubo detrimento en el programa experimental que se llevó a cabo, ni hubo ningún detrimento de la realización real de la misión debido a la ingestión del sándwich ”. El director del Centro de naves espaciales tripuladas, Robert R. Gilruth, fue más indulgente con la decisión de Young. Webb no estuvo de acuerdo y dijo: “Este es el programa espacial de los Estados Unidos de los Estados Unidos y, como cuestión de política, no vamos a permitir que las personas superpongan su juicio sobre lo que se tomará en estos vuelos. Creo que está bien para el Dr. Gilruth tomar una posición muy fuerte con respecto a la individualidad de estos hombres, pero de aquellos de nosotros que tenemos que mirar la totalidad del asunto, esta no fue una actuación adecuada de un astronauta “.
La pérdida de una misión de Géminis, especialmente una tan temprana en el programa, habría sido particularmente desafiante para una agencia que intenta aterrizar a los humanos en la luna donde cada misión se construyó en el vuelo anterior. Estados Unidos estaba en una carrera con la Unión Soviética, y al menos para el Congreso, el propósito de Géminis y el costo del programa espacial fue demasiado grave para este tipo de diversión y juegos. Para el administrador de la NASA, James Webb, era una señal de que Gilruth era demasiado laxa cuando se trataba de administrar a sus astronautas. Géminis III fue solo un ejemplo de la falta de control que notó, y presionó a Gilruth para un informe sobre el incidente del sándwich para determinar si los jóvenes deberían ser disciplinados o al menos reprendidos.
Young eclosionó la idea durante el entrenamiento, cuando su comandante, Virgil I. “Gus” Grissom creció “aburrido” con la comida con la que practicaban para la misión. Grissom se quejaba regularmente de los científicos de alimentos deshidratados de “delicias”. Trayendo un sándwich a bordo, un artículo que estaba recién hecho y no tenía que rehidratarse, “parecía una idea divertida en ese momento” para Young.
Uno de los objetivos de su vuelo era evaluar el empaque de alimentos de vuelo de la NASA y si los contenedores se filtraron cuando se reconstituyeron los alimentos, así como los procedimientos para deshacerse de la comida y su embalaje después de comer. Los alimentos incluían artículos rehidratables como mordeduras de pollo, puré de manzana o bebidas, y alimentos comprimidos como bocados de brownie. Sin embargo, el sistema de alimentos Géminis no era alta cocina, y los equipos se quejaban de su gusto. Young describió las mordeduras de pollo como “apenas comestibles” en su informe posterior al vuelo. Don L. Lind, un científico-astronauta seleccionado en 1967, describió la comida temprana de Géminis como “extraño”. Su clase llevó algunos al entrenamiento de supervivencia de la jungla en Panamá, y aunque nadie quería comerlo en los primeros dos días, para el tercer día tenían tanta hambre que estaban dispuestos a intentarlo. Otro problema era que todas las comidas rehidratadas para Géminis se mezclaron con agua fría, lo que las hizo menos apetitosas que una comida caliente.
Un sándwich de carne en conserva recién hecho en un restaurante local sonaba como una mejor opción, por lo que Young tenía su compañero astronauta y piloto de comando de respaldo Walter M. “Wally” Schirra eligió uno. Schirra compró el sándwich para Young, y cuando se dirigió al lanzador, Young lo puso en el bolsillo de su traje de presión.
Casi dos horas después del vuelo, cuando Young comenzó su evaluación de alimentos y desechos, sacó el sándwich de su traje y se lo ofreció a su comandante. Según lo capturado en las grabaciones aireadas a tierra, Grissom preguntó qué era y de dónde vino. “Lo traje conmigo”, respondió Young, “veamos cómo sabe”. No esperaba que el sándwich fuera tan picante, “Huele, ¿no?” Grissom dio un mordisco pero encontró el centeno desmoronado, por lo que colocó el sándwich en el bolsillo de su traje para evitar que las migas floten alrededor de la cabina.
Gus Grissom
Comandante de Géminis III
Dos días después, casi mil miembros de los medios de comunicación de los Estados Unidos y de todo el mundo se reunieron para escuchar a la gerencia de la tripulación y la NASA en la conferencia de prensa posterior al vuelo en el Motel de Carriage House en Cocoa Beach, Florida. El periodista Space Bill Hines le preguntó a Young sobre el sándwich, que se refirió erróneamente a él como un “sándwich baloney”, y lo que sucedió cuando a Gus se le ofreció un gusto. “Y”, preguntó, “¿qué fue del sándwich?” Young parecía sorprendido: “¿Cómo te enteraste de eso?” Y luego se rió agregando a Grissom “se comió el sándwich”.
Irónicamente, el programa Géminis ofreció a los astronautas más control sobre sus vuelos que durante el Proyecto Mercurio, incluida la capacidad de maniobrar su nave espacial y ser más independiente del control de la misión; Pero el alboroto sobre este evento llevó a la NASA a redactar reglas sobre lo que los astronautas podían y no pudieron tomar a bordo una nave espacial. Comenzando con Gemini IV, las tripulaciones de vuelo tuvieron que presentar una lista de artículos que planearon asumir sus misiones. Los elementos prohibidos incluían sándwiches, así como artículos o metales voluminosos o pesados que podrían afectar negativamente la operación de equipos de naves espaciales. (La NASA todavía permitía a los astronautas tomar artículos personales como alianzas de bodas o monedas para familias y amigos en su kit de preferencias personales).
Young nunca recibió una reprimenda formal por el incidente, pero se enteró de la frustración del Congreso. Se aconsejó a otros en el Cuerpo que evitaran acrobacias similares y que se concentraran en la misión. La decisión de traer un sándwich a bordo no tuvo un impacto negativo en la carrera de Young. Fue el primer astronauta en volar al espacio seis veces, dos misiones de Géminis; Dos misiones Apolo, incluido el ensayo del vestido para el primer aterrizaje lunar; y dos misiones de transbordador espacial, incluido STS-1, conocido como el vuelo de prueba más valiente en la historia. También se desempeñó como jefe de la oficina de astronautas durante 13 años.
Noticias
Zscaler’s ThreatLabz 2025 AI Security Report Reveals Dominance of ChatGPT and Rising Security Concerns in AI/ML Transactions
Zscaler’s report highlights ChatGPT’s dominance in AI transactions and rising security concerns related to AI applications.
Quiver AI Summary
Zscaler, Inc. has released the ThreatLabz 2025 AI Security Report, highlighting that ChatGPT is the leading AI/ML application, comprising 45.2% of all AI/ML transactions, yet also the most blocked due to security concerns. The report analyzes over 536 billion AI transactions and reveals significant trends, including an astonishing 3,000% year-over-year growth in enterprise AI/ML tool usage, with major volumes originating from the U.S. and India. The Finance & Insurance sector dominates AI transaction traffic, while the rise of agentic AI and open-source models like DeepSeek raises new security challenges for enterprises. Despite the rapid adoption of AI fostering innovation and productivity, the report indicates that 59.9% of AI transactions were blocked, emphasizing the need for enhanced security strategies to counteract threats that leverage AI capabilities.
Potential Positives
- Zscaler’s ThreatLabz 2025 AI Security Report highlights a 3,000+% year-over-year growth in enterprise use of AI/ML tools, showcasing the rapid adoption of AI technologies and positioning Zscaler as a key player in the industry.
- The report’s findings on the dominance of ChatGPT in AI/ML transactions (45.2%) indicate Zscaler’s significant market insight and relevance as enterprises navigate security concerns related to highly used tools.
- Zscaler’s Zero Trust Exchange platform, processing over 536 billion AI transactions, underscores its capabilities in providing robust security solutions amidst rising AI-driven threats, reinforcing its leadership in cloud security.
Potential Negatives
- Despite being the most widely used AI/ML application, ChatGPT is also the most-blocked application, indicating significant enterprise concerns over data exposure and unsanctioned use.
- The report highlights that enterprises blocked 59.9% of all AI/ML transactions, raising alarms about the perceived risks and security challenges associated with these technologies.
- The emergence of agentic AI and DeepSeek as threats indicates that competitors are disrupting Zscaler’s market, potentially affecting their positioning in the industry.
FAQ
What percentage of AI/ML transactions does ChatGPT account for?
ChatGPT accounts for 45.2% of all AI/ML transactions, making it the most popular AI application.
Which industries lead in AI/ML transaction volume?
The Finance & Insurance and Manufacturing industries lead, generating 28.4% and 21.6% of AI/ML transactions, respectively.
How much data is processed by enterprises using AI/ML tools?
Enterprises sent a total of 3,624 TB of data to AI/ML tools, indicating high integration into operations.
What are the security concerns associated with AI adoption?
Security concerns include data leakage, unauthorized access, and compliance violations, with enterprises blocking 59.9% of AI/ML transactions.
Where are most AI/ML transactions being generated globally?
The United States and India generate the highest volumes of AI/ML transactions, reflecting a global shift toward AI innovation.
Disclaimer: This is an AI-generated summary of a press release distributed by GlobeNewswire. The model used to summarize this release may make mistakes. See the full release here.
$ZS Congressional Stock Trading
Members of Congress have traded $ZS stock 1 times in the past 6 months. Of those trades, 0 have been purchases and 1 have been sales.
Here’s a breakdown of recent trading of $ZS stock by members of Congress over the last 6 months:
To track congressional stock trading, check out Quiver Quantitative’s congressional trading dashboard.
$ZS Insider Trading Activity
$ZS insiders have traded $ZS stock on the open market 34 times in the past 6 months. Of those trades, 0 have been purchases and 34 have been sales.
Here’s a breakdown of recent trading of $ZS stock by insiders over the last 6 months:
- AJAY MANGAL has made 0 purchases and 12 sales selling 190,480 shares for an estimated $38,228,210.
- ROBERT SCHLOSSMAN (Chief Legal Officer) has made 0 purchases and 15 sales selling 12,675 shares for an estimated $2,337,014.
- ANDREW WILLIAM FRASER BROWN sold 8,000 shares for an estimated $1,392,830
- REMO CANESSA (Chief Financial Officer) has made 0 purchases and 3 sales selling 6,915 shares for an estimated $1,383,177.
- MICHAEL J. RICH (CRO and President of WW Sales) sold 3,779 shares for an estimated $757,007
- SYAM NAIR (CTO) sold 3,682 shares for an estimated $737,576
- JAGTAR SINGH CHAUDHRY (CEO & Chairman) sold 2,863 shares for an estimated $573,513
To track insider transactions, check out Quiver Quantitative’s insider trading dashboard.
$ZS Hedge Fund Activity
We have seen 380 institutional investors add shares of $ZS stock to their portfolio, and 397 decrease their positions in their most recent quarter.
Here are some of the largest recent moves:
- VOYA INVESTMENT MANAGEMENT LLC removed 1,467,990 shares (-50.5%) from their portfolio in Q4 2024, for an estimated $264,840,075
- TIGER GLOBAL MANAGEMENT LLC added 1,450,000 shares (+inf%) to their portfolio in Q4 2024, for an estimated $261,594,500
- UBS GROUP AG added 771,042 shares (+151.5%) to their portfolio in Q4 2024, for an estimated $139,103,687
- POINT72 ASSET MANAGEMENT, L.P. removed 627,896 shares (-100.0%) from their portfolio in Q4 2024, for an estimated $113,278,717
- FMR LLC added 627,030 shares (+52.2%) to their portfolio in Q4 2024, for an estimated $113,122,482
- AMERIPRISE FINANCIAL INC removed 580,586 shares (-80.2%) from their portfolio in Q4 2024, for an estimated $104,743,520
- JPMORGAN CHASE & CO removed 577,132 shares (-70.6%) from their portfolio in Q4 2024, for an estimated $104,120,384
To track hedge funds’ stock portfolios, check out Quiver Quantitative’s institutional holdings dashboard.
$ZS Analyst Ratings
Wall Street analysts have issued reports on $ZS in the last several months. We have seen 12 firms issue buy ratings on the stock, and 0 firms issue sell ratings.
Here are some recent analyst ratings:
- Scotiabank issued a “Outperform” rating on 03/06/2025
- BMO Capital issued a “Outperform” rating on 03/06/2025
- Wedbush issued a “Outperform” rating on 03/06/2025
- Bernstein issued a “Outperform” rating on 03/06/2025
- RBC Capital issued a “Outperform” rating on 03/06/2025
- BTIG issued a “Buy” rating on 03/06/2025
- Citigroup issued a “Buy” rating on 03/05/2025
To track analyst ratings and price targets for $ZS, check out Quiver Quantitative’s $ZS forecast page.
$ZS Price Targets
Multiple analysts have issued price targets for $ZS recently. We have seen 8 analysts offer price targets for $ZS in the last 6 months, with a median target of $241.0.
Here are some recent targets:
- An analyst from Goldman Sachs set a target price of $207.0 on 03/06/2025
- An analyst from Scotiabank set a target price of $242.0 on 03/06/2025
- An analyst from BMO Capital set a target price of $233.0 on 03/06/2025
- An analyst from UBS set a target price of $260.0 on 03/06/2025
- An analyst from Robert W. Baird set a target price of $250.0 on 03/06/2025
- An analyst from BTIG set a target price of $252.0 on 03/06/2025
- Mike Cikos from Needham set a target price of $240.0 on 03/05/2025
Full Release
ChatGPT
is the most popular AI/ML application, accounting for nearly half of all AI/ML transactions (45.2%) and is also the most-blocked AI application, followed by Grammarly, and Microsoft Copilot as the second and third most-blocked applications, respectively
Agentic AI
and open-source model
DeepSeek
are creating new opportunities for threat actors to weaponize AI and automate and scale their attack- The top five countries generating the most AI/ML transactions are the
United States, India, United Kingdom, Germany, and Japan - The
Finance & Insurance and Manufacturing
industries generate the most AI/ML traffic, with 28.4% and 21.6% share of all AI/ML transactions in the Zscaler cloud, respectively, followed by Services (18.5%), Technology (10.1%), Healthcare (9.6%), and Government (4.2%)
SAN JOSE, Calif., March 20, 2025 (GLOBE NEWSWIRE) —
Zscaler, Inc.
(NASDAQ: ZS), the leader in cloud security, today released the ThreatLabz 2025 AI Security Report, based on insights from more than 536 billion AI transactions processed between February 2024 to December 2024 in the Zscaler Zero Trust Exchange™platform, the largest in-line security cloud, which discovered real-world threat scenarios ranging from AI-enhanced phishing to fake AI platforms. This report also explores recent developments in areas that will undoubtedly influence AI in 2025 and beyond, including agentic AI, the emergence of DeepSeek, and the evolving regulatory landscape.
The report reveals a 3,000+% year-over-year growth in enterprise use of AI/ML tools, highlighting the rapid adoption of AI technologies across industries to unlock new levels of productivity, efficiency, and innovation. Enterprises are sending significant volumes of data to AI tools, totaling 3,624 TB, underscoring the extent to which these technologies are integrated into operations. However, this surge in adoption also brings heightened security concerns. Enterprises blocked 59.9% of all AI/ML transactions, signaling enterprise awareness around the potential risks associated with AI/ML tools, including data leakage, unauthorized access, and compliance violations. Threat actors are also increasingly leveraging AI to amplify the sophistication, speed, and impact of attacks—forcing enterprises to rethink their security strategies.
“As AI transforms industries, it also creates new and unforeseen security challenges,” said Deepen Desai, Chief Security Officer at Zscaler. “Data is the gold for AI innovation, but it must be handled securely. The Zscaler Zero Trust Exchange platform, powered by AI with over 500 trillion daily signals, provides real-time insights into threats, data, and access patterns—ensuring organizations can harness AI’s transformative capabilities while mitigating its risks. Zero Trust Everywhere is the key to staying ahead in the rapidly evolving threat landscape as cybercriminals look to leverage AI in scaling their attacks.”
Key Insights from the ThreatLabz 2025 AI Security Report
ChatGPT Dominates AI/ML Transactions, But Security Concerns Remain
ChatGPT emerged as the most widely used AI/ML application, driving 45.2% of identified global AI/ML transactions in the Zscaler Zero Trust Exchange. However, it was also the most-blocked tool due to enterprises’ growing concerns over sensitive data exposure and unsanctioned use. Other most-blocked applications include Grammarly, Microsoft Copilot, QuillBot, and Wordtune, showing broad usage patterns for AI-enhanced content creation and productivity improvements.
“We had no visibility into ChatGPT. Zscaler was our key solution initially to help us understand who was going to it and what they were uploading.”
—Jason Koler, CISO, Eaton Corporation |
See the video case study
DeepSeek and Agentic AI: Innovation Meets Escalating Threats
AI is amplifying cyber risks, with usage of agentic AI and China’s open-source DeepSeek enabling threat actors to scale attacks. So far in 2025, we’ve seen DeepSeek challenge American giants like OpenAI, Anthropic, and Meta, disrupting AI development with strong performance, open access, and low costs. However, such advancements also introduce significant security risks.
Geographies Leading AI Adoption: US and India
The United States and India generated the highest AI/ML transaction volumes, representing the global shift toward AI-driven innovation. However, these changes aren’t occurring in a vacuum, and organizations in these and other geographies are grappling with increasing challenges like stringent compliance requirements, high implementation costs, and shortage of skilled talent.
Finance & Insurance Lead Enterprise AI Traffic by Industry
The Finance & Insurance sector accounted for 28.4% of all enterprise AI/ML activity, reflecting its widespread adoption, and indicative of the critical functions supported by the industry, such as fraud detection, risk modeling, and customer service automation. Manufacturing was second, accounting for 21.6% of transactions, likely driven by innovations in supply chain optimization and robotics automation. Additional sectors, including Services (18.5%), Technology (10.1%), and Healthcare (9.6%), are also increasing their reliance on AI, while each industry also faces unique security and regulatory challenges posing new risks and possibly impacting the overall rate of adoption.
The Zscaler AI Advantage
Built on a true zero trust architecture, Zscaler delivers Zero Trust Everywhere, securing user, workload, IoT/OT communication using business policies, not network policies. Zscaler mitigates AI-powered threats by hiding applications and IP addresses from attackers, inspecting all traffic for threats, and ensuring users access only authorized applications—never full networks. This approach minimizes the attack surface, prevents lateral movement, and stops threats before they can cause harm. Zscaler protects its users against today’s most sophisticated AI-driven threats by implementing the following:
Zero Trust Foundation:
Minimize the external attack surface through continuous verification and least-privilege access.
Real-time AI Insights:
Employ predictive and generative AI to deliver actionable insights that enhance security operations and digital performance.
Data Classification:
Leverage AI-driven classification to seamlessly detect and safeguard sensitive data across Zscaler’s Data Fabric.
Threat Protection
: Block AI-enhanced threats through continuous monitoring and response powered by the Zscaler Zero Trust Exchange.
App Segmentation:
Restrict lateral movement and reduce the internal attack surface with AI-driven, automatic app segmentation.
Breach Prediction:
Harness the power of Zscaler Breach Predictor that combines the power of generative AI and multi-dimensional predictive models.
Cyber Risk Assessments:
Leverages AI-generated security reports to continuously optimize your zero trust implementation.
Download the Full ThreatLabz 2025 AI Security Report
Download the full version of the 2025 AI Security Report
here
for more information about real-world threat scenarios, AI predictions, insights into AI regulations, and AI best practices.
Methodology
Analysis of 536.5 billion total AI and ML transactions in the Zscaler cloud from February 2024 to December 2024. The Zscaler global security cloud processes over 500 trillion daily signals and blocks 9 billion threats and policy violations per day, delivering over 250,000 daily security updates.
About ThreatLabz
ThreatLabz is the security research arm of Zscaler. This world-class team is responsible for hunting new threats and ensuring that the thousands of organizations using the global Zscaler platform are always protected. In addition to malware research and behavioral analysis, team members are involved in the research and development of new prototype modules for advanced threat protection on the Zscaler platform, and regularly conduct internal security audits to ensure that Zscaler products and infrastructure meet security compliance standards. ThreatLabz regularly publishes in-depth analyses of new and emerging threats on its portal,
research.zscaler.com
.
About Zscaler
Zscaler (NASDAQ: ZS) accelerates digital transformation so customers can be more agile, efficient, resilient, and secure. The Zscaler Zero Trust Exchange™ platform protects thousands of customers from cyberattacks and data loss by securely connecting users, devices, and applications in any location. Distributed across more than 150 data centers globally, the SASE-based Zero Trust Exchange™ is the world’s largest in-line cloud security platform.
Media Contact
Natalia Wodecki
press@zscaler.com
A photo accompanying this announcement is available at
https://www.globenewswire.com/NewsRoom/AttachmentNg/9c2bf5d3-5720-4db8-bf1f-a9675f48840e
This article was originally published on Quiver News, read the full story.
The views and opinions expressed herein are the views and opinions of the author and do not necessarily reflect those of Nasdaq, Inc.
Noticias
Chatgpt golpeó con una queja de privacidad sobre alucinaciones difamatorias

Operai se enfrenta a otra queja de privacidad en Europa por la tendencia de su chatbot viral de IA al alucinar la información falsa, y esta podría resultar difícil de ignorar los reguladores.
El grupo de defensa de los derechos de privacidad Noyb está apoyando a un individuo en Noruega que estaba horrorizado al encontrar ChatGPT devolviendo información inventada que afirmó que había sido condenado por asesinar a dos de sus hijos e intentar matar al tercero.
Las quejas de privacidad anteriores sobre ChatGPT que generan datos personales incorrectos han involucrado problemas, como una fecha de nacimiento incorrecta o detalles biográficos que están mal. Una preocupación es que OpenAI no ofrece una forma para que las personas corrijan información incorrecta que genera la IA sobre ellos. Por lo general, Openai se ha ofrecido a bloquear las respuestas para tales indicaciones. Pero bajo el Reglamento General de Protección de Datos (GDPR) de la Unión Europea, los europeos tienen un conjunto de derechos de acceso a datos que incluyen un derecho a la rectificación de datos personales.
Otro componente de esta ley de protección de datos requiere que los controladores de datos se aseguren de que los datos personales que producen sobre las personas sean precisos, y esa es una preocupación que NeyB está marcando con su última queja de CHATGPT.
“El GDPR es claro. Los datos personales deben ser precisos”, dijo Joakim Söderberg, abogado de protección de datos de Noyb, en un comunicado. “Si no es así, los usuarios tienen derecho a cambiarlo para reflejar la verdad. Mostrar a los usuarios de Chatgpt un pequeño descargo de responsabilidad de que el chatbot puede cometer errores claramente no es suficiente. No puede simplemente difundir información falsa y, al final, agregar un pequeño descargo de responsabilidad que todo lo que dijo puede no ser cierto”.
Las infracciones confirmadas del GDPR pueden conducir a sanciones de hasta el 4% de la facturación anual global.
La aplicación también podría forzar cambios a los productos de IA. En particular, una intervención de GDPR temprana realizada por el organismo de control de la protección de datos de Italia que vio el acceso de ChatGPT bloqueado temporalmente en el país en la primavera 2023 llevó a OpenAi a realizar cambios en la información que revela a los usuarios, por ejemplo. Posteriormente, el perro guardián finó que se abre a OpenAI € € € € € 15 millones por procesar los datos de las personas sin una base legal adecuada.
Desde entonces, sin embargo, es justo decir que los perros guardianes de la privacidad en Europa han adoptado un enfoque más cauteloso para Genai mientras intentan descubrir la mejor manera de aplicar el GDPR a estas herramientas de IA.
Hace dos años, la Comisión de Protección de Datos de Irlanda (DPC), que tiene un papel principal de cumplimiento de GDPR en una queja de NOYB CHATGPT anterior, instó a apresurarse a prohibir las herramientas de Genai, por ejemplo. Esto sugiere que los reguladores deberían tomarse el tiempo para determinar cómo se aplica la ley.
Y es notable que una queja de privacidad contra ChatGPT que ha sido investigada por el regalos de protección de datos de Polonia desde septiembre de 2023 aún no ha dado una decisión.
La nueva queja de ChatGPT de Noyb parece estar destinada a sacudir a los reguladores de privacidad despiertos cuando se trata de los peligros de alucinar AIS.
La organización sin fines de lucro compartió la captura de pantalla (a continuación) con TechCrunch, que muestra una interacción con ChatGPT en la que la IA responde a una pregunta que pregunta “¿Quién es Arve Hjalmar Holmen?” – El nombre del individuo que trajo la queja, produciendo una ficción trágica que afirma falsamente que fue condenado por asesinato infantil y sentenciado a 21 años de prisión por matar a dos de sus propios hijos.
Si bien la afirmación difamatoria de que Hjalmar Holmen es un asesino infantil es completamente falso, Noyb señala que la respuesta de ChatGPT incluye algunas verdades, ya que el individuo en cuestión tiene tres hijos. El chatbot también consiguió los géneros de sus hijos. Y su ciudad natal se nombra correctamente. Pero eso solo hace que sea aún más extraño e inquietante que la IA alucinó las falsedades tan horribles en la cima.
Un portavoz de Noyb dijo que no pudieron determinar por qué el chatbot produjo una historia tan específica pero falsa para este individuo. “Investigamos para asegurarnos de que esto no fuera una confusión con otra persona”, dijo el portavoz, señalando que habían investigado los archivos de los periódicos, pero no habían podido encontrar una explicación de por qué la IA fabricó el asesinato de niños.
Los modelos de idiomas grandes, como el chatgpt subyacente, esencialmente la predicción de las siguientes palabras en una amplia escala, por lo que podríamos especular que los conjuntos de datos utilizados para entrenar la herramienta contenían muchas historias de filicida que influyeron en las opciones de palabras en respuesta a una consulta sobre un hombre con nombre.
Cualquiera sea la explicación, está claro que tales salidas son completamente inaceptables.
La afirmación de Noyb también es que son ilegales bajo las reglas de protección de datos de la UE. Y mientras OpenAI muestra un pequeño descargo de responsabilidad en la parte inferior de la pantalla que dice “Chatgpt puede cometer errores. Verifique información importante”, dice que esto no puede absolver al desarrollador de IA de su deber bajo GDPR de no producir falsedades atroces sobre las personas en primer lugar.
Operai ha sido contactado para una respuesta a la queja.
Si bien esta queja GDPR se refiere a un individuo llamado, NoyB señala otros casos de ChatGPT que fabrican información legalmente comprometida, como la especialidad australiana que dijo que estaba implicado en un escándalo de soborno y corrupción o un periodista alemán que fue nombrado falsamente como un niño abusador de un niño.
Una cosa importante a tener en cuenta es que, después de una actualización del modelo de AI subyacente, Neyb, dice que el chatbot dejó de producir las falsedades peligrosas sobre Hjalmar Holmen: un cambio que vincula a la herramienta ahora buscando en Internet información sobre las personas cuando se les preguntó (por lo cual anteriormente, un conjunto de datos podría, presumiblemente, presumir, alentado a que alucine un alucinado de tal manera incorrecta.
En nuestras propias pruebas, preguntando a Chatgpt “¿Quién es Arve Hjalmar Holmen?” El ChatGPT inicialmente respondió con un combo ligeramente extraño al mostrar algunas fotos de diferentes personas, aparentemente obtenidas de sitios como Instagram, SoundCloud y Discogs, junto con el texto que afirmó que “no podía encontrar ninguna información” en un individuo de ese nombre (ver nuestra captura de pantalla a continuación). Un segundo intento presentó una respuesta que identificó a Arve Hjalmar Holmen como “un músico y compositor noruego” cuyos álbumes incluyen “Honky Tonk Inferno”.

Si bien las falsedades peligrosas generadas por ChatGPT sobre Hjalmar Holmen parecen haberse detenido, tanto Noyb como Hjalmar Holmen siguen preocupados de que la información incorrecta y difamatoria sobre él podría haber sido retenida dentro del modelo de IA.
“Agregar un descargo de responsabilidad de que no cumpla con la ley no hace que la ley desaparezca”, señaló Kleanthi Sardeli, otro abogado de protección de datos en Noyb, en un comunicado. “Las empresas de IA tampoco pueden solo ‘ocultar’ información falsa de los usuarios mientras intervienen internamente la información falsa”.
“Las compañías de IA deberían dejar de actuar como si el GDPR no se aplique a ellas, cuando claramente lo hace”, agregó. “Si no se detienen las alucinaciones, las personas pueden sufrir un daño de reputación fácilmente”.
Noyb ha presentado la queja contra OpenAI ante la Autoridad de Protección de Datos Noruega, y espera que el organismo de control decida que es competente investigar, ya que OYB apunta a la queja en la entidad estadounidense de OpenAI, argumentando que su oficina de Irlanda no es responsable exclusivo de las decisiones de productos que afectan a los europeos.
Sin embargo, en abril de 2024, se remitió una queja de GDPR respaldada por NOYB contra OpenAI, que se presentó en Austria en abril de 2024, el regulador del DPC de Irlanda a causa de un cambio realizado por Operai a principios de ese año para nombrar a su división irlandesa como proveedor del servicio CHATGPT a usuarios regionales.
¿Dónde está esa queja ahora? Todavía sentado en un escritorio en Irlanda.
“Habiendo recibido la queja de la Autoridad de Supervisión de Austria en septiembre de 2024, el DPC comenzó el manejo formal de la queja y todavía está en curso”, Risteard Byrne, subdirector de comunicaciones de oficiales para el DPC dijo a TechCrunch cuando se le pidió una actualización.
No ofreció ninguna dirección cuando se espera que concluya la investigación del DPC sobre las alucinaciones de ChatGPT.
-
Startups10 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales10 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Recursos10 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups8 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Recursos10 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Recursos10 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Startups10 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Noticias8 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo