Noticias
Hipnotismo superficial versus resolución de problemas – Firstpost
Published
3 meses agoon

No es oro todo lo que reluce. Y ChatGPT, que ha sido objeto de fascinación durante mucho tiempo, no es una excepción. Ha sido evidente durante un par de años que ChatGPT se convirtió en sinónimo de interacciones humanas, redacción de ensayos y resolución de problemas. Sin embargo, detrás de la elegante interfaz y de las impresionantes capacidades de conversación se esconde un fenómeno que podemos llamar hipnotismo superficial: el atractivo de un sistema aparentemente competente que a menudo oculta limitaciones significativas. Como usuarios, es fundamental mirar más allá del encanto del dominio superficial y comprender los problemas subyacentes que conlleva el uso de IA como ChatGPT. Precisamente, ha soltado la lengua de esta herramienta de IA.
El síndrome de la competencia superficial
El término hipnotismo superficial capta perfectamente la tendencia a dejarse cautivar por la fluidez y las capacidades lingüísticas de ChatGPT. La forma en que este modelo de IA entreteje palabras, crea historias interesantes y responde preguntas puede generar una convincente ilusión de comprensión. A menudo parece que te estás comunicando con un ser humano que posee una gran cantidad de conocimientos sobre casi todos los temas. Pero esta capacidad de generar texto coherente y contextualmente relevante es sólo superficial: un resultado de algoritmos complejos entrenados en vastos conjuntos de datos, en lugar de una verdadera comprensión.
Oculto y dañino
Uno de los aspectos más críticos del hipnotismo superficial en el contexto de ChatGPT es la falta de comprensión genuina. ChatGPT puede articular respuestas detalladas sobre una amplia gama de temas, pero no comprende realmente el significado detrás de las palabras que utiliza. Por ejemplo, podría proporcionar información detallada sobre el cambio climático o las políticas económicas, pero carece de la capacidad de analizar críticamente o innovar más allá de los patrones que ha aprendido.
Esta limitación conlleva un riesgo de inexactitudes. ChatGPT puede generar respuestas que parezcan convincentes pero que en los hechos sean incorrectas o estén fuera de contexto. Esto puede resultar especialmente problemático en áreas como el asesoramiento médico o la orientación financiera, donde los errores podrían tener consecuencias importantes. Los usuarios pueden verse engañados por el tono confiado de la IA y ser víctimas de la ilusión de experiencia, una manifestación clásica del hipnotismo superficial.
Sesgos y preocupaciones éticas
El hipnotismo superficial también está presente en la forma en que ChatGPT aborda los prejuicios y los dilemas éticos. Los modelos de IA como ChatGPT se entrenan con conjuntos de datos masivos obtenidos de Internet, que inherentemente contienen sesgos presentes en la comunicación humana. A pesar de los esfuerzos por filtrar y corregir estos sesgos, aún pueden filtrarse en las respuestas. Esto puede dar lugar a resultados que reflejen estereotipos sociales o perspectivas sesgadas. Además, los mecanismos de moderación de ChatGPT, diseñados para evitar contenidos dañinos, pueden ser otro ejemplo de este fenómeno. Estos filtros pueden bloquear contenido abiertamente inapropiado, pero están lejos de ser perfectos. A veces, las respuestas benignas quedan atrapadas en estos filtros, mientras que el contenido más sutilmente dañino se escapa. Esta inconsistencia puede dar una falsa sensación de seguridad, donde los usuarios creen que la IA es completamente segura y moderada, cuando en realidad, la moderación opera en un nivel superficial sin una conciencia contextual más profunda.
Ilusión alarmante
En varios sectores, desde el servicio al cliente hasta la creación de contenido, ChatGPT ha sido elogiado por su capacidad para automatizar tareas, mejorar la eficiencia y reducir costos. Sin embargo, el hipnotismo superficial puede enmascarar las implicaciones sociales y económicas de esta tendencia. La automatización a través de la IA puede provocar el desplazamiento de puestos de trabajo, especialmente en industrias que dependen en gran medida de la comunicación escrita y las funciones de apoyo. Sin embargo, esta eficiencia a menudo se produce a costa de la creatividad, la empatía y la comprensión matizada, cualidades que son exclusivamente humanas. Si bien ChatGPT puede proporcionar respuestas rápidas a las consultas de los clientes, no puede realmente empatizar con un cliente frustrado ni innovar más allá de lo que ha aprendido. Puede simular la creatividad combinando ideas existentes en nuevas formas, pero esto carece de la profundidad y la espontaneidad de la percepción humana genuina. Aquí, el hipnotismo superficial de la eficiencia percibida de ChatGPT puede oscurecer el valor más profundo de las contribuciones humanas.
El dilema de la dependencia
Otro temor es la dependencia que el hipnotismo superficial puede fomentar entre los usuarios. A medida que ChatGPT se integra más en nuestra vida diaria, existe el riesgo de que las personas dependan demasiado de la IA para tareas que requieren pensamiento crítico y toma de decisiones. Esto podría conducir a una erosión gradual de las habilidades de resolución de problemas y de la creatividad, especialmente entre las generaciones más jóvenes que crecen con la asistencia de la IA como norma.
Esta dependencia excesiva está estrechamente relacionada con el atractivo superficial de las pulidas respuestas de ChatGPT. Debido a que puede proporcionar información rápidamente o incluso escribir ensayos, es fácil para los usuarios confiar en él en lugar de realizar investigaciones o análisis más profundos. Este fenómeno se extiende más allá de los usuarios individuales y llega a las organizaciones, que podrían adoptar soluciones impulsadas por la IA sin comprender plenamente las implicaciones a largo plazo de la integración de dichos sistemas en sus flujos de trabajo.
Vulnerabilidades en aumento
El hipnotismo superficial también se manifiesta en la forma en que los usuarios perciben los riesgos de privacidad y seguridad del uso de ChatGPT. Como modelo de inteligencia artificial, ChatGPT procesa una gran cantidad de datos y, dependiendo de cómo las plataformas gestionen las interacciones, puede haber importantes riesgos de privacidad. Por ejemplo, si los usuarios comparten información personal o confidencial con ChatGPT, podría estar en riesgo si los datos no se manejan adecuadamente. Además, ChatGPT podría explotarse en ataques de ingeniería social. Los actores malintencionados podrían utilizar la IA para elaborar mensajes de phishing muy convincentes o manipular conversaciones para extraer información confidencial de los usuarios. Las respuestas fluidas y convincentes de ChatGPT pueden crear una falsa sensación de seguridad, lo que facilita que las personas sean engañadas. Esta es una consecuencia directa del hipnotismo superficial, donde la sofisticación de la IA en la superficie oscurece los peligros potenciales.
Peligros ambientales
Las impresionantes capacidades de ChatGPT conllevan una importante huella medioambiental, que a menudo se esconde detrás del atractivo de su destreza tecnológica. El entrenamiento y el funcionamiento de grandes modelos de lenguaje como ChatGPT requieren una enorme potencia computacional, que a su vez consume mucha energía. Esto puede generar una huella de carbono sustancial, especialmente a medida que la escala y el despliegue de dichos modelos continúan creciendo.
Este costo ambiental es un aspecto crucial que el hipnotismo superficial a menudo oculta. Los usuarios pueden maravillarse con la capacidad de respuesta y versatilidad de ChatGPT sin considerar las implicaciones de sostenibilidad de su consumo de recursos. A medida que los debates sobre el cambio climático y la sostenibilidad se vuelven más urgentes, es esencial reconocer los costos ocultos asociados con el uso generalizado de la IA.
Lucha entre creatividad y pensamiento original
Si bien ChatGPT puede generar poesía, historias e ideas creativas, fundamentalmente carece de la capacidad de una verdadera originalidad. Sus resultados son producto del reconocimiento de patrones más que de un proceso creativo interno. Esta limitación a menudo queda enmascarada por la creatividad superficial que muestra a través de un lenguaje elocuente y variado. La diferencia entre la creatividad humana y la creatividad simulada de ChatGPT es similar a la diferencia entre una pintura creada por un artista y una reproducción realizada por una máquina. Este último puede replicar estilo y técnica, pero carece de la profundidad emocional y la experiencia personal que dan a las creaciones humanas su valor único.
Chat apasionante de imprevisibilidadGPT
Uno de los aspectos más desafiantes del uso de ChatGPT es su imprevisibilidad. Si bien puede proporcionar respuestas consistentes y relevantes la mayor parte del tiempo, ligeras variaciones en la forma en que se formulan las preguntas pueden conducir a respuestas diferentes, a veces contradictorias. Esta inconsistencia puede confundir a los usuarios y socavar la confianza en la información proporcionada por la IA.
El hipnotismo superficial también juega un papel aquí: los usuarios pueden esperar una confiabilidad constante debido a la naturaleza fluida de la mayoría de las interacciones. Sin embargo, la variabilidad subyacente de los modelos de IA significa que no pueden garantizar la misma precisión y relevancia cada vez, especialmente en temas complejos o matizados. Esta discrepancia entre apariencia y realidad es un sello distintivo del hipnotismo superficial en el ámbito de la IA.
Necesidad del momento
En un mundo cada vez más influenciado por la IA, es esencial mirar más allá del atractivo de la competencia superficial y reconocer los desafíos y limitaciones más profundos de modelos como ChatGPT. Si bien ofrece capacidades notables que pueden mejorar la productividad y la comunicación, depender demasiado de él sin comprender su verdadera naturaleza puede tener consecuencias no deseadas. Abordar los sesgos, garantizar la transparencia en el manejo de datos y equilibrar la automatización con las habilidades humanas son pasos cruciales para aprovechar el potencial de la IA y al mismo tiempo mitigar sus riesgos.
En última instancia, superar los efectos del hipnotismo superficial requiere un esfuerzo colectivo por parte de los usuarios, desarrolladores y formuladores de políticas. Al reconocer las limitaciones que subyacen a las pulidas respuestas de ChatGPT, podemos crear un enfoque más informado y equilibrado para integrar la IA en nuestras vidas. Sólo entonces podremos garantizar que la IA sirva como herramienta para un progreso genuino, en lugar de una ilusión del mismo.
Uttam Chakraborty es profesor asociado en la Escuela de Administración de la Presidency University Bengaluru. Santosh Kumar Biswal es profesor asociado en el Departamento de Periodismo y Comunicación de Masas de la Universidad de Mujeres Rama Devi, Bhubaneswar. Las opiniones expresadas en el artículo anterior son personales y exclusivas de los autores. No reflejan necesariamente las opiniones de Firstpost.
You may like

Análisis El CEO de Microsoft AI, Mustafa Suleyman, ha ensalzado las virtudes de jugar el segundo violín en la carrera Generation-AI.
En una entrevista de noticias de televisión la semana pasada, Suleyman argumentó que es más rentable para los constructores de modelos de frontera, incluido OpenAi que ha tomado miles de millones de Windows Giant, de tres a seis meses y construir sobre sus éxitos que competir directamente con ellos.
Nuestra estrategia es jugar un segundo muy apretado, dada la intensidad de capital de estos modelos
“Nuestra estrategia es jugar un segundo muy apretado, dada la intensidad de capital de estos modelos”, dijo a CNBC el viernes.
Además de ser más barato, Suleyman dijo que el tiempo extra permite a Microsoft optimizar para casos de uso específicos de los clientes.
Si bien la estrategia puede parecer inusual para una corporación en el corazón latido del movimiento Genai, refleja la posición en la que Microsoft, y ahora Suleyman, se encuentra a sí mismo.
Como recordarán, Suleyman se hizo un nombre como cofundador de Deepmind, que fue adquirido por Google en 2014. Suleyman se unió a Microsoft el año pasado después de un breve período como CEO de Inflexión de IA.
Mientras que su antiguo empleador en la fábrica de chocolate compite directamente con los gustos de Anthrope y Openai para construir modelos cada vez más capaces y ricos en funciones, Microsoft aún no ha lanzado un modelo fronterizo propio.
En cambio, la estrategia de Redmond está estrechamente vinculada a OpenAi, a la que proporciona una cantidad no desconsiderable de Azure Cloud Compute a cambio del derecho de usar la familia de modelos GPT de la startup en su creciente conjunto de servicios de IA con la marca de copilot.
Esta relación bien puede explicar el enfoque de Suleyman. No tiene mucho sentido invertir las cantidades masivas de capital necesarias para construir modelos fronterizos que puedan o no tener éxito en el mercado cuando su amigo Sam Altman en OpenAi lo hará por usted.
Dicho esto, Microsoft no está poniendo todos sus huevos en una cesta. Si bien la serie GPT está en el corazón de muchos servicios familiares de Copilot de Windows y Microsoft Cloud, no es la única colección de modelos que existe. El gigante de Excel desarrolla notablemente una línea de modelos de idiomas pequeños con licencia permisivamente bajo el nombre de codeName PHI.
En comparación con algo como GPT-4.5, estos modelos abiertos son minúsculos, que generalmente pesan en el rango de parámetros individuales a dos dígitos de mil millones de parámetros, lo que los hace apropiados para el uso de dispositivos en el borde, incluidas las computadoras portátiles, en lugar de los grupos de GPU multimillonarios. Los modelos también generalmente se han quedado atrás de las ofertas de primer nivel de OpenAI en términos de características, como las arquitecturas multimodalidad o la mezcla de expertos (MOE).
En la experiencia personal de este buitre, la familia de modelos PHI de Microsoft es generalmente bastante competente dado su tamaño, incluso si no tienden a ser tan emocionantes en cuanto a características, relativamente hablando.
Y su pequeño tamaño trae consigo ciertas ventajas. Con parámetros de 14 mil millones, PHI-4, por ejemplo, puede operar en una sola GPU de alta gama mientras mantiene tasas de generación aceptables. Esto hace que estas redes neuronales sean relativamente baratas para ejecutar junto a los modelos varias veces más grandes, lo que a menudo requiere múltiples GPU, si no los servidores de GPU, para lograr un rendimiento aceptable.
Un precursor de la autosuficiencia
Si bien Suleyman podría no estar interesado en competir directamente con Openai o Anthrope en el corto plazo, la dependencia de Microsoft en OpenAI puede no durar para siempre.
Es absolutamente la misión crítica que a largo plazo podamos hacer AI autosuficientemente en Microsoft
“Es absolutamente crítico que a largo plazo podamos hacer AI a sí mismo en Microsoft”, dijo a CNBC.
Pero si bien PHI puede ser un precursor para lograr este objetivo, parece que el vínculo de Redmond con OpenAi durará al menos otros cinco años. “Hasta 2030, al menos, estamos profundamente asociados con Operai, que tienen [had an] Una relación enormemente exitosa para nosotros “, agregó.
Suleyman minimizó las preocupaciones sobre la relación de Microsoft con Operai sigue la colaboración Stargate del Super Lab con Oracle y SoftBank, que se anunció el año pasado. Como parte de ese acuerdo, Microsoft ya no era el socio en la nube exclusivo de OpenAI.
Sin embargo, debe tenerse en cuenta que Microsoft no es el único que juega este juego. Varios otros proveedores de la nube han encontrado éxito en esta estrategia de seguimiento del líder.
Amazon Web Services posiblemente cae directamente en este campamento. AWS está fuertemente invertido en el rival de Operai Anthrope, al que contribuye con una cantidad astronómica de cómputo, como su clúster Project Rainier anunciado en diciembre.
Al mismo tiempo, AWS ha estado construyendo silenciosamente una familia de modelos de idiomas propios, con nombre en código Nova. Sin embargo, a diferencia de Microsoft, AWS parece estar manteniendo una correa más estrecha en su proyecto. Nova es propietaria, mientras que los modelos PHI de Microsoft tienen licencia de MIT y están disponibles libremente en los centros de modelos, incluida la cara de abrazo.
También se puede argumentar que el comercio electrónico chino y el gigante de la nube Alibaba han empleado una estrategia similar con su equipo de Qwen.
La familia Qwen de modelos atrajo una atención considerable por muchas de las mismas razones que Microsoft’s PHI. Los modelos, aunque no necesariamente innovadoras tecnológicamente, a menudo golpean muy por encima de su clase de peso, logrando un rendimiento comparable con LLM varias veces su tamaño.
La vista previa QWQ 32B de Qwen hizo su debut a fines de noviembre, poco más de dos meses después de la vista previa de Openi, la vista previa de O1 popularizó el concepto de “pensar”, también conocido como modelos de razonamiento. Tomó otros tres meses de pulido antes de que Alibaba lanzara el modelo final, tres meses después de que se finalizara el O1.
Se puede hacer un argumento similar para Deepseek. Con el concepto de modelos de lenguaje de razonamiento confirmado, la startup de IA china podría centrarse en iterar y optimizar el concepto para reducir enormemente los requisitos de calcular para crear y ejecutar dicho modelo.
Un enfoque de sistemas
Además de ser más barata, la estrategia de Suleyman también significa que Microsoft puede enfocar más energía en la creación de aplicaciones y otros sistemas en torno a modelos de idiomas grandes en lugar de encontrar nuevas formas de discutir redes neuronales.
Si bien se ha prestado mucha atención a los modelos en sí, como hemos discutido anteriormente, integrándolos en sistemas empresariales de una manera realmente valiosa puede ser una propuesta bastante complicada.
Junto con sus modelos PHI, Microsoft ha bombeado constantemente los marcos de investigación y software diseñados para que la integración de estos modelos sea más fácil y más eficiente.
Por ejemplo, el Titán de TI desarrolló Autogen, un marco para orquestar múltiples agentes de IA. Mientras tanto, el mes pasado, Redmond detalló su trabajo en KBLAM, cuyo objetivo es reducir el cálculo y la complejidad asociados con la extensión del conocimiento de un modelo de lenguaje utilizando datos estructurados.
Y la semana pasada, Microsoft presentó a Vidtok, un tokenizador de video de código abierto para convertir el video en tokens para facilitar que los modelos de aprendizaje automático comprendan contenido de video. ®
Noticias
La nueva generación de imágenes de Chatgpt se siente como un acceso telefónico de nuevo
Published
13 horas agoon
7 abril, 2025
Resumen
-
La generación de imágenes 4O es una actualización significativa para ChatGPT.
-
Las imágenes aparecen lentamente de arriba hacia abajo, al igual que las imágenes descargadas a través de las conexiones de acceso telefónico.
-
Esperar imágenes es un cambio bienvenido de la gratificación instantánea de la mayoría de la tecnología moderna.
En marzo de este año, Operai lanzó una característica llamada 4O Image Generation. Esta es una actualización de las capacidades de generación de imágenes de ChatGPT que provoca una serie de mejoras, como texto más preciso, mejor adherencia de instrucciones y un mejor fotorrealismo.
Sin embargo, el proceso no es instantáneo. La forma en que puede ver las imágenes que aparecen en tiempo real me lleva de regreso a los buenos viejos tiempos de acceso telefónico.
Imágenes de chatgpt y la revelación lenta
Muchas imágenes de IA se generan comenzando con un ruido aleatorio, como la estática que ves en los espectáculos de introducción a HBO. El modelo AI luego refina ese ruido en función del aviso, con cada iteración se vuelve menos como ruido aleatorio y más como la imagen prevista. Finalmente, después de suficientes iteraciones, la imagen debería parecerse al aviso.
Esto significa que generar una imagen lleva tiempo. Con algunos modelos de IA, puede ver que el proceso ocurre, viendo que la imagen va de la estática difusa a una imagen terminada. Cada paso muestra el estado de la imagen completa antes de que tenga lugar la próxima iteración.
Sin embargo, la generación de imágenes 4O es un poco diferente. Primero mostrará una representación muy borrosa de cómo sería la imagen final, pero luego la imagen aclara gradualmente. Sin embargo, en lugar de que esto le suceda a toda la imagen a la vez, sucede de arriba hacia abajo.
La parte superior de la imagen está terminada primero, mientras que el resto sigue siendo un desenfoque. El límite entre la imagen completa y difusa se mueve lentamente por la imagen para que no vea la imagen completa hasta que llegue al fondo.
Un flashback a los días de acceso telefónico
La primera vez que vi que esto sucedió, inmediatamente me devolvieron 30 años a los días de Internet de acceso telefónico. En aquel entonces, las velocidades más rápidas que podías obtener eran 56 kbps, y la realidad generalmente era mucho más lenta. Estas velocidades fueron tan lentas que descargar una imagen de 100 kb podría tomar fácilmente 30 segundos o más.

Relacionado
7 Cosas nostgalicas sobre Internet de acceso telefónico que realmente no nos perdemos
Marque “m” para “recuerdos”.
La forma en que las imágenes descargadas a través de Dial-Up son muy similar a cómo aparecen las nuevas imágenes de ChatGPT. Cada fila de píxeles se cargaría de arriba hacia abajo, lo que significa que vería la parte superior de la imagen y primero tendrá que esperar a que se cargue el resto de la imagen antes de que pueda verla.
¿Por qué la desaceleración?
No está del todo claro por qué la nueva función de generación de imágenes de ChatGPT utiliza este nuevo método de arriba hacia abajo. Dall-E, el modelo anterior de generación de imágenes de OpenAI, no se comportó de la misma manera.
Las imágenes generadas con la generación de imágenes 4O son ciertamente muy superiores a las generadas usando Dall-E, y es probable que producir mejores imágenes tome más tiempo. Según un tweet del CEO de OpenAi, Sam Altman, parece que muchos usuarios de ChatGPT están utilizando la función bastante, hasta el punto de que la compañía está considerando limitar su uso temporalmente. Si las GPU de OpenAI se están “derritiendo”, entonces es probable que la generación de imágenes tome más tiempo de lo que podría de otra manera.
Esto explicaría por qué las imágenes se están cargando lentamente, pero no la forma en que las imágenes se refinan de arriba hacia abajo. No está claro si esto es una consecuencia de la forma en que se generan las imágenes o porque alguien en OpenAI realmente pierde los días de acceso telefónico.
Hay algo que decir por tener que esperar
Vivimos en un mundo de gratificación instantánea. Tiene acceso a la suma total de todos los conocimientos humanos en su bolsillo trasero, y la mayoría lo damos por sentado. Ya nunca tenemos que esperar las cosas, excepto cuando compañías como Apple cruelmente repartir episodios de indemnización a una tasa de una por semana.

Relacionado
¿Deberías esperar toda una temporada o ver programas semanalmente?
¿Boring o no atracones?
Odio el hecho de que si tengo que esperar 30 segundos para un ascensor o para que los comerciales terminen, mi mano alcanzará automáticamente mi teléfono, para llenar esos segundos con un desplazamiento sin sentido. Tengo que hacer todo lo posible para detenerme de los juicios en todas las oportunidades disponibles.

Relacionado
10 maneras de detener a las doomscalias en su iPhone
Obtenga ayuda para escapar del ciclo para que pueda tocar un poco de hierba.
Pero hay algo que decir por tener que esperar algo bueno. La carga lenta de imágenes en los días de acceso telefónico fue frustrante, especialmente si la información que necesitaba (o el bit de la imagen que más quería ver) era en la parte inferior y era lo último que se cargaba.
Sin embargo, había algo bastante mágico en ver que la imagen aparecía ante tus ojos, y no me di cuenta de cuánto me perdí hasta que Chatgpt me recordó.
La generación lenta puede no estar cerca por mucho tiempo
Si bien realmente estoy disfrutando la experiencia de ver mis imágenes aparecer lentamente ante mis ojos, es posible que no pueda disfrutarla por mucho tiempo. El ritmo de los desarrollos de IA no muestra signos de desaceleración. No hace mucho tiempo que las imágenes de IA fueran hilarantemente fáciles de detectar simplemente mirando las manos destrozadas, pero las imágenes generadas actuales de IA se están volviendo seriamente difíciles de detectar.

A medida que esta tecnología mejora, es probable que la generación de imágenes se vuelva aún más rápida, y la revelación lenta desaparecerá para siempre. Planeo disfrutarlo mientras pueda, porque no sabes lo que tienes hasta que se haya ido.
Noticias
Las herramientas de IA más populares de 2025 (y lo que eso significa)
Published
13 horas agoon
7 abril, 2025
La popularidad en el mundo tecnológico es difícil de medir. He hablado extensamente sobre esto en mis discusiones sobre la popularidad del lenguaje de programación. Realmente se reduce a lo que usa para medir la popularidad, y cuán disponibles están esas métricas para quienes hacen el análisis.
Es difícil definir genéricamente la popularidad, especialmente cuando incluye herramientas que hacen cosas muy diferentes. Por ejemplo, ¿es un generador de texto a imagen de uso general como MidJourney inherentemente más popular que una herramienta que elimina los fondos de imágenes como Remout.bg?
En los últimos años, hemos estado refinando cuidadosamente nuestra metodología del índice de popularidad. Nuestros índices toman una página del mundo del análisis político: agregamos los datos de la encuesta de múltiples clasificaciones y los ponderamos cuidadosamente para dar cuenta de las fortalezas y debilidades de cada conjunto de datos.
Dado que los conjuntos de datos tienen clasificaciones muy diferentes y, en algunos casos, muestran diferentes herramientas, tiene sentido aplicar un proceso de normalización en los campos de los datos.
El índice ZDNET de la popularidad de la herramienta de IA
Con nuestro índice, decidimos medir el interés general de la herramienta, principalmente en función de las estadísticas de tráfico web disponibles para nuestros proveedores de datos de origen. En particular, faltan las herramientas de Adobe AI en cualquiera de nuestros conjuntos de datos, posiblemente porque el volumen de tráfico es demasiado bajo, porque las herramientas de Adobe están en su mayoría detrás de un muro de pago, o porque las herramientas de Adobe se entregan principalmente en aplicaciones de escritorio independientes como Photoshop.
Aun así, lo que podemos proporcionar es un índice general de interés en las diversas herramientas, lo que debería proporcionar información sobre dónde los usuarios están llamando su atención. Aquí están las 20 mejores herramientas de IA, clasificadas por la popularidad general.
Agregando múltiples fuentes de datos
Como datos de origen para este análisis, estamos utilizando tablas de datos de cuatro fuentes. Las diferentes fuentes agregan diferentes niveles de valor al agregado general en función de los datos que contienen.
Debido a que tenemos cuatro fuentes, cada una comenzó con un peso asignado del 25% (por lo que todos sumaron el 100%). Dos de las fuentes son más antiguas, por lo que tomamos un 5% de ellas y las proporcionamos a las clasificaciones más actuales, lo que resultó en dos fuentes ponderadas al 30% y dos fuentes ponderadas al 20%.
Pero uno de los sitios solo tiene datos de rango y no hay datos de tráfico. Los datos con mediciones de tráfico en todo el mundo proporcionan más detalles sobre la popularidad general que las simples encuestas de usuarios, por lo que reducimos la fuerza de la fuente de solo encuesta y aumentamos el peso de las fuentes con datos de tráfico.
Terminamos un 6% de la ponderación de la fuente de solo encuesta (6 en lugar de 5 porque es más fácil distribuir en tres fuentes) y le dio a las tres fuentes restantes un 2% de ponderación adicional.
Eso nos da las siguientes fuentes y pesos. Puede ver en los gráficos adjuntos cuán variantes son los datos entre las fuentes. También asignamos a cada fuente una ID de tres letras que se utilizó durante el análisis de datos.
Temas de explosión (peso 32%, ID XPT)
Exploding Topics es una compañía que analiza las tendencias basadas en búsquedas en la web, conversaciones y menciones. Sus datos se derivan principalmente de plataformas de análisis web.
Desde este conjunto de datos obtenemos una clasificación general, visitas mensuales y una cuota de mercado estimada basada en visitas mensuales. Los datos son actuales a partir de febrero de 2025.
Herramientas de IA (peso 32%, ID AIT)
AI Tools es un directorio de herramientas de IA que cataloga más de 10,000 herramientas de IA, cada una categorizada en una de las 171 categorías individuales. Sus datos se derivan de las plataformas de análisis de tráfico.
A partir de este conjunto de datos, obtenemos una clasificación general, visitas mensuales, datos sobre el cambio de períodos anteriores y una cuota de mercado estimada basada en visitas mensuales. Los datos son actuales a partir de febrero de 2025.
Grupo del Banco Mundial (peso 22%, ID WBG)
El Grupo del Banco Mundial es una organización internacional de desarrollo y un instituto financiero. En marzo de 2024, la organización publicó un trabajo de investigación de políticas titulado “¿Quién en la Tierra está usando IA generativa?” En la página 12, el documento tiene una clasificación de herramientas de IA generativas basadas en el tráfico.
Encuesta TechRadar (peso 14% ID TRS)
TechRadar es un sitio web tecnológico que es un competidor para ZDNET. A través de la empresa matriz Future PLC, el sitio realizó una encuesta en dos puntos durante 2024, que publicaron en 2025.
A partir de este conjunto de datos, obtenemos una clasificación general tanto para los Estados Unidos como para el Reino Unido para su uso, pero no hay números de tráfico. Aunque el artículo se publicó en 2025, los datos son de 2024.
Lista de herramientas agregadas
A continuación, construí una lista de herramientas agregadas. Agregué las 20 herramientas principales de cada fuente en una tabla. Como puede ver, algunas herramientas (CHATGPT, por ejemplo) están representadas en las clasificaciones de las cuatro fuentes, mientras que algunas solo están representadas en una o dos listas de origen.
Herramientas que se representan con la ponderación de recolección de datos de clasificación en función de su posición y cantidad de tráfico para cada fuente. La excepción es la encuesta TechRadar, que solo recoge datos de posición. Si una herramienta no está representada en una lista, no elige ningún datos de representación.
A partir de esto, comencé a construir la hoja de cálculo de agregación. Tomé la representación compartida de cada herramienta y la puse en una fila en la hoja de cálculo. En total, había 45 herramientas representadas. Luego logré la clasificación porcentual sin procesar de cada fuente, dejando las celdas en blanco donde no había datos.
Una vez hecho esto, construí la siguiente sección del análisis, que fue la clasificación ponderada para cada fuente. Luego totalicé los valores de las cuatro clasificaciones ponderadas, lo que nos dio nuestra clasificación agregada.
En este punto, la hoja de cálculo estaba bastante dispersa (técnicamente, era una matriz escasa). No fue fácil ver la clasificación final de ZDNET. Pero hice un tipo, clasificando el campo de resultados, y eso nos dio los datos para la tabla de clasificaciones al comienzo de este artículo.
Para aquellos de ustedes interesados en recoger hojas de cálculo, aquí están las primeras 20 filas de mi análisis agregado.
¿Qué significa todo?
Antes de hablar sobre las clasificaciones en sí, me gustaría mencionar otro aspecto del proceso de análisis: hice todo a mano. Oh, sí, pasé horas bajando una madriguera de conejo con ChatGPT tratando de que tomara los conjuntos de datos y escupiera un agregado, pero se volvió terco.
Realmente, muy terco. Se quejó que no podía leer los datos. Así que convertí los datos en texto, pero aún así se confundió. Comenzó a combinar los resultados de las diferentes fuentes. Perdió la noción de su progreso y tuvimos que comenzar de nuevo, tres o cuatro veces.
No tengo dudas de que podría haber desarrollado una serie de indicaciones cuidadosamente elaboradas que me habrían llevado un archivo al que podría exportar a Excel, pero pronto me di cuenta de que el proceso de negociación y cajoling con la IA tomaría más tiempo que llenar el tanque de agua de Nespresso para preparar algo de espresso y hacerlo todo a mano, utilizando la tecnología de la cafeína para ayudarme.
Sí, veo la ironía de un artículo sobre la popularidad de la herramienta de IA que se realiza completamente sin la ayuda de las herramientas de IA. Y esa, tal vez es mi conclusión.
Tan populares como son estas muchas herramientas, son herramientas. A veces son útiles y a veces tercos. Si los va a usar, tendrá que poder, constantemente, determinar cuándo la herramienta es el camino más rápido y cuándo la vieja escuela lo llevará allí, ya sea más rápido o más confiable, o ambos.
No me sorprendió que ChatGPT lidere el paquete. Sigo olvidando que el Canva ahora se considera una herramienta de IA, por lo que eso me sorprendió. Para tantos usuarios, cuando piensan en las herramientas de IA, esas son los dos que más vienen a la mente.
Me sorprendió un poco que DeepL superó a Google Translate como una herramienta de IA, pero eso puede deberse a que la mayoría de las personas no piensan en el traductor de Google como una herramienta de IA. Después de todo, ha existido mucho más tiempo que el boom generativo de IA que estamos experimentando ahora.
Cuando se trata de chatbots, está claro que Gemini y Copilot, junto con la perplejidad y Claude, tienen un largo camino por recorrer para ponerse al día con ChatGPT. Dicho esto, Apple faltaba por completo en la mesa, lo que no puede ser bueno. Pero, de nuevo, también lo fue Facebook/Meta.
Por ahora, parece que ChatGPT está lamiendo todas las otras herramientas, y Canva lidera el segundo nivel. Espere que el resto esté en una batalla lanzada por el tercer lugar, donde no hay líderes destacados.
Manténganse al tanto. Será interesante, si nada más.
¿Qué pasa contigo? ¿Te has encontrado confiando más en herramientas como ChatGpt, Canva o Gemini últimamente? ¿Qué herramientas de IA usas regularmente y cuáles crees que están sobrevaloradas? ¿Hay alguna herramienta que te sorprendas al ver en los ranking? Y como tú Medir popularidad: ¿por características, zumbido comunitario o simplemente lo que sea que te ayude a hacer el trabajo? Háganos saber en los comentarios a continuación.
Puede seguir mis actualizaciones de proyecto diarias en las redes sociales. Asegúrese de suscribirse a mi boletín de actualizaciones semanales y sígueme en Twitter/X en @Davidgewirtzen Facebook en Facebook.com/davidgewirtz, en Instagram en Instagram.com/davidgewirtz, en bluesky en @davidgewirtz.com, y en YouTube en youtube.com/davidgewirtztv.
Related posts
































































































































































































































































Trending
-
Startups11 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales11 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Startups9 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Recursos11 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups11 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos11 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Recursos11 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Noticias9 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo