Connect with us

Noticias

Claude vs ChatGPT: Which is Better for Your Business?

Published

on

Claude vs ChatGPT: Which is best for your business?

There’s no doubt that OpenAI changed the game in 2022, when it introduced the first iteration of ChatGPT, and showed us all the potential of generative AI bots. ChatGPT quickly became one of the fastest-growing apps of all time, and inspired the creation of countless competing bots – including Claude, the Gen AI assistant created by Anthropic.

While ChatGPT is still arguably the more “popular” tool for most users – Claude has earned a lot of attention in recent years. Both Claude and ChatGPT now have some clear pros and cons that make the more (or less) appealing to specific users.

So, how do you make the right choice? I put both of these solutions to the test to help you make a more informed decision for your business needs.

Claude vs ChatGPT: An Overview

First, it’s worth noting that comparing any generative AI assistant can be complicated. After all, these tools evolve pretty quickly. Claude, for instance, now boasts better “cooperative skills” and capabilities for team members, since the launch of the Sonnet 3.5 model.

ChatGPT, on the other hand, now has more features for specific use cases, thanks to the launch of the o1 models (for advanced reasoning). It also has a wider range of pricing plans to choose from, including Enterprise and Team editions, as well as the new ChatGPT Pro.

Here’s a quick overview of both options, and the “models” that power them.

Introducing Claude AI: Definition and Models

Claude is the AI chatbot created by Anthropic, a startup co-founded by ex-Open AI members. What makes Claude compelling for a lot of users is that Anthropic has focused heavily on making generative AI “safe” and useful. Like ChatGPT, Claude is powered by LLMs, but it features a constitutional design that helps to minimize the risk of bias, discrimination and hallucinations.

Like ChatGPT, Claude can create content, answer questions, and even be accessed to create custom bots, thanks to Anthropic’s APIs. However, it can’t search the web, and it’s not fully “multimodal”. For instance, although Claude can analyze images, it can’t create them, like ChatGPT can with DALL-E 3. The current models available for Claude are:

  • Claude Haiku: The cheapest, fastest, and most lightweight model of Claude, Haiku is available to Claude Pro and Team subscribers via the iOS app and Claude.AI. For developers, Haiku costs $0.25 per million input tokens, and $1.25 per million output tokens.
  • Claude Sonnet: The best combination model for speed and efficiency, Sonnet is available to both paying Claude users, and developers. The API costs $15 per million output tokens, and $3 per million input tokens.
  • Claude Opus: The most advanced and costly model, Opus is available to Pro, Team, and Enterprise users, as well as developers. For API users, Opus costs $75 per million output tokens and $15 per million input tokens.

Claude AI Pricing

I mentioned some of the pricing details for developers using Claude APIs above, but you can find the full list of costs on Anthropic’s website here. If you just want to access the Claude AI chatbot, there’s a free plan for beginners, with limited access to Claude models on the web, iOS and Android.

Paid plans start at $18 per month, per user for the “Pro” plan, which includes early access to new features, projects for organizing chats and documents, and Claude 3.5 Sonnet and Opus models. You also get better usage limits than you would on the free plan.

For business users, there’s Claude Team for $25 per user per month, with central billing and administration, as well as collaboration features. Alternatively, you can choose the custom-priced Enterprise plan for SSO, domain capture, role-based access, SCIM, data source integrations, and audit logs.

Introducing ChatGPT: Definition and Models

As you’ll see throughout this Claude vs ChatGPT comparison, there are a lot of similarities between the two bots. Both offer access to APIs, and come with multiple models to choose from. ChatGPT is a little more versatile, however. The bot, created by OpenAI was first released in 2022, and has since evolved to feature numerous models, such as:

  • GPT-4: The most advanced model available for ChatGPT before the release of GPT-4o. This model is available on all plans (including the free plan). It also supports multimodal capabilities, with the ability to generate images and respond to voice.
  • GPT-4o and GPT-4o Mini: The current “flagship models” for ChatGPT, GPT-4o and 4o-Mini are fast, cost effective, and multimodal. They can understand uploaded files, and generate images. Plus, users can create custom GPTs with these models.
  • The o1 models: The o1 models (GPT o1, o1-mini, and o1 Pro) are the latest models created by OpenAI at the time of writing. They’re specially designed for advanced reasoning capabilities – but can’t browse the web, and are slower than the GPT-4o models.

Compared to Claude, the ChatGPT models are more flexible, with the ability to browse the internet, create different types of content (like images), and advanced API options.

ChatGPT Pricing

API pricing for OpenAI’s ChatGPT models vary by model, however it’s worth noting that you do only pay for what you use, and can get discounts if you use the Batch API. For those who just want to access ChatGPT (without any specific developer features), there are various plans available.

The free plan includes access to GPT-4o mini, standard voice model, limited access to GPT-4o, and limited file upload capabilities. You can use custom GPTs, but you won’t be able to create them. Paid plans start at $20 per month for ChatGPT Plus, with extended messaging and upload limits, advanced voice model, limited access to o1 and o1-mini models, and custom GPT creation.

For businesses, OpenAI offers the Team plan ($25 or $30 per user, per month), with more advanced features, and an admin console for workspace management. There’s also a custom Enterprise plan with high-speed access to the top models, expanded context windows, admin controls, analytics, and domain verification. Plus, OpenAI recently introduced a new plan, ChatGPT Pro, for $200 per month, per user, with advanced access to the o1 models.

Claude vs ChatGPT: Performance Results

The most common way to compare models like Claude vs ChatGPT, is to use “standardized” tests. Most AI leaders share insights into the performance of their models on specific tests, like the MMLU text, which evaluates undergrade-level knowledge, or HumanEval, for coding.

The trouble is that not every AI leader uses the same tests. Even when they do embrace the same “benchmarks”, the results really only offer a limited insight into what these models can do. For instance, Anthropic published a head-to-head comparison of its Sonnet 3.5 model against other models like Llama and GPT-4o, but it really only delivers a snapshot oversight.

Many AI and machine learning experts say that this kind of testing really overstates the progress of LLMs. As new models are released, they can sometimes be trained on their own evaluation data – which means they get better at performing on standardized tests, but not better “overall”.

For a better “hands-on” understanding of how these models compare, I did my own tests, but here’s a quick run-down of the options side by side to get us started.

Comparison Claude ChatGPT
Creator Anthropic OpenAI
Models Claude Sonnet, Haiku, and Opus GPT 4, GPT-4o, GPT 4o-Mini, o1, o1-mini, and o1 Pro
Context window Up to 1 million for some use cases 128,000 tokens
Unique features Advanced safety features, and slightly cheaper pricing Image generation, audio understanding, advanced reasoning (o1 models), and internet access (some models)
Pricing Variable API pricing, free plan, and paid plans starting at $18 per month, per user. Variable API pricing, free plan, and paid plans starting at $20 per month, per user.
File upload Yes Yes
Integrations Yes Yes

Claude vs ChatGPT: Privacy, Safety and Security

As AI governance and security become more of a concern for business users, it’s becoming increasingly important for companies to consider how “safe” the models they access are.

As I mentioned above, one thing that really makes Claude stand out, is Anthropic’s approach to constitutional AI. The company pioneered the approach to training its models with foundational principles and rules that align with human values.

That doesn’t necessarily mean Claude AI will always be safer than ChatGPT, but the model does refuse to answer potentially “harmful” prompts more often. Additionally, it’s worth noting Anthropic doesn’t automatically train its models with user interactions – unless they opt in.

Alternatively, OpenAI does train its models on user interactions, unless you specifically “opt out”, or you’re using a paid business-level plan, like ChatGPT Team or Enterprise. Both companies do implement safety measures and guardrails into their models, but ChatGPT has been a little less transparent about the guardrails it uses.

Notably though, the new o1 models were trained with a new methodology that makes it more effective at mitigating “jailbreak” attempts. For instance, the o1 models scored 84 out of 100 compared to GPT-4o’s score of 22 on an advanced jailbreak test.

Claude vs ChatGPT: Creativity and Content Creation

While there are plenty of use cases for generative AI tools like Claude and ChatGPT these days – one of the most common ways to use these tools is for content creation. Both AI bots excel in this area – but in different ways. For instance, ChatGPT is the better option for diverse content creation.

Unlike Claude, ChatGPT can browse the web to source all kinds of information for up-to-date articles, reports, and other types of content. Because it can check the web for ideas, it’s also a little better at “brainstorming”, ideas for solutions to different problems.

Plus, ChatGPT can generate images, but you can only create images on a paid plan, whereas other alternatives, such as Google Gemini, allow free users to generate visual content too.

Claude AI, on the other hand, excels at “written” output in certain ways. When I asked both tools to write an introduction to an article about LLMs, ChatGPT came up with pretty generic-sounding, flowery content. We’re all tired of seeing the same phrases as “in today’s fast-moving world,” etc.

Claude created slightly more “original” sounding content. It was also very good at assessing the documents and content I uploaded. ChatGPT can do that too, but I often find the bot gets confused when it’s given too much information to review at once.

Claude is better at proof-reading too. When I asked both Claude and ChatGPT to “fix” a passage of content with obvious factual errors and misspellings, Claude identified them all. ChatGPT, on the other hand, still checked the content well, but it seemed to try and “rewrite” everything in a new tone of voice, which was something I didn’t ask it to do.

Unfortunately, since Claude can’t access the internet, it can’t “fact-check” any very recent information from the web.

Image and Content Processing Capabilities

Although Claude has fewer “multimodal” capabilities than ChatGPT – both tools can process “uploaded” content. However, there are limitations on how much information you can upload, based on the plan you choose.

I found both tools to be reasonably effective at analyzing photos, but they can only gather so much information from an image. For instance, both tools seem to struggle with “counting” the number of objects in a photo, or distinguishing the difference between similar objects (like apples and oranges).

ChatGPT is definitely better at summarizing larger documents. Although Claude can process up to 200k tokens from a document (compared to 128k for ChatGPT), GPT-4o was better at understanding the text given to it than Claude in my test.

ChatGPT does a great job of converting large pieces of text into simple summaries with clear “key points”. Claude can summarize text quite well, but it sometimes makes mistakes, like failing to count the number of times a specific word or phrase was used in a document.

Overall, I do think there are better tools out their for content summarization than both Claude and ChatGPT, however. You can find an insight into some of my top recommendations for AI summary tools (like Notta, and Hypotenuse) here.

Complex Reasoning: ChatGPT Comes Out on Top

For complex reasoning tasks (particularly those linked to math and science), ChatGPT is definitely the better tool. That’s particularly true now that we have access to the o1 models, that are specifically designed to use “chain of thought” processes to think deeper about complex tasks.

Claude isn’t really designed to think carefully about tasks, although it does respond well to questions about physics equations. ChatGPT, however, can dive a lot more deeply into questions about science, math, and finance, and deliver a lot more intuitive responses.

For instance, when I asked ChatGPT to reason through a physics problem for me, it took longer to generate a response (with the o1 model). However, it also broke the answer down into clear steps, that felt a lot easier to follow. ChatGPT also answered math questions faster with the GPT-4o model than Claude. Sometimes, Claude didn’t even bother to give a direct answer when I asked it to solve a math equation – it just told me how to figure out the answer for myself.

Both solutions do struggle a little bit with things like sentiment analysis, and solving ethical problems, however. With the o1 models, ChatGPT can provide deep insights into ethical problems (like the trolley problem), and even understand the sentiment within a conversation. Claude can understand sentiment reasonably well, but I found it delivered pretty generic responses to ethical questions.

Of course, that could have something to do with Anthropic introducing such strict guardrails to ensure that the “responses” Claude gives aren’t harmful. These guardrails could prevent the bot from generating responses that might be perceived in a certain way.

Claude vs ChatGPT: Coding Performance

I don’t know much about coding, so it was hard to fully evaluate Claude vs ChatGPT in this area. However, ChatGPT does have a great reputation for producing high-quality code. The GPT-4o model, in particular, is excellent at creating and debugging code quickly.

Additionally, the o1 models achieved brilliant results on various coding “benchmarking” tests. For instance, the o1 model achieved an 89th percentile score in a Codeforces contest. What might make Claude a little better for some coding tasks, is its unique “Artifacts” feature.

The Artifacts feature brings up a preview window for users as they write code – so you can actually see what your code will do as it works. For instance, you could use Artifacts to create characters for a video game and see how they might interact.

Since you can see the results of your code immediately, you can easily ask Claude to make changes to graphics, and specific elements. With ChatGPT, you need a lot more specific programming knowledge to really make the most of the bot’s coding capabilities.

Customization: Integrations and GPTs

One thing that makes ChatGPT a slightly more powerful option than Claude for some businesses, is the ability to create custom GPTs, and leverage a wide range of integrations. Although Claude can integrate with some apps, and enables users to create their own bot experiences through APIs, ChatGPT makes it much easier to build unique experiences with custom GPTs.

You can create your own GPTs with natural language, and add them to the GPT marketplace, where other people can access them. Anthropic doesn’t have a “GPT” equivalent, although there is a prompt library available with “optimized prompts” you can use for certain tasks, like enhancing Python code.

Neither company offers companies the ability to create “full” autonomous agents yet. However, you can create custom agents with similar functionality to ChatGPT through Microsoft Copilot Studio. Anthropic also has a solution for creating AI agents with “function calling” capabilities.

However, there are a lot of better options for autonomous agent creation available right now – such as Google’s Vertex AI system with access to Gemini 2.0, and Amazon Bedrock Studio.

Claude vs ChatGPT: Which is Better Value for Money?

Both Claude and ChatGPT have free plans for people who want to just experiment with the bot (in a limited way), without paying anything. If you’re happy to sign up for a premium plan, Claude’s paid plans are slightly cheaper – starting at $18 per month per user.

However, I do think that ChatGPT offers better value for money overall. First of all, the free plan gives you a lot more for nothing, with access to limited multimodal capabilities, advanced models, and a bot that can actually browse the internet.

Secondly, the paid plans, though slightly more expensive, allow you to do a lot more with your AI, such as creating custom GPTs, or generating images. Those are things you can’t really do on any Claude AI paid plan – no matter how much you spend.

Claude vs ChatGPT: Which is Best?

Overall, Claude and ChatGPT have a lot in common. They’re both powerful AI solutions, ideal for a wide range of tasks, ranging from text analysis, to brainstorming, and even coding.

Claude is probably the better choice if you’re concerned about AI safety, and want a little more “creativity” when you’re creating new content (Even if you can’t create images). It’s also a slightly more user-friendly solution for coding tasks, thanks to the Artifacts feature. Plus, it does feature some handy collaboration capabilities, with things like “Projects” for teams.

ChatGPT, on the other hand, is the better “jack of all trades” AI tool. It can generate text, and images, summarize content more effectively, and even deal with advanced reasoning tasks using the o1 models. Plus, it can browse the web, understand audio input, and be customized with unique GPTs, integrations, and plugins.

For most users, ChatGPT will be the better option overall. However, it’s worth remembering that both of these tools are constantly evolving. Make sure you keep an eye on our latest news stories about both Claude, and ChatGPT – you never know when one might overtake the other.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

La nueva generación de imágenes de Chatgpt se siente como un acceso telefónico de nuevo

Published

on

Resumen

  • La generación de imágenes 4O es una actualización significativa para ChatGPT.

  • Las imágenes aparecen lentamente de arriba hacia abajo, al igual que las imágenes descargadas a través de las conexiones de acceso telefónico.

  • Esperar imágenes es un cambio bienvenido de la gratificación instantánea de la mayoría de la tecnología moderna.

En marzo de este año, Operai lanzó una característica llamada 4O Image Generation. Esta es una actualización de las capacidades de generación de imágenes de ChatGPT que provoca una serie de mejoras, como texto más preciso, mejor adherencia de instrucciones y un mejor fotorrealismo.

Sin embargo, el proceso no es instantáneo. La forma en que puede ver las imágenes que aparecen en tiempo real me lleva de regreso a los buenos viejos tiempos de acceso telefónico.

Imágenes de chatgpt y la revelación lenta

Muchas imágenes de IA se generan comenzando con un ruido aleatorio, como la estática que ves en los espectáculos de introducción a HBO. El modelo AI luego refina ese ruido en función del aviso, con cada iteración se vuelve menos como ruido aleatorio y más como la imagen prevista. Finalmente, después de suficientes iteraciones, la imagen debería parecerse al aviso.

Esto significa que generar una imagen lleva tiempo. Con algunos modelos de IA, puede ver que el proceso ocurre, viendo que la imagen va de la estática difusa a una imagen terminada. Cada paso muestra el estado de la imagen completa antes de que tenga lugar la próxima iteración.

Sin embargo, la generación de imágenes 4O es un poco diferente. Primero mostrará una representación muy borrosa de cómo sería la imagen final, pero luego la imagen aclara gradualmente. Sin embargo, en lugar de que esto le suceda a toda la imagen a la vez, sucede de arriba hacia abajo.

La parte superior de la imagen está terminada primero, mientras que el resto sigue siendo un desenfoque. El límite entre la imagen completa y difusa se mueve lentamente por la imagen para que no vea la imagen completa hasta que llegue al fondo.

Un flashback a los días de acceso telefónico

La primera vez que vi que esto sucedió, inmediatamente me devolvieron 30 años a los días de Internet de acceso telefónico. En aquel entonces, las velocidades más rápidas que podías obtener eran 56 kbps, y la realidad generalmente era mucho más lenta. Estas velocidades fueron tan lentas que descargar una imagen de 100 kb podría tomar fácilmente 30 segundos o más.

Relacionado

7 Cosas nostgalicas sobre Internet de acceso telefónico que realmente no nos perdemos

Marque “m” para “recuerdos”.

La forma en que las imágenes descargadas a través de Dial-Up son muy similar a cómo aparecen las nuevas imágenes de ChatGPT. Cada fila de píxeles se cargaría de arriba hacia abajo, lo que significa que vería la parte superior de la imagen y primero tendrá que esperar a que se cargue el resto de la imagen antes de que pueda verla.

¿Por qué la desaceleración?

No está del todo claro por qué la nueva función de generación de imágenes de ChatGPT utiliza este nuevo método de arriba hacia abajo. Dall-E, el modelo anterior de generación de imágenes de OpenAI, no se comportó de la misma manera.

Las imágenes generadas con la generación de imágenes 4O son ciertamente muy superiores a las generadas usando Dall-E, y es probable que producir mejores imágenes tome más tiempo. Según un tweet del CEO de OpenAi, Sam Altman, parece que muchos usuarios de ChatGPT están utilizando la función bastante, hasta el punto de que la compañía está considerando limitar su uso temporalmente. Si las GPU de OpenAI se están “derritiendo”, entonces es probable que la generación de imágenes tome más tiempo de lo que podría de otra manera.

Esto explicaría por qué las imágenes se están cargando lentamente, pero no la forma en que las imágenes se refinan de arriba hacia abajo. No está claro si esto es una consecuencia de la forma en que se generan las imágenes o porque alguien en OpenAI realmente pierde los días de acceso telefónico.

Hay algo que decir por tener que esperar

Vivimos en un mundo de gratificación instantánea. Tiene acceso a la suma total de todos los conocimientos humanos en su bolsillo trasero, y la mayoría lo damos por sentado. Ya nunca tenemos que esperar las cosas, excepto cuando compañías como Apple cruelmente repartir episodios de indemnización a una tasa de una por semana.

Relacionado

¿Deberías esperar toda una temporada o ver programas semanalmente?

¿Boring o no atracones?

Odio el hecho de que si tengo que esperar 30 segundos para un ascensor o para que los comerciales terminen, mi mano alcanzará automáticamente mi teléfono, para llenar esos segundos con un desplazamiento sin sentido. Tengo que hacer todo lo posible para detenerme de los juicios en todas las oportunidades disponibles.

Relacionado

10 maneras de detener a las doomscalias en su iPhone

Obtenga ayuda para escapar del ciclo para que pueda tocar un poco de hierba.

Pero hay algo que decir por tener que esperar algo bueno. La carga lenta de imágenes en los días de acceso telefónico fue frustrante, especialmente si la información que necesitaba (o el bit de la imagen que más quería ver) era en la parte inferior y era lo último que se cargaba.

Sin embargo, había algo bastante mágico en ver que la imagen aparecía ante tus ojos, y no me di cuenta de cuánto me perdí hasta que Chatgpt me recordó.

La generación lenta puede no estar cerca por mucho tiempo

Si bien realmente estoy disfrutando la experiencia de ver mis imágenes aparecer lentamente ante mis ojos, es posible que no pueda disfrutarla por mucho tiempo. El ritmo de los desarrollos de IA no muestra signos de desaceleración. No hace mucho tiempo que las imágenes de IA fueran hilarantemente fáciles de detectar simplemente mirando las manos destrozadas, pero las imágenes generadas actuales de IA se están volviendo seriamente difíciles de detectar.

Ilustración de una cabeza con el logotipo de Chatgpt en el cerebro.
Lucas Gouveia / Jason Montoya / Geek How-To

A medida que esta tecnología mejora, es probable que la generación de imágenes se vuelva aún más rápida, y la revelación lenta desaparecerá para siempre. Planeo disfrutarlo mientras pueda, porque no sabes lo que tienes hasta que se haya ido.

Continue Reading

Noticias

Las herramientas de IA más populares de 2025 (y lo que eso significa)

Published

on

Moor Studio/Getty Images

La popularidad en el mundo tecnológico es difícil de medir. He hablado extensamente sobre esto en mis discusiones sobre la popularidad del lenguaje de programación. Realmente se reduce a lo que usa para medir la popularidad, y cuán disponibles están esas métricas para quienes hacen el análisis.

Es difícil definir genéricamente la popularidad, especialmente cuando incluye herramientas que hacen cosas muy diferentes. Por ejemplo, ¿es un generador de texto a imagen de uso general como MidJourney inherentemente más popular que una herramienta que elimina los fondos de imágenes como Remout.bg?

En los últimos años, hemos estado refinando cuidadosamente nuestra metodología del índice de popularidad. Nuestros índices toman una página del mundo del análisis político: agregamos los datos de la encuesta de múltiples clasificaciones y los ponderamos cuidadosamente para dar cuenta de las fortalezas y debilidades de cada conjunto de datos.

Dado que los conjuntos de datos tienen clasificaciones muy diferentes y, en algunos casos, muestran diferentes herramientas, tiene sentido aplicar un proceso de normalización en los campos de los datos.

El índice ZDNET de la popularidad de la herramienta de IA

Con nuestro índice, decidimos medir el interés general de la herramienta, principalmente en función de las estadísticas de tráfico web disponibles para nuestros proveedores de datos de origen. En particular, faltan las herramientas de Adobe AI en cualquiera de nuestros conjuntos de datos, posiblemente porque el volumen de tráfico es demasiado bajo, porque las herramientas de Adobe están en su mayoría detrás de un muro de pago, o porque las herramientas de Adobe se entregan principalmente en aplicaciones de escritorio independientes como Photoshop.

Aun así, lo que podemos proporcionar es un índice general de interés en las diversas herramientas, lo que debería proporcionar información sobre dónde los usuarios están llamando su atención. Aquí están las 20 mejores herramientas de IA, clasificadas por la popularidad general.

AI-Popularidad-001

David Gewirtz/Zdnet

Agregando múltiples fuentes de datos

Como datos de origen para este análisis, estamos utilizando tablas de datos de cuatro fuentes. Las diferentes fuentes agregan diferentes niveles de valor al agregado general en función de los datos que contienen.

Debido a que tenemos cuatro fuentes, cada una comenzó con un peso asignado del 25% (por lo que todos sumaron el 100%). Dos de las fuentes son más antiguas, por lo que tomamos un 5% de ellas y las proporcionamos a las clasificaciones más actuales, lo que resultó en dos fuentes ponderadas al 30% y dos fuentes ponderadas al 20%.

Pero uno de los sitios solo tiene datos de rango y no hay datos de tráfico. Los datos con mediciones de tráfico en todo el mundo proporcionan más detalles sobre la popularidad general que las simples encuestas de usuarios, por lo que reducimos la fuerza de la fuente de solo encuesta y aumentamos el peso de las fuentes con datos de tráfico.

Terminamos un 6% de la ponderación de la fuente de solo encuesta (6 en lugar de 5 porque es más fácil distribuir en tres fuentes) y le dio a las tres fuentes restantes un 2% de ponderación adicional.

Eso nos da las siguientes fuentes y pesos. Puede ver en los gráficos adjuntos cuán variantes son los datos entre las fuentes. También asignamos a cada fuente una ID de tres letras que se utilizó durante el análisis de datos.

Temas de explosión (peso 32%, ID XPT)

Exploding Topics es una compañía que analiza las tendencias basadas en búsquedas en la web, conversaciones y menciones. Sus datos se derivan principalmente de plataformas de análisis web.

Desde este conjunto de datos obtenemos una clasificación general, visitas mensuales y una cuota de mercado estimada basada en visitas mensuales. Los datos son actuales a partir de febrero de 2025.

AI-Popularidad-003

David Gewirtz/Zdnet

Herramientas de IA (peso 32%, ID AIT)

AI Tools es un directorio de herramientas de IA que cataloga más de 10,000 herramientas de IA, cada una categorizada en una de las 171 categorías individuales. Sus datos se derivan de las plataformas de análisis de tráfico.

A partir de este conjunto de datos, obtenemos una clasificación general, visitas mensuales, datos sobre el cambio de períodos anteriores y una cuota de mercado estimada basada en visitas mensuales. Los datos son actuales a partir de febrero de 2025.

AI-Popularidad-004

David Gewirtz/Zdnet

Grupo del Banco Mundial (peso 22%, ID WBG)

El Grupo del Banco Mundial es una organización internacional de desarrollo y un instituto financiero. En marzo de 2024, la organización publicó un trabajo de investigación de políticas titulado “¿Quién en la Tierra está usando IA generativa?” En la página 12, el documento tiene una clasificación de herramientas de IA generativas basadas en el tráfico.

AI-Popularidad-005

David Gewirtz/Zdnet

Encuesta TechRadar (peso 14% ID TRS)

TechRadar es un sitio web tecnológico que es un competidor para ZDNET. A través de la empresa matriz Future PLC, el sitio realizó una encuesta en dos puntos durante 2024, que publicaron en 2025.

A partir de este conjunto de datos, obtenemos una clasificación general tanto para los Estados Unidos como para el Reino Unido para su uso, pero no hay números de tráfico. Aunque el artículo se publicó en 2025, los datos son de 2024.

ai-popularidad-006

David Gewirtz/Zdnet

Lista de herramientas agregadas

A continuación, construí una lista de herramientas agregadas. Agregué las 20 herramientas principales de cada fuente en una tabla. Como puede ver, algunas herramientas (CHATGPT, por ejemplo) están representadas en las clasificaciones de las cuatro fuentes, mientras que algunas solo están representadas en una o dos listas de origen.

AI-Popularidad-002

David Gewirtz/Zdnet

Herramientas que se representan con la ponderación de recolección de datos de clasificación en función de su posición y cantidad de tráfico para cada fuente. La excepción es la encuesta TechRadar, que solo recoge datos de posición. Si una herramienta no está representada en una lista, no elige ningún datos de representación.

A partir de esto, comencé a construir la hoja de cálculo de agregación. Tomé la representación compartida de cada herramienta y la puse en una fila en la hoja de cálculo. En total, había 45 herramientas representadas. Luego logré la clasificación porcentual sin procesar de cada fuente, dejando las celdas en blanco donde no había datos.

Una vez hecho esto, construí la siguiente sección del análisis, que fue la clasificación ponderada para cada fuente. Luego totalicé los valores de las cuatro clasificaciones ponderadas, lo que nos dio nuestra clasificación agregada.

En este punto, la hoja de cálculo estaba bastante dispersa (técnicamente, era una matriz escasa). No fue fácil ver la clasificación final de ZDNET. Pero hice un tipo, clasificando el campo de resultados, y eso nos dio los datos para la tabla de clasificaciones al comienzo de este artículo.

Para aquellos de ustedes interesados ​​en recoger hojas de cálculo, aquí están las primeras 20 filas de mi análisis agregado.

hoja de cálculo

David Gewirtz/Zdnet

¿Qué significa todo?

Antes de hablar sobre las clasificaciones en sí, me gustaría mencionar otro aspecto del proceso de análisis: hice todo a mano. Oh, sí, pasé horas bajando una madriguera de conejo con ChatGPT tratando de que tomara los conjuntos de datos y escupiera un agregado, pero se volvió terco.

Realmente, muy terco. Se quejó que no podía leer los datos. Así que convertí los datos en texto, pero aún así se confundió. Comenzó a combinar los resultados de las diferentes fuentes. Perdió la noción de su progreso y tuvimos que comenzar de nuevo, tres o cuatro veces.

No tengo dudas de que podría haber desarrollado una serie de indicaciones cuidadosamente elaboradas que me habrían llevado un archivo al que podría exportar a Excel, pero pronto me di cuenta de que el proceso de negociación y cajoling con la IA tomaría más tiempo que llenar el tanque de agua de Nespresso para preparar algo de espresso y hacerlo todo a mano, utilizando la tecnología de la cafeína para ayudarme.

Sí, veo la ironía de un artículo sobre la popularidad de la herramienta de IA que se realiza completamente sin la ayuda de las herramientas de IA. Y esa, tal vez es mi conclusión.

Tan populares como son estas muchas herramientas, son herramientas. A veces son útiles y a veces tercos. Si los va a usar, tendrá que poder, constantemente, determinar cuándo la herramienta es el camino más rápido y cuándo la vieja escuela lo llevará allí, ya sea más rápido o más confiable, o ambos.

No me sorprendió que ChatGPT lidere el paquete. Sigo olvidando que el Canva ahora se considera una herramienta de IA, por lo que eso me sorprendió. Para tantos usuarios, cuando piensan en las herramientas de IA, esas son los dos que más vienen a la mente.

Me sorprendió un poco que DeepL superó a Google Translate como una herramienta de IA, pero eso puede deberse a que la mayoría de las personas no piensan en el traductor de Google como una herramienta de IA. Después de todo, ha existido mucho más tiempo que el boom generativo de IA que estamos experimentando ahora.

Cuando se trata de chatbots, está claro que Gemini y Copilot, junto con la perplejidad y Claude, tienen un largo camino por recorrer para ponerse al día con ChatGPT. Dicho esto, Apple faltaba por completo en la mesa, lo que no puede ser bueno. Pero, de nuevo, también lo fue Facebook/Meta.

Por ahora, parece que ChatGPT está lamiendo todas las otras herramientas, y Canva lidera el segundo nivel. Espere que el resto esté en una batalla lanzada por el tercer lugar, donde no hay líderes destacados.

Manténganse al tanto. Será interesante, si nada más.

¿Qué pasa contigo? ¿Te has encontrado confiando más en herramientas como ChatGpt, Canva o Gemini últimamente? ¿Qué herramientas de IA usas regularmente y cuáles crees que están sobrevaloradas? ¿Hay alguna herramienta que te sorprendas al ver en los ranking? Y como Medir popularidad: ¿por características, zumbido comunitario o simplemente lo que sea que te ayude a hacer el trabajo? Háganos saber en los comentarios a continuación.


Puede seguir mis actualizaciones de proyecto diarias en las redes sociales. Asegúrese de suscribirse a mi boletín de actualizaciones semanales y sígueme en Twitter/X en @Davidgewirtzen Facebook en Facebook.com/davidgewirtz, en Instagram en Instagram.com/davidgewirtz, en bluesky en @davidgewirtz.com, y en YouTube en youtube.com/davidgewirtztv.

Continue Reading

Noticias

Por qué ChatGPT es una herramienta exclusivamente terrible para los ministros del gobierno.

Published

on

Crédito: Dominio público de Pixabay/CC0

La noticia de que Peter Kyle, Secretario de Estado de Ciencia y Tecnología, había estado utilizando CHATGPT para obtener asesoramiento de políticas provocó algunas preguntas difíciles.

Kyle aparentemente usó la herramienta AI para redactar discursos e incluso le pidió sugerencias sobre qué podcasts debe aparecer. Pero también buscó consejos sobre su trabajo de política, aparentemente incluyendo preguntas sobre por qué las empresas en el Reino Unido no están adoptando la IA más fácilmente. Le pidió a la herramienta que definiera qué significa “inclusión digital”.

Un portavoz de Kyle dijo que su uso de la herramienta “no sustituye el consejo integral que recibe habitualmente de los funcionarios”, pero tenemos que preguntarnos si algún uso es adecuado. ¿ChatGPT da un consejo lo suficientemente bueno para tener algún papel en las decisiones que puedan afectar la vida de millones de personas?

Apuntalado por nuestra investigación sobre IA y Política Pública, encontramos que ChatGPT tiene una defecto de forma única como un dispositivo para los ministros del gobierno de varias maneras, incluido el hecho de que es un retroceso, cuando los gobiernos realmente deberían mirar hacia el futuro.

1. Mirando hacia atrás en lugar de avanzar

Donde los ministros del gobierno idealmente deberían buscar ideas nuevas y nuevas con vistas al futuro, la información que sale de un chatbot de IA es, por definición, del pasado. Es una forma muy efectiva de resumir lo que ya se ha pensado, pero no equipado, para sugerir formas de pensar genuinamente nuevas.

Las respuestas de ChatGPT no se basan en todo el pasado por igual. La digitalización cada vez mayor a lo largo de los años dirige el mecanismo de búsqueda de patrones de Chatgpt al pasado reciente. En otras palabras, cuando un ministro le pidió que brinde consejos sobre un problema específico en el Reino Unido, las respuestas de ChatGPT estarían más ancladas en los documentos producidos en el Reino Unido en los últimos años.

Y en particular, en el caso de Kyle, eso significa que un ministro de trabajo no solo accederá a un ministro de trabajo del pasado, sino que se le informará un algoritmo inclinado fuertemente sobre el consejo dado a los gobiernos conservadores. Ese no es el fin del mundo, por supuesto, pero es cuestionable dado que Labor ganó una elección prometiendo un cambio.

Kyle, o cualquier otro Ministro consultoría de ChatGPT, se le dará información basada en las tradiciones políticas que reflejan los Rishi Sunak, Boris Johnson, Theresa May y David Cameron Eras. Es menos probable que reciban información basada en el pensamiento de los nuevos años laborales, que fueron hace más tiempo.

Si Kyle pregunta qué significa la inclusión digital, es más probable que la respuesta refleje lo que estas administraciones tory creen que significa en lugar de los pensamientos de los gobiernos más alineados con sus valores.

En medio de todo el entusiasmo dentro del trabajo para aprovechar la IA, esta puede ser una razón para que se distancien de usar ChatGPT para obtener asesoramiento de políticas. Arriesgan la política tory, una que les gusta criticar, los zombisos en la suya.

2. Prejuicio

ChatGPT ha sido acusado de tener “alucinaciones”: las falsedades generadoras, extrañas, que sonan plausibles.

Hay una explicación técnica simple para esto, como se alude en un estudio reciente. El “modelo de verdad” para ChatGPT, como para cualquier modelo de lenguaje grande, es de consenso. Modela la verdad como algo en lo que todos aceptan ser verdad. Para ChatGPT, su verdad es simplemente el consenso de puntos de vista expresados ​​en los datos en los que ha sido entrenado.

Esto es muy diferente del modelo humano de la verdad, que se basa en la correspondencia. Para nosotros, la verdad es lo que mejor corresponde a la realidad en el mundo físico. La divergencia entre los modelos de verdad podría ser consecuente de muchas maneras.

Por ejemplo, la licencia de TV, un modelo que opera solo dentro de unas pocas naciones, no figuraría prominentemente dentro del modelo de consenso de ChatGPT construido en un conjunto de datos global. Por lo tanto, es poco probable que las sugerencias de ChatGPT sobre la política de medios de transmisión toquen sustancialmente las licencias de televisión.

Además de explicar las alucinaciones, los modelos de divergencias en la verdad tienen otras consecuencias. Los prejuicios sociales, incluido el sexismo y el racismo, se internalizan fácilmente bajo el modelo de consenso.

Considere buscar consejos de chatgpt para mejorar las condiciones para los trabajadores de la construcción, una profesión históricamente dominada por los hombres. El modelo de consenso de ChatGPT podría cegarlo de consideraciones importantes para las mujeres.

El modelo de verdad de correspondencia permite a los humanos participar continuamente en la deliberación y el cambio moral. Un experto en política humana que asesora a Peter Kyle podría iluminarlo sobre complejidades pertinentes del mundo real.

Por ejemplo, podrían resaltar cómo los éxitos recientes en el diagnóstico basado en IA podrían ayudar a abordar aspectos distintos de la carga de la enfermedad del Reino Unido sabiendo que una de las prioridades del trabajo es reducir los tiempos de espera del NHS.

3. Narrativas agradables

Herramientas como ChatGPT están diseñadas para dar narraciones atractivas y elegantes al responder a las preguntas. ChatGPT logró esto en parte eliminando el texto de mala calidad de sus datos de capacitación (con la ayuda de trabajadores mal pagados en África).

Estas piezas poéticas de escritura funcionan bien para el compromiso y ayudan a Operai a mantener a los usuarios enganchados a su producto. Los humanos disfrutan de una buena historia, y particularmente una que ofrece resolver un problema. Nuestra historia evolutiva compartida nos ha convertido en narradores y listones de historias a diferencia de cualquier otra especie.

Pero el mundo real no es una historia. Es un remolino constante de complejidades políticas, contradicciones sociales y dilemas morales, muchos de los cuales nunca se pueden resolver. El mundo real y las decisiones que los ministros del gobierno tienen que tomar en nuestro nombre son complejos.

Hay intereses en competencia y diferencias irreconciliables. Raramente hay una respuesta ordenada. La inclinación de Chatgpt por narraciones agradables está en desacuerdo con la política pública imperativa de abordar las condiciones desordenadas del mundo real.

Las características que hacen de ChatGPT una herramienta útil en muchos contextos son directamente incompatibles con las consideraciones de las políticas públicas, un reino que busca tomar decisiones políticas para abordar las necesidades de los ciudadanos de un país.

Proporcionado por la conversación

Este artículo se vuelve a publicar de la conversación bajo una licencia Creative Commons. Lea el artículo original.La conversación

Citación: Por qué ChatGPT es una herramienta única y terrible para los ministros del gobierno (2025, 7 de abril) recuperó el 7 de abril de 2025 de https://phys.org/news/2025-04-chatgpt-uniquely-terrible-tool-ministers.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.

Continue Reading

Trending