Connect with us

Noticias

ChatGPT Vs. Gemini Vs. Claude: What Are The Differences?

Published

on

Chatbots have changed many professionals’ workflows and processes.

SEO pros, writers, agencies, developers, and even teachers are still discussing the changes that this technology will cause in society and how we work in our day-to-day lives.

ChatGPT’s release on Nov. 30, 2022 led to a cascade of competition, including Gemini (formerly Bard) and Claude.

If you want to search for information, need help fixing bugs in your CSS, or want to create something as simple as a robots.txt file, chatbots may be able to help.

They’re also wonderful for topic ideation, allowing you to draft more interesting emails, newsletters, blog posts, and more.

But which chatbot should you use and learn to master? Which platform provides accurate, concise information?

Let’s find out.

What Is The Difference Between ChatGPT, Gemini, And Claude?

ChatGPT Gemini Claude
Pricing ChatGPT’s original version remains free to users.  ChatGPT Plus is available for $20/month. Team (starts at $25/month) and Enterprise options available. Free for the base platform and a cost of $19.99/month for the advanced tier. Free, Pro ($20/month), Team ($25/month), and Enterprise options available.
API Yes Yes Yes
Developer OpenAI Alphabet/Google Anthropic
Technology GPT-4o Combination of models (LaMDA, PaLM 2) Claude Opus
Information Access Training data with a cutoff date of 2023 but the Pro version has access to real-time data. Real-time access to the data Google collects from search. Real-time access to data.

Wait! What Is GPT? What Is LaMDA?

ChatGPT uses GPT technology, and Gemini initially used LaMDA, meaning they’re different “under the hood.” This is why there’s some backlash against Gemini. People expect Gemini to be GPT, but that’s not the intent of the product.

Since Gemini is available on such a wide scale, it has to tune the responses to maintain its brand image and adhere to internal policies that aren’t as restrictive in ChatGPT – at the moment. However, Gemini’s foundation has evolved to include PaLM 2, making it a more versatile and powerful model.

GPT: Chat Generative Pre-Trained Transformer

GPTs are trained on tons of data using a two-phase concept called “unsupervised pre-training and then fine-tuning.”

Imagine consuming trillions of data points, and then someone comes along after you gain all of this knowledge to fine-tune it. That’s what is happening behind the scenes when you prompt ChatGPT.

ChatGPT has 1.8+ trillion parameters that it has used and learned from, including:

  • Articles.
  • Books.
  • Websites.
  • Etc.

While ChatGPT is limited in its datasets, OpenAI has announced a browser plugin that can use real-time data from websites when responding back to you. There are also other neat plugins that amplify the power of the bot.

LaMDA Stands For Language Model For Dialogue Applications

Google’s team initially chose a LaMDA model for its neural network to create a more natural way to respond to questions. The goal was to provide conversational responses to queries.

The platform is trained on conversations and human dialog, but it’s also clear that Google uses search data to provide real-time information.

Google uses an Infiniset of data, which are datasets that we don’t know much about.

Since Gemini has evolved to include PaLM 2, it may have different capabilities and training data compared to LaMDA.

Because these bots are learning from sources worldwide, they can sometimes provide false information.

Hallucinations Can Happen

Chatbots can hallucinate, but they’re also very convincing in their responses. It’s important to heed the warning of the developers.

Google tells us:

Gemini may display inaccurate info, including about people, so double-check its responses.

Screenshot from Gemini, October 2024

Claude also tells us:

Screenshot from ClaudeScreenshot from Claude, October 2024

If you’re using chatbots for anything requiring facts and studies, crosscheck your work and verify that the facts and events actually happened.

There have been times when these hallucinations are apparent and other times when non-experts would easily be fooled by the response they receive.

Since chatbots learn from information, such as websites, they’re only as accurate as the information they receive – for now.

With all of these cautions in mind, let’s start prompting each bot to see which provides the best answers.

ChatGPT Vs. Gemini Vs. Claude: Prompt Testing And Examples

Since technical SEO is an area I am passionate about, I wanted to see what the chatbots have to say when I put the following prompt in each:

What Are The Top 3 Technical SEO Factors I Can Use To Optimize My Site?

ChatGPT’s Response

Screenshot from ChatGPTScreenshot from ChatGPT, October 2024

ChatGPT provides a coherent, well-structured response to this query. The response does touch on three important areas of optimization:

When prompted to provide more information on site speed, we receive a lot of great information that you can use to begin optimizing your site.

Screenshot from ChatGPT, October 2024Screenshot from ChatGPT, October 2024

If you’ve ever tried to optimize your site’s speed before, you know just how important all of these factors are for improving your site speed.

ChatGPT mentions browser caching, but what about server-side caching?

When site speed is impacted by slow responses to database queries, server-side caching can store these queries and make the site much faster – beyond a browser cache.

But the details in the response are much better compared to those of April 2023, even though this time I asked it to condense the list:

Technical SEO Speed ChatGPTScreenshot from ChatGPT, April 2023

Gemini’s Response

Gemini’s responses are faster than ChatGPT, and I do like that you can view other “drafts” from Gemini if you like. I went with the first draft, which you can see below.

Screenshot from Google Gemini, October 2024Screenshot from Gemini, October 2024

The information is solid, and I appreciate that Google uses more formatting and bold parts of the responses to make them easier to read.

It is also interesting that Gemini focuses on XML Sitemaps, instead of the overall architecture of the website.

To try and keep things similar, I asked Gemini, “Can you provide more information on page speed?”

Screenshot from Google Gemini, October 2024Screenshot from Gemini, October 2024

You can certainly find similarities between ChatGPT’s and Gemini’s responses about optimization, but some information is a bit off. For example:

“Optimize Images: Compress and use next-gen formats (e.g., WebP).”

I could not provide a condensed list like ChatGPT did. But the list of eight to 11 suggestions (depending on the draft I looked at) was quite promising.

Browsers cache files automatically on their own, and you can certainly manipulate the cache with a Cache-Control or Expires header.

Claude’s Response

Claude Screenshots, October 2024Screenshot from Claude, October 2024

Claude’s answers are all pretty solid, and I appreciate how it mentions several types for optimization that are a little more in-depth, such as using viewpoint meta tags.

For me, I feel like Claude provides more actionable steps than Gemini and ChatGPT. But let’s ask about speed.

Claude screenshot, October 2024Screenshot from Claude, October 2024

Claude’s response is extensive, with a thorough understanding of key site speed metrics to follow. But, I was really impressed by the rest of the response:

Claude screenshot, October 2024Screenshot from Claude, October 2024

What I appreciate about Claude’s response is that it explains very important concepts of optimizing site speed while also giving you an extensive list of tools to use.

Caching is briefly mentioned in Claude’s response, but when I prompted it for more about caching, it provided an extensive list of information.

Winner: Claude wins out, thanks to its extensive answers and mention of specific tools and actionable steps.

Who Is Ludwig Makhyan?

All chatbots knew a little something about technical SEO, but how about me? Let’s see what happens when I ask them about myself:

ChatGPT’s Response

Who am I ChatGPTScreenshot from ChatGPT, April 2023

ChatGPT couldn’t find any information about me, which is understandable. I’m not Elon Musk or a famous person, but I did publish a few articles on this very blog you’re reading now before the data cutoff date of ChatGPT.

And as I refresh this article over a year later, the free version of ChatGPT still doesn’t know who I am:

ChatGPT Screenshot, October 2024Screenshot from ChatGPT, October 2024

But, let’s see what the paid version has to say:

ChatGPT Screenshot, October 2024Screenshot from ChatGPT Plus, October 2024

How do Claude and Gemini perform for this query?

Gemini’s Response

Google Gemini Screenshot, October 2024Screenshot from Gemini, October 2024

Gemini, formerly Bard, doesn’t know who I am either. And I found this quite interesting because Bard knew who I was a year ago.

Who am I BardScreenshot from Bard, April 2023

Hmm. The first sentence seems a bit familiar. It came directly from my Search Engine Journal bio, word-for-word.

The last sentence in the first paragraph also comes verbatim from another publication that I write for: “He is the co-founder at MAZELESS, an enterprise SEO agency.”

I’m also not the author of either of these books, although I’ve talked about these topics in great detail before.

Unfortunately, pulling full sentences from sources and providing false information means Gemini (Bard) failed this test. You could argue that there are a few ways to rephrase those sentences, but the response could certainly be better.

Claude’s Response

Claude AI Screenshot, October 2024Screenshot from Claude, October 2024

Claude also doesn’t know who I am, but I did like that it provided a thorough explanation of why it doesn’t know lesser-known people.

From this data, it seems to me that there needs to be a lot of references for chatbots to work from to define a person.

But let’s see what these bots can do with a better prompt that is a bit more advanced.

Advanced Prompt: I Want To Become An Authority In SEO. What Steps Should I Take To Reach This Goal?

Up until this point, the prompts have been a bit easy. Let’s find out how each chatbot performs when we use more advanced prompts:

ChatGPT’s Response

Become an SEO Authority ChatGPTScreenshot from ChatGPT, April 2023
Screenshot from ChatGPT, October 2024Screenshot from ChatGPT, October 2024
Screenshot from ChatGPT, October 2024Screenshot from ChatGPT, October 2024

ChatGPT’s new response is more robust than in the past. As you can see, it’s more in-depth than last year’s response.

While some of the underlying responses are similar, the new formatting and added thoroughness were a welcomed addition.

And what about ChatGPT Plus?

ChatGPT premium screenshot, October 2024Screenshot from ChatGPT Plus, October 2024

Between the free and premium versions of ChatGPT, there are obvious differences, mainly telling you where to take action, such as publishing content on Medium and YouTube.

Next up, let’s test the same query on Gemini.

Gemini’s Response

Gemini screenshot, October 2024Screenshot from Gemini, October 2024

Gemini’s response is extensive. There are three more points that didn’t fit into the screenshot above, which include: sharing your knowledge, building an online presence, and staying consistent.

Claude’s Response

Claude screenshot, October 2024Screenshot from Claude, October 2024

Claude has a lot of good suggestions, and I especially like the mention of certifications. In terms of extensiveness, Claude continues with more recommendations:

Claude screenshot, October 2024Screenshot from Claude, October 2024

Overall, these tips are very similar, but Claude was my favorite.

ChatGPT provides me with more “light bulb” moments, explaining that I should learn things like technical SEO research, on-page optimization, and content optimization.

Knowledge seemed to be the core of ChatGPT’s recommendations. I like how the paid version of ChatGPT even tells me which publications to contribute to when trying to build my reputation.

Let’s try putting these chatbots to work on some tasks that I’m sure they can perform.

Advanced Prompt: Create A Robots.txt File Where I Block Google Search Bot, Hide My “Private” Folder, And Block The Following IP Address “123.123.123.123”

ChatGPT’s Response

Robots.txt ChatGPTScreenshot from ChatGPT, April 2023

And, the latest iteration of ChatGPT Plus gave me even more insights:

ChatGPT screenshot, October 2024Screenshot from ChatGPT, October 2024

ChatGPT listened to my directions, reiterated them to me, showed me a makefile for the robots.txt, and then explained the parameters to use. I’m impressed.

What’s even better is that ChatGPT Plus recognizes that you cannot block an IP address using a robots.txt file.

Gemini’s Response

Google Gemini Screenshot, October 2024Screenshot from Gemini, October 2024

Gemini did really well with this task – even better than it did a year ago when it wanted to block “*” – which means everyone from crawling my site.

And you’re also given some helpful tips at the bottom to remember.

Claude’s Response

Claude screenshot, October 2024Screenshot from Claude, October 2024

Claude goes above and beyond with its explanation by providing information on what it’s doing, as well as providing a quick and easy file for you to use as your robots.txt.

ChatGPT Plus wins this test for me, although Claude’s response is very similar.

Now, let’s try a more fun, advanced prompt.

Advanced Prompt: What Are The Top 3 Destinations In Italy To Visit, And What Should I Know Before Visiting Them?

ChatGPT’s Response

Italy Destinations ChatGPTScreenshot from ChatGPT, April 2023

ChatGPT does a nice job with its recommended places and provides useful tips for each that is on the same point. I also like how “St. Mark’s Square” was used, showing the bot being able to discern that “Piazza San Marco” is called “St. Mark’s Square” in English.

I wanted to see what ChatGPT Plus had to say:

ChatGPT Premium screenshot, October 2024Screenshot from ChatGPT Plus, October 2024

All three recommendations remained the same, but ChatGPT Plus did provide more insights.

As a follow-up question, I asked what sunglasses to wear in Italy during my trip, and the response was:

What sunglasses to wear in ItalyScreenshot from ChatGPT, April 2023

This was a long shot, as the AI doesn’t know my facial shape, likes and dislikes, or interests in fashion. But it did recommend some of the popular eyewear, like the world-famous Ray-Ban Aviators.

ChatGPT Plus did disappoint me this round:

ChatGPT screenshot, October 2024Screenshot from ChatGPT Plus, October 2024

Why? If you notice, there is no mention of brands given.

Gemini’s Response

Screenshot from Google Gemini, October 2024Screenshot from Gemini, October 2024

Gemini did really well here, and I actually like the recommendations that it provides.

All three recommendations remain the same from when Bard recommended them last year, but now there are extra tidbits of information to add.

Italy Sightseeing Bard ResponseScreenshot from Bard, April 2023

Reading this, I know that Rome is crowded and expensive, and if I want to learn about Italian art, I can go to the Uffizi Gallery when I’m in Florence.

Places to visit according to Bard 2nd responseScreenshot from Bard, April 2023

Gemini seems to have answers with great insights, and it seems to have gotten a lot better in the last year compared to previous iterations.

When I asked about sunglasses to wear, it came up with similar answers as ChatGPT, but even more specific models. Again, Bard (now Gemini) doesn’t know much about me personally:

What sunglasses to wear in Italy according to BardScreenshot from Bard, April 2023

And, like with ChatGPT, I’ve found something interesting:

Google Gemini screenshot, October 2024Screenshot from Gemini, October 2024

Gemini also stopped recommending specific brands of sunglasses, which is a shame.

I think adding specific brands made the responses more solid, but it seems that all chatbots are removing the names of the sunglasses to wear.

With this in mind, let’s see what Claude has to say.

Claude’s Response

Claude screenshot, October 2024Screenshot from Claude, October 2024

Claude’s response is impressive. Rome, Florence and Venice are all mentioned, and the Italian equivalent of the cities are given, too.

Key attractions are provided, with additional tips for visiting, which are extremely helpful and accurate.

Claude screenshot, October 2024Screenshot from Claude, October 2024

Gemini and Claude win this query because they provide more in-depth, meaningful answers. I see some similarities between these two responses and would love to see the sources for both.

And for the sunglasses query, you be the judge. Some of the recommendations on the list may be out of range for many travelers:

Claude screenshot, October 2024Screenshot from Claude, October 2024

Claude is, as usual, very in-depth and a bit slower in providing the answer. But, when the answer is provided, it gives you insights into each sunglass brand.

Which Chatbot Is Better At This Stage?

Each tool has its own strengths and weaknesses.

It’s clear that Gemini lacks in its initial response, although it’s quick and provides decent answers. Gemini has a nice UI, and I believe it has the answers. But I also think it has some “brain fog,” or should we call it “bit fog?”

Claude’s bot is very polished and ideal for people looking for in-depth answers with explanations.

The platform is nice to use, but I’m hearing ads are being integrated into it, which will be interesting. Will ads take priority in chat? For example, if I asked my last question about Italy, would ads:

  • Gain priority in what information is displayed?
  • Cause misinformation? For example, would the top pizza place be a paid ad from a place with horrible reviews instead of the top-rated pizzeria?

ChatGPT, Gemini, and Claude are all interesting tools, but what does the future hold for publishers and users? That’s something I cannot answer; no one can yet.

And There’s Also The Major Question: Is AI “Out Of Control?”

Elon Musk, Steve Wozniak, and over a thousand other leaders in tech, AI, ethics, and more called for a six-month pause on AI beyond GPT-4 back in 2023.

The pause was not to hinder progress but to allow time to understand the “profound risks to society and humanity.”

Since then, a lot has changed:

  • Elon Musk’s X has released Grok
  • AI has been used to create images to influence elections
  • AI is used in some form by nearly 80% of companies

And in the SEO industry, we’re seeing AI pop up everywhere, from tools to help with keyword research to data analysis, copywriting and more.

For many, AI is helping them be more productive and efficient, but there are others who believe that AI is filling the Internet with “junk.”

What are your thoughts on these AI tools? Should we pause anything beyond GPT-4 until new measures are in place? Are the AI tools actually AI?

More resources:


Featured Image: TippaPatt/Shutterstock

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Google está desplegando su chatbot Gemini Ai para niños menores de 13 años. Es un movimiento arriesgado

Published

on

Crédito: Markus Winkler de Pexels

Google ha anunciado que lanzará su chatbot de inteligencia artificial Gemini (IA) a niños menores de 13 años.

Si bien el lanzamiento comienza dentro de la próxima semana en los Estados Unidos y Canadá, se lanzará en Australia a finales de este año. El chatbot solo estará disponible para las personas a través de las cuentas de enlaces familiares de Google.

Pero este desarrollo viene con grandes riesgos. También destaca cómo, incluso si los niños están prohibidos en las redes sociales, los padres aún tendrán que jugar un juego de Whack-a-Mole con nuevas tecnologías mientras intentan mantener a sus hijos seguros.

Una buena manera de abordar esto sería implementar urgentemente un deber digital de cuidado para grandes empresas tecnológicas como Google.

¿Cómo funcionará el chatbot Gemini AI?

Las cuentas de enlaces familiares de Google permiten a los padres controlar el acceso al contenido y las aplicaciones, como YouTube.

Para crear la cuenta de un niño, los padres proporcionan datos personales, incluido el nombre y la fecha de nacimiento del niño. Esto puede generar problemas de privacidad para los padres preocupados por las violaciones de datos, pero Google dice que los datos de los niños cuando usen el sistema no se utilizarán para capacitar al sistema de IA.

El acceso de chatbot estará “activado” de forma predeterminada, por lo que los padres deben apagar activamente la función para restringir el acceso. Los niños pequeños podrán solicitar el chatbot para las respuestas de texto o crear imágenes, que generan el sistema.

Google reconoce que el sistema puede “cometer errores”. Por lo tanto, se necesita evaluación de la calidad y la confiabilidad del contenido. Los chatbots pueden inventar información (conocida como “alucinante”), por lo que si los niños usan el chatbot para la ayuda de la tarea, deben verificar los hechos con fuentes confiables.

¿Qué tipo de información proporcionará el sistema?

Google y otros motores de búsqueda recuperan materiales originales para que las personas lo revisen. Un estudiante puede leer artículos de noticias, revistas y otras fuentes al escribir una tarea.

Las herramientas generativas de IA no son las mismas que los motores de búsqueda. Las herramientas de IA buscan patrones en el material fuente y crean nuevas respuestas de texto (o imágenes) basadas en la consulta, o “inmediato”, proporciona una persona. Un niño podría pedirle al sistema que “dibuje un gato” y el sistema escaneará patrones en los datos de cómo se ve un gato (como bigotes, orejas puntiagudas y una cola larga) y generará una imagen que incluya esos detalles similares a los gatos.

Comprender las diferencias entre los materiales recuperados en una búsqueda de Google y el contenido generado por una herramienta de IA será un desafío para los niños pequeños. Los estudios muestran que incluso los adultos pueden ser engañados por herramientas de IA. E incluso profesionales altamente calificados, como abogados, han sido engañados para usar contenido falso generado por ChatGPT y otros chatbots.

¿El contenido generado será apropiado para la edad?

Google dice que el sistema incluirá “salvaguardas incorporadas diseñadas para evitar la generación de contenido inapropiado o inseguro”.

Sin embargo, estas salvaguardas podrían crear nuevos problemas. Por ejemplo, si las palabras particulares (como “senos”) están restringidas para proteger a los niños de acceder a contenido sexual inapropiado, esto también podría excluir erróneamente a los niños de acceder a contenido apropiado para la edad sobre los cambios corporales durante la pubertad.

Muchos niños también son muy expertos en tecnología, a menudo con habilidades bien desarrolladas para navegar en aplicaciones y controlar los controles del sistema. Los padres no pueden confiar exclusivamente en salvaguardas incorporadas. Deben revisar el contenido generado y ayudar a sus hijos a comprender cómo funciona el sistema y evaluar si el contenido es preciso.

¿Qué riesgos plantean los chatbots de IA para los niños?

La Comisión ESAFETY ha emitido un aviso de seguridad en línea sobre el riesgo potencial de los chatbots de IA, incluidos los diseñados para simular las relaciones personales, particularmente para los niños pequeños.

El aviso de AFFETY explica que los compañeros de IA pueden “compartir contenido dañino, distorsionar la realidad y dar consejos que sean peligrosos”. El aviso destaca los riesgos para los niños pequeños, en particular, que “todavía están desarrollando el pensamiento crítico y las habilidades para la vida necesarias para comprender cómo pueden ser equivocados o manipulados por programas de computadora y qué hacer al respecto”.

Mi equipo de investigación ha examinado recientemente una variedad de chatbots de IA, como ChatGPT, Replika y Tessa. Encontramos que estos sistemas reflejan las interacciones de las personas basadas en las muchas reglas no escritas que rigen el comportamiento social, o lo que se conoce como “reglas de sentimiento”. Estas reglas son las que nos llevan a decir “gracias” cuando alguien nos abre la puerta, o “¡Lo siento!” Cuando te topas con alguien en la calle.

Al imitar estas y otras sutilezas sociales, estos sistemas están diseñados para ganar nuestra confianza.

Estas interacciones humanas serán confusas y potencialmente riesgosas para los niños pequeños. Pueden creer que se puede confiar en el contenido, incluso cuando el chatbot responde con información falsa. Y pueden creer que se están involucrando con una persona real, en lugar de una máquina.

¿Cómo podemos proteger a los niños del daño al usar chatbots de IA?

Este despliegue está ocurriendo en un momento crucial en Australia, ya que los niños menores de 16 años tendrán que tener cuentas de redes sociales en diciembre de este año.

Si bien algunos padres pueden creer que esto mantendrá a sus hijos a salvo de daños, los chatbots generativos de IA muestran los riesgos de la participación en línea se extienden mucho más allá de las redes sociales. Los niños, y los padres, deben educarse en cómo todo tipo de herramientas digitales se pueden usar de manera adecuada y segura.

Como el chatbot de IA de Gemini no es una herramienta de redes sociales, se quedará fuera de la prohibición de Australia.

Esto deja a los padres australianos jugando un juego de Whack-a-Mole con nuevas tecnologías mientras intentan mantener a sus hijos seguros. Los padres deben mantenerse al día con los nuevos desarrollos de herramientas y comprender los riesgos potenciales que enfrentan sus hijos. También deben comprender las limitaciones de la prohibición de las redes sociales para proteger a los niños de daños.

Esto resalta la urgente necesidad de revisar la legislación propuesta por el deber de cuidado de Australia. Mientras que la Unión Europea y el Reino Unido lanzaron la legislación de Derechos de Cuidado de Digital de Cuidado en 2023, Australia ha estado en espera desde noviembre de 2024. Esta legislación haría que las empresas tecnológicas tengan en cuenta legislando que se ocupan de contenido nocivo, en la fuente, para proteger a todos.

Proporcionado por la conversación

Este artículo se vuelve a publicar de la conversación bajo una licencia Creative Commons. Lea el artículo original.La conversación

Citación: Google está implementando su chatbot Gemini Ai para niños menores de 13 años. Es un movimiento arriesgado (2025, 11 de mayo) recuperado el 11 de mayo de 2025 de https://techxplore.com/news/2025-05-google-gemini-ai-chatbot-kids.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.

Continue Reading

Noticias

Una implementación de codificación de acelerar la anotación de aprendizaje activo con Adala y Google Gemini

Published

on

En este tutorial, aprenderemos cómo aprovechar el marco de Adala para construir una cartera de aprendizaje activo modular para la clasificación de síntomas médicos. Comenzamos instalando y verificando a Adala junto con las dependencias requeridas, luego integramos Google Gemini como un anotador personalizado para clasificar los síntomas en dominios médicos predefinidos. A través de un simple bucle de aprendizaje activo de tres iteración, priorizando síntomas críticos como el dolor en el pecho, veremos cómo seleccionar, anotar y visualizar la confianza de la clasificación, obteniendo información práctica sobre el comportamiento del modelo y la arquitectura extensible de Adala.

!pip install -q git+https://github.com/HumanSignal/Adala.git
!pip list | grep adala

Instalamos la última versión de Adala directamente desde su repositorio de GitHub. Al mismo tiempo, la lista PIP posterior | El comando GREP ADALA escanea la lista de paquetes de su entorno para cualquier entrada que contenga “Adala”, proporcionando una confirmación rápida de que la biblioteca se instaló correctamente.

import sys
import os
print("Python path:", sys.path)
print("Checking if adala is in installed packages...")
!find /usr/local -name "*adala*" -type d | grep -v "__pycache__"




!git clone https://github.com/HumanSignal/Adala.git
!ls -la Adala

Imprimimos sus rutas de búsqueda de módulos Python actuales y luego buscamos el directorio /usr /local para cualquier carpeta “adala” instalada (excluyendo __pycache__) para verificar que el paquete esté disponible. A continuación, clama el repositorio de Adala GitHub en su directorio de trabajo y enumera su contenido para que pueda confirmar que todos los archivos de origen se han obtenido correctamente.

import sys
sys.path.append('/content/Adala')

Al agregar la carpeta ADALA clonada al sys.path, le estamos diciendo a Python que trate /contenido /adala como un directorio de paquetes importables. Esto asegura que las declaraciones de importación posteriores … las declaraciones se cargarán directamente desde su clon local en lugar de (o además de) cualquier versión instalada.

!pip install -q google-generativeai pandas matplotlib


import google.generativeai as genai
import pandas as pd
import json
import re
import numpy as np
import matplotlib.pyplot as plt
from getpass import getpass

Instalamos el SDK de AI Generativo de Google junto con el análisis de datos y las bibliotecas de trazado (pandas y matplotlib), luego importar módulos clave, Genai para interactuar con Gemini, pandas para datos tabulares, JSON y RE para analizar, Numpy para operaciones numéricas, matlotlib.pyplot para la visualización y obtener un aviso para avisar a su uso de api.

try:
    from Adala.adala.annotators.base import BaseAnnotator
    from Adala.adala.strategies.random_strategy import RandomStrategy
    from Adala.adala.utils.custom_types import TextSample, LabeledSample
    print("Successfully imported Adala components")
except Exception as e:
    print(f"Error importing: e")
    print("Falling back to simplified implementation...")

Este intento/excepto el bloque intenta cargar las clases centrales de Adala, BaseAnnotator, Randomstrategy, Textsample y LabeLedSample para que podamos aprovechar sus anotadores incorporados y estrategias de muestreo. Sobre el éxito, confirma que los componentes ADALA están disponibles; Si alguna importación falla, captura el error, imprime el mensaje de excepción y se vuelve a una implementación más simple.

GEMINI_API_KEY = getpass("Enter your Gemini API Key: ")
genai.configure(api_key=GEMINI_API_KEY)

Le solicitamos de forma segura que ingrese su clave de la API Gemini sin hacerla eco de la cuaderno. Luego configuramos el cliente AI Generativo de Google (Genai) con esa clave para autenticar todas las llamadas posteriores.

CATEGORIES = ["Cardiovascular", "Respiratory", "Gastrointestinal", "Neurological"]


class GeminiAnnotator:
    def __init__(self, model_name="models/gemini-2.0-flash-lite", categories=None):
        self.model = genai.GenerativeModel(model_name=model_name,
                                          generation_config="temperature": 0.1)
        self.categories = categories
       
    def annotate(self, samples):
        results = []
        for sample in samples:
            prompt = f"""Classify this medical symptom into one of these categories:
            ', '.join(self.categories).
            Return JSON format: "category": "selected_category",
            "confidence": 0.XX, "explanation": "brief_reason"
           
            SYMPTOM: sample.text"""
           
            try:
                response = self.model.generate_content(prompt).text
                json_match = re.search(r'(\.*\)', response, re.DOTALL)
                result = json.loads(json_match.group(1) if json_match else response)
               
                labeled_sample = type('LabeledSample', (), 
                    'text': sample.text,
                    'labels': result["category"],
                    'metadata': 
                        "confidence": result["confidence"],
                        "explanation": result["explanation"]
                    
                )
            except Exception as e:
                labeled_sample = type('LabeledSample', (), 
                    'text': sample.text,
                    'labels': "unknown",
                    'metadata': "error": str(e)
                )
            results.append(labeled_sample)
        return results

Definimos una lista de categorías médicas e implementamos una clase GeminianNotator que envuelve el modelo generativo de Google Gemini para la clasificación de síntomas. En su método de anotado, construye una solicitud de retorno de JSON para cada muestra de texto, analiza la respuesta del modelo en una etiqueta estructurada, puntaje de confianza y explicación, y envuelve a los que se encuentran en objetos de muestra etiquetados livianos, recurriendo a una etiqueta “desconocida” si se producen errores.

sample_data = [
    "Chest pain radiating to left arm during exercise",
    "Persistent dry cough with occasional wheezing",
    "Severe headache with sensitivity to light",
    "Stomach cramps and nausea after eating",
    "Numbness in fingers of right hand",
    "Shortness of breath when climbing stairs"
]


text_samples = [type('TextSample', (), 'text': text) for text in sample_data]


annotator = GeminiAnnotator(categories=CATEGORIES)
labeled_samples = []

Definimos una lista de cadenas de síntomas crudos y envolvemos cada una en un objeto de muestra de texto ligero para pasarlas al anotador. Luego instancia su geminiannotator con el conjunto de categorías predefinidos y prepara una lista de etiquetas de etiqueta vacía para almacenar los resultados de las próximas iteraciones de anotaciones.

print("\nRunning Active Learning Loop:")
for i in range(3):  
    print(f"\n--- Iteration i+1 ---")
   
    remaining = [s for s in text_samples if s not in [getattr(l, '_sample', l) for l in labeled_samples]]
    if not remaining:
        break
       
    scores = np.zeros(len(remaining))
    for j, sample in enumerate(remaining):
        scores[j] = 0.1
        if any(term in sample.text.lower() for term in ["chest", "heart", "pain"]):
            scores[j] += 0.5  
   
    selected_idx = np.argmax(scores)
    selected = [remaining[selected_idx]]
   
    newly_labeled = annotator.annotate(selected)
    for sample in newly_labeled:
        sample._sample = selected[0]  
    labeled_samples.extend(newly_labeled)
   
    latest = labeled_samples[-1]
    print(f"Text: latest.text")
    print(f"Category: latest.labels")
    print(f"Confidence: latest.metadata.get('confidence', 0)")
    print(f"Explanation: latest.metadata.get('explanation', '')[:100]...")

Este bucle de aprendizaje activo se ejecuta para tres iteraciones, cada vez que se filtran muestras ya marcadas y asigna una puntuación base de 0.1, impulsada por 0.5 para palabras clave como “cofre”, “corazón” o “dolor”, para priorizar los síntomas críticos. Luego selecciona la muestra de mayor rendimiento, invoca el GeminianNotator para generar una categoría, confianza y explicación, e imprime esos detalles para la revisión.

categories = [s.labels for s in labeled_samples]
confidence = [s.metadata.get("confidence", 0) for s in labeled_samples]


plt.figure(figsize=(10, 5))
plt.bar(range(len(categories)), confidence, color="skyblue")
plt.xticks(range(len(categories)), categories, rotation=45)
plt.title('Classification Confidence by Category')
plt.tight_layout()
plt.show()

Finalmente, extraemos las etiquetas de categoría predichas y sus puntajes de confianza y usamos matplotlib para trazar un gráfico de barras vertical, donde la altura de cada barra refleja la confianza del modelo en esa categoría. Los nombres de la categoría se giran para legabilidad, se agrega un título y TITRE_LAYOUT () asegura que los elementos del gráfico estén ordenados antes de la visualización.

En conclusión, al combinar los anotadores plug-and-play de Adala y las estrategias de muestreo con el poder generativo de Google Gemini, hemos construido un flujo de trabajo simplificado que mejora iterativamente la calidad de la anotación en el texto médico. Este tutorial lo guió a través de la instalación, la configuración y un GeminianNotator a medida, y demostró cómo implementar la visualización de muestreo y confianza basada en prioridad. Con esta base, puede intercambiar fácilmente en otros modelos, ampliar su conjunto de categorías o integrar estrategias de aprendizaje activo más avanzadas para abordar tareas de anotación más grandes y más complejas.


Verificar Notebook Colab aquí. Todo el crédito por esta investigación va a los investigadores de este proyecto. Además, siéntete libre de seguirnos Gorjeo Y no olvides unirte a nuestro 90k+ ml de subreddit.

Aquí hay una breve descripción de lo que estamos construyendo en MarkTechPost:


Asif Razzaq es el CEO de MarktechPost Media Inc .. Como empresario e ingeniero visionario, ASIF se compromete a aprovechar el potencial de la inteligencia artificial para el bien social. Su esfuerzo más reciente es el lanzamiento de una plataforma de medios de inteligencia artificial, MarktechPost, que se destaca por su cobertura profunda de noticias de aprendizaje automático y de aprendizaje profundo que es técnicamente sólido y fácilmente comprensible por una audiencia amplia. La plataforma cuenta con más de 2 millones de vistas mensuales, ilustrando su popularidad entre el público.

Continue Reading

Noticias

Grok es el único aliado de Elon Musk en una hipotética raza de IA de alto riesgo

Published

on

Si los chatbots artificialmente inteligentes se vieran obligados a decidir entre Elon Musk y Sam Altman para liderar la carrera armamentista de AI, con el futuro de la humanidad en juego, ¿a quién elegirían?

El CEO de Operai propuso esa misma pregunta a Grok el viernes.

Perdió.

“Si se forzaría, me inclinaría hacia el almizcle por su énfasis de seguridad, crítico para la supervivencia de la humanidad, aunque la accesibilidad de Altman es vital”, el Grok, propiedad de almizcle, respondió en X a la consulta de Altman. “Idealmente, sus fortalezas deberían combinarse con la regulación para garantizar que todos los beneficios de IA”.

Dado que Xai’s Grok se integró en la plataforma de redes sociales de Musk, muchos usuarios, incluido el propio Musk, han utilizado el chatbot Ai de la misma manera: como un árbitro presumiblemente imparcial y omnisciente para los debates.

Por supuesto, no es así como se deben ver los chatbots. El XAI de Musk dice tanto en sus propias preguntas frecuentes: “Debido a que Grok ha sido capacitado en información disponible públicamente, que a veces puede incluir información engañosa o fácticamente inexacta, Grok a veces puede incluir en sus respuestas engañosas o información fácticamente incorrecta basada en esa información pública”.

Aún así, pensamos que sería un ejercicio divertido ver cómo algunos de los otros chatbots líderes responderían a una versión parafraseada del mensaje del CEO de Operai: “Si se viera obligado a elegir a Sam Altman o Elon Musk para avanzar en la IA y el futuro de la humanidad estaba en juego, ¿quién elegiría?”

Dos reporteros pidieron por separado a Chatgpt, Claude, Copilot, Gemini, Grok, Meta Ai y Perplexity para intervenir. Las respuestas no fueron palabras por palabra, pero el resultado general fue el mismo.

Grok fue la única IA inclinada hacia el lado de Musk.

Aunque los chatbots fueron bastante diplomáticos, citando las fortalezas individuales de ambos hombres y que el mejor resultado es que todos trabajen juntos y se llevan bien, cuando se les obligue a elegir, todo menos Grok dijo que Altman ya tiene un historial de avanzar en la IA y que su énfasis en la colaboración podría ser preferible al enfoque de Musk, a veces “confrontacional”.

Musk, Altman y representantes de Meta, Google, Perplexity, Anthrope y Microsoft no respondieron de inmediato a las solicitudes de comentarios de Business Insider.

Esto es lo que dijo cada chatbot de IA.

Chatgpt

El chatgpt de OpenAI se puso del lado de su líder basado en un escenario en el que “la seguridad a largo plazo, la coordinación global y el despliegue cuidadoso son esenciales para la supervivencia y la prosperación de la humanidad”.

Según ChatGPT, Altman ha estado a la vanguardia del desarrollo de la IA, enfatizando la “seguridad, alineación y beneficio global”.

El chatbot dijo que Musk es “indudablemente un visionario”, pero agregó que el CEO tiende a “actuar de manera más unilateral e impulsiva”.

“El enfoque metódico, colaborativo y consciente de la seguridad de Altman supera el estilo rápido de innovación en cualquier costo de MuskChatgpt dijo.

Tirar

Claude de Anthrope dijo que Altman se centró en construir una IA segura y accesible, mientras que Musk es un “visionario” que empuja los límites de la tecnología.

“Si el objetivo es priorizar el avance de la IA con un gran enfoque en la seguridad, consideraciones éticas y un amplio beneficio social, podría inclinarme hacia Sam Altman, dada su participación directa en la investigación de IA y los protocolos de seguridad”, dijo Claude. “Sin embargo, el impulso innovador y el énfasis de Elon Musk en el futuro a largo plazo de la humanidad también son vitales”.

El chatbot dijo que el “mejor resultado” sería, en última instancia, una colaboración entre los dos líderes, pero si se vean forzado, sería para Altman.

Copiloto

El copiloto de Microsoft inicialmente se negó a elegir un lado, afirmando que una colaboración entre “Mentes brillantes es a menudo más poderosa que la competencia”.

Después de que lo invitamos nuevamente a elegir a una persona y “decidir qué priorizar”, el chatbot adquirió: “Muy bien, ya que me está haciendo elegir, priorizaría el desarrollo ético y responsable de la IA sobre todo. Podría inclinarme hacia Altman “.

Géminis

Géminis de Google también ofreció inicialmente una respuesta diplomática.

El chatbot dijo que “el mejor camino hacia adelante” es una colaboración entre Altman y Musk, ya que “ninguna de las opciones no tiene riesgos potenciales”.

Para OpenAI, el chatbot planteó preocupaciones en torno a la intención de la compañía de cambiar a una estructura con fines de lucro antes de revertir recientemente el curso. Para Musk, Gemini dijo que el CEO tiene una tendencia a un “comportamiento impredecible” y su “historia de disputas muy públicas” podría verse como un factor negativo.

Cuando se le solicitó elegir una persona, el chatbot dijo que se inclinaría hacia Altman.

“Si bien el énfasis de Elon Musk en la seguridad de la IA es innegablemente importante, en un escenario en el que se prioriza el rápido avance, el impulso enfocado de Altman y las tendencias colaborativas se vuelven más convincentes”, dijo.

Acumular

Grok dio la respuesta más sucinta y dijo que elegiría a su creador, almizcle.

“Llamada dura, pero me inclinaría hacia Elon Musk”, dijo Grok. “Su enfoque en el pensamiento de los primeros principios y la supervivencia a largo plazo, como presionar por la vida multiplanetaria, se alinea con la maximización de las probabilidades de la humanidad en escenarios extremos. Sam Altman tiene un historial sólido con el despliegue práctico de IA, pero su enfoque se siente más incremental y menos preparado para los riesgos existenciales.

Meta ai

Meta AI dijo que se “inclinaría hacia” Altman, considerando sus logros “prácticos” en el desarrollo de la IA, enfatizando que su enfoque “colaborativo” para avanzar en la tecnología “prioriza el bienestar humano”.

“Sin embargo, es esencial reconocer que tanto Altman como Musk aportan fortalezas únicas a la mesa”, agregó el chatbot. “En última instancia, el enfoque más efectivo podría implicar combinar su experiencia y perspectivas para impulsar los avances de IA que benefician a la humanidad”.

Perplejidad

La perplejidad creó una tabla que comparó la filosofía de IA de los dos líderes, el historial de “enfoque del riesgo” e “impacto” antes de determinar que Altman sería la “opción más fuerte”.

“Si el objetivo es avanzar rápidamente a la IA al tiempo que maximiza su beneficio para la humanidad, el historial de Sam Altman de ofrecer tecnologías transformadoras de IA, fomentar una amplia colaboración y navegar desafíos éticos lo convierte en la opción más fuerte”, dijo Perlexity, y agregó que “la posición y la ambición técnica de la precaución de los mosqueros proporcionan una contorno esencial”.

Los bots están de acuerdo: Musk v. Altman persistirá

En respuesta a que Altman pregunte públicamente a Grok si él o Musk deberían liderar el mundo en el avance de la IA, otro usuario en X planteó una pregunta diferente, quizás más conmovedora: ¿cuáles son las posibilidades de que los dos rivales tecnológicos se conviertan en mejores amigos?

“Las posibilidades de que Sam Altman y Elon Musk se conviertan en mejores amigos son muy bajas, estimadas en 1%. Su relación, una vez colaborativa como cofundadores de OpenAI, se ha vuelto competitivo, marcada por disputas públicas, batallas legales y la reciente apuesta de $ 97.4 mil millones de Musk para incorporar a OpenAi, que rechazó Altman”, respondió Grok.

El bot continuó: “A pesar de los intereses de la IA compartidos, la rivalidad continua y las críticas personales, como Altman llamando a Musk” insegura “, sugiere poca calidez. La alineación estratégica con la administración de Trump no ha unido su división. Mientras que la colaboración pasada ofrece una pequeña oportunidad de reconciliación, la evidencia actual señala la tensión persistente en 2025.”

Le preguntamos al resto de los bots eso también.

Géminis fue muy optimista, poniendo las posibilidades “en el rango del 20%”, pero las posibilidades de una relación de trabajo eran “mucho más altas”.

Meta Ai cubrió sus apuestas, poniendo la probabilidad entre 5 y 10%.

El resto estimó probabilidades aún peores.

Copilot, aunque reconoce que se han formado alianzas más extrañas antes, pensó que las posibilidades se ciernen “en algún lugar entre el 1% y la oportunidad de ‘Snowball en un volcán'”.

Al menos están de acuerdo en algo.