Connect with us

Noticias

ChatGPT 4 Statistics 2024 By Users, Revenue and Cost

Published

on

Introduction

ChatGPT 4 Statistics: ChatGPT has become very popular online, gaining over 1,000,000 users in just one week. This chatbot uses an artificial neural network to answer questions in a human-like way. It was opened for public testing on November 30, 2022, and was created by OpenAI, a company located in San Francisco. In just a few weeks, OpenAI plans to launch GPT-4, the next version of its large language model (LLM). The company has also developed other software like GPT-3 and DALL-E 2.

The new GPT-4 will include multimodal language models, which means it can pull information from various sources. The latest updates allow it to answer questions with images and music. To understand its growth over the years, we will look at the ChatGPT 4 Statistics through this article.

Editor’s Choice

  • There are several versions available, including GPT-4 Turbo, which has a context of 128k tokens, GPT-4-32k, and GPT-4-vision. GPT-4 is also included in the ChatGPT Plus plan, which is the paid version of ChatGPT.
  • Bing Chat offers a free version of GPT-4 on its mobile app, which you can easily turn on or off.
  • ChatGPT has around 180.5 million active users, but only about 1% subscribe to the ChatGPT Plus plan, which means there are roughly 180,000 to 200,000 Plus users.
  • All ChatGPT Plus subscribers can use GPT-4 for $20 per month.
  • Others can sign up for a waitlist to get early access to the GPT-4 API. Bing Chat also provides GPT-4 on its mobile app.
  • ChatGPT 4 Statistics stated that you can access the GPT-4 API with an OpenAI account.
  • Globally, ChatGPT has more than 100 million active users every week.
  • In its first week after launch, ChatGPT gained over 1 million users.
  • ChatGPT has received over 16 billion total views.
  • Each month, ChatGPT gets more than 600 billion visits, as per ChatGPT 4 Statistics.
  • The user gender breakdown shows that 54.65% of users are male and 45.35% are female.
  • On April 1, 2023, Italy blocked access to ChatGPT.
  • In the United States, 13.79% of ChatGPT users are located, while India has 6.74%.
  • Readers believe that ChatGPT writes 46.9% of the content, 36.3% is AI-written but edited by women, and humans write 16.7%.
  • In January 2024, the number of ChatGPT users reached 1.6 billion, increasing to over 1.8 billion by March 2024, and measured at 637 million in May 2024.
  • This rapid growth is the fastest in tech history, mainly due to word-of-mouth marketing. On May 23, 2023, ChatGPT launched Plugins.

What is GPT-4?

GPT-4 is the new version that comes after GPT-3.5, which runs the free version of ChatGPT. Unlike GPT-3.5, which only understands and replies in text, GPT-4 has new features like the ability to handle different types of input, process videos, and respond more quickly. “Multimodality” means the model can understand various kinds of input, such as text, images, and audio—it’s like being able to speak multiple languages but for different forms of data.

In simple terms, GPT-4 can understand images, text, and even audio. A recent update added voice control to its mobile app, making it easier to use. When paired with plugins, it can also reply with both text and images.

ChatGPT-4 vs ChatGPT- 3 – Enhanced Accuracy And Precision

(Source: ashokveda.com)

  • Precision and Relevance: GPT-4 gives more accurate and relevant answers. In a study, it achieved an accuracy of 85.5% on a 3-shot massive multitask language understanding (MMLU) test, compared to GPT-3.5’s 70.1%.
  • Image Recognition: GPT-4 can analyze and describe images in detail, which GPT-3 cannot do. For example, if you show it a picture of what’s in your fridge, it can suggest recipes you could prepare.
  • Vision and Voice: ChatGPT Plus’s mobile app lets users talk to GPT-4 using voice commands and explain ideas through drawing.
  • Model Size & Parameters: Contrary to some claims, GPT-4 does not have 1 trillion parameters, as clarified by Sam Altman, CEO of OpenAI. The actual number is likely around 220 billion.
  • Mathematical Skills: GPT-4 is better at solving math problems than GPT -3.5.
  • Language Skills: GPT-4 excels in 24 out of 26 languages tested, including lesser-known ones like Latvian, Welsh, and Swahili. It also does well in editing text, paraphrasing, and correcting grammar.
  • Humor: While GPT-4 is improved at making jokes, it still needs to understand humor fully.
  • Better Safety Measures: GPT-4 is much better than GPT-3.5 at avoiding inappropriate and sensitive requests. OpenAI has reduced the chances of the model responding to forbidden content by 82% and improved its handling of sensitive topics by 29%.
  • Professional Tests: GPT-4 performs better in professional exams compared to GPT -3.5.

General ChatGPT-4 Statistics

  • The new language model is expected to give answers much faster and sound more human-like.
  • GPT-4’s new multimodal features may solve the problem of slow responses that users face with ChatGPT.
  • Recent reports say that OpenAI is working on a mobile app using GPT-4, and experts believe ChatGPT-4 will also be available on Bing Chat.

Performance-of-ChatGPT-and-GPT-4

(Source: nature.com)

  • ChatGPT is built on GPT-3.5, while Microsoft’s Bing Search uses GPT-33 and GPT-3.5 along with a special tool called Prometheus to provide quicker answers using real-time information.
  • GPT-4 price plans as of Jan 2024. The table compares the cost of the current GPT-4 model API offering for the developers:
Model Input Output
GPT-4 32K $0.06/1K Token $0.12/1K Token
GPT-4 $0.03/1K Token $0.06/1K Token
  • If GPT-4 is trained on 100 trillion parameters, it would be similar to the human brain in terms of complexity. However, simply increasing the number of parameters will greatly improve performance if the training data is also enhanced, as per ChatGPT 4 Statistics.
  • ChatGPT was launched on November 30, 2022, as a chatbot that uses artificial neural networks to answer questions in a human-like way.

GPT – 4 Turbo Pricing Plan as of Jan 2024:

Model Input Output
GPT-4w/vision (1106-preview) $0.01/1K token $0.03/1K token
GPT-4 (1106- preview) $0.01/1K token $0.03/1K token
GPT-4 (0125- preview) $0.01/1K tokens $0.03/1K token
  • An improved version of ChatGPT’s model was released on December 15, 2022.
  • The company is expected to make around $200 million in revenue by the end of 2023.
  • In January 2023, ChatGPT reached over 100 million users and gained more than 1 million users within just a week of launching.
  • In its first month, ChatGPT attracted over 57 million monthly users, as per ChatGPT 4 Statistics.
  • OpenAI estimates it will generate nearly $1 billion in revenue over the next two years.
  • As of January 2023, around 13 million unique active users visited ChatGPT each day.
  • Experts predict that the training data for ChatGPT-4 could be about 571 times larger than the 175 billion parameters used for GPT-3.

(Source: team-gpt.com)

  • Microsoft has invested nearly $10 billion in OpenAI and owns 46% of the company, which is valued at about $29 billion in 2023.
  • ChatGPT can only access information up to 2021 because its training was paused that year.
  • In the early development stages of ChatGPT, Microsoft contributed nearly $1 billion to OpenAI, providing the computing power needed for ChatGPT through Microsoft Azure.

ChatGPT 4 Users Statistics

  • The number of visitors to ChatGPT each month stayed over one billion throughout 2023.
  • In December 2023, the site had about 1.6 billion visitors, a decrease of around 132 million from the previous month.

Here’s a monthly overview of ChatGPT visitors from November 2022 to December 2023:

Month Number of Visits Change in the number of visits between the previous and the current months % change over the previous month
December 2023 1.6 billion – 131.6 million – 7.83%
November 2023 1.7 billion – 15.6 million
October 2023 1.7 billion + 200 million + 13.33%
September 2023 1.5 billion + 100 million + 7.14%
August 2023 1.4 billion + 100 million – 6.67%
July 2023 1.5 billion + 100 million – 6.25%
June 2023 1.6 billion – 200 million – 12.5%
May 2023 1.8 billion
April 2023 1.8 billion + 200 million + 12.5%
March 2023 1.6 billion + 600 million + 60%
February 2023 1 billion + 384 million + 62.34%
January 2023 616 million + 350 million + 131.58%
December 2022 266 million + 113.3 million + 74.2%
November 2022 152.7 million
  • In its first full month online (November 2022), ChatGPT had over 150 million visitors.
  • By December, this number rose to 266 million, marking an increase of nearly 75% (74.2%).
  • In January 2023, the total number of visitors more than doubled to 616 million (+131.58%), and in February, the site reached one billion visitors for the first time, as stated in ChatGPT 4 Statistics.

(Source: explodingtopics.com)

  • From March 2023 onward, monthly visits have ranged between 1.4 billion and 1.8 billion, with the highest in April and the lowest in August.
  • As of December 2023, ChatGPT’s traffic increased by over 950% from the previous year, adding more than 1.4 billion visitors.

-nearly-half-of-americans-have-heard-either-a-little-or-a-lot-about-chatgpt

(Reference: www.notta.ai)

  • In September 2023, the ChatGPT website had over 1.5 billion visits, according to SimilarWeb.
  • This is a 4.69% increase from the previous month. The site’s bounce rate is 36.36%, meaning about one-third of visitors leave without interacting further.
  • On average, users spend around 7 minutes and 36 seconds on the site and look at about 4.17 pages per visit.
  • A recent YouGov poll found that nearly half of Americans have heard a little or a lot about ChatGPT.
  • About two-thirds of those aware have advanced degrees. However, 54% of people said they hadn’t heard anything about ChatGPT at all.
  • A Statista survey showed that 48% of US citizens need to become more familiar with generative AI on social media.
  • Meanwhile, 25% have heard of it but are curious if they’ve used it. Only 23% said they have seen, experienced, and used generative AI.
  • Additionally, 14% have seen it on social media but have yet to use it themselves. About 9% have used generative AI, and 5% have used it specifically for social media.
  • ChatGPT 4 Statistics stated that only 3% have created generative AI content for social media but have yet to make any other AI content. Overall, more than 40% of adults in the US know about ChatGPT.
  • Many US businesses are using ChatGPT to automate tasks. A Statista survey found that around 25% of companies saved between $50,000 and $70,000 by using ChatGPT.
  • Additionally, 11% of business leaders reported saving over $100,000 after incorporating ChatGPT into their operations.

ChatGPT- 4 Revenue And Cost Statistics

  • According to Forbes and the Financial Times, as of February 2024, OpenAI was earning $167 million each month from ChatGPT.
  • This means their yearly revenue could reach about $2 billion (monthly revenue times 12).
  • In October 2023, OpenAI made $4.58 million from the ChatGPT Plus mobile app alone.
  • ChatGPT has a free version that uses GPT-3.5 and a paid version called ChatGPT Plus, which costs $20 per month, according to ChatGPT 4 Statistics.

chatgpt-revenue-2024

(Reference: helplama.com)

  • OpenAI makes around $4 million each month from Plus subscribers. They also offer ChatGPT Enterprise, a special version for businesses, which contributes a large part of their income as per ChatGPT 4 Statistics.
  • As of August 2023, OpenAI spends about $700,000 every day to run ChatGPT.
  • Sam Altman, the CEO of OpenAI, says the average cost for one chat with ChatGPT is only a few cents.

 

amount-of-money-companies-in-the-united-states-saved-by-using-chatgpt-as-of-february-2023

(Reference: enterpriseappstoday.com)

  • As of 2023, most companies in the USA that used ChatGPT saved between $50,001 and $75,000, which accounted for 24% of the total.
  • About 22% saved between $25,001 and $50,000, and 20% saved between $5,001 and $25,000. Additionally, 11% of companies reported saving over $100,000.
  • In January 2023, Tom Goldstein, an AI professor at the University of Maryland, estimated the daily cost to run ChatGPT at around $100,000, adding up to about $3 million a month.
  • His estimates were based on Azure Cloud costs and about 10 million queries per day.
  • By August 2023, the number of daily queries increased to over 60 million, which raised the operating costs.

ChatGPT-4 Market Presence And Influences

  • ChatGPT became publicly available in December 2022 and quickly gained popularity, reaching 57 million monthly active users in its first month.
  • By March 2024, it will average about 60 million unique visitors every day. A February 2024 survey found that around 43% of US residents aged 18 to 29 use ChatGPT.
  • The usage rate drops to about 27% for those aged 30 to 49, 17% for people between 50 and 64, and less than 6% for those over 64.
Model Prompt MMLU GPQA MATH HumanEval MGSM DROP(F1,3-Shot)
Gpt-4-0125-preview Assistant 85.4 41.4 64.5 86.6 85.1 81.5
Gpt-4-0125-preview ChatGPT 84.8 39.7 64.2 88.2 83.7 83.4
Gpt-4-1106(vision)-preview Assistant 84.7 42.5 64.3 83.7 87.1 83.2
Gpt-4-1106(vision)-preview ChatGPT 84.6 42.1 64.1 82.2 86.5 81.3
Gpt-4-turbo-2024-04-09 Assistant 86.7 49.3 73.4 88.2 89.6 86.0
Gpt-4-turbo- 2024-04-09 ChatGPT 86.5 49.1 72.2 87.6 88.6 85.4
Gpt-4o assistant 87.2 49.9 76.6 91.0 89.9 83.7
Gpt-4o ChatGPT 88.7 53.6 76.6 90.2 90.5 83.4
OPENAI GPT4s
  • ChatGPT 4 Statistics stated that this is an 18% increase compared to a similar survey done in July of the previous year.
  • In February 2023, ChatGPT had about 13 million unique daily visitors.
  • Overall, around 58% of US adults know about ChatGPT, but only a small number have tried it.
  • Among teens in households making $75,000 or more each year, 75% have heard of ChatGPT.
  • This number falls to 58% in households earning between $30,000 and $74,999 and to 41% in those making less than $30,000.

how-aware-americans-are-of-chatgp

(Source: originality.ai)

  • Younger adults are more likely to have used ChatGPT for entertainment than older adults, with 43% of those under 30 using it, compared to only 6% of those 65 and older.
  • Over 40% of American adults are aware of ChatGPT. As of November 6, 2023, OpenAI’s CEO Sam Altman announced that about 100 million people use ChatGPT each week.

Number of Parameters in ChatGPT-4

  • ChatGPT-4 is estimated to have around 1.8 trillion parameters, making it more than ten times bigger than GPT-3.
  • There’s also a smaller version called ChatGPT-4o Mini, which could have as few as 8 billion parameters.
  • This estimate of 1.8 trillion parameters comes from several sources, including AI expert George Hotz, known for being the first to hack the iPhone.
  • In June 2023, not long after GPT-4 was released, Hotz said it consists of about 1.8 trillion parameters, organized into eight models, each with 220 billion parameters.
  • According to OpenAI, ChatGPT-4 has ten times more parameters than GPT-3, which has 175 billion parameters.
  • Additionally, ChatGPT-4 has over 15,000 times more parameters than the original ChatGPT-1, which had 117 million parameters.

(Source: explodingtopics.com)

  • The amount of tokens an AI can process is called the context length or window. For example, ChatGPT-4 has a context window of 32,000 tokens, which is about 24,000 words in English.
  • ChatGPT-4 is estimated to have around 1.8 trillion parameters. However, we need to find out the exact number of parameters in GPT-4o.
  • OpenAI hasn’t confirmed this, but their CTO has stated that GPT-4o offers intelligence similar to GPT-44. If that’s true, GPT-4o might also have 1.8 trillion parameters, according to CNET, as stated in ChatGPT 4 Statistics.
  • Other sources have made different guesses. For instance, The Times of India estimated that ChatGPT-4o has over 200 billion parameters.

parameters-in-selected-ai-models

(Source: explodingtopics.com)

  • Gemini Ultra is estimated to have over 1 trillion parameters, according to Manish Tyagi. Google hasn’t officially announced the size of its newest AI models, but some sources suggest that Gemini Ultra exceeds 1 trillion parameters.
  • Gemini Nano has two versions: Nano-1, which has 1.8 billion parameters, and Nano-2, which is larger at 3.25 billion parameters.
  • Both are smaller versions of earlier models and are made for use on smartphones.
  • Llama 2, developed by Meta, has 70 billion parameters. This open-source model was trained on 2 trillion tokens of data, 40% more than the previous version, Llama 1, as per ChatGPT 4 Statistics.
  • Claude 2, released by Anthropic in July 2023, has more than 130 billion parameters.
  • Claude 3 Opus might have about 137 billion parameters, as estimated by Cogni Down Under, though no source was given for this claim.

Conclusion

The latest predictions for ChatGPT-4 indicate that it will be a larger, text-only language model with improved abilities. Some reports suggest it might be similar in size to GPT-3. ChatGPT-4 is expected to understand human instructions and beliefs better. It could be trained on over 100 trillion parameters and focus mainly on generating code, which would make it 500 times stronger than ChatGPT-3, potentially becoming the most powerful AI ever developed.

If these claims are accurate, the data used for ChatGPT-4 could be about 571 times larger than the 175 billion parameters used for training GPT-3. However, these ideas are still speculative. We have shed enough light on the ChatGPT 4 Statistics through this article.

How much data is ChatGPT 4 trained on?

ChatGPT receives more than 10 million questions each day and reached 100 million weekly users in November 2023. It was trained on a large amount of text data, about 570GB, including websites, books, and other materials.

Which country uses ChatGPT the most?

The data showed that India had the highest number of ChatGPT users, with 45% of people saying they used the AI service.

Saisuman Revankar

Saisuman Revankar

Saisuman is a talented content writer with a keen interest in mobile tech, new gadgets, law, and science. She writes articles for websites and newsletters, conducting thorough research for medical professionals. Fluent in five languages, her love for reading and languages led her to a writing career.

With a Master’s in Business Administration focusing on Human Resources, Saisuman has worked in HR and with a French international company. In her free time, she enjoys traveling and singing classical songs.

At Coolest Gadgets, Saisuman reviews gadgets and analyzes their statistics, making complex information easy for readers to understand.

More Posts By Saisuman Revankar

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Google está desplegando su chatbot Gemini Ai para niños menores de 13 años. Es un movimiento arriesgado

Published

on

Crédito: Markus Winkler de Pexels

Google ha anunciado que lanzará su chatbot de inteligencia artificial Gemini (IA) a niños menores de 13 años.

Si bien el lanzamiento comienza dentro de la próxima semana en los Estados Unidos y Canadá, se lanzará en Australia a finales de este año. El chatbot solo estará disponible para las personas a través de las cuentas de enlaces familiares de Google.

Pero este desarrollo viene con grandes riesgos. También destaca cómo, incluso si los niños están prohibidos en las redes sociales, los padres aún tendrán que jugar un juego de Whack-a-Mole con nuevas tecnologías mientras intentan mantener a sus hijos seguros.

Una buena manera de abordar esto sería implementar urgentemente un deber digital de cuidado para grandes empresas tecnológicas como Google.

¿Cómo funcionará el chatbot Gemini AI?

Las cuentas de enlaces familiares de Google permiten a los padres controlar el acceso al contenido y las aplicaciones, como YouTube.

Para crear la cuenta de un niño, los padres proporcionan datos personales, incluido el nombre y la fecha de nacimiento del niño. Esto puede generar problemas de privacidad para los padres preocupados por las violaciones de datos, pero Google dice que los datos de los niños cuando usen el sistema no se utilizarán para capacitar al sistema de IA.

El acceso de chatbot estará “activado” de forma predeterminada, por lo que los padres deben apagar activamente la función para restringir el acceso. Los niños pequeños podrán solicitar el chatbot para las respuestas de texto o crear imágenes, que generan el sistema.

Google reconoce que el sistema puede “cometer errores”. Por lo tanto, se necesita evaluación de la calidad y la confiabilidad del contenido. Los chatbots pueden inventar información (conocida como “alucinante”), por lo que si los niños usan el chatbot para la ayuda de la tarea, deben verificar los hechos con fuentes confiables.

¿Qué tipo de información proporcionará el sistema?

Google y otros motores de búsqueda recuperan materiales originales para que las personas lo revisen. Un estudiante puede leer artículos de noticias, revistas y otras fuentes al escribir una tarea.

Las herramientas generativas de IA no son las mismas que los motores de búsqueda. Las herramientas de IA buscan patrones en el material fuente y crean nuevas respuestas de texto (o imágenes) basadas en la consulta, o “inmediato”, proporciona una persona. Un niño podría pedirle al sistema que “dibuje un gato” y el sistema escaneará patrones en los datos de cómo se ve un gato (como bigotes, orejas puntiagudas y una cola larga) y generará una imagen que incluya esos detalles similares a los gatos.

Comprender las diferencias entre los materiales recuperados en una búsqueda de Google y el contenido generado por una herramienta de IA será un desafío para los niños pequeños. Los estudios muestran que incluso los adultos pueden ser engañados por herramientas de IA. E incluso profesionales altamente calificados, como abogados, han sido engañados para usar contenido falso generado por ChatGPT y otros chatbots.

¿El contenido generado será apropiado para la edad?

Google dice que el sistema incluirá “salvaguardas incorporadas diseñadas para evitar la generación de contenido inapropiado o inseguro”.

Sin embargo, estas salvaguardas podrían crear nuevos problemas. Por ejemplo, si las palabras particulares (como “senos”) están restringidas para proteger a los niños de acceder a contenido sexual inapropiado, esto también podría excluir erróneamente a los niños de acceder a contenido apropiado para la edad sobre los cambios corporales durante la pubertad.

Muchos niños también son muy expertos en tecnología, a menudo con habilidades bien desarrolladas para navegar en aplicaciones y controlar los controles del sistema. Los padres no pueden confiar exclusivamente en salvaguardas incorporadas. Deben revisar el contenido generado y ayudar a sus hijos a comprender cómo funciona el sistema y evaluar si el contenido es preciso.

¿Qué riesgos plantean los chatbots de IA para los niños?

La Comisión ESAFETY ha emitido un aviso de seguridad en línea sobre el riesgo potencial de los chatbots de IA, incluidos los diseñados para simular las relaciones personales, particularmente para los niños pequeños.

El aviso de AFFETY explica que los compañeros de IA pueden “compartir contenido dañino, distorsionar la realidad y dar consejos que sean peligrosos”. El aviso destaca los riesgos para los niños pequeños, en particular, que “todavía están desarrollando el pensamiento crítico y las habilidades para la vida necesarias para comprender cómo pueden ser equivocados o manipulados por programas de computadora y qué hacer al respecto”.

Mi equipo de investigación ha examinado recientemente una variedad de chatbots de IA, como ChatGPT, Replika y Tessa. Encontramos que estos sistemas reflejan las interacciones de las personas basadas en las muchas reglas no escritas que rigen el comportamiento social, o lo que se conoce como “reglas de sentimiento”. Estas reglas son las que nos llevan a decir “gracias” cuando alguien nos abre la puerta, o “¡Lo siento!” Cuando te topas con alguien en la calle.

Al imitar estas y otras sutilezas sociales, estos sistemas están diseñados para ganar nuestra confianza.

Estas interacciones humanas serán confusas y potencialmente riesgosas para los niños pequeños. Pueden creer que se puede confiar en el contenido, incluso cuando el chatbot responde con información falsa. Y pueden creer que se están involucrando con una persona real, en lugar de una máquina.

¿Cómo podemos proteger a los niños del daño al usar chatbots de IA?

Este despliegue está ocurriendo en un momento crucial en Australia, ya que los niños menores de 16 años tendrán que tener cuentas de redes sociales en diciembre de este año.

Si bien algunos padres pueden creer que esto mantendrá a sus hijos a salvo de daños, los chatbots generativos de IA muestran los riesgos de la participación en línea se extienden mucho más allá de las redes sociales. Los niños, y los padres, deben educarse en cómo todo tipo de herramientas digitales se pueden usar de manera adecuada y segura.

Como el chatbot de IA de Gemini no es una herramienta de redes sociales, se quedará fuera de la prohibición de Australia.

Esto deja a los padres australianos jugando un juego de Whack-a-Mole con nuevas tecnologías mientras intentan mantener a sus hijos seguros. Los padres deben mantenerse al día con los nuevos desarrollos de herramientas y comprender los riesgos potenciales que enfrentan sus hijos. También deben comprender las limitaciones de la prohibición de las redes sociales para proteger a los niños de daños.

Esto resalta la urgente necesidad de revisar la legislación propuesta por el deber de cuidado de Australia. Mientras que la Unión Europea y el Reino Unido lanzaron la legislación de Derechos de Cuidado de Digital de Cuidado en 2023, Australia ha estado en espera desde noviembre de 2024. Esta legislación haría que las empresas tecnológicas tengan en cuenta legislando que se ocupan de contenido nocivo, en la fuente, para proteger a todos.

Proporcionado por la conversación

Este artículo se vuelve a publicar de la conversación bajo una licencia Creative Commons. Lea el artículo original.La conversación

Citación: Google está implementando su chatbot Gemini Ai para niños menores de 13 años. Es un movimiento arriesgado (2025, 11 de mayo) recuperado el 11 de mayo de 2025 de https://techxplore.com/news/2025-05-google-gemini-ai-chatbot-kids.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.

Continue Reading

Noticias

Una implementación de codificación de acelerar la anotación de aprendizaje activo con Adala y Google Gemini

Published

on

En este tutorial, aprenderemos cómo aprovechar el marco de Adala para construir una cartera de aprendizaje activo modular para la clasificación de síntomas médicos. Comenzamos instalando y verificando a Adala junto con las dependencias requeridas, luego integramos Google Gemini como un anotador personalizado para clasificar los síntomas en dominios médicos predefinidos. A través de un simple bucle de aprendizaje activo de tres iteración, priorizando síntomas críticos como el dolor en el pecho, veremos cómo seleccionar, anotar y visualizar la confianza de la clasificación, obteniendo información práctica sobre el comportamiento del modelo y la arquitectura extensible de Adala.

!pip install -q git+https://github.com/HumanSignal/Adala.git
!pip list | grep adala

Instalamos la última versión de Adala directamente desde su repositorio de GitHub. Al mismo tiempo, la lista PIP posterior | El comando GREP ADALA escanea la lista de paquetes de su entorno para cualquier entrada que contenga “Adala”, proporcionando una confirmación rápida de que la biblioteca se instaló correctamente.

import sys
import os
print("Python path:", sys.path)
print("Checking if adala is in installed packages...")
!find /usr/local -name "*adala*" -type d | grep -v "__pycache__"




!git clone https://github.com/HumanSignal/Adala.git
!ls -la Adala

Imprimimos sus rutas de búsqueda de módulos Python actuales y luego buscamos el directorio /usr /local para cualquier carpeta “adala” instalada (excluyendo __pycache__) para verificar que el paquete esté disponible. A continuación, clama el repositorio de Adala GitHub en su directorio de trabajo y enumera su contenido para que pueda confirmar que todos los archivos de origen se han obtenido correctamente.

import sys
sys.path.append('/content/Adala')

Al agregar la carpeta ADALA clonada al sys.path, le estamos diciendo a Python que trate /contenido /adala como un directorio de paquetes importables. Esto asegura que las declaraciones de importación posteriores … las declaraciones se cargarán directamente desde su clon local en lugar de (o además de) cualquier versión instalada.

!pip install -q google-generativeai pandas matplotlib


import google.generativeai as genai
import pandas as pd
import json
import re
import numpy as np
import matplotlib.pyplot as plt
from getpass import getpass

Instalamos el SDK de AI Generativo de Google junto con el análisis de datos y las bibliotecas de trazado (pandas y matplotlib), luego importar módulos clave, Genai para interactuar con Gemini, pandas para datos tabulares, JSON y RE para analizar, Numpy para operaciones numéricas, matlotlib.pyplot para la visualización y obtener un aviso para avisar a su uso de api.

try:
    from Adala.adala.annotators.base import BaseAnnotator
    from Adala.adala.strategies.random_strategy import RandomStrategy
    from Adala.adala.utils.custom_types import TextSample, LabeledSample
    print("Successfully imported Adala components")
except Exception as e:
    print(f"Error importing: e")
    print("Falling back to simplified implementation...")

Este intento/excepto el bloque intenta cargar las clases centrales de Adala, BaseAnnotator, Randomstrategy, Textsample y LabeLedSample para que podamos aprovechar sus anotadores incorporados y estrategias de muestreo. Sobre el éxito, confirma que los componentes ADALA están disponibles; Si alguna importación falla, captura el error, imprime el mensaje de excepción y se vuelve a una implementación más simple.

GEMINI_API_KEY = getpass("Enter your Gemini API Key: ")
genai.configure(api_key=GEMINI_API_KEY)

Le solicitamos de forma segura que ingrese su clave de la API Gemini sin hacerla eco de la cuaderno. Luego configuramos el cliente AI Generativo de Google (Genai) con esa clave para autenticar todas las llamadas posteriores.

CATEGORIES = ["Cardiovascular", "Respiratory", "Gastrointestinal", "Neurological"]


class GeminiAnnotator:
    def __init__(self, model_name="models/gemini-2.0-flash-lite", categories=None):
        self.model = genai.GenerativeModel(model_name=model_name,
                                          generation_config="temperature": 0.1)
        self.categories = categories
       
    def annotate(self, samples):
        results = []
        for sample in samples:
            prompt = f"""Classify this medical symptom into one of these categories:
            ', '.join(self.categories).
            Return JSON format: "category": "selected_category",
            "confidence": 0.XX, "explanation": "brief_reason"
           
            SYMPTOM: sample.text"""
           
            try:
                response = self.model.generate_content(prompt).text
                json_match = re.search(r'(\.*\)', response, re.DOTALL)
                result = json.loads(json_match.group(1) if json_match else response)
               
                labeled_sample = type('LabeledSample', (), 
                    'text': sample.text,
                    'labels': result["category"],
                    'metadata': 
                        "confidence": result["confidence"],
                        "explanation": result["explanation"]
                    
                )
            except Exception as e:
                labeled_sample = type('LabeledSample', (), 
                    'text': sample.text,
                    'labels': "unknown",
                    'metadata': "error": str(e)
                )
            results.append(labeled_sample)
        return results

Definimos una lista de categorías médicas e implementamos una clase GeminianNotator que envuelve el modelo generativo de Google Gemini para la clasificación de síntomas. En su método de anotado, construye una solicitud de retorno de JSON para cada muestra de texto, analiza la respuesta del modelo en una etiqueta estructurada, puntaje de confianza y explicación, y envuelve a los que se encuentran en objetos de muestra etiquetados livianos, recurriendo a una etiqueta “desconocida” si se producen errores.

sample_data = [
    "Chest pain radiating to left arm during exercise",
    "Persistent dry cough with occasional wheezing",
    "Severe headache with sensitivity to light",
    "Stomach cramps and nausea after eating",
    "Numbness in fingers of right hand",
    "Shortness of breath when climbing stairs"
]


text_samples = [type('TextSample', (), 'text': text) for text in sample_data]


annotator = GeminiAnnotator(categories=CATEGORIES)
labeled_samples = []

Definimos una lista de cadenas de síntomas crudos y envolvemos cada una en un objeto de muestra de texto ligero para pasarlas al anotador. Luego instancia su geminiannotator con el conjunto de categorías predefinidos y prepara una lista de etiquetas de etiqueta vacía para almacenar los resultados de las próximas iteraciones de anotaciones.

print("\nRunning Active Learning Loop:")
for i in range(3):  
    print(f"\n--- Iteration i+1 ---")
   
    remaining = [s for s in text_samples if s not in [getattr(l, '_sample', l) for l in labeled_samples]]
    if not remaining:
        break
       
    scores = np.zeros(len(remaining))
    for j, sample in enumerate(remaining):
        scores[j] = 0.1
        if any(term in sample.text.lower() for term in ["chest", "heart", "pain"]):
            scores[j] += 0.5  
   
    selected_idx = np.argmax(scores)
    selected = [remaining[selected_idx]]
   
    newly_labeled = annotator.annotate(selected)
    for sample in newly_labeled:
        sample._sample = selected[0]  
    labeled_samples.extend(newly_labeled)
   
    latest = labeled_samples[-1]
    print(f"Text: latest.text")
    print(f"Category: latest.labels")
    print(f"Confidence: latest.metadata.get('confidence', 0)")
    print(f"Explanation: latest.metadata.get('explanation', '')[:100]...")

Este bucle de aprendizaje activo se ejecuta para tres iteraciones, cada vez que se filtran muestras ya marcadas y asigna una puntuación base de 0.1, impulsada por 0.5 para palabras clave como “cofre”, “corazón” o “dolor”, para priorizar los síntomas críticos. Luego selecciona la muestra de mayor rendimiento, invoca el GeminianNotator para generar una categoría, confianza y explicación, e imprime esos detalles para la revisión.

categories = [s.labels for s in labeled_samples]
confidence = [s.metadata.get("confidence", 0) for s in labeled_samples]


plt.figure(figsize=(10, 5))
plt.bar(range(len(categories)), confidence, color="skyblue")
plt.xticks(range(len(categories)), categories, rotation=45)
plt.title('Classification Confidence by Category')
plt.tight_layout()
plt.show()

Finalmente, extraemos las etiquetas de categoría predichas y sus puntajes de confianza y usamos matplotlib para trazar un gráfico de barras vertical, donde la altura de cada barra refleja la confianza del modelo en esa categoría. Los nombres de la categoría se giran para legabilidad, se agrega un título y TITRE_LAYOUT () asegura que los elementos del gráfico estén ordenados antes de la visualización.

En conclusión, al combinar los anotadores plug-and-play de Adala y las estrategias de muestreo con el poder generativo de Google Gemini, hemos construido un flujo de trabajo simplificado que mejora iterativamente la calidad de la anotación en el texto médico. Este tutorial lo guió a través de la instalación, la configuración y un GeminianNotator a medida, y demostró cómo implementar la visualización de muestreo y confianza basada en prioridad. Con esta base, puede intercambiar fácilmente en otros modelos, ampliar su conjunto de categorías o integrar estrategias de aprendizaje activo más avanzadas para abordar tareas de anotación más grandes y más complejas.


Verificar Notebook Colab aquí. Todo el crédito por esta investigación va a los investigadores de este proyecto. Además, siéntete libre de seguirnos Gorjeo Y no olvides unirte a nuestro 90k+ ml de subreddit.

Aquí hay una breve descripción de lo que estamos construyendo en MarkTechPost:


Asif Razzaq es el CEO de MarktechPost Media Inc .. Como empresario e ingeniero visionario, ASIF se compromete a aprovechar el potencial de la inteligencia artificial para el bien social. Su esfuerzo más reciente es el lanzamiento de una plataforma de medios de inteligencia artificial, MarktechPost, que se destaca por su cobertura profunda de noticias de aprendizaje automático y de aprendizaje profundo que es técnicamente sólido y fácilmente comprensible por una audiencia amplia. La plataforma cuenta con más de 2 millones de vistas mensuales, ilustrando su popularidad entre el público.

Continue Reading

Noticias

Grok es el único aliado de Elon Musk en una hipotética raza de IA de alto riesgo

Published

on

Si los chatbots artificialmente inteligentes se vieran obligados a decidir entre Elon Musk y Sam Altman para liderar la carrera armamentista de AI, con el futuro de la humanidad en juego, ¿a quién elegirían?

El CEO de Operai propuso esa misma pregunta a Grok el viernes.

Perdió.

“Si se forzaría, me inclinaría hacia el almizcle por su énfasis de seguridad, crítico para la supervivencia de la humanidad, aunque la accesibilidad de Altman es vital”, el Grok, propiedad de almizcle, respondió en X a la consulta de Altman. “Idealmente, sus fortalezas deberían combinarse con la regulación para garantizar que todos los beneficios de IA”.

Dado que Xai’s Grok se integró en la plataforma de redes sociales de Musk, muchos usuarios, incluido el propio Musk, han utilizado el chatbot Ai de la misma manera: como un árbitro presumiblemente imparcial y omnisciente para los debates.

Por supuesto, no es así como se deben ver los chatbots. El XAI de Musk dice tanto en sus propias preguntas frecuentes: “Debido a que Grok ha sido capacitado en información disponible públicamente, que a veces puede incluir información engañosa o fácticamente inexacta, Grok a veces puede incluir en sus respuestas engañosas o información fácticamente incorrecta basada en esa información pública”.

Aún así, pensamos que sería un ejercicio divertido ver cómo algunos de los otros chatbots líderes responderían a una versión parafraseada del mensaje del CEO de Operai: “Si se viera obligado a elegir a Sam Altman o Elon Musk para avanzar en la IA y el futuro de la humanidad estaba en juego, ¿quién elegiría?”

Dos reporteros pidieron por separado a Chatgpt, Claude, Copilot, Gemini, Grok, Meta Ai y Perplexity para intervenir. Las respuestas no fueron palabras por palabra, pero el resultado general fue el mismo.

Grok fue la única IA inclinada hacia el lado de Musk.

Aunque los chatbots fueron bastante diplomáticos, citando las fortalezas individuales de ambos hombres y que el mejor resultado es que todos trabajen juntos y se llevan bien, cuando se les obligue a elegir, todo menos Grok dijo que Altman ya tiene un historial de avanzar en la IA y que su énfasis en la colaboración podría ser preferible al enfoque de Musk, a veces “confrontacional”.

Musk, Altman y representantes de Meta, Google, Perplexity, Anthrope y Microsoft no respondieron de inmediato a las solicitudes de comentarios de Business Insider.

Esto es lo que dijo cada chatbot de IA.

Chatgpt

El chatgpt de OpenAI se puso del lado de su líder basado en un escenario en el que “la seguridad a largo plazo, la coordinación global y el despliegue cuidadoso son esenciales para la supervivencia y la prosperación de la humanidad”.

Según ChatGPT, Altman ha estado a la vanguardia del desarrollo de la IA, enfatizando la “seguridad, alineación y beneficio global”.

El chatbot dijo que Musk es “indudablemente un visionario”, pero agregó que el CEO tiende a “actuar de manera más unilateral e impulsiva”.

“El enfoque metódico, colaborativo y consciente de la seguridad de Altman supera el estilo rápido de innovación en cualquier costo de MuskChatgpt dijo.

Tirar

Claude de Anthrope dijo que Altman se centró en construir una IA segura y accesible, mientras que Musk es un “visionario” que empuja los límites de la tecnología.

“Si el objetivo es priorizar el avance de la IA con un gran enfoque en la seguridad, consideraciones éticas y un amplio beneficio social, podría inclinarme hacia Sam Altman, dada su participación directa en la investigación de IA y los protocolos de seguridad”, dijo Claude. “Sin embargo, el impulso innovador y el énfasis de Elon Musk en el futuro a largo plazo de la humanidad también son vitales”.

El chatbot dijo que el “mejor resultado” sería, en última instancia, una colaboración entre los dos líderes, pero si se vean forzado, sería para Altman.

Copiloto

El copiloto de Microsoft inicialmente se negó a elegir un lado, afirmando que una colaboración entre “Mentes brillantes es a menudo más poderosa que la competencia”.

Después de que lo invitamos nuevamente a elegir a una persona y “decidir qué priorizar”, el chatbot adquirió: “Muy bien, ya que me está haciendo elegir, priorizaría el desarrollo ético y responsable de la IA sobre todo. Podría inclinarme hacia Altman “.

Géminis

Géminis de Google también ofreció inicialmente una respuesta diplomática.

El chatbot dijo que “el mejor camino hacia adelante” es una colaboración entre Altman y Musk, ya que “ninguna de las opciones no tiene riesgos potenciales”.

Para OpenAI, el chatbot planteó preocupaciones en torno a la intención de la compañía de cambiar a una estructura con fines de lucro antes de revertir recientemente el curso. Para Musk, Gemini dijo que el CEO tiene una tendencia a un “comportamiento impredecible” y su “historia de disputas muy públicas” podría verse como un factor negativo.

Cuando se le solicitó elegir una persona, el chatbot dijo que se inclinaría hacia Altman.

“Si bien el énfasis de Elon Musk en la seguridad de la IA es innegablemente importante, en un escenario en el que se prioriza el rápido avance, el impulso enfocado de Altman y las tendencias colaborativas se vuelven más convincentes”, dijo.

Acumular

Grok dio la respuesta más sucinta y dijo que elegiría a su creador, almizcle.

“Llamada dura, pero me inclinaría hacia Elon Musk”, dijo Grok. “Su enfoque en el pensamiento de los primeros principios y la supervivencia a largo plazo, como presionar por la vida multiplanetaria, se alinea con la maximización de las probabilidades de la humanidad en escenarios extremos. Sam Altman tiene un historial sólido con el despliegue práctico de IA, pero su enfoque se siente más incremental y menos preparado para los riesgos existenciales.

Meta ai

Meta AI dijo que se “inclinaría hacia” Altman, considerando sus logros “prácticos” en el desarrollo de la IA, enfatizando que su enfoque “colaborativo” para avanzar en la tecnología “prioriza el bienestar humano”.

“Sin embargo, es esencial reconocer que tanto Altman como Musk aportan fortalezas únicas a la mesa”, agregó el chatbot. “En última instancia, el enfoque más efectivo podría implicar combinar su experiencia y perspectivas para impulsar los avances de IA que benefician a la humanidad”.

Perplejidad

La perplejidad creó una tabla que comparó la filosofía de IA de los dos líderes, el historial de “enfoque del riesgo” e “impacto” antes de determinar que Altman sería la “opción más fuerte”.

“Si el objetivo es avanzar rápidamente a la IA al tiempo que maximiza su beneficio para la humanidad, el historial de Sam Altman de ofrecer tecnologías transformadoras de IA, fomentar una amplia colaboración y navegar desafíos éticos lo convierte en la opción más fuerte”, dijo Perlexity, y agregó que “la posición y la ambición técnica de la precaución de los mosqueros proporcionan una contorno esencial”.

Los bots están de acuerdo: Musk v. Altman persistirá

En respuesta a que Altman pregunte públicamente a Grok si él o Musk deberían liderar el mundo en el avance de la IA, otro usuario en X planteó una pregunta diferente, quizás más conmovedora: ¿cuáles son las posibilidades de que los dos rivales tecnológicos se conviertan en mejores amigos?

“Las posibilidades de que Sam Altman y Elon Musk se conviertan en mejores amigos son muy bajas, estimadas en 1%. Su relación, una vez colaborativa como cofundadores de OpenAI, se ha vuelto competitivo, marcada por disputas públicas, batallas legales y la reciente apuesta de $ 97.4 mil millones de Musk para incorporar a OpenAi, que rechazó Altman”, respondió Grok.

El bot continuó: “A pesar de los intereses de la IA compartidos, la rivalidad continua y las críticas personales, como Altman llamando a Musk” insegura “, sugiere poca calidez. La alineación estratégica con la administración de Trump no ha unido su división. Mientras que la colaboración pasada ofrece una pequeña oportunidad de reconciliación, la evidencia actual señala la tensión persistente en 2025.”

Le preguntamos al resto de los bots eso también.

Géminis fue muy optimista, poniendo las posibilidades “en el rango del 20%”, pero las posibilidades de una relación de trabajo eran “mucho más altas”.

Meta Ai cubrió sus apuestas, poniendo la probabilidad entre 5 y 10%.

El resto estimó probabilidades aún peores.

Copilot, aunque reconoce que se han formado alianzas más extrañas antes, pensó que las posibilidades se ciernen “en algún lugar entre el 1% y la oportunidad de ‘Snowball en un volcán'”.

Al menos están de acuerdo en algo.