Connect with us

Noticias

Here’s a recap of major OpenAI ChatGPT features and events of 2024

Published

on

Image by MOMO36H10 via Pixabay

ChatGPT has taken the tech world by storm since its debut, and 2024 wasn’t any less for the chatbot and its maker, OpenAI. The Delaware-based generative AI company saw many ups and downs last year. While it continued to launch new AI products and features, OpenAI was a part of several legal battles.

Let’s recap major launches and other big updates from 2024 related to OpenAI and ChatGPT. In your free time, you can check out our recaps of major Gemini features from 2024, services Google killed in 2024, and the Instagram wishlist for 2025.

Table of Contents:

Note: This list is not exhaustive and may not contain all updates related to ChatGPT and OpenAI. The features are not arranged in any order of preference.

GPT Store, ChatGPT Team subscription, $200 Pro plan

GPT Store

OpenAI started 2024 with a brand new GPT Store to expand the potential use cases of its chatbot. The store is a central hub where users can find and share custom versions of ChatGPT (called GPTs) made for specific tasks. Over three million GPTs were already available at launch, OpenAI announced, adding that bot creators can earn money through the revenue-sharing program.

A new paid subscription tier called ChatGPT Team was also introduced, targeting teams with up to 150 users for collaborative creation. Compared to the Plus tier, it offers higher message limits on GPT-4, GPT-4o, and other tools like DALL-E and data analysis.

The ChatGPT-maker unveiled a “Pro” plan in December with a hefty price tag of $200/mo for those with deep pockets. The company said that the highly-priced subscription offers the best of OpenAI and the highest level of access. ChatGPT Pro comes with all the perks of the Plus tier and unlimited access to advanced voice mode, GPT-4o, o1, and o1-mini models.

ChatGPT via landline phones

Yes, you read that correctly! Using ChatGPT via a landline phone is something you might rarely think of. However, OpenAI launched a new phone number (1-800-CHATGPT) that you can dial to get a taste of generative AI using legacy tech.

You can throw questions at the chatbot and interrupt it anytime. The experience might feel similar to the advanced voice mode. If you live in the US or Canada, you get 15 minutes of free calling in a month (standard carrier fees may apply). You can also save the number on your phone and talk to ChatGPT via WhatsApp. Again, there is a daily limit to how many WhatsApp messages you can exchange.

Use ChatGPT without an account

Walls around ChatGPT were lowered by OpenAI, allowing users to access the chatbot without an account completely free. OpenAI announced in April that it will “gradually” roll out account-free access to everyone, adding that there will be more “guardrails” with it and that some text prompts may be blocked.

You still need an account to unlock features such as chat history, share chats, voice conversations, and custom instructions.

ChatGPT for Apple Vision Pro

While tech giants like Netflix, Spotify, and YouTube shied away from being early adopters of Apple’s pocket-burning spatial computing headset, OpenAI hopped on the ship quickly.

ChatGPT for Vision Pro

The ChatGPT app for Vision Pro was launched in February last year, powered by OpenAI’s then-latest large language model (LLM) GPT-4 Turbo. ChatGPT was among the 600 apps and games natively available for Apple Vision Pro at its launch.

Watermarks for AI-generated images, deepfake image detector

OpenAI started adding watermarks to AI-generated images created using its text-to-image model DALL-E 3 and ChatGPT. The move was to make dealing with sophisticated AI tools easier and help users identify whether a human or an AI created the image. The change aligned with the specifications issued by the Coalition for Content Provenance and Authenticity (C2PA).

DALL-E AI watermark

The watermark includes details such as the creation date and C2PA logo in the upper left corner. While OpenAI assured no reduction in image quality or processing speeds, the watermark increased the image’s file size. It added that removing provenance data by cropping the image or editing its pixels was technically possible.

Apart from that, OpenAI started testing a new tool to detect if an image was made using the DALL-E art generator. An early version of the unnamed tool successfully identified over 98% of images generated by DALL-E and misidentified images by less than 0.5 of the time as being made by DALL-E.

Memory for ChatGPT

A memory feature for ChatGPT went into testing in February last year, enabling the chatbot to remember past chats and use the information when needed for future chats. For instance, you can ask the chatbot to remember your name, if you have a puppy, if you have a neighborhood coffee shop, or if you prefer concise responses.

ChatGPT Memory Feature

The feature allows ChatGPT to forget parts of its memory you don’t want. It was released to ChatGPT Plus users in April and made available to free users in September.

ChatGPT on iPhone

Apple was late to the generative AI party. However, that changed last year with the iOS 18 update, which introduced the Apple Intelligence suite of AI features. Adding more to that was ChatGPT integration for Siri, allowing the iPhone’s voice assistant to call up its more capable counterpart when things go out of hand.

A previous report claimed the deal was structured so that Apple didn’t have to pay any money to OpenAI. Instead, the Cupertino giant believed offering OpenAI’s brand and tech to over one billion active devices would provide more value than cash payment.

It might contribute to more ChatGPT Plus paid tier sign-ups as users can manage the chatbot directly from the iPhone’s settings app. Meanwhile, Apple can earn a commission as a referring partner.

However, the partnership invited criticism from the tech mogul Elon Musk, who threatened to ban iPhones with ChatGPT from his companies and put them in a Faraday cage.

Apple was also rumored to add Google’s Gemini chatbot to its Apple Intelligence suite and power Siri’s responses. Meanwhile, OpenAI was reportedly in talks with Samsung about integrating ChatGPT into Galaxy devices.

Media Manager

Media Manager allows content makers and owners to inform OpenAI about their content ownership and whether or not they want their content to be used to train its AI models. OpenAI said during the announcement that it plans to have the tool, which was in the early stages of development, in place by 2025.

OpenAI added that Media Manager will be the first-of-its-kind tool built “to help us identify copyrighted text, images, audio, and video across multiple sources and reflect creator preferences.”

GPT-4o model, ChatGPT Edu

The Spring Update event in May introduced the GPT-4o LLM for everyone using ChatGPT, including free users. Faster and more capable than GPT-4, the new model can process input modes such as text, image, audio, and video.

OpenAI followed GPT-4o’s launch with a new ChatGPT Edu subscription aimed at university students, faculties, and researchers. While there have been concerns over students using ChatGPT to dodge their homework, OpenAI tried to push the chatbot as a helping hand. For example, students can discuss their assignments with a GPT trained on their course material, which can help them think more deeply.

Advanced Voice Mode

GPT-4o also made ChatGPT’s advanced Voice Mode capable of delivering a human-like conversation experience. However, it landed in trouble after one of the female voices spoken by ChatGPT resembled American actor Scarlett Johansson. The actor later said that OpenAI offered to hire her to be one of ChatGPT’s AI voices, but a deal didn’t come to fruition.

ChatGPT video sharing

Advanced Voice Mode was updated in later months with support for video input, screen sharing, and image uploads, enabling the chatbot to see, hear, and speak in real time.

Apps for Mac and Windows, cloud support

OpenAI also launched the ChatGPT app for macOS at last year’s Spring Update event. Initially available for paid subscribers, ChatGPT’s Mac desktop app was loaded with Voice Mode and the ability to upload files and take screenshots, among various features.

ChatGPT desktop app for Windows was previewed sometime in October and made available to all users in November. Features such as text scaling adjustment, advanced voice mode, and clicking photos using the built-in webcam were also added.

Building on ChatGPT’s data analysis capabilities, OpenAI allowed users to upload files directly from Google Drive and Microsoft OneDrive, enabling the chatbot to access services such as Sheets, Docs, Slides, Excel, Word, and PowerPoint.

ChatGPT also got an expandable view for tables and charts. The chatbot can generate interactive tables from a dataset. Users can switch to a full-screen view and click on specific areas in the table to ask follow-up questions.

The situation became embarrassing for OpenAI after reports that the ChatGPT macOS app stored all the conversations in plain text inside an unprotected file location. The company later fixed it.

ChatGPT in Audi and Mercedes-Benz cars

Not just tech companies, automakers also tried their hands on the generative AI tech. German carmaker Audi announced ChatGPT integration for millions of its models released since 2021. Updated voice control features allow users to operate infotainment, navigation, and AC systems without using their hands. They can also ask general knowledge questions from the ChatGPT-powered Audi assistant.

MBUX Voice Assistant ChatGPT

Last month, Mercedes-Benz also rolled out its ChatGPT integration as a free update to over three million vehicles equipped with its MBUX infotainment system. The automaker developed a new voice experience on top of the Microsoft Azure OpenAI Service, bringing context-aware and up-to-date responses to the drivers. They can press the speech button on the steering or say “Hey Mercedes” to use the feature.

CriticGPT to find mistakes

OpenAI knows that no AI model is perfect, and there might be occasions when things get embarrassing. The company trained a new model called CriticGPT to find mistakes in the code snippets generated by ChatGPT and highlight inaccuracies.

OpenAI CriticGPT model

CriticGPT is meant to assist human AI trainers who train and improve ChatGPT’s responses. A model of such kind becomes more critical when a study suggests that programming answers given by ChatGPT could be wrong 52% of the time.

SearchGPT and ChatGPT Search

OpenAI now has an offering to rival Google in the search engine game. While CEO Sam Altman initially denied rumors of a ChatGPT search engine in the making, the company unveiled a prototype called SearchGPT in July.

Instead of simply presenting a list of links, SearchGPT tries to answer user queries with up-to-date information and provides links to the sources used. You can throw follow-up questions at the search engine while continuing the context.

ChatGPT Search news

OpenAI released ChatGPT Search in October after testing the prototype version for months. The company partnered with several news organizations to include their content in the ChatGPT search experience.

The search experience was initially limited to paying ChatGPT subscribers but was released to everyone in December. A Chrome extension allows users to use the search engine directly from the browser’s URL bar.

GPT-4o model updates

OpenAI’s updated frontier model, ChatGPT-4o-latest, quickly reclaimed the number one spot in the LMSYS Chatbot Arena. However, the model was intended for research and evaluation only; it supported a context length of 128,000 tokens and 16,384 output tokens.

This happened almost a week after gpt-4o-2024-08-06 was released with support for Structured Outputs in the API and the same number of input/output tokens as chatgpt-4o-latest.

Another GPT-4o API update named gpt-4o-2024-11-20 was pushed in November with improved creative writing ability. OpenAI claimed the model works better with uploaded files, providing deeper insights and more thorough responses.

OpenAI o1, o1-mini

A new large language model called OpenAI o1 was introduced last year that takes more time to think before responding. It is designed to handle complex reasoning tasks, particularly in coding, math, and scientific problem-solving.

However, the o1 model can’t do some of GPT’s tasks, such as finding information on the web or checking out uploaded images and other files. Its smaller, faster, and cheaper version, OpenAI o1-mini, was also launched last year.

ChatGPT Canvas

Canvas is the first major update to ChatGPT’s visual interface since its debut in 2022. The new interface is designed to work with ChatGPT on specific tasks like writing and coding. It lets you refine prompts using a side panel and offers several usability improvements.

ChatGPT Canvas

For instance, you can highlight parts of the output and ask ChatGPT to focus on those. You can use shortcuts to perform various tasks, such as adding emojis, reviewing code, suggesting edits, adding comments, and more. The new user interface was made generally available for all users in December during the 12 Days of OpenAI live stream series.

ChatGPT Projects

12 Days of OpenAI event also dropped the ChatGPT Projects feature, which lets users organize their chats about similar topics. In other words, users can create projects to keep related chats, files, and custom instructions in one place.

The feature works with the GPT-4o model and is available to Plus, Pro, and Team subscribers. Support for Enterprise and Edu users will be added in 2025, and Projects will also be available to free users (there is no word on the release date).

Return of Sam Altman to the board

OpenAI’s co-founder and CEO Sam Altman’s abrupt firing from his position and removal from the board in November 2023 sounds like a corporate movie plot. More so because Altman dramatically returned as OpenAI’s CEO just five days later. Meanwhile, the board members who voted to fire him agreed to depart.

WilmerHale, a third-party group appointed to look into the matter, ended up reviewing over 30,000 documents and conducted dozens of interviews with prior board members, OpenAI executives, and others. Altman’s official return to OpenAI’s board was announced in March 2024 after the group found “that his conduct did not mandate removal.”

Lawsuits by Elon Musk

Elon Musk was among the founding members of OpenAI. However, the tech billionaire has started bombarding OpenAI with lawsuits in recent years, mostly revolving around OpenAI’s stance towards becoming a for-profit organization.

In one of the lawsuits filed in early 2024, Musk claimed OpenAI breached its own contract by trying to become a for-profit company rather than the non-profit organization initially set up to benefit humanity.

While there are more layers to the drama, a new motion filed late last year asked for a preliminary injunction to prevent OpenAI’s for-profit transition and accused the company of anti-competitive behavior.

Lawsuits by authors and news agencies

It was not just new features; much legal and corporate drama happened around OpenAI and ChatGPT. Two non-fiction authors sued the AI company and Microsoft at the start of 2024, alleging their work was used without permission to train AI models for ChatGPT and other services.

One of the complainants previously worked for The New York Times (NYT), which had also filed a copyright lawsuit against the two companies. In return, OpenAI accused NYT of tricking ChatGPT into copying its articles, and Microsoft also wanted the court to dismiss parts of the lawsuit filed by NYT.

It was reported in February that lawsuits from more news organizations targeted OpenAI, echoing claims of copying stories from their sites as part of AI training.

Shut down of US presidential candidate chatbots

OpenAI’s updated policies banned using its tools and services to create simulated versions of real election candidates. This was part of its efforts around combating false election information during the 2024 US Presidential elections.

In January, the generative AI company banned a developer who used ChatGPT to simulate Dean Philips, a declared candidate for US President in the Democratic Party. Another chatbot shutdown concerning the declared presidential candidate Robert F. Kennedy Jr was reported in March.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Google está desplegando su chatbot Gemini Ai para niños menores de 13 años. Es un movimiento arriesgado

Published

on

Crédito: Markus Winkler de Pexels

Google ha anunciado que lanzará su chatbot de inteligencia artificial Gemini (IA) a niños menores de 13 años.

Si bien el lanzamiento comienza dentro de la próxima semana en los Estados Unidos y Canadá, se lanzará en Australia a finales de este año. El chatbot solo estará disponible para las personas a través de las cuentas de enlaces familiares de Google.

Pero este desarrollo viene con grandes riesgos. También destaca cómo, incluso si los niños están prohibidos en las redes sociales, los padres aún tendrán que jugar un juego de Whack-a-Mole con nuevas tecnologías mientras intentan mantener a sus hijos seguros.

Una buena manera de abordar esto sería implementar urgentemente un deber digital de cuidado para grandes empresas tecnológicas como Google.

¿Cómo funcionará el chatbot Gemini AI?

Las cuentas de enlaces familiares de Google permiten a los padres controlar el acceso al contenido y las aplicaciones, como YouTube.

Para crear la cuenta de un niño, los padres proporcionan datos personales, incluido el nombre y la fecha de nacimiento del niño. Esto puede generar problemas de privacidad para los padres preocupados por las violaciones de datos, pero Google dice que los datos de los niños cuando usen el sistema no se utilizarán para capacitar al sistema de IA.

El acceso de chatbot estará “activado” de forma predeterminada, por lo que los padres deben apagar activamente la función para restringir el acceso. Los niños pequeños podrán solicitar el chatbot para las respuestas de texto o crear imágenes, que generan el sistema.

Google reconoce que el sistema puede “cometer errores”. Por lo tanto, se necesita evaluación de la calidad y la confiabilidad del contenido. Los chatbots pueden inventar información (conocida como “alucinante”), por lo que si los niños usan el chatbot para la ayuda de la tarea, deben verificar los hechos con fuentes confiables.

¿Qué tipo de información proporcionará el sistema?

Google y otros motores de búsqueda recuperan materiales originales para que las personas lo revisen. Un estudiante puede leer artículos de noticias, revistas y otras fuentes al escribir una tarea.

Las herramientas generativas de IA no son las mismas que los motores de búsqueda. Las herramientas de IA buscan patrones en el material fuente y crean nuevas respuestas de texto (o imágenes) basadas en la consulta, o “inmediato”, proporciona una persona. Un niño podría pedirle al sistema que “dibuje un gato” y el sistema escaneará patrones en los datos de cómo se ve un gato (como bigotes, orejas puntiagudas y una cola larga) y generará una imagen que incluya esos detalles similares a los gatos.

Comprender las diferencias entre los materiales recuperados en una búsqueda de Google y el contenido generado por una herramienta de IA será un desafío para los niños pequeños. Los estudios muestran que incluso los adultos pueden ser engañados por herramientas de IA. E incluso profesionales altamente calificados, como abogados, han sido engañados para usar contenido falso generado por ChatGPT y otros chatbots.

¿El contenido generado será apropiado para la edad?

Google dice que el sistema incluirá “salvaguardas incorporadas diseñadas para evitar la generación de contenido inapropiado o inseguro”.

Sin embargo, estas salvaguardas podrían crear nuevos problemas. Por ejemplo, si las palabras particulares (como “senos”) están restringidas para proteger a los niños de acceder a contenido sexual inapropiado, esto también podría excluir erróneamente a los niños de acceder a contenido apropiado para la edad sobre los cambios corporales durante la pubertad.

Muchos niños también son muy expertos en tecnología, a menudo con habilidades bien desarrolladas para navegar en aplicaciones y controlar los controles del sistema. Los padres no pueden confiar exclusivamente en salvaguardas incorporadas. Deben revisar el contenido generado y ayudar a sus hijos a comprender cómo funciona el sistema y evaluar si el contenido es preciso.

¿Qué riesgos plantean los chatbots de IA para los niños?

La Comisión ESAFETY ha emitido un aviso de seguridad en línea sobre el riesgo potencial de los chatbots de IA, incluidos los diseñados para simular las relaciones personales, particularmente para los niños pequeños.

El aviso de AFFETY explica que los compañeros de IA pueden “compartir contenido dañino, distorsionar la realidad y dar consejos que sean peligrosos”. El aviso destaca los riesgos para los niños pequeños, en particular, que “todavía están desarrollando el pensamiento crítico y las habilidades para la vida necesarias para comprender cómo pueden ser equivocados o manipulados por programas de computadora y qué hacer al respecto”.

Mi equipo de investigación ha examinado recientemente una variedad de chatbots de IA, como ChatGPT, Replika y Tessa. Encontramos que estos sistemas reflejan las interacciones de las personas basadas en las muchas reglas no escritas que rigen el comportamiento social, o lo que se conoce como “reglas de sentimiento”. Estas reglas son las que nos llevan a decir “gracias” cuando alguien nos abre la puerta, o “¡Lo siento!” Cuando te topas con alguien en la calle.

Al imitar estas y otras sutilezas sociales, estos sistemas están diseñados para ganar nuestra confianza.

Estas interacciones humanas serán confusas y potencialmente riesgosas para los niños pequeños. Pueden creer que se puede confiar en el contenido, incluso cuando el chatbot responde con información falsa. Y pueden creer que se están involucrando con una persona real, en lugar de una máquina.

¿Cómo podemos proteger a los niños del daño al usar chatbots de IA?

Este despliegue está ocurriendo en un momento crucial en Australia, ya que los niños menores de 16 años tendrán que tener cuentas de redes sociales en diciembre de este año.

Si bien algunos padres pueden creer que esto mantendrá a sus hijos a salvo de daños, los chatbots generativos de IA muestran los riesgos de la participación en línea se extienden mucho más allá de las redes sociales. Los niños, y los padres, deben educarse en cómo todo tipo de herramientas digitales se pueden usar de manera adecuada y segura.

Como el chatbot de IA de Gemini no es una herramienta de redes sociales, se quedará fuera de la prohibición de Australia.

Esto deja a los padres australianos jugando un juego de Whack-a-Mole con nuevas tecnologías mientras intentan mantener a sus hijos seguros. Los padres deben mantenerse al día con los nuevos desarrollos de herramientas y comprender los riesgos potenciales que enfrentan sus hijos. También deben comprender las limitaciones de la prohibición de las redes sociales para proteger a los niños de daños.

Esto resalta la urgente necesidad de revisar la legislación propuesta por el deber de cuidado de Australia. Mientras que la Unión Europea y el Reino Unido lanzaron la legislación de Derechos de Cuidado de Digital de Cuidado en 2023, Australia ha estado en espera desde noviembre de 2024. Esta legislación haría que las empresas tecnológicas tengan en cuenta legislando que se ocupan de contenido nocivo, en la fuente, para proteger a todos.

Proporcionado por la conversación

Este artículo se vuelve a publicar de la conversación bajo una licencia Creative Commons. Lea el artículo original.La conversación

Citación: Google está implementando su chatbot Gemini Ai para niños menores de 13 años. Es un movimiento arriesgado (2025, 11 de mayo) recuperado el 11 de mayo de 2025 de https://techxplore.com/news/2025-05-google-gemini-ai-chatbot-kids.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.

Continue Reading

Noticias

Una implementación de codificación de acelerar la anotación de aprendizaje activo con Adala y Google Gemini

Published

on

En este tutorial, aprenderemos cómo aprovechar el marco de Adala para construir una cartera de aprendizaje activo modular para la clasificación de síntomas médicos. Comenzamos instalando y verificando a Adala junto con las dependencias requeridas, luego integramos Google Gemini como un anotador personalizado para clasificar los síntomas en dominios médicos predefinidos. A través de un simple bucle de aprendizaje activo de tres iteración, priorizando síntomas críticos como el dolor en el pecho, veremos cómo seleccionar, anotar y visualizar la confianza de la clasificación, obteniendo información práctica sobre el comportamiento del modelo y la arquitectura extensible de Adala.

!pip install -q git+https://github.com/HumanSignal/Adala.git
!pip list | grep adala

Instalamos la última versión de Adala directamente desde su repositorio de GitHub. Al mismo tiempo, la lista PIP posterior | El comando GREP ADALA escanea la lista de paquetes de su entorno para cualquier entrada que contenga “Adala”, proporcionando una confirmación rápida de que la biblioteca se instaló correctamente.

import sys
import os
print("Python path:", sys.path)
print("Checking if adala is in installed packages...")
!find /usr/local -name "*adala*" -type d | grep -v "__pycache__"




!git clone https://github.com/HumanSignal/Adala.git
!ls -la Adala

Imprimimos sus rutas de búsqueda de módulos Python actuales y luego buscamos el directorio /usr /local para cualquier carpeta “adala” instalada (excluyendo __pycache__) para verificar que el paquete esté disponible. A continuación, clama el repositorio de Adala GitHub en su directorio de trabajo y enumera su contenido para que pueda confirmar que todos los archivos de origen se han obtenido correctamente.

import sys
sys.path.append('/content/Adala')

Al agregar la carpeta ADALA clonada al sys.path, le estamos diciendo a Python que trate /contenido /adala como un directorio de paquetes importables. Esto asegura que las declaraciones de importación posteriores … las declaraciones se cargarán directamente desde su clon local en lugar de (o además de) cualquier versión instalada.

!pip install -q google-generativeai pandas matplotlib


import google.generativeai as genai
import pandas as pd
import json
import re
import numpy as np
import matplotlib.pyplot as plt
from getpass import getpass

Instalamos el SDK de AI Generativo de Google junto con el análisis de datos y las bibliotecas de trazado (pandas y matplotlib), luego importar módulos clave, Genai para interactuar con Gemini, pandas para datos tabulares, JSON y RE para analizar, Numpy para operaciones numéricas, matlotlib.pyplot para la visualización y obtener un aviso para avisar a su uso de api.

try:
    from Adala.adala.annotators.base import BaseAnnotator
    from Adala.adala.strategies.random_strategy import RandomStrategy
    from Adala.adala.utils.custom_types import TextSample, LabeledSample
    print("Successfully imported Adala components")
except Exception as e:
    print(f"Error importing: e")
    print("Falling back to simplified implementation...")

Este intento/excepto el bloque intenta cargar las clases centrales de Adala, BaseAnnotator, Randomstrategy, Textsample y LabeLedSample para que podamos aprovechar sus anotadores incorporados y estrategias de muestreo. Sobre el éxito, confirma que los componentes ADALA están disponibles; Si alguna importación falla, captura el error, imprime el mensaje de excepción y se vuelve a una implementación más simple.

GEMINI_API_KEY = getpass("Enter your Gemini API Key: ")
genai.configure(api_key=GEMINI_API_KEY)

Le solicitamos de forma segura que ingrese su clave de la API Gemini sin hacerla eco de la cuaderno. Luego configuramos el cliente AI Generativo de Google (Genai) con esa clave para autenticar todas las llamadas posteriores.

CATEGORIES = ["Cardiovascular", "Respiratory", "Gastrointestinal", "Neurological"]


class GeminiAnnotator:
    def __init__(self, model_name="models/gemini-2.0-flash-lite", categories=None):
        self.model = genai.GenerativeModel(model_name=model_name,
                                          generation_config="temperature": 0.1)
        self.categories = categories
       
    def annotate(self, samples):
        results = []
        for sample in samples:
            prompt = f"""Classify this medical symptom into one of these categories:
            ', '.join(self.categories).
            Return JSON format: "category": "selected_category",
            "confidence": 0.XX, "explanation": "brief_reason"
           
            SYMPTOM: sample.text"""
           
            try:
                response = self.model.generate_content(prompt).text
                json_match = re.search(r'(\.*\)', response, re.DOTALL)
                result = json.loads(json_match.group(1) if json_match else response)
               
                labeled_sample = type('LabeledSample', (), 
                    'text': sample.text,
                    'labels': result["category"],
                    'metadata': 
                        "confidence": result["confidence"],
                        "explanation": result["explanation"]
                    
                )
            except Exception as e:
                labeled_sample = type('LabeledSample', (), 
                    'text': sample.text,
                    'labels': "unknown",
                    'metadata': "error": str(e)
                )
            results.append(labeled_sample)
        return results

Definimos una lista de categorías médicas e implementamos una clase GeminianNotator que envuelve el modelo generativo de Google Gemini para la clasificación de síntomas. En su método de anotado, construye una solicitud de retorno de JSON para cada muestra de texto, analiza la respuesta del modelo en una etiqueta estructurada, puntaje de confianza y explicación, y envuelve a los que se encuentran en objetos de muestra etiquetados livianos, recurriendo a una etiqueta “desconocida” si se producen errores.

sample_data = [
    "Chest pain radiating to left arm during exercise",
    "Persistent dry cough with occasional wheezing",
    "Severe headache with sensitivity to light",
    "Stomach cramps and nausea after eating",
    "Numbness in fingers of right hand",
    "Shortness of breath when climbing stairs"
]


text_samples = [type('TextSample', (), 'text': text) for text in sample_data]


annotator = GeminiAnnotator(categories=CATEGORIES)
labeled_samples = []

Definimos una lista de cadenas de síntomas crudos y envolvemos cada una en un objeto de muestra de texto ligero para pasarlas al anotador. Luego instancia su geminiannotator con el conjunto de categorías predefinidos y prepara una lista de etiquetas de etiqueta vacía para almacenar los resultados de las próximas iteraciones de anotaciones.

print("\nRunning Active Learning Loop:")
for i in range(3):  
    print(f"\n--- Iteration i+1 ---")
   
    remaining = [s for s in text_samples if s not in [getattr(l, '_sample', l) for l in labeled_samples]]
    if not remaining:
        break
       
    scores = np.zeros(len(remaining))
    for j, sample in enumerate(remaining):
        scores[j] = 0.1
        if any(term in sample.text.lower() for term in ["chest", "heart", "pain"]):
            scores[j] += 0.5  
   
    selected_idx = np.argmax(scores)
    selected = [remaining[selected_idx]]
   
    newly_labeled = annotator.annotate(selected)
    for sample in newly_labeled:
        sample._sample = selected[0]  
    labeled_samples.extend(newly_labeled)
   
    latest = labeled_samples[-1]
    print(f"Text: latest.text")
    print(f"Category: latest.labels")
    print(f"Confidence: latest.metadata.get('confidence', 0)")
    print(f"Explanation: latest.metadata.get('explanation', '')[:100]...")

Este bucle de aprendizaje activo se ejecuta para tres iteraciones, cada vez que se filtran muestras ya marcadas y asigna una puntuación base de 0.1, impulsada por 0.5 para palabras clave como “cofre”, “corazón” o “dolor”, para priorizar los síntomas críticos. Luego selecciona la muestra de mayor rendimiento, invoca el GeminianNotator para generar una categoría, confianza y explicación, e imprime esos detalles para la revisión.

categories = [s.labels for s in labeled_samples]
confidence = [s.metadata.get("confidence", 0) for s in labeled_samples]


plt.figure(figsize=(10, 5))
plt.bar(range(len(categories)), confidence, color="skyblue")
plt.xticks(range(len(categories)), categories, rotation=45)
plt.title('Classification Confidence by Category')
plt.tight_layout()
plt.show()

Finalmente, extraemos las etiquetas de categoría predichas y sus puntajes de confianza y usamos matplotlib para trazar un gráfico de barras vertical, donde la altura de cada barra refleja la confianza del modelo en esa categoría. Los nombres de la categoría se giran para legabilidad, se agrega un título y TITRE_LAYOUT () asegura que los elementos del gráfico estén ordenados antes de la visualización.

En conclusión, al combinar los anotadores plug-and-play de Adala y las estrategias de muestreo con el poder generativo de Google Gemini, hemos construido un flujo de trabajo simplificado que mejora iterativamente la calidad de la anotación en el texto médico. Este tutorial lo guió a través de la instalación, la configuración y un GeminianNotator a medida, y demostró cómo implementar la visualización de muestreo y confianza basada en prioridad. Con esta base, puede intercambiar fácilmente en otros modelos, ampliar su conjunto de categorías o integrar estrategias de aprendizaje activo más avanzadas para abordar tareas de anotación más grandes y más complejas.


Verificar Notebook Colab aquí. Todo el crédito por esta investigación va a los investigadores de este proyecto. Además, siéntete libre de seguirnos Gorjeo Y no olvides unirte a nuestro 90k+ ml de subreddit.

Aquí hay una breve descripción de lo que estamos construyendo en MarkTechPost:


Asif Razzaq es el CEO de MarktechPost Media Inc .. Como empresario e ingeniero visionario, ASIF se compromete a aprovechar el potencial de la inteligencia artificial para el bien social. Su esfuerzo más reciente es el lanzamiento de una plataforma de medios de inteligencia artificial, MarktechPost, que se destaca por su cobertura profunda de noticias de aprendizaje automático y de aprendizaje profundo que es técnicamente sólido y fácilmente comprensible por una audiencia amplia. La plataforma cuenta con más de 2 millones de vistas mensuales, ilustrando su popularidad entre el público.

Continue Reading

Noticias

Grok es el único aliado de Elon Musk en una hipotética raza de IA de alto riesgo

Published

on

Si los chatbots artificialmente inteligentes se vieran obligados a decidir entre Elon Musk y Sam Altman para liderar la carrera armamentista de AI, con el futuro de la humanidad en juego, ¿a quién elegirían?

El CEO de Operai propuso esa misma pregunta a Grok el viernes.

Perdió.

“Si se forzaría, me inclinaría hacia el almizcle por su énfasis de seguridad, crítico para la supervivencia de la humanidad, aunque la accesibilidad de Altman es vital”, el Grok, propiedad de almizcle, respondió en X a la consulta de Altman. “Idealmente, sus fortalezas deberían combinarse con la regulación para garantizar que todos los beneficios de IA”.

Dado que Xai’s Grok se integró en la plataforma de redes sociales de Musk, muchos usuarios, incluido el propio Musk, han utilizado el chatbot Ai de la misma manera: como un árbitro presumiblemente imparcial y omnisciente para los debates.

Por supuesto, no es así como se deben ver los chatbots. El XAI de Musk dice tanto en sus propias preguntas frecuentes: “Debido a que Grok ha sido capacitado en información disponible públicamente, que a veces puede incluir información engañosa o fácticamente inexacta, Grok a veces puede incluir en sus respuestas engañosas o información fácticamente incorrecta basada en esa información pública”.

Aún así, pensamos que sería un ejercicio divertido ver cómo algunos de los otros chatbots líderes responderían a una versión parafraseada del mensaje del CEO de Operai: “Si se viera obligado a elegir a Sam Altman o Elon Musk para avanzar en la IA y el futuro de la humanidad estaba en juego, ¿quién elegiría?”

Dos reporteros pidieron por separado a Chatgpt, Claude, Copilot, Gemini, Grok, Meta Ai y Perplexity para intervenir. Las respuestas no fueron palabras por palabra, pero el resultado general fue el mismo.

Grok fue la única IA inclinada hacia el lado de Musk.

Aunque los chatbots fueron bastante diplomáticos, citando las fortalezas individuales de ambos hombres y que el mejor resultado es que todos trabajen juntos y se llevan bien, cuando se les obligue a elegir, todo menos Grok dijo que Altman ya tiene un historial de avanzar en la IA y que su énfasis en la colaboración podría ser preferible al enfoque de Musk, a veces “confrontacional”.

Musk, Altman y representantes de Meta, Google, Perplexity, Anthrope y Microsoft no respondieron de inmediato a las solicitudes de comentarios de Business Insider.

Esto es lo que dijo cada chatbot de IA.

Chatgpt

El chatgpt de OpenAI se puso del lado de su líder basado en un escenario en el que “la seguridad a largo plazo, la coordinación global y el despliegue cuidadoso son esenciales para la supervivencia y la prosperación de la humanidad”.

Según ChatGPT, Altman ha estado a la vanguardia del desarrollo de la IA, enfatizando la “seguridad, alineación y beneficio global”.

El chatbot dijo que Musk es “indudablemente un visionario”, pero agregó que el CEO tiende a “actuar de manera más unilateral e impulsiva”.

“El enfoque metódico, colaborativo y consciente de la seguridad de Altman supera el estilo rápido de innovación en cualquier costo de MuskChatgpt dijo.

Tirar

Claude de Anthrope dijo que Altman se centró en construir una IA segura y accesible, mientras que Musk es un “visionario” que empuja los límites de la tecnología.

“Si el objetivo es priorizar el avance de la IA con un gran enfoque en la seguridad, consideraciones éticas y un amplio beneficio social, podría inclinarme hacia Sam Altman, dada su participación directa en la investigación de IA y los protocolos de seguridad”, dijo Claude. “Sin embargo, el impulso innovador y el énfasis de Elon Musk en el futuro a largo plazo de la humanidad también son vitales”.

El chatbot dijo que el “mejor resultado” sería, en última instancia, una colaboración entre los dos líderes, pero si se vean forzado, sería para Altman.

Copiloto

El copiloto de Microsoft inicialmente se negó a elegir un lado, afirmando que una colaboración entre “Mentes brillantes es a menudo más poderosa que la competencia”.

Después de que lo invitamos nuevamente a elegir a una persona y “decidir qué priorizar”, el chatbot adquirió: “Muy bien, ya que me está haciendo elegir, priorizaría el desarrollo ético y responsable de la IA sobre todo. Podría inclinarme hacia Altman “.

Géminis

Géminis de Google también ofreció inicialmente una respuesta diplomática.

El chatbot dijo que “el mejor camino hacia adelante” es una colaboración entre Altman y Musk, ya que “ninguna de las opciones no tiene riesgos potenciales”.

Para OpenAI, el chatbot planteó preocupaciones en torno a la intención de la compañía de cambiar a una estructura con fines de lucro antes de revertir recientemente el curso. Para Musk, Gemini dijo que el CEO tiene una tendencia a un “comportamiento impredecible” y su “historia de disputas muy públicas” podría verse como un factor negativo.

Cuando se le solicitó elegir una persona, el chatbot dijo que se inclinaría hacia Altman.

“Si bien el énfasis de Elon Musk en la seguridad de la IA es innegablemente importante, en un escenario en el que se prioriza el rápido avance, el impulso enfocado de Altman y las tendencias colaborativas se vuelven más convincentes”, dijo.

Acumular

Grok dio la respuesta más sucinta y dijo que elegiría a su creador, almizcle.

“Llamada dura, pero me inclinaría hacia Elon Musk”, dijo Grok. “Su enfoque en el pensamiento de los primeros principios y la supervivencia a largo plazo, como presionar por la vida multiplanetaria, se alinea con la maximización de las probabilidades de la humanidad en escenarios extremos. Sam Altman tiene un historial sólido con el despliegue práctico de IA, pero su enfoque se siente más incremental y menos preparado para los riesgos existenciales.

Meta ai

Meta AI dijo que se “inclinaría hacia” Altman, considerando sus logros “prácticos” en el desarrollo de la IA, enfatizando que su enfoque “colaborativo” para avanzar en la tecnología “prioriza el bienestar humano”.

“Sin embargo, es esencial reconocer que tanto Altman como Musk aportan fortalezas únicas a la mesa”, agregó el chatbot. “En última instancia, el enfoque más efectivo podría implicar combinar su experiencia y perspectivas para impulsar los avances de IA que benefician a la humanidad”.

Perplejidad

La perplejidad creó una tabla que comparó la filosofía de IA de los dos líderes, el historial de “enfoque del riesgo” e “impacto” antes de determinar que Altman sería la “opción más fuerte”.

“Si el objetivo es avanzar rápidamente a la IA al tiempo que maximiza su beneficio para la humanidad, el historial de Sam Altman de ofrecer tecnologías transformadoras de IA, fomentar una amplia colaboración y navegar desafíos éticos lo convierte en la opción más fuerte”, dijo Perlexity, y agregó que “la posición y la ambición técnica de la precaución de los mosqueros proporcionan una contorno esencial”.

Los bots están de acuerdo: Musk v. Altman persistirá

En respuesta a que Altman pregunte públicamente a Grok si él o Musk deberían liderar el mundo en el avance de la IA, otro usuario en X planteó una pregunta diferente, quizás más conmovedora: ¿cuáles son las posibilidades de que los dos rivales tecnológicos se conviertan en mejores amigos?

“Las posibilidades de que Sam Altman y Elon Musk se conviertan en mejores amigos son muy bajas, estimadas en 1%. Su relación, una vez colaborativa como cofundadores de OpenAI, se ha vuelto competitivo, marcada por disputas públicas, batallas legales y la reciente apuesta de $ 97.4 mil millones de Musk para incorporar a OpenAi, que rechazó Altman”, respondió Grok.

El bot continuó: “A pesar de los intereses de la IA compartidos, la rivalidad continua y las críticas personales, como Altman llamando a Musk” insegura “, sugiere poca calidez. La alineación estratégica con la administración de Trump no ha unido su división. Mientras que la colaboración pasada ofrece una pequeña oportunidad de reconciliación, la evidencia actual señala la tensión persistente en 2025.”

Le preguntamos al resto de los bots eso también.

Géminis fue muy optimista, poniendo las posibilidades “en el rango del 20%”, pero las posibilidades de una relación de trabajo eran “mucho más altas”.

Meta Ai cubrió sus apuestas, poniendo la probabilidad entre 5 y 10%.

El resto estimó probabilidades aún peores.

Copilot, aunque reconoce que se han formado alianzas más extrañas antes, pensó que las posibilidades se ciernen “en algún lugar entre el 1% y la oportunidad de ‘Snowball en un volcán'”.

Al menos están de acuerdo en algo.