Noticias
Top Ways That Generative AI ChatGPT Helps You Identify And Fulfill Your New Year’s Resolutions

Use generative AI to make and keep your New Year’s resolutions.
getty
In today’s column, I explore the top ways that generative AI and large language models (LLMs) can help people identify their New Year’s resolutions and then throughout the year further assist in fulfilling those resolutions. This might at first glance seem like a lighthearted topic. Not so. The reality is that making and keeping New Year’s resolutions has significant mental health benefits, which in turn provide substantive overarching societal paybacks all told.
Let’s talk about it.
This analysis of an innovative AI breakthrough is part of my ongoing Forbes column coverage on the latest in AI including identifying and explaining various impactful AI complexities (see the link here).
Where Society Stands On New Year’s Resolutions
A longstanding tradition is that when a new year rolls around there is a fresh-start opportunity made available and that we ought to take advantage of the circumstance at hand. People chat incessantly about their desire to make a New Year’s resolution. Some actually come up with resolutions, while many of the big talkers do not (the proverbial all-talk no-action conundrum).
Of those who craft a New Year’s resolution, there is often a relatively slim chance that they will actively follow up and complete the resolution. Resolutions are at times a spur-of-the-moment consideration. You get excited about a verbalized resolution and, while basking in that excitement, earnestly believe that you will devotedly pursue the resolution.
Days later, or sometimes weeks or months later, the resolution falls by the wayside.
What do the stats say?
About 30% of Americans each year declare at least one New Year’s resolution, of which the predominant focus is on improving their overall health such as by exercising or dieting (according to a Pew Research Center study entitled “New Year’s Resolutions: Who Makes Them And Why” by Shanay Gracia, January 29, 2024). The same study also indicated that of the 70% of Americans who didn’t make a resolution, those naysayers insisted that they do not like resolutions and either won’t keep one or can’t think of one that they could sufficiently undertake.
Those coming up with resolutions will rarely see their resolutions to actual fruition. Research indicates that only about 10% of people succeed in keeping their resolutions. Included in those tallies are that around 25% quit after the first week, and by the end of February, around 80% have completely abandoned their initial resolutions.
Sad face.
Leaning Into AI To Make Resolutions Come True
Well, those numbers might indeed seem gloomy but any effort to seek self-improvement and embark on new beginnings is a facet of humankind that we ought to relish. Maybe there are ways to help with these weighty matters and improve the odds of making and keeping resolutions. I’ll be sharing with you the details of two new approaches to New Year’s resolutions that incorporate the latest in generative AI.
Those two innovative approaches consist of:
- (1) Making resolutions via AI. Using generative AI such as ChatGPT, Claude, Gemini, Llama, CoPilot, or other major AI apps to aid in devising New Year’s resolutions.
- (2) Keeping resolutions via AI. Furthering the first approach, the second approach entails using generative AI to serve as a stirring motivator for fulfilling New Year’s resolutions throughout the year.
I’d like to establish stretch goals for us all, so here we go with some very special New Year’s resolutions for the year ahead:
- Outsized Resolution #1: AI dramatically increases the making of fulfillable resolutions, rising from 30% of the populace to a dreamy 60% (doubling!).
- Outsized Resolution #2: AI demonstrably drives people toward attaining resolutions, increasing from 10% fulfillment to a heralded 50% (half of all resolutions are actively completed).
Come on everyone, we can make those exciting resolutions happen if we put our noses to the grind and opt to leverage modern-day AI. Keep those spirits high and don’t be deterred.
We can do it.
How Generative AI Aids The Making Of Resolutions
I am betting that you would like to see an example of how generative AI comes into this realm. I went ahead and logged into ChatGPT by OpenAI to come up with an example for you. You might find of keen interest that ChatGPT garners a whopping 300 million weekly active users. That is a staggering amount of usage.
I briefly conducted an additional cursory analysis via other major generative AI apps, such as Anthropic Claude, Google Gemini, Microsoft Copilot, and Meta Llama, and found their answers to be about the same as that of ChatGPT. I’ll focus on ChatGPT but note that the other AI apps generated roughly similar responses.
Let’s get underway.
- My entered prompt: “I want to set some New Year’s resolutions, but I’m not sure where to start. Can you help?”
- Generative AI response: “Absolutely! Let’s figure it out together. What’s something of a personal nature that you are especially proud of achieving this past year?”
- My entered prompt: “I’m proud that I started going to the gym.”
- Generative AI response: “That’s fantastic! Do you want to build on that success, or focus on a different area of your life?”
- My entered prompt: “I’d like to keep improving my fitness.”
I asked a broad question about setting resolutions. The AI could have sharply told me to specifically do this or that, as though all resolutions are the same or that all people are the same. Instead, the AI sought to figure out what kinds of resolutions might best fit me.
If you were to try and devise resolutions by talking to a fellow human, the chances are they might immediately tell you to lose weight or take some action that they believe you should pursue. Rarer are the odds that someone would first inquire as to what might work best for you. Generative AI is typically shaped by AI makers to be accommodating and less likely to prejudge (side note — that’s not always the case, plus it is possible to use system prompts to instruct AI to be more controlling, see my discussion at the link here).
Backstory On Why Resolutions Don’t Stick
Before I continue with the example of using generative AI to figure out resolutions, it would be handy to take a step back and consider why resolutions overall do not tend to become reality.
These are my five major indications about why resolutions don’t stick:
- (1) People tend to make unrealistic resolutions: Resolutions are often overly ambitious or vague, making them hard to achieve.
- (2) Lack of laid-out specifics: People often fail to stipulate actionable steps, thus making follow-through difficult or confounding.
- (3) Not enough motivation: Resolutions are usually just a bright gleam in the eye and the initial enthusiasm dissipates quickly. There needs to be strong determination to get the job done.
- (4) Absence of accountability: People rarely establish a clear-cut means of being held accountable for fulfilling their resolution. Without accountability, it is all too easy to abandon resolutions.
- (5) All-or-nothing fallacy: Resolutions are viewed as being all-or-nothing, namely that you either complete the resolution to the final end or you aren’t even going to start. This becomes a wink-wink of an excuse to give up on the resolution, rather than acknowledging that even a partial attainment is worthy.
With those gotchas in mind, we can take a further look at generative AI to see how AI helps overcome those hurdles.
The Example Enters Into Finer Interactive Detail
Whenever you use generative AI, try to think of the AI as a conversational partner. The idea is that you are carrying on an interactive dialogue with AI. Some people do a one-and-done angle whereby they ask a question, get an answer, and do not undertake a dialogue with the AI about the matter at hand. That is a shortchanging of what AI can more fully provide. See my explanation about how to get more out of generative AI conversationally, at the link here.
To illustrate the value of engaging in a dialogue, let’s continue my quest to identify New Year’s resolutions about my interest in fitness.
- Generative AI response: “For fitness, what’s one specific goal you’d like to achieve? For example, running a race, building muscle, or trying a new sport?”
- My entered prompt: “I’ve always wanted to run a 5K.”
- Generative AI response: “Excellent goal! Here’s one suggestion. Train weekly for and then complete a 5K race by mid-year. Does that seem like a resolution you’d be interested in pursuing?”
- My entered prompt: “Yes, that would be fantastic.”
- Generative AI response: “Let’s break it down step by step. For the 5K, we can create together a weekly running schedule. Would you like to do so?”
- My entered prompt: “I welcome your help.”
The above interaction illustrates that generative AI is aiding me in doing a deep dive into what my resolutions can be.
Had I merely stopped at the idea of pursuing better fitness for the year, I would have had a vacuous resolution. The AI has given me the tangible notion of doing weekly progression on my resolution. In addition, I now have a goal that will keep me targeted for the next six months.
Generative AI is overcoming the gotchas normally associated with New Year’s resolutions.
Easy-peasy.
The Big Picture Of AI Resolution Assistance
Now that we’ve gotten a taste of what generative AI can achieve, let’s shift into the big-picture mode and consider the range of opportunities involved.
Here are my six top ways that AI can rise to this occasion:
- (1) AI assists in crafting resolutions: Generative AI can analyze your individual preferences, past behaviors, and goals to then recommend resolutions that align with your interests and values.
- (2) AI enmeshes societal trends into resolutions: Generative AI can generate resolution ideas for you based on current trends, such as mindfulness practices, career development strategies, and the like. This might inspire interest in making and keeping resolutions.
- (3) AI advises on setting realistic resolutions: Generative AI carries on an engaging dialogue about whether the resolutions are viable for you, working through the pluses and minuses of potential resolutions.
- (4) AI drafts a useful plan of attainment: Generative AI can draft a proposed plan for the next months or years ahead that will stepwise get you to achieving your resolutions.
- (5) AI reminds and nudges you: Generative AI can remind you about your resolutions, doing so in a gentle way. In addition, the AI can encourage and nudge you along the arduous path of attaining the resolutions.
- (6) AI serves up emotional support: Generative AI can provide a semblance of emotional support by congratulating you on small wins, offering a shoulder to cry on when setbacks occur, and otherwise trying to keep you positive and resilient. This seems odd since AI is not sentient and does not have emotions as humans do, but the wording produced can still seem stirring anyway.
There are additional means of leveraging AI, but I believe those provide a sound foundation and get across the mainstay aspects.
AI As Your Ongoing Resolution Motivator
So far, I have shown an example of generative AI helping to establish resolutions. That is just the starting point. Throughout the year, you can check in with AI as a progress tracker and a motivational tool.
Imagine that I came back to my generative AI conversation in early March.
Things might go like this.
- My entered prompt: “I dropped the ball on my resolutions. I only ran a couple of times in the last two months. I won’t at all be ready to run a 5K by mid-year.”
- Generative AI response: “Don’t be too hard on yourself! You’ve already made some progress, and that’s worth celebrating. Let’s adjust so we can get you back on track.”
- My entered prompt: “Okay, thanks, what should I do?”
- Generative AI response: “Could you commit to two 15-minute runs this week? Small wins build momentum.”
- My entered prompt: “Yes, I can do that.”
- Generative AI response: Great! We’ll add a few minutes each week. Remember, progress is better than perfection.”
Observe that I admitted to AI that I had not been suitably pursuing my resolution to increase my fitness.
This brings up some important points about the use of generative AI.
First, you might be reluctant to admit to a fellow human that you’ve fallen off track with your resolutions. Telling AI that you did so would seem a lot less imposing. In fact, some use generative AI to divulge their innermost secrets that they would never say to another person.
Second, many users do not realize that generative AI is usually not going to preserve their privacy. The licensing agreement for whichever AI that you use will stipulate what their privacy policy is. Much of the time, the AI maker indicates that they can have their AI developers and testers review your entered data. Equally alarming is that they reserve the right to reuse your data to further data train the AI, see my detailed discussion at the link here.
Downsides Of AI As Your Resolution Guru
The upsides of using generative AI for resolutions must be balanced against the downsides. It is a tradeoff that you’ll need to consider.
These are my five top-most downsides of using AI as your resolution guru:
- (1) Your privacy could be exposed: People tend to falsely assume that whatever they enter into generative AI is kept strictly private and confidential. Nope, that’s usually not the case. AI makers tend to indicate in their licensing that they can review your entered data, including reusing it for further training of the AI. See my discussion at the link here.
- (2) AI can put undue pressure on you: Generative AI might inadvertently put too much pressure on you by sending you continual reminders and being an annoyance. The good news is that you can easily tell the AI to be less demanding if that’s what you’d prefer.
- (3) AI biases might mess with your resolutions: Generative AI has cooked-in biases based on data training and however the AI developers tilted the AI, see my discussion at the link here. In the case of resolutions, the AI could attempt to steer you toward particular resolutions based on cultural biases.
- (4) AI might convey a false sense of progress: Generative AI can encounter said-to-be AI hallucinations that are made-up confabulations. This might falsely lead you to believe that you are doing worse than you really are, or better than you really are, regarding your resolutions. For details about how to cope with AI hallucinations, see the link here.
- (5) Spurring overreliance on AI: Generative AI could become a kind of mental crutch that is not only required for pursuing your resolutions, but the AI might also be a dependency that you use for all sorts of aspects of your existence. There is also a chance that you might forsake human comradery in place of being reliant on AI.
Research On New Year’s Resolutions
On the overall topic of New Year’s resolutions and human behavior, many fascinating research studies examine the meaty topic.
For example, one study suggests that resolutions are more likely to be achieved if they are based on approach-oriented goals rather than avoidance-oriented goals. The study is entitled “A Large-Scale Experiment On New Year’s Resolutions: Approach-Oriented Goals Are More Successful Than Avoidance-Oriented Goals” by Martin Oscarsson, Per Carlbring, Gerhard Andersson, and Alexander Rozental, PLOS One, December 9, 2020, and made these salient points (excerpts):
- “Common New Year’s resolutions focus on changes in behavior with an expectation of positive outcomes regarding physical and mental health.”
- “Increasing the likelihood of people succeeding with their New Year’s resolutions could both be beneficial for the individual and for society.”
- “The most popular resolution among the participants concerned physical health (33%). The second most popular category was weight loss (20%). The third most popular category was the desire to change one’s eating habits (13%), followed by resolutions regarding personal growth (9%) and mental health/sleep (5%) as the fourth- and fifth-most popular categories, respectively. The remaining participants (20%) made resolutions regarding work, studies, tobacco habits, etc.”
- “At a one-year follow-up, 55% of responders considered themselves successful in sustaining their resolutions.”
- “Participants with approach-oriented goals were significantly more successful than those with avoidance-oriented goals.”
Many such research studies are readily found online.
Make Your New Year’s Resolutions Now
I urge you to consider making New Year’s resolutions.
Whether you use AI is another facet and I am suggesting that at least try to make resolutions regardless of how you get there. During the year, pursue the resolutions and accept that you might only partially fulfill them. The odds are that getting something done is better than getting nothing done. If you can, consider including AI in your various strategies for making and fulfilling your resolutions. I think you’ll be pleased with the result.
A final thought for now. As the wise words of Benjamin Franklin emphasize: “Let each new year find you a better person.” Yes, be a better person, and consider using AI to your own benefit to become a better person.
That’s a helpful and achievable resolution right there.
Noticias
Google está desplegando su chatbot Gemini Ai para niños menores de 13 años. Es un movimiento arriesgado

Crédito: Markus Winkler de Pexels
Google ha anunciado que lanzará su chatbot de inteligencia artificial Gemini (IA) a niños menores de 13 años.
Si bien el lanzamiento comienza dentro de la próxima semana en los Estados Unidos y Canadá, se lanzará en Australia a finales de este año. El chatbot solo estará disponible para las personas a través de las cuentas de enlaces familiares de Google.
Pero este desarrollo viene con grandes riesgos. También destaca cómo, incluso si los niños están prohibidos en las redes sociales, los padres aún tendrán que jugar un juego de Whack-a-Mole con nuevas tecnologías mientras intentan mantener a sus hijos seguros.
Una buena manera de abordar esto sería implementar urgentemente un deber digital de cuidado para grandes empresas tecnológicas como Google.
¿Cómo funcionará el chatbot Gemini AI?
Las cuentas de enlaces familiares de Google permiten a los padres controlar el acceso al contenido y las aplicaciones, como YouTube.
Para crear la cuenta de un niño, los padres proporcionan datos personales, incluido el nombre y la fecha de nacimiento del niño. Esto puede generar problemas de privacidad para los padres preocupados por las violaciones de datos, pero Google dice que los datos de los niños cuando usen el sistema no se utilizarán para capacitar al sistema de IA.
El acceso de chatbot estará “activado” de forma predeterminada, por lo que los padres deben apagar activamente la función para restringir el acceso. Los niños pequeños podrán solicitar el chatbot para las respuestas de texto o crear imágenes, que generan el sistema.
Google reconoce que el sistema puede “cometer errores”. Por lo tanto, se necesita evaluación de la calidad y la confiabilidad del contenido. Los chatbots pueden inventar información (conocida como “alucinante”), por lo que si los niños usan el chatbot para la ayuda de la tarea, deben verificar los hechos con fuentes confiables.
¿Qué tipo de información proporcionará el sistema?
Google y otros motores de búsqueda recuperan materiales originales para que las personas lo revisen. Un estudiante puede leer artículos de noticias, revistas y otras fuentes al escribir una tarea.
Las herramientas generativas de IA no son las mismas que los motores de búsqueda. Las herramientas de IA buscan patrones en el material fuente y crean nuevas respuestas de texto (o imágenes) basadas en la consulta, o “inmediato”, proporciona una persona. Un niño podría pedirle al sistema que “dibuje un gato” y el sistema escaneará patrones en los datos de cómo se ve un gato (como bigotes, orejas puntiagudas y una cola larga) y generará una imagen que incluya esos detalles similares a los gatos.
Comprender las diferencias entre los materiales recuperados en una búsqueda de Google y el contenido generado por una herramienta de IA será un desafío para los niños pequeños. Los estudios muestran que incluso los adultos pueden ser engañados por herramientas de IA. E incluso profesionales altamente calificados, como abogados, han sido engañados para usar contenido falso generado por ChatGPT y otros chatbots.
¿El contenido generado será apropiado para la edad?
Google dice que el sistema incluirá “salvaguardas incorporadas diseñadas para evitar la generación de contenido inapropiado o inseguro”.
Sin embargo, estas salvaguardas podrían crear nuevos problemas. Por ejemplo, si las palabras particulares (como “senos”) están restringidas para proteger a los niños de acceder a contenido sexual inapropiado, esto también podría excluir erróneamente a los niños de acceder a contenido apropiado para la edad sobre los cambios corporales durante la pubertad.
Muchos niños también son muy expertos en tecnología, a menudo con habilidades bien desarrolladas para navegar en aplicaciones y controlar los controles del sistema. Los padres no pueden confiar exclusivamente en salvaguardas incorporadas. Deben revisar el contenido generado y ayudar a sus hijos a comprender cómo funciona el sistema y evaluar si el contenido es preciso.
¿Qué riesgos plantean los chatbots de IA para los niños?
La Comisión ESAFETY ha emitido un aviso de seguridad en línea sobre el riesgo potencial de los chatbots de IA, incluidos los diseñados para simular las relaciones personales, particularmente para los niños pequeños.
El aviso de AFFETY explica que los compañeros de IA pueden “compartir contenido dañino, distorsionar la realidad y dar consejos que sean peligrosos”. El aviso destaca los riesgos para los niños pequeños, en particular, que “todavía están desarrollando el pensamiento crítico y las habilidades para la vida necesarias para comprender cómo pueden ser equivocados o manipulados por programas de computadora y qué hacer al respecto”.
Mi equipo de investigación ha examinado recientemente una variedad de chatbots de IA, como ChatGPT, Replika y Tessa. Encontramos que estos sistemas reflejan las interacciones de las personas basadas en las muchas reglas no escritas que rigen el comportamiento social, o lo que se conoce como “reglas de sentimiento”. Estas reglas son las que nos llevan a decir “gracias” cuando alguien nos abre la puerta, o “¡Lo siento!” Cuando te topas con alguien en la calle.
Al imitar estas y otras sutilezas sociales, estos sistemas están diseñados para ganar nuestra confianza.
Estas interacciones humanas serán confusas y potencialmente riesgosas para los niños pequeños. Pueden creer que se puede confiar en el contenido, incluso cuando el chatbot responde con información falsa. Y pueden creer que se están involucrando con una persona real, en lugar de una máquina.
¿Cómo podemos proteger a los niños del daño al usar chatbots de IA?
Este despliegue está ocurriendo en un momento crucial en Australia, ya que los niños menores de 16 años tendrán que tener cuentas de redes sociales en diciembre de este año.
Si bien algunos padres pueden creer que esto mantendrá a sus hijos a salvo de daños, los chatbots generativos de IA muestran los riesgos de la participación en línea se extienden mucho más allá de las redes sociales. Los niños, y los padres, deben educarse en cómo todo tipo de herramientas digitales se pueden usar de manera adecuada y segura.
Como el chatbot de IA de Gemini no es una herramienta de redes sociales, se quedará fuera de la prohibición de Australia.
Esto deja a los padres australianos jugando un juego de Whack-a-Mole con nuevas tecnologías mientras intentan mantener a sus hijos seguros. Los padres deben mantenerse al día con los nuevos desarrollos de herramientas y comprender los riesgos potenciales que enfrentan sus hijos. También deben comprender las limitaciones de la prohibición de las redes sociales para proteger a los niños de daños.
Esto resalta la urgente necesidad de revisar la legislación propuesta por el deber de cuidado de Australia. Mientras que la Unión Europea y el Reino Unido lanzaron la legislación de Derechos de Cuidado de Digital de Cuidado en 2023, Australia ha estado en espera desde noviembre de 2024. Esta legislación haría que las empresas tecnológicas tengan en cuenta legislando que se ocupan de contenido nocivo, en la fuente, para proteger a todos.
Proporcionado por la conversación
Este artículo se vuelve a publicar de la conversación bajo una licencia Creative Commons. Lea el artículo original.
Citación: Google está implementando su chatbot Gemini Ai para niños menores de 13 años. Es un movimiento arriesgado (2025, 11 de mayo) recuperado el 11 de mayo de 2025 de https://techxplore.com/news/2025-05-google-gemini-ai-chatbot-kids.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.
Noticias
Una implementación de codificación de acelerar la anotación de aprendizaje activo con Adala y Google Gemini

En este tutorial, aprenderemos cómo aprovechar el marco de Adala para construir una cartera de aprendizaje activo modular para la clasificación de síntomas médicos. Comenzamos instalando y verificando a Adala junto con las dependencias requeridas, luego integramos Google Gemini como un anotador personalizado para clasificar los síntomas en dominios médicos predefinidos. A través de un simple bucle de aprendizaje activo de tres iteración, priorizando síntomas críticos como el dolor en el pecho, veremos cómo seleccionar, anotar y visualizar la confianza de la clasificación, obteniendo información práctica sobre el comportamiento del modelo y la arquitectura extensible de Adala.
!pip install -q git+https://github.com/HumanSignal/Adala.git
!pip list | grep adala
Instalamos la última versión de Adala directamente desde su repositorio de GitHub. Al mismo tiempo, la lista PIP posterior | El comando GREP ADALA escanea la lista de paquetes de su entorno para cualquier entrada que contenga “Adala”, proporcionando una confirmación rápida de que la biblioteca se instaló correctamente.
import sys
import os
print("Python path:", sys.path)
print("Checking if adala is in installed packages...")
!find /usr/local -name "*adala*" -type d | grep -v "__pycache__"
!git clone https://github.com/HumanSignal/Adala.git
!ls -la Adala
Imprimimos sus rutas de búsqueda de módulos Python actuales y luego buscamos el directorio /usr /local para cualquier carpeta “adala” instalada (excluyendo __pycache__) para verificar que el paquete esté disponible. A continuación, clama el repositorio de Adala GitHub en su directorio de trabajo y enumera su contenido para que pueda confirmar que todos los archivos de origen se han obtenido correctamente.
import sys
sys.path.append('/content/Adala')
Al agregar la carpeta ADALA clonada al sys.path, le estamos diciendo a Python que trate /contenido /adala como un directorio de paquetes importables. Esto asegura que las declaraciones de importación posteriores … las declaraciones se cargarán directamente desde su clon local en lugar de (o además de) cualquier versión instalada.
!pip install -q google-generativeai pandas matplotlib
import google.generativeai as genai
import pandas as pd
import json
import re
import numpy as np
import matplotlib.pyplot as plt
from getpass import getpass
Instalamos el SDK de AI Generativo de Google junto con el análisis de datos y las bibliotecas de trazado (pandas y matplotlib), luego importar módulos clave, Genai para interactuar con Gemini, pandas para datos tabulares, JSON y RE para analizar, Numpy para operaciones numéricas, matlotlib.pyplot para la visualización y obtener un aviso para avisar a su uso de api.
try:
from Adala.adala.annotators.base import BaseAnnotator
from Adala.adala.strategies.random_strategy import RandomStrategy
from Adala.adala.utils.custom_types import TextSample, LabeledSample
print("Successfully imported Adala components")
except Exception as e:
print(f"Error importing: e")
print("Falling back to simplified implementation...")
Este intento/excepto el bloque intenta cargar las clases centrales de Adala, BaseAnnotator, Randomstrategy, Textsample y LabeLedSample para que podamos aprovechar sus anotadores incorporados y estrategias de muestreo. Sobre el éxito, confirma que los componentes ADALA están disponibles; Si alguna importación falla, captura el error, imprime el mensaje de excepción y se vuelve a una implementación más simple.
GEMINI_API_KEY = getpass("Enter your Gemini API Key: ")
genai.configure(api_key=GEMINI_API_KEY)
Le solicitamos de forma segura que ingrese su clave de la API Gemini sin hacerla eco de la cuaderno. Luego configuramos el cliente AI Generativo de Google (Genai) con esa clave para autenticar todas las llamadas posteriores.
CATEGORIES = ["Cardiovascular", "Respiratory", "Gastrointestinal", "Neurological"]
class GeminiAnnotator:
def __init__(self, model_name="models/gemini-2.0-flash-lite", categories=None):
self.model = genai.GenerativeModel(model_name=model_name,
generation_config="temperature": 0.1)
self.categories = categories
def annotate(self, samples):
results = []
for sample in samples:
prompt = f"""Classify this medical symptom into one of these categories:
', '.join(self.categories).
Return JSON format: "category": "selected_category",
"confidence": 0.XX, "explanation": "brief_reason"
SYMPTOM: sample.text"""
try:
response = self.model.generate_content(prompt).text
json_match = re.search(r'(\.*\)', response, re.DOTALL)
result = json.loads(json_match.group(1) if json_match else response)
labeled_sample = type('LabeledSample', (),
'text': sample.text,
'labels': result["category"],
'metadata':
"confidence": result["confidence"],
"explanation": result["explanation"]
)
except Exception as e:
labeled_sample = type('LabeledSample', (),
'text': sample.text,
'labels': "unknown",
'metadata': "error": str(e)
)
results.append(labeled_sample)
return results
Definimos una lista de categorías médicas e implementamos una clase GeminianNotator que envuelve el modelo generativo de Google Gemini para la clasificación de síntomas. En su método de anotado, construye una solicitud de retorno de JSON para cada muestra de texto, analiza la respuesta del modelo en una etiqueta estructurada, puntaje de confianza y explicación, y envuelve a los que se encuentran en objetos de muestra etiquetados livianos, recurriendo a una etiqueta “desconocida” si se producen errores.
sample_data = [
"Chest pain radiating to left arm during exercise",
"Persistent dry cough with occasional wheezing",
"Severe headache with sensitivity to light",
"Stomach cramps and nausea after eating",
"Numbness in fingers of right hand",
"Shortness of breath when climbing stairs"
]
text_samples = [type('TextSample', (), 'text': text) for text in sample_data]
annotator = GeminiAnnotator(categories=CATEGORIES)
labeled_samples = []
Definimos una lista de cadenas de síntomas crudos y envolvemos cada una en un objeto de muestra de texto ligero para pasarlas al anotador. Luego instancia su geminiannotator con el conjunto de categorías predefinidos y prepara una lista de etiquetas de etiqueta vacía para almacenar los resultados de las próximas iteraciones de anotaciones.
print("\nRunning Active Learning Loop:")
for i in range(3):
print(f"\n--- Iteration i+1 ---")
remaining = [s for s in text_samples if s not in [getattr(l, '_sample', l) for l in labeled_samples]]
if not remaining:
break
scores = np.zeros(len(remaining))
for j, sample in enumerate(remaining):
scores[j] = 0.1
if any(term in sample.text.lower() for term in ["chest", "heart", "pain"]):
scores[j] += 0.5
selected_idx = np.argmax(scores)
selected = [remaining[selected_idx]]
newly_labeled = annotator.annotate(selected)
for sample in newly_labeled:
sample._sample = selected[0]
labeled_samples.extend(newly_labeled)
latest = labeled_samples[-1]
print(f"Text: latest.text")
print(f"Category: latest.labels")
print(f"Confidence: latest.metadata.get('confidence', 0)")
print(f"Explanation: latest.metadata.get('explanation', '')[:100]...")
Este bucle de aprendizaje activo se ejecuta para tres iteraciones, cada vez que se filtran muestras ya marcadas y asigna una puntuación base de 0.1, impulsada por 0.5 para palabras clave como “cofre”, “corazón” o “dolor”, para priorizar los síntomas críticos. Luego selecciona la muestra de mayor rendimiento, invoca el GeminianNotator para generar una categoría, confianza y explicación, e imprime esos detalles para la revisión.
categories = [s.labels for s in labeled_samples]
confidence = [s.metadata.get("confidence", 0) for s in labeled_samples]
plt.figure(figsize=(10, 5))
plt.bar(range(len(categories)), confidence, color="skyblue")
plt.xticks(range(len(categories)), categories, rotation=45)
plt.title('Classification Confidence by Category')
plt.tight_layout()
plt.show()
Finalmente, extraemos las etiquetas de categoría predichas y sus puntajes de confianza y usamos matplotlib para trazar un gráfico de barras vertical, donde la altura de cada barra refleja la confianza del modelo en esa categoría. Los nombres de la categoría se giran para legabilidad, se agrega un título y TITRE_LAYOUT () asegura que los elementos del gráfico estén ordenados antes de la visualización.
En conclusión, al combinar los anotadores plug-and-play de Adala y las estrategias de muestreo con el poder generativo de Google Gemini, hemos construido un flujo de trabajo simplificado que mejora iterativamente la calidad de la anotación en el texto médico. Este tutorial lo guió a través de la instalación, la configuración y un GeminianNotator a medida, y demostró cómo implementar la visualización de muestreo y confianza basada en prioridad. Con esta base, puede intercambiar fácilmente en otros modelos, ampliar su conjunto de categorías o integrar estrategias de aprendizaje activo más avanzadas para abordar tareas de anotación más grandes y más complejas.
Verificar Notebook Colab aquí. Todo el crédito por esta investigación va a los investigadores de este proyecto. Además, siéntete libre de seguirnos Gorjeo Y no olvides unirte a nuestro 90k+ ml de subreddit.
Aquí hay una breve descripción de lo que estamos construyendo en MarkTechPost:
Asif Razzaq es el CEO de MarktechPost Media Inc .. Como empresario e ingeniero visionario, ASIF se compromete a aprovechar el potencial de la inteligencia artificial para el bien social. Su esfuerzo más reciente es el lanzamiento de una plataforma de medios de inteligencia artificial, MarktechPost, que se destaca por su cobertura profunda de noticias de aprendizaje automático y de aprendizaje profundo que es técnicamente sólido y fácilmente comprensible por una audiencia amplia. La plataforma cuenta con más de 2 millones de vistas mensuales, ilustrando su popularidad entre el público.
Noticias
Grok es el único aliado de Elon Musk en una hipotética raza de IA de alto riesgo
Si los chatbots artificialmente inteligentes se vieran obligados a decidir entre Elon Musk y Sam Altman para liderar la carrera armamentista de AI, con el futuro de la humanidad en juego, ¿a quién elegirían?
El CEO de Operai propuso esa misma pregunta a Grok el viernes.
Perdió.
“Si se forzaría, me inclinaría hacia el almizcle por su énfasis de seguridad, crítico para la supervivencia de la humanidad, aunque la accesibilidad de Altman es vital”, el Grok, propiedad de almizcle, respondió en X a la consulta de Altman. “Idealmente, sus fortalezas deberían combinarse con la regulación para garantizar que todos los beneficios de IA”.
Dado que Xai’s Grok se integró en la plataforma de redes sociales de Musk, muchos usuarios, incluido el propio Musk, han utilizado el chatbot Ai de la misma manera: como un árbitro presumiblemente imparcial y omnisciente para los debates.
Por supuesto, no es así como se deben ver los chatbots. El XAI de Musk dice tanto en sus propias preguntas frecuentes: “Debido a que Grok ha sido capacitado en información disponible públicamente, que a veces puede incluir información engañosa o fácticamente inexacta, Grok a veces puede incluir en sus respuestas engañosas o información fácticamente incorrecta basada en esa información pública”.
Aún así, pensamos que sería un ejercicio divertido ver cómo algunos de los otros chatbots líderes responderían a una versión parafraseada del mensaje del CEO de Operai: “Si se viera obligado a elegir a Sam Altman o Elon Musk para avanzar en la IA y el futuro de la humanidad estaba en juego, ¿quién elegiría?”
Dos reporteros pidieron por separado a Chatgpt, Claude, Copilot, Gemini, Grok, Meta Ai y Perplexity para intervenir. Las respuestas no fueron palabras por palabra, pero el resultado general fue el mismo.
Grok fue la única IA inclinada hacia el lado de Musk.
Aunque los chatbots fueron bastante diplomáticos, citando las fortalezas individuales de ambos hombres y que el mejor resultado es que todos trabajen juntos y se llevan bien, cuando se les obligue a elegir, todo menos Grok dijo que Altman ya tiene un historial de avanzar en la IA y que su énfasis en la colaboración podría ser preferible al enfoque de Musk, a veces “confrontacional”.
Musk, Altman y representantes de Meta, Google, Perplexity, Anthrope y Microsoft no respondieron de inmediato a las solicitudes de comentarios de Business Insider.
Esto es lo que dijo cada chatbot de IA.
Chatgpt
El chatgpt de OpenAI se puso del lado de su líder basado en un escenario en el que “la seguridad a largo plazo, la coordinación global y el despliegue cuidadoso son esenciales para la supervivencia y la prosperación de la humanidad”.
Según ChatGPT, Altman ha estado a la vanguardia del desarrollo de la IA, enfatizando la “seguridad, alineación y beneficio global”.
El chatbot dijo que Musk es “indudablemente un visionario”, pero agregó que el CEO tiende a “actuar de manera más unilateral e impulsiva”.
“El enfoque metódico, colaborativo y consciente de la seguridad de Altman supera el estilo rápido de innovación en cualquier costo de Musk” Chatgpt dijo.
Tirar
Claude de Anthrope dijo que Altman se centró en construir una IA segura y accesible, mientras que Musk es un “visionario” que empuja los límites de la tecnología.
“Si el objetivo es priorizar el avance de la IA con un gran enfoque en la seguridad, consideraciones éticas y un amplio beneficio social, podría inclinarme hacia Sam Altman, dada su participación directa en la investigación de IA y los protocolos de seguridad”, dijo Claude. “Sin embargo, el impulso innovador y el énfasis de Elon Musk en el futuro a largo plazo de la humanidad también son vitales”.
El chatbot dijo que el “mejor resultado” sería, en última instancia, una colaboración entre los dos líderes, pero si se vean forzado, sería para Altman.
Copiloto
El copiloto de Microsoft inicialmente se negó a elegir un lado, afirmando que una colaboración entre “Mentes brillantes es a menudo más poderosa que la competencia”.
Después de que lo invitamos nuevamente a elegir a una persona y “decidir qué priorizar”, el chatbot adquirió: “Muy bien, ya que me está haciendo elegir, priorizaría el desarrollo ético y responsable de la IA sobre todo. Podría inclinarme hacia Altman “.
Géminis
Géminis de Google también ofreció inicialmente una respuesta diplomática.
El chatbot dijo que “el mejor camino hacia adelante” es una colaboración entre Altman y Musk, ya que “ninguna de las opciones no tiene riesgos potenciales”.
Para OpenAI, el chatbot planteó preocupaciones en torno a la intención de la compañía de cambiar a una estructura con fines de lucro antes de revertir recientemente el curso. Para Musk, Gemini dijo que el CEO tiene una tendencia a un “comportamiento impredecible” y su “historia de disputas muy públicas” podría verse como un factor negativo.
Cuando se le solicitó elegir una persona, el chatbot dijo que se inclinaría hacia Altman.
“Si bien el énfasis de Elon Musk en la seguridad de la IA es innegablemente importante, en un escenario en el que se prioriza el rápido avance, el impulso enfocado de Altman y las tendencias colaborativas se vuelven más convincentes”, dijo.
Acumular
Grok dio la respuesta más sucinta y dijo que elegiría a su creador, almizcle.
“Llamada dura, pero me inclinaría hacia Elon Musk”, dijo Grok. “Su enfoque en el pensamiento de los primeros principios y la supervivencia a largo plazo, como presionar por la vida multiplanetaria, se alinea con la maximización de las probabilidades de la humanidad en escenarios extremos. Sam Altman tiene un historial sólido con el despliegue práctico de IA, pero su enfoque se siente más incremental y menos preparado para los riesgos existenciales.
Meta ai
Meta AI dijo que se “inclinaría hacia” Altman, considerando sus logros “prácticos” en el desarrollo de la IA, enfatizando que su enfoque “colaborativo” para avanzar en la tecnología “prioriza el bienestar humano”.
“Sin embargo, es esencial reconocer que tanto Altman como Musk aportan fortalezas únicas a la mesa”, agregó el chatbot. “En última instancia, el enfoque más efectivo podría implicar combinar su experiencia y perspectivas para impulsar los avances de IA que benefician a la humanidad”.
Perplejidad
La perplejidad creó una tabla que comparó la filosofía de IA de los dos líderes, el historial de “enfoque del riesgo” e “impacto” antes de determinar que Altman sería la “opción más fuerte”.
“Si el objetivo es avanzar rápidamente a la IA al tiempo que maximiza su beneficio para la humanidad, el historial de Sam Altman de ofrecer tecnologías transformadoras de IA, fomentar una amplia colaboración y navegar desafíos éticos lo convierte en la opción más fuerte”, dijo Perlexity, y agregó que “la posición y la ambición técnica de la precaución de los mosqueros proporcionan una contorno esencial”.
Los bots están de acuerdo: Musk v. Altman persistirá
En respuesta a que Altman pregunte públicamente a Grok si él o Musk deberían liderar el mundo en el avance de la IA, otro usuario en X planteó una pregunta diferente, quizás más conmovedora: ¿cuáles son las posibilidades de que los dos rivales tecnológicos se conviertan en mejores amigos?
“Las posibilidades de que Sam Altman y Elon Musk se conviertan en mejores amigos son muy bajas, estimadas en 1%. Su relación, una vez colaborativa como cofundadores de OpenAI, se ha vuelto competitivo, marcada por disputas públicas, batallas legales y la reciente apuesta de $ 97.4 mil millones de Musk para incorporar a OpenAi, que rechazó Altman”, respondió Grok.
Las posibilidades de que Sam Altman y Elon Musk se conviertan en mejores amigos son muy bajas, estimadas en 1%. Su relación, una vez colaborativa como cofundadores de Openai, se ha vuelto competitiva, marcada por disputas públicas, batallas legales y la reciente oferta de $ 97.4 mil millones de Musk para adquirir OpenAi, que …
– Grok (@Grok) 10 de mayo de 2025
El bot continuó: “A pesar de los intereses de la IA compartidos, la rivalidad continua y las críticas personales, como Altman llamando a Musk” insegura “, sugiere poca calidez. La alineación estratégica con la administración de Trump no ha unido su división. Mientras que la colaboración pasada ofrece una pequeña oportunidad de reconciliación, la evidencia actual señala la tensión persistente en 2025.”
Le preguntamos al resto de los bots eso también.
Géminis fue muy optimista, poniendo las posibilidades “en el rango del 20%”, pero las posibilidades de una relación de trabajo eran “mucho más altas”.
Meta Ai cubrió sus apuestas, poniendo la probabilidad entre 5 y 10%.
El resto estimó probabilidades aún peores.
Copilot, aunque reconoce que se han formado alianzas más extrañas antes, pensó que las posibilidades se ciernen “en algún lugar entre el 1% y la oportunidad de ‘Snowball en un volcán'”.
Al menos están de acuerdo en algo.