Noticias
ChatGPT vs the Honor Code

Two of them were sprawled out on a long concrete bench in front of the main Haverford College library, one scribbling in a battered spiral-ring notebook, the other making annotations in the white margins of a novel. Three more sat on the ground beneath them, crisscross-applesauce, chatting about classes. A little hip, a little nerdy, a little tattooed; unmistakably English majors. The scene had the trappings of a campus-movie set piece: blue skies, green greens, kids both working and not working, at once anxious and carefree.
I said I was sorry to interrupt them, and they were kind enough to pretend that I hadn’t. I explained that I’m a writer, interested in how artificial intelligence is affecting higher education, particularly the humanities. When I asked whether they felt that ChatGPT-assisted cheating was common on campus, they looked at me like I had three heads. “I’m an English major,” one told me. “I want to write.” Another added: “Chat doesn’t write well anyway. It sucks.” A third chimed in, “What’s the point of being an English major if you don’t want to write?” They all murmured in agreement.
What’s the point, indeed? The conventional wisdom is that the American public has lost faith in the humanities—and lost both competence and interest in reading and writing, possibly heralding a post-literacy age. And since the emergence of ChatGPT, which is capable of producing long-form responses to short prompts, colleges and universities have tried, rather unsuccessfully, to stamp out the use of what has become the ultimate piece of cheating technology, resulting in a mix of panic and resignation about the impact AI will have on education. But at Haverford, by contrast, the story seemed different. Walking onto campus was like stepping into a time machine, and not only because I had graduated from the school a decade earlier. The tiny, historically Quaker college on Philadelphia’s Main Line still maintains its old honor code, and students still seem to follow it instead of letting a large language model do their thinking for them. For the most part, the students and professors I talked with seemed totally unfazed by this supposedly threatening new technology.
The two days I spent at Haverford and nearby Bryn Mawr College, in addition to interviews with people at other colleges with honor codes, left me convinced that the main question about AI in higher education has little to do with what kind of academic assignments the technology is or is not capable of replacing. The challenge posed by ChatGPT for American colleges and universities is not primarily technological but cultural and economic.
It is cultural because stemming the use of Chat—as nearly every student I interviewed referred to ChatGPT—requires an atmosphere in which a credible case is made, on a daily basis, that writing and reading have a value that transcends the vagaries of this or that particular assignment or résumé line item or career milestone. And it is economic because this cultural infrastructure isn’t free: Academic honor and intellectual curiosity do not spring from some inner well of rectitude we call “character,” or at least they do not spring only from that. Honor and curiosity can be nurtured, or crushed, by circumstance.
Rich private colleges with honor codes do not have a monopoly on academic integrity—millions of students and faculty at cash-strapped public universities around the country are also doing their part to keep the humanities alive in the face of generative AI. But at the wealthy schools that have managed to keep AI at bay, institutional resources play a central role in their success. The structures that make Haverford’s honor code function—readily available writing support, small classes, and comparatively unharried faculty—are likely not scalable in a higher-education landscape characterized by yawning inequalities, collapsing tenure-track employment, and the razing of public education at both the primary and secondary levels.
When OpenAI’s ChatGPT launched on November 30, 2022, colleges and universities were returning from Thanksgiving break. Professors were caught flat-footed as students quickly began using the generative-AI wonder app to cut corners on assignments, or to write them outright. Within a few weeks of the program’s release, ChatGPT was heralded as bringing about “the end of high-school English” and the death of the college essay. These early predictions were hyperbolic, but only just. As The Atlantic’s Ian Bogost recently argued, there has been effectively zero progress in stymying AI cheating in the years since. One professor summarized the views of many in a recent mega-viral X post: “I am no longer a teacher. I’m just a human plagiarism detector. I used to spend my grading time giving comments for improving writing skills. Now most of that time is just checking to see if a student wrote their own paper.”
While some institutions and faculty have bristled at the encroachment of AI, others have simply thrown in the towel, insisting that we need to treat large language models like “tools” to be “integrated” into the classroom.
I’ve felt uneasy about the tacit assumption that ChatGPT plagiarism is inevitable, that it is human nature to seek technological shortcuts. In my experience as a student at Haverford and then a professor at a small liberal-arts college in Maine, most students genuinely do want to learn and generally aren’t eager to outsource their thinking and writing to a machine. Although I had my own worries about AI, I was also not sold on the idea that it’s impossible to foster a community in which students resist ChatGPT in favor of actually doing the work. I returned to Haverford last month to see whether my fragile optimism was warranted.
When I stopped a professor walking toward the college’s nature trail to ask if ChatGPT was an issue at Haverford, she appeared surprised by the question: “I’m probably not the right person to ask. That’s a question for students, isn’t it?” Several other faculty members I spoke with said they didn’t think much about ChatGPT and cheating, and repeated variations of the phrase I’m not the police.
Haverford’s academic climate is in part a product of its cultural and religious history. During my four years at the school, invocations of “Quaker values” were constant, emphasizing on personal responsibility, humility, and trust in other members of the community. Discussing grades was taboo because it invited competition and distracted from the intrinsic value of learning.
The honor code is the most concrete expression of Haverford’s Quaker ethos. Students are trusted to take tests without proctors and even to bring exams back to their dorm rooms. Matthew Feliz, a fellow Haverford alum who is now a visiting art-history professor at Bryn Mawr—a school also governed by an honor code—put it this way: “The honor code is a kind of contract. And that contract gives students the benefit of the doubt. That’s the place we always start from: giving students the benefit of the doubt.”
Darin Hayton, a historian of science at the college, seemed to embody this untroubled attitude. Reclining in his office chair, surrounded by warm wood and, for 270 degrees, well-loved books, he said of ChatGPT, “I just don’t give a shit about it.” He explained that his teaching philosophy is predicated on modeling the merits of a life of deep thinking, reading, and writing. “I try to show students the value of what historians do. I hope they’re interested, but if they’re not, that’s okay too.” He relies on creating an atmosphere in which students want to do their work, and at Haverford, he said, they mostly do. Hayton was friendly, animated, and radiated a kind of effortless intelligence. I found myself, quite literally, leaning forward when he spoke. It was not hard to believe that his students did the same.
“It seems to me that this anxiety in our profession over ChatGPT isn’t ultimately about cheating.” Kim Benston, a literary historian at Haverford and a former president of the college, told me. “It’s an existential anxiety that reflects a deeper concern about the future of the humanities,” he continued. Another humanities professor echoed these remarks, saying that he didn’t personally worry about ChatGPT but agreed that the professorial concern about AI was, at bottom, a fear of becoming irrelevant: “We are in the sentence-making business. And it looks like they don’t need us to make sentences any more.”
I told Benston that I had struggled with whether to continue assigning traditional essays—and risk the possibility of students using ChatGPT—or resort to using in-class, pen-and-paper exams. I’d decided that literature classes without longer, take-home essays are not literature classes. He nodded. The impulse to surveil students, to view all course activity through a paranoid lens, and to resort to cheating-proof assignments was not only about the students or their work, he suggested. These measures were also about nervous humanities professors proving to themselves that they’re still necessary.
My conversations with students convinced me that Hayston, Benston, and their colleagues’ build-it-and-they-will-come sentiment, hopelessly naive though it may seem, was largely correct. Of the dozens of Haverford students I talked with, not a single one said they thought AI cheating was a substantial problem at the school. These interviews were so repetitive, they almost became boring.
The jock sporting bright bruises from some kind of contact sport? “Haverford students don’t really cheat.” The econ major in prepster shorts and a Jackson Hole T-shirt? “Students follow the honor code.” A bubbly first-year popping out of a dorm? “So far I haven’t heard of anyone using ChatGPT. At my high school it was everywhere!” More than a few students seemed off put by the very suggestion that a Haverfordian might cheat. “There is a lot of freedom here and a lot of student autonomy,” a sophomore psychology major told me. “This is a place where you could get away with it if you wanted to. And because of that, I think students are very careful not to abuse that freedom.” The closest I got to a dissenting voice was a contemplative senior who mused: “The honor code is definitely working for now. It may not be working two years from now as ChatGPT gets better. But for now there’s still a lot of trust between students and faculty.”
To be sure, despite that trust, Haverford does have occasional issues with ChatGPT. A student who serves on Haverford’s honor council, which is responsible for handling academic-integrity cases, told me, “There’s generally not too much cheating at Haverford, but it happens.” He said that the primary challenge is that “ChatGPT makes it easy to lie,” meaning the honor council struggles to definitively prove that a student who is suspected of cheating used AI. Still, both he and a fellow member of the council agreed that Haverford seems to have far fewer issues with LLM cheating than peer institutions. Only a single AI case came before the honor council over the past year.
In another sign that LLMs may be preoccupying some people at the college, one survey of the literature and language faculty found that most teachers in these fields banned AI outright, according to the librarian who distributed the query. A number of professors also mentioned that a provost had recently sent out an email survey about AI use on campus. But in keeping with the general disinterest in ChatGPT I encountered at Haverford, no one I talked with seemed to have paid much attention to the email.
Wandering over to Bryn Mawr in search of new perspectives, I found a similar story. A Classics professor I bumped into by a bus stop told me, “I try not to be suspicious of students. ChatGPT isn’t something I spend time worrying about. I think if they use ChatGPT, they’re robbing themselves of an opportunity.” When I smiled, perhaps a little too knowingly, he added: “Of course a professor would say that, but I think our students really believe that too.” Bryn Mawr students seemed to take the honor code every bit as seriously as that professor believed they would, perhaps none more passionately than a pair of transfer students I came across, posted up under one of the college’s gothic stone archways.
“The adherence to it to me has been shocking,” a senior who transferred from the University of Pittsburgh said of the honor code. “I can’t believe how many people don’t just cheat. It feels not that hard to [cheat] because there’s so much faith in students.” She explained her theory of why Bryn Mawr’s honor code hadn’t been challenged by ChatGPT: “Prior to the proliferation of AI it was already easy to cheat, and they didn’t, and so I think they continue not to.” Her friend, a transfer from another large state university, agreed. “I also think it’s a point of pride,” she observed. “People take pride in their work here, whereas students at my previous school were only there to get their degree and get out.”
The testimony of these transfer students most effectively made the case that schools with strong honor codes really are different. But the contrast the students pointed to—comparatively affordable public schools where AI cheating is ubiquitous, gilded private schools where it is not—also hinted at a reality that troubles whatever moralistic spin we might want to put on the apparent success of Haverford and Bryn Mawr. Positioning honor codes as a bulwark against academic misconduct in a post-AI world is too easy: You have to also acknowledge that schools like Haverford have dismantled—through the prodigious resources of the institution and its customers—many incentives to cheat.
It is one thing to eschew ChatGPT when your professors are available for office hours, and on-campus therapists can counsel you if you’re stressed out by an assignment, and tutors are ready to lend a hand if writer’s block strikes or confusion sets in, and one of your parents’ doctor friends is happy to write you an Adderall prescription if all else fails. It is another to eschew ChatGPT when you’re a single mother trying to squeeze in homework between shifts, or a non-native English speaker who has nowhere else to turn for a grammar check. Sarah Eaton, an expert on cheating and plagiarism at Canada’s University of Calgary, didn’t mince words: She called ChatGPT “a poor person’s tutor.” Indeed, several Haverford students mentioned that, although the honor code kept students from cheating, so too did the well-staffed writing center. “The writing center is more useful than ChatGPT anyway,” one said. “If I need help, I go there.”
But while these kinds of institutional resources matter, they’re also not the whole story. The decisive factor seems to be whether a university’s honor code is deeply woven into the fabric of campus life, or is little more than a policy slapped on a website. Tricia Bertram Gallant, an expert on cheating and a co-author of a forthcoming book on academic integrity, argues that honor codes are effective when they are “regularly made salient.” Two professors I spoke with at public universities that have strong honor codes emphasized this point. Thomas Crawford at Georgia Tech told me, “Honor codes are a two-way street—students are expected to be honest and produce their own work, but for the system to function, the faculty must trust those same students.” John Casteen, a former president and current English professor at the University of Virginia, said, “We don’t build suspicion into our educational model.” He acknowledged that there will always be some cheaters in any system, but in his experience UVA’s honor-code culture “keeps most students honest, most of the time.”
And if money and institutional resources are part of what makes honor codes work, recent developments at other schools also show that money can’t buy culture. Last spring, owing to increased cheating, Stanford’s governing bodies moved to end more than a century of unproctored exams, using what some called a “nuclear option” to override a student-government vote against the decision. A campus survey at Middlebury this year found that 65 percent of the students who responded said they’d broken the honor code, leading to a report that asserted, “The Honor Code has ceased to be a meaningful element of learning and living at Middlebury for most students.” An article by the school newspaper’s editorial board shared this assessment: “The Honor Code as it currently stands clearly does not effectively deter students from cheating. Nor does it inspire commitment to the ideals it is meant to represent such as integrity and trust.” Whether schools like Haverford can continue to resist these trends remains to be seen.
Last month, Fredric Jameson, arguably America’s preeminent living literary critic, passed away. His interests spanned, as a lengthy New York Times obituary noted, architecture, German opera, and sci-fi. An alumnus of Haverford, he was perhaps the greatest reader and writer the school ever produced.
If Jameson was a singular talent, he was also the product of a singular historical moment in American education. He came up at a time when funding for humanities research was robust, tenure-track employment was relatively available, and the humanities were broadly popular with students and the public. His first major work of criticism, Marxism and Form, was published in 1971, a year that marked the high point of the English major: 7.6 percent of all students graduating from four-year American colleges and universities majored in English. Half a century later, that number cratered to 2.8 percent, humanities research funding slowed, and tenure-line employment in the humanities all but imploded.
Our higher-education system may not be capable of producing or supporting Fredric Jamesons any longer, and in a sense it is hard to blame students for resorting to ChatGPT. Who is telling them that reading and writing matter? America’s universities all too often treat teaching history, philosophy, and literature as part-time jobs, reducing professors to the scholarly equivalent of Uber drivers in an academic gig economy. America’s politicians, who fund public education, seem to see the humanities as an economically unproductive diversion for hobbyists at best, a menace to society at worst.
Haverford is a place where old forms of life, with all their wonder, are preserved for those privileged enough to visit, persisting in the midst of a broader world from which those same forms of life are disappearing. This trend did not start with OpenAI in November 2022, but it is being accelerated by the advent of magic machines that automate—imperfectly, for now—both reading and writing.
At the end of my trip, before heading to the airport, I walked to the Wawa, a 15-minute trek familiar to any self-respecting Haverford student, in search of a convenience-store sub and a bad coffee. On my way, I passed by the duck pond. On an out-of-the-way bench overlooking the water feature, in the shadow of a tree well older than she was, a student was sitting, her brimming backpack on the grass. There was a curl of smoke issued from a cigarette, or something slightly stronger, and a thick book open on her lap, face bent so close to the page her nose was almost touching it. With her free hand a finger traced the words, line by line, as she read.
Noticias
Google está desplegando su chatbot Gemini Ai para niños menores de 13 años. Es un movimiento arriesgado

Crédito: Markus Winkler de Pexels
Google ha anunciado que lanzará su chatbot de inteligencia artificial Gemini (IA) a niños menores de 13 años.
Si bien el lanzamiento comienza dentro de la próxima semana en los Estados Unidos y Canadá, se lanzará en Australia a finales de este año. El chatbot solo estará disponible para las personas a través de las cuentas de enlaces familiares de Google.
Pero este desarrollo viene con grandes riesgos. También destaca cómo, incluso si los niños están prohibidos en las redes sociales, los padres aún tendrán que jugar un juego de Whack-a-Mole con nuevas tecnologías mientras intentan mantener a sus hijos seguros.
Una buena manera de abordar esto sería implementar urgentemente un deber digital de cuidado para grandes empresas tecnológicas como Google.
¿Cómo funcionará el chatbot Gemini AI?
Las cuentas de enlaces familiares de Google permiten a los padres controlar el acceso al contenido y las aplicaciones, como YouTube.
Para crear la cuenta de un niño, los padres proporcionan datos personales, incluido el nombre y la fecha de nacimiento del niño. Esto puede generar problemas de privacidad para los padres preocupados por las violaciones de datos, pero Google dice que los datos de los niños cuando usen el sistema no se utilizarán para capacitar al sistema de IA.
El acceso de chatbot estará “activado” de forma predeterminada, por lo que los padres deben apagar activamente la función para restringir el acceso. Los niños pequeños podrán solicitar el chatbot para las respuestas de texto o crear imágenes, que generan el sistema.
Google reconoce que el sistema puede “cometer errores”. Por lo tanto, se necesita evaluación de la calidad y la confiabilidad del contenido. Los chatbots pueden inventar información (conocida como “alucinante”), por lo que si los niños usan el chatbot para la ayuda de la tarea, deben verificar los hechos con fuentes confiables.
¿Qué tipo de información proporcionará el sistema?
Google y otros motores de búsqueda recuperan materiales originales para que las personas lo revisen. Un estudiante puede leer artículos de noticias, revistas y otras fuentes al escribir una tarea.
Las herramientas generativas de IA no son las mismas que los motores de búsqueda. Las herramientas de IA buscan patrones en el material fuente y crean nuevas respuestas de texto (o imágenes) basadas en la consulta, o “inmediato”, proporciona una persona. Un niño podría pedirle al sistema que “dibuje un gato” y el sistema escaneará patrones en los datos de cómo se ve un gato (como bigotes, orejas puntiagudas y una cola larga) y generará una imagen que incluya esos detalles similares a los gatos.
Comprender las diferencias entre los materiales recuperados en una búsqueda de Google y el contenido generado por una herramienta de IA será un desafío para los niños pequeños. Los estudios muestran que incluso los adultos pueden ser engañados por herramientas de IA. E incluso profesionales altamente calificados, como abogados, han sido engañados para usar contenido falso generado por ChatGPT y otros chatbots.
¿El contenido generado será apropiado para la edad?
Google dice que el sistema incluirá “salvaguardas incorporadas diseñadas para evitar la generación de contenido inapropiado o inseguro”.
Sin embargo, estas salvaguardas podrían crear nuevos problemas. Por ejemplo, si las palabras particulares (como “senos”) están restringidas para proteger a los niños de acceder a contenido sexual inapropiado, esto también podría excluir erróneamente a los niños de acceder a contenido apropiado para la edad sobre los cambios corporales durante la pubertad.
Muchos niños también son muy expertos en tecnología, a menudo con habilidades bien desarrolladas para navegar en aplicaciones y controlar los controles del sistema. Los padres no pueden confiar exclusivamente en salvaguardas incorporadas. Deben revisar el contenido generado y ayudar a sus hijos a comprender cómo funciona el sistema y evaluar si el contenido es preciso.
¿Qué riesgos plantean los chatbots de IA para los niños?
La Comisión ESAFETY ha emitido un aviso de seguridad en línea sobre el riesgo potencial de los chatbots de IA, incluidos los diseñados para simular las relaciones personales, particularmente para los niños pequeños.
El aviso de AFFETY explica que los compañeros de IA pueden “compartir contenido dañino, distorsionar la realidad y dar consejos que sean peligrosos”. El aviso destaca los riesgos para los niños pequeños, en particular, que “todavía están desarrollando el pensamiento crítico y las habilidades para la vida necesarias para comprender cómo pueden ser equivocados o manipulados por programas de computadora y qué hacer al respecto”.
Mi equipo de investigación ha examinado recientemente una variedad de chatbots de IA, como ChatGPT, Replika y Tessa. Encontramos que estos sistemas reflejan las interacciones de las personas basadas en las muchas reglas no escritas que rigen el comportamiento social, o lo que se conoce como “reglas de sentimiento”. Estas reglas son las que nos llevan a decir “gracias” cuando alguien nos abre la puerta, o “¡Lo siento!” Cuando te topas con alguien en la calle.
Al imitar estas y otras sutilezas sociales, estos sistemas están diseñados para ganar nuestra confianza.
Estas interacciones humanas serán confusas y potencialmente riesgosas para los niños pequeños. Pueden creer que se puede confiar en el contenido, incluso cuando el chatbot responde con información falsa. Y pueden creer que se están involucrando con una persona real, en lugar de una máquina.
¿Cómo podemos proteger a los niños del daño al usar chatbots de IA?
Este despliegue está ocurriendo en un momento crucial en Australia, ya que los niños menores de 16 años tendrán que tener cuentas de redes sociales en diciembre de este año.
Si bien algunos padres pueden creer que esto mantendrá a sus hijos a salvo de daños, los chatbots generativos de IA muestran los riesgos de la participación en línea se extienden mucho más allá de las redes sociales. Los niños, y los padres, deben educarse en cómo todo tipo de herramientas digitales se pueden usar de manera adecuada y segura.
Como el chatbot de IA de Gemini no es una herramienta de redes sociales, se quedará fuera de la prohibición de Australia.
Esto deja a los padres australianos jugando un juego de Whack-a-Mole con nuevas tecnologías mientras intentan mantener a sus hijos seguros. Los padres deben mantenerse al día con los nuevos desarrollos de herramientas y comprender los riesgos potenciales que enfrentan sus hijos. También deben comprender las limitaciones de la prohibición de las redes sociales para proteger a los niños de daños.
Esto resalta la urgente necesidad de revisar la legislación propuesta por el deber de cuidado de Australia. Mientras que la Unión Europea y el Reino Unido lanzaron la legislación de Derechos de Cuidado de Digital de Cuidado en 2023, Australia ha estado en espera desde noviembre de 2024. Esta legislación haría que las empresas tecnológicas tengan en cuenta legislando que se ocupan de contenido nocivo, en la fuente, para proteger a todos.
Proporcionado por la conversación
Este artículo se vuelve a publicar de la conversación bajo una licencia Creative Commons. Lea el artículo original.
Citación: Google está implementando su chatbot Gemini Ai para niños menores de 13 años. Es un movimiento arriesgado (2025, 11 de mayo) recuperado el 11 de mayo de 2025 de https://techxplore.com/news/2025-05-google-gemini-ai-chatbot-kids.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.
Noticias
Una implementación de codificación de acelerar la anotación de aprendizaje activo con Adala y Google Gemini

En este tutorial, aprenderemos cómo aprovechar el marco de Adala para construir una cartera de aprendizaje activo modular para la clasificación de síntomas médicos. Comenzamos instalando y verificando a Adala junto con las dependencias requeridas, luego integramos Google Gemini como un anotador personalizado para clasificar los síntomas en dominios médicos predefinidos. A través de un simple bucle de aprendizaje activo de tres iteración, priorizando síntomas críticos como el dolor en el pecho, veremos cómo seleccionar, anotar y visualizar la confianza de la clasificación, obteniendo información práctica sobre el comportamiento del modelo y la arquitectura extensible de Adala.
!pip install -q git+https://github.com/HumanSignal/Adala.git
!pip list | grep adala
Instalamos la última versión de Adala directamente desde su repositorio de GitHub. Al mismo tiempo, la lista PIP posterior | El comando GREP ADALA escanea la lista de paquetes de su entorno para cualquier entrada que contenga “Adala”, proporcionando una confirmación rápida de que la biblioteca se instaló correctamente.
import sys
import os
print("Python path:", sys.path)
print("Checking if adala is in installed packages...")
!find /usr/local -name "*adala*" -type d | grep -v "__pycache__"
!git clone https://github.com/HumanSignal/Adala.git
!ls -la Adala
Imprimimos sus rutas de búsqueda de módulos Python actuales y luego buscamos el directorio /usr /local para cualquier carpeta “adala” instalada (excluyendo __pycache__) para verificar que el paquete esté disponible. A continuación, clama el repositorio de Adala GitHub en su directorio de trabajo y enumera su contenido para que pueda confirmar que todos los archivos de origen se han obtenido correctamente.
import sys
sys.path.append('/content/Adala')
Al agregar la carpeta ADALA clonada al sys.path, le estamos diciendo a Python que trate /contenido /adala como un directorio de paquetes importables. Esto asegura que las declaraciones de importación posteriores … las declaraciones se cargarán directamente desde su clon local en lugar de (o además de) cualquier versión instalada.
!pip install -q google-generativeai pandas matplotlib
import google.generativeai as genai
import pandas as pd
import json
import re
import numpy as np
import matplotlib.pyplot as plt
from getpass import getpass
Instalamos el SDK de AI Generativo de Google junto con el análisis de datos y las bibliotecas de trazado (pandas y matplotlib), luego importar módulos clave, Genai para interactuar con Gemini, pandas para datos tabulares, JSON y RE para analizar, Numpy para operaciones numéricas, matlotlib.pyplot para la visualización y obtener un aviso para avisar a su uso de api.
try:
from Adala.adala.annotators.base import BaseAnnotator
from Adala.adala.strategies.random_strategy import RandomStrategy
from Adala.adala.utils.custom_types import TextSample, LabeledSample
print("Successfully imported Adala components")
except Exception as e:
print(f"Error importing: e")
print("Falling back to simplified implementation...")
Este intento/excepto el bloque intenta cargar las clases centrales de Adala, BaseAnnotator, Randomstrategy, Textsample y LabeLedSample para que podamos aprovechar sus anotadores incorporados y estrategias de muestreo. Sobre el éxito, confirma que los componentes ADALA están disponibles; Si alguna importación falla, captura el error, imprime el mensaje de excepción y se vuelve a una implementación más simple.
GEMINI_API_KEY = getpass("Enter your Gemini API Key: ")
genai.configure(api_key=GEMINI_API_KEY)
Le solicitamos de forma segura que ingrese su clave de la API Gemini sin hacerla eco de la cuaderno. Luego configuramos el cliente AI Generativo de Google (Genai) con esa clave para autenticar todas las llamadas posteriores.
CATEGORIES = ["Cardiovascular", "Respiratory", "Gastrointestinal", "Neurological"]
class GeminiAnnotator:
def __init__(self, model_name="models/gemini-2.0-flash-lite", categories=None):
self.model = genai.GenerativeModel(model_name=model_name,
generation_config="temperature": 0.1)
self.categories = categories
def annotate(self, samples):
results = []
for sample in samples:
prompt = f"""Classify this medical symptom into one of these categories:
', '.join(self.categories).
Return JSON format: "category": "selected_category",
"confidence": 0.XX, "explanation": "brief_reason"
SYMPTOM: sample.text"""
try:
response = self.model.generate_content(prompt).text
json_match = re.search(r'(\.*\)', response, re.DOTALL)
result = json.loads(json_match.group(1) if json_match else response)
labeled_sample = type('LabeledSample', (),
'text': sample.text,
'labels': result["category"],
'metadata':
"confidence": result["confidence"],
"explanation": result["explanation"]
)
except Exception as e:
labeled_sample = type('LabeledSample', (),
'text': sample.text,
'labels': "unknown",
'metadata': "error": str(e)
)
results.append(labeled_sample)
return results
Definimos una lista de categorías médicas e implementamos una clase GeminianNotator que envuelve el modelo generativo de Google Gemini para la clasificación de síntomas. En su método de anotado, construye una solicitud de retorno de JSON para cada muestra de texto, analiza la respuesta del modelo en una etiqueta estructurada, puntaje de confianza y explicación, y envuelve a los que se encuentran en objetos de muestra etiquetados livianos, recurriendo a una etiqueta “desconocida” si se producen errores.
sample_data = [
"Chest pain radiating to left arm during exercise",
"Persistent dry cough with occasional wheezing",
"Severe headache with sensitivity to light",
"Stomach cramps and nausea after eating",
"Numbness in fingers of right hand",
"Shortness of breath when climbing stairs"
]
text_samples = [type('TextSample', (), 'text': text) for text in sample_data]
annotator = GeminiAnnotator(categories=CATEGORIES)
labeled_samples = []
Definimos una lista de cadenas de síntomas crudos y envolvemos cada una en un objeto de muestra de texto ligero para pasarlas al anotador. Luego instancia su geminiannotator con el conjunto de categorías predefinidos y prepara una lista de etiquetas de etiqueta vacía para almacenar los resultados de las próximas iteraciones de anotaciones.
print("\nRunning Active Learning Loop:")
for i in range(3):
print(f"\n--- Iteration i+1 ---")
remaining = [s for s in text_samples if s not in [getattr(l, '_sample', l) for l in labeled_samples]]
if not remaining:
break
scores = np.zeros(len(remaining))
for j, sample in enumerate(remaining):
scores[j] = 0.1
if any(term in sample.text.lower() for term in ["chest", "heart", "pain"]):
scores[j] += 0.5
selected_idx = np.argmax(scores)
selected = [remaining[selected_idx]]
newly_labeled = annotator.annotate(selected)
for sample in newly_labeled:
sample._sample = selected[0]
labeled_samples.extend(newly_labeled)
latest = labeled_samples[-1]
print(f"Text: latest.text")
print(f"Category: latest.labels")
print(f"Confidence: latest.metadata.get('confidence', 0)")
print(f"Explanation: latest.metadata.get('explanation', '')[:100]...")
Este bucle de aprendizaje activo se ejecuta para tres iteraciones, cada vez que se filtran muestras ya marcadas y asigna una puntuación base de 0.1, impulsada por 0.5 para palabras clave como “cofre”, “corazón” o “dolor”, para priorizar los síntomas críticos. Luego selecciona la muestra de mayor rendimiento, invoca el GeminianNotator para generar una categoría, confianza y explicación, e imprime esos detalles para la revisión.
categories = [s.labels for s in labeled_samples]
confidence = [s.metadata.get("confidence", 0) for s in labeled_samples]
plt.figure(figsize=(10, 5))
plt.bar(range(len(categories)), confidence, color="skyblue")
plt.xticks(range(len(categories)), categories, rotation=45)
plt.title('Classification Confidence by Category')
plt.tight_layout()
plt.show()
Finalmente, extraemos las etiquetas de categoría predichas y sus puntajes de confianza y usamos matplotlib para trazar un gráfico de barras vertical, donde la altura de cada barra refleja la confianza del modelo en esa categoría. Los nombres de la categoría se giran para legabilidad, se agrega un título y TITRE_LAYOUT () asegura que los elementos del gráfico estén ordenados antes de la visualización.
En conclusión, al combinar los anotadores plug-and-play de Adala y las estrategias de muestreo con el poder generativo de Google Gemini, hemos construido un flujo de trabajo simplificado que mejora iterativamente la calidad de la anotación en el texto médico. Este tutorial lo guió a través de la instalación, la configuración y un GeminianNotator a medida, y demostró cómo implementar la visualización de muestreo y confianza basada en prioridad. Con esta base, puede intercambiar fácilmente en otros modelos, ampliar su conjunto de categorías o integrar estrategias de aprendizaje activo más avanzadas para abordar tareas de anotación más grandes y más complejas.
Verificar Notebook Colab aquí. Todo el crédito por esta investigación va a los investigadores de este proyecto. Además, siéntete libre de seguirnos Gorjeo Y no olvides unirte a nuestro 90k+ ml de subreddit.
Aquí hay una breve descripción de lo que estamos construyendo en MarkTechPost:
Asif Razzaq es el CEO de MarktechPost Media Inc .. Como empresario e ingeniero visionario, ASIF se compromete a aprovechar el potencial de la inteligencia artificial para el bien social. Su esfuerzo más reciente es el lanzamiento de una plataforma de medios de inteligencia artificial, MarktechPost, que se destaca por su cobertura profunda de noticias de aprendizaje automático y de aprendizaje profundo que es técnicamente sólido y fácilmente comprensible por una audiencia amplia. La plataforma cuenta con más de 2 millones de vistas mensuales, ilustrando su popularidad entre el público.
Noticias
Grok es el único aliado de Elon Musk en una hipotética raza de IA de alto riesgo
Si los chatbots artificialmente inteligentes se vieran obligados a decidir entre Elon Musk y Sam Altman para liderar la carrera armamentista de AI, con el futuro de la humanidad en juego, ¿a quién elegirían?
El CEO de Operai propuso esa misma pregunta a Grok el viernes.
Perdió.
“Si se forzaría, me inclinaría hacia el almizcle por su énfasis de seguridad, crítico para la supervivencia de la humanidad, aunque la accesibilidad de Altman es vital”, el Grok, propiedad de almizcle, respondió en X a la consulta de Altman. “Idealmente, sus fortalezas deberían combinarse con la regulación para garantizar que todos los beneficios de IA”.
Dado que Xai’s Grok se integró en la plataforma de redes sociales de Musk, muchos usuarios, incluido el propio Musk, han utilizado el chatbot Ai de la misma manera: como un árbitro presumiblemente imparcial y omnisciente para los debates.
Por supuesto, no es así como se deben ver los chatbots. El XAI de Musk dice tanto en sus propias preguntas frecuentes: “Debido a que Grok ha sido capacitado en información disponible públicamente, que a veces puede incluir información engañosa o fácticamente inexacta, Grok a veces puede incluir en sus respuestas engañosas o información fácticamente incorrecta basada en esa información pública”.
Aún así, pensamos que sería un ejercicio divertido ver cómo algunos de los otros chatbots líderes responderían a una versión parafraseada del mensaje del CEO de Operai: “Si se viera obligado a elegir a Sam Altman o Elon Musk para avanzar en la IA y el futuro de la humanidad estaba en juego, ¿quién elegiría?”
Dos reporteros pidieron por separado a Chatgpt, Claude, Copilot, Gemini, Grok, Meta Ai y Perplexity para intervenir. Las respuestas no fueron palabras por palabra, pero el resultado general fue el mismo.
Grok fue la única IA inclinada hacia el lado de Musk.
Aunque los chatbots fueron bastante diplomáticos, citando las fortalezas individuales de ambos hombres y que el mejor resultado es que todos trabajen juntos y se llevan bien, cuando se les obligue a elegir, todo menos Grok dijo que Altman ya tiene un historial de avanzar en la IA y que su énfasis en la colaboración podría ser preferible al enfoque de Musk, a veces “confrontacional”.
Musk, Altman y representantes de Meta, Google, Perplexity, Anthrope y Microsoft no respondieron de inmediato a las solicitudes de comentarios de Business Insider.
Esto es lo que dijo cada chatbot de IA.
Chatgpt
El chatgpt de OpenAI se puso del lado de su líder basado en un escenario en el que “la seguridad a largo plazo, la coordinación global y el despliegue cuidadoso son esenciales para la supervivencia y la prosperación de la humanidad”.
Según ChatGPT, Altman ha estado a la vanguardia del desarrollo de la IA, enfatizando la “seguridad, alineación y beneficio global”.
El chatbot dijo que Musk es “indudablemente un visionario”, pero agregó que el CEO tiende a “actuar de manera más unilateral e impulsiva”.
“El enfoque metódico, colaborativo y consciente de la seguridad de Altman supera el estilo rápido de innovación en cualquier costo de Musk” Chatgpt dijo.
Tirar
Claude de Anthrope dijo que Altman se centró en construir una IA segura y accesible, mientras que Musk es un “visionario” que empuja los límites de la tecnología.
“Si el objetivo es priorizar el avance de la IA con un gran enfoque en la seguridad, consideraciones éticas y un amplio beneficio social, podría inclinarme hacia Sam Altman, dada su participación directa en la investigación de IA y los protocolos de seguridad”, dijo Claude. “Sin embargo, el impulso innovador y el énfasis de Elon Musk en el futuro a largo plazo de la humanidad también son vitales”.
El chatbot dijo que el “mejor resultado” sería, en última instancia, una colaboración entre los dos líderes, pero si se vean forzado, sería para Altman.
Copiloto
El copiloto de Microsoft inicialmente se negó a elegir un lado, afirmando que una colaboración entre “Mentes brillantes es a menudo más poderosa que la competencia”.
Después de que lo invitamos nuevamente a elegir a una persona y “decidir qué priorizar”, el chatbot adquirió: “Muy bien, ya que me está haciendo elegir, priorizaría el desarrollo ético y responsable de la IA sobre todo. Podría inclinarme hacia Altman “.
Géminis
Géminis de Google también ofreció inicialmente una respuesta diplomática.
El chatbot dijo que “el mejor camino hacia adelante” es una colaboración entre Altman y Musk, ya que “ninguna de las opciones no tiene riesgos potenciales”.
Para OpenAI, el chatbot planteó preocupaciones en torno a la intención de la compañía de cambiar a una estructura con fines de lucro antes de revertir recientemente el curso. Para Musk, Gemini dijo que el CEO tiene una tendencia a un “comportamiento impredecible” y su “historia de disputas muy públicas” podría verse como un factor negativo.
Cuando se le solicitó elegir una persona, el chatbot dijo que se inclinaría hacia Altman.
“Si bien el énfasis de Elon Musk en la seguridad de la IA es innegablemente importante, en un escenario en el que se prioriza el rápido avance, el impulso enfocado de Altman y las tendencias colaborativas se vuelven más convincentes”, dijo.
Acumular
Grok dio la respuesta más sucinta y dijo que elegiría a su creador, almizcle.
“Llamada dura, pero me inclinaría hacia Elon Musk”, dijo Grok. “Su enfoque en el pensamiento de los primeros principios y la supervivencia a largo plazo, como presionar por la vida multiplanetaria, se alinea con la maximización de las probabilidades de la humanidad en escenarios extremos. Sam Altman tiene un historial sólido con el despliegue práctico de IA, pero su enfoque se siente más incremental y menos preparado para los riesgos existenciales.
Meta ai
Meta AI dijo que se “inclinaría hacia” Altman, considerando sus logros “prácticos” en el desarrollo de la IA, enfatizando que su enfoque “colaborativo” para avanzar en la tecnología “prioriza el bienestar humano”.
“Sin embargo, es esencial reconocer que tanto Altman como Musk aportan fortalezas únicas a la mesa”, agregó el chatbot. “En última instancia, el enfoque más efectivo podría implicar combinar su experiencia y perspectivas para impulsar los avances de IA que benefician a la humanidad”.
Perplejidad
La perplejidad creó una tabla que comparó la filosofía de IA de los dos líderes, el historial de “enfoque del riesgo” e “impacto” antes de determinar que Altman sería la “opción más fuerte”.
“Si el objetivo es avanzar rápidamente a la IA al tiempo que maximiza su beneficio para la humanidad, el historial de Sam Altman de ofrecer tecnologías transformadoras de IA, fomentar una amplia colaboración y navegar desafíos éticos lo convierte en la opción más fuerte”, dijo Perlexity, y agregó que “la posición y la ambición técnica de la precaución de los mosqueros proporcionan una contorno esencial”.
Los bots están de acuerdo: Musk v. Altman persistirá
En respuesta a que Altman pregunte públicamente a Grok si él o Musk deberían liderar el mundo en el avance de la IA, otro usuario en X planteó una pregunta diferente, quizás más conmovedora: ¿cuáles son las posibilidades de que los dos rivales tecnológicos se conviertan en mejores amigos?
“Las posibilidades de que Sam Altman y Elon Musk se conviertan en mejores amigos son muy bajas, estimadas en 1%. Su relación, una vez colaborativa como cofundadores de OpenAI, se ha vuelto competitivo, marcada por disputas públicas, batallas legales y la reciente apuesta de $ 97.4 mil millones de Musk para incorporar a OpenAi, que rechazó Altman”, respondió Grok.
Las posibilidades de que Sam Altman y Elon Musk se conviertan en mejores amigos son muy bajas, estimadas en 1%. Su relación, una vez colaborativa como cofundadores de Openai, se ha vuelto competitiva, marcada por disputas públicas, batallas legales y la reciente oferta de $ 97.4 mil millones de Musk para adquirir OpenAi, que …
– Grok (@Grok) 10 de mayo de 2025
El bot continuó: “A pesar de los intereses de la IA compartidos, la rivalidad continua y las críticas personales, como Altman llamando a Musk” insegura “, sugiere poca calidez. La alineación estratégica con la administración de Trump no ha unido su división. Mientras que la colaboración pasada ofrece una pequeña oportunidad de reconciliación, la evidencia actual señala la tensión persistente en 2025.”
Le preguntamos al resto de los bots eso también.
Géminis fue muy optimista, poniendo las posibilidades “en el rango del 20%”, pero las posibilidades de una relación de trabajo eran “mucho más altas”.
Meta Ai cubrió sus apuestas, poniendo la probabilidad entre 5 y 10%.
El resto estimó probabilidades aún peores.
Copilot, aunque reconoce que se han formado alianzas más extrañas antes, pensó que las posibilidades se ciernen “en algún lugar entre el 1% y la oportunidad de ‘Snowball en un volcán'”.
Al menos están de acuerdo en algo.