Connect with us

Noticias

ChatGPT vs the Honor Code

Published

on

Two of them were sprawled out on a long concrete bench in front of the main Haverford College library, one scribbling in a battered spiral-ring notebook, the other making annotations in the white margins of a novel. Three more sat on the ground beneath them, crisscross-applesauce, chatting about classes. A little hip, a little nerdy, a little tattooed; unmistakably English majors. The scene had the trappings of a campus-movie set piece: blue skies, green greens, kids both working and not working, at once anxious and carefree.

I said I was sorry to interrupt them, and they were kind enough to pretend that I hadn’t. I explained that I’m a writer, interested in how artificial intelligence is affecting higher education, particularly the humanities. When I asked whether they felt that ChatGPT-assisted cheating was common on campus, they looked at me like I had three heads. “I’m an English major,” one told me. “I want to write.” Another added: “Chat doesn’t write well anyway. It sucks.” A third chimed in, “What’s the point of being an English major if you don’t want to write?” They all murmured in agreement.

What’s the point, indeed? The conventional wisdom is that the American public has lost faith in the humanities—and lost both competence and interest in reading and writing, possibly heralding a post-literacy age. And since the emergence of ChatGPT, which is capable of producing long-form responses to short prompts, colleges and universities have tried, rather unsuccessfully, to stamp out the use of what has become the ultimate piece of cheating technology, resulting in a mix of panic and resignation about the impact AI will have on education. But at Haverford, by contrast, the story seemed different. Walking onto campus was like stepping into a time machine, and not only because I had graduated from the school a decade earlier. The tiny, historically Quaker college on Philadelphia’s Main Line still maintains its old honor code, and students still seem to follow it instead of letting a large language model do their thinking for them. For the most part, the students and professors I talked with seemed totally unfazed by this supposedly threatening new technology.

The two days I spent at Haverford and nearby Bryn Mawr College, in addition to interviews with people at other colleges with honor codes, left me convinced that the main question about AI in higher education has little to do with what kind of academic assignments the technology is or is not capable of replacing. The challenge posed by ChatGPT for American colleges and universities is not primarily technological but cultural and economic.

It is cultural because stemming the use of Chat—as nearly every student I interviewed referred to ChatGPT—requires an atmosphere in which a credible case is made, on a daily basis, that writing and reading have a value that transcends the vagaries of this or that particular assignment or résumé line item or career milestone. And it is economic because this cultural infrastructure isn’t free: Academic honor and intellectual curiosity do not spring from some inner well of rectitude we call “character,” or at least they do not spring only from that. Honor and curiosity can be nurtured, or crushed, by circumstance.

Rich private colleges with honor codes do not have a monopoly on academic integrity—millions of students and faculty at cash-strapped public universities around the country are also doing their part to keep the humanities alive in the face of generative AI. But at the wealthy schools that have managed to keep AI at bay, institutional resources play a central role in their success. The structures that make Haverford’s honor code function—readily available writing support, small classes, and comparatively unharried faculty—are likely not scalable in a higher-education landscape characterized by yawning inequalities, collapsing tenure-track employment, and the razing of public education at both the primary and secondary levels.

When OpenAI’s ChatGPT launched on November 30, 2022, colleges and universities were returning from Thanksgiving break. Professors were caught flat-footed as students quickly began using the generative-AI wonder app to cut corners on assignments, or to write them outright. Within a few weeks of the program’s release, ChatGPT was heralded as bringing about “the end of high-school English” and the death of the college essay. These early predictions were hyperbolic, but only just. As The Atlantic’s Ian Bogost recently argued, there has been effectively zero progress in stymying AI cheating in the years since. One professor summarized the views of many in a recent mega-viral X post: “I am no longer a teacher. I’m just a human plagiarism detector. I used to spend my grading time giving comments for improving writing skills. Now most of that time is just checking to see if a student wrote their own paper.”

While some institutions and faculty have bristled at the encroachment of AI, others have simply thrown in the towel, insisting that we need to treat large language models like “tools” to be “integrated” into the classroom.

I’ve felt uneasy about the tacit assumption that ChatGPT plagiarism is inevitable, that it is human nature to seek technological shortcuts. In my experience as a student at Haverford and then a professor at a small liberal-arts college in Maine, most students genuinely do want to learn and generally aren’t eager to outsource their thinking and writing to a machine. Although I had my own worries about AI, I was also not sold on the idea that it’s impossible to foster a community in which students resist ChatGPT in favor of actually doing the work. I returned to Haverford last month to see whether my fragile optimism was warranted.

When I stopped a professor walking toward the college’s nature trail to ask if ChatGPT was an issue at Haverford, she appeared surprised by the question: “I’m probably not the right person to ask. That’s a question for students, isn’t it?” Several other faculty members I spoke with said they didn’t think much about ChatGPT and cheating, and repeated variations of the phrase I’m not the police.

Haverford’s academic climate is in part a product of its cultural and religious history. During my four years at the school, invocations of “Quaker values” were constant, emphasizing on personal responsibility, humility, and trust in other members of the community. Discussing grades was taboo because it invited competition and distracted from the intrinsic value of learning.

The honor code is the most concrete expression of Haverford’s Quaker ethos. Students are trusted to take tests without proctors and even to bring exams back to their dorm rooms. Matthew Feliz, a fellow Haverford alum who is now a visiting art-history professor at Bryn Mawr—a school also governed by an honor code—put it this way: “The honor code is a kind of contract. And that contract gives students the benefit of the doubt. That’s the place we always start from: giving students the benefit of the doubt.”

Darin Hayton, a historian of science at the college, seemed to embody this untroubled attitude. Reclining in his office chair, surrounded by warm wood and, for 270 degrees, well-loved books, he said of ChatGPT, “I just don’t give a shit about it.” He explained that his teaching philosophy is predicated on modeling the merits of a life of deep thinking, reading, and writing. “I try to show students the value of what historians do. I hope they’re interested, but if they’re not, that’s okay too.” He relies on creating an atmosphere in which students want to do their work, and at Haverford, he said, they mostly do. Hayton was friendly, animated, and radiated a kind of effortless intelligence. I found myself, quite literally, leaning forward when he spoke. It was not hard to believe that his students did the same.

“It seems to me that this anxiety in our profession over ChatGPT isn’t ultimately about cheating.” Kim Benston, a literary historian at Haverford and a former president of the college, told me. “It’s an existential anxiety that reflects a deeper concern about the future of the humanities,” he continued. Another humanities professor echoed these remarks, saying that he didn’t personally worry about ChatGPT but agreed that the professorial concern about AI was, at bottom, a fear of becoming irrelevant: “We are in the sentence-making business. And it looks like they don’t need us to make sentences any more.”

I told Benston that I had struggled with whether to continue assigning traditional essays—and risk the possibility of students using ChatGPT—or resort to using in-class, pen-and-paper exams. I’d decided that literature classes without longer, take-home essays are not literature classes. He nodded. The impulse to surveil students, to view all course activity through a paranoid lens, and to resort to cheating-proof assignments was not only about the students or their work, he suggested. These measures were also about nervous humanities professors proving to themselves that they’re still necessary.

My conversations with students convinced me that Hayston, Benston, and their colleagues’ build-it-and-they-will-come sentiment, hopelessly naive though it may seem, was largely correct. Of the dozens of Haverford students I talked with, not a single one said they thought AI cheating was a substantial problem at the school. These interviews were so repetitive, they almost became boring.

The jock sporting bright bruises from some kind of contact sport? “Haverford students don’t really cheat.” The econ major in prepster shorts and a Jackson Hole T-shirt? “Students follow the honor code.” A bubbly first-year popping out of a dorm? “So far I haven’t heard of anyone using ChatGPT. At my high school it was everywhere!” More than a few students seemed off put by the very suggestion that a Haverfordian might cheat. “There is a lot of freedom here and a lot of student autonomy,” a sophomore psychology major told me. “This is a place where you could get away with it if you wanted to. And because of that, I think students are very careful not to abuse that freedom.” The closest I got to a dissenting voice was a contemplative senior who mused: “The honor code is definitely working for now. It may not be working two years from now as ChatGPT gets better. But for now there’s still a lot of trust between students and faculty.”

To be sure, despite that trust, Haverford does have occasional issues with ChatGPT. A student who serves on Haverford’s honor council, which is responsible for handling academic-integrity cases, told me, “There’s generally not too much cheating at Haverford, but it happens.” He said that the primary challenge is that “ChatGPT makes it easy to lie,” meaning the honor council struggles to definitively prove that a student who is suspected of cheating used AI. Still, both he and a fellow member of the council agreed that Haverford seems to have far fewer issues with LLM cheating than peer institutions. Only a single AI case came before the honor council over the past year.

In another sign that LLMs may be preoccupying some people at the college, one survey of the literature and language faculty found that most teachers in these fields banned AI outright, according to the librarian who distributed the query. A number of professors also mentioned that a provost had recently sent out an email survey about AI use on campus. But in keeping with the general disinterest in ChatGPT I encountered at Haverford, no one I talked with seemed to have paid much attention to the email.

Wandering over to Bryn Mawr in search of new perspectives, I found a similar story. A Classics professor I bumped into by a bus stop told me, “I try not to be suspicious of students. ChatGPT isn’t something I spend time worrying about. I think if they use ChatGPT, they’re robbing themselves of an opportunity.” When I smiled, perhaps a little too knowingly, he added: “Of course a professor would say that, but I think our students really believe that too.” Bryn Mawr students seemed to take the honor code every bit as seriously as that professor believed they would, perhaps none more passionately than a pair of transfer students I came across, posted up under one of the college’s gothic stone archways.

“The adherence to it to me has been shocking,” a senior who transferred from the University of Pittsburgh said of the honor code. “I can’t believe how many people don’t just cheat. It feels not that hard to [cheat] because there’s so much faith in students.” She explained her theory of why Bryn Mawr’s honor code hadn’t been challenged by ChatGPT: “Prior to the proliferation of AI it was already easy to cheat, and they didn’t, and so I think they continue not to.” Her friend, a transfer from another large state university, agreed. “I also think it’s a point of pride,” she observed. “People take pride in their work here, whereas students at my previous school were only there to get their degree and get out.”

The testimony of these transfer students most effectively made the case that schools with strong honor codes really are different. But the contrast the students pointed to—comparatively affordable public schools where AI cheating is ubiquitous, gilded private schools where it is not—also hinted at a reality that troubles whatever moralistic spin we might want to put on the apparent success of Haverford and Bryn Mawr. Positioning honor codes as a bulwark against academic misconduct in a post-AI world is too easy: You have to also acknowledge that schools like Haverford have dismantled—through the prodigious resources of the institution and its customers—many incentives to cheat.

It is one thing to eschew ChatGPT when your professors are available for office hours, and on-campus therapists can counsel you if you’re stressed out by an assignment, and tutors are ready to lend a hand if writer’s block strikes or confusion sets in, and one of your parents’ doctor friends is happy to write you an Adderall prescription if all else fails. It is another to eschew ChatGPT when you’re a single mother trying to squeeze in homework between shifts, or a non-native English speaker who has nowhere else to turn for a grammar check. Sarah Eaton, an expert on cheating and plagiarism at Canada’s University of Calgary, didn’t mince words: She called ChatGPT “a poor person’s tutor.” Indeed, several Haverford students mentioned that, although the honor code kept students from cheating, so too did the well-staffed writing center. “The writing center is more useful than ChatGPT anyway,” one said. “If I need help, I go there.”

But while these kinds of institutional resources matter, they’re also not the whole story. The decisive factor seems to be whether a university’s honor code is deeply woven into the fabric of campus life, or is little more than a policy slapped on a website. Tricia Bertram Gallant, an expert on cheating and a co-author of a forthcoming book on academic integrity, argues that honor codes are effective when they are “regularly made salient.” Two professors I spoke with at public universities that have strong honor codes emphasized this point. Thomas Crawford at Georgia Tech told me, “Honor codes are a two-way street—students are expected to be honest and produce their own work, but for the system to function, the faculty must trust those same students.” John Casteen, a former president and current English professor at the University of Virginia, said, “We don’t build suspicion into our educational model.” He acknowledged that there will always be some cheaters in any system, but in his experience UVA’s honor-code culture “keeps most students honest, most of the time.”

And if money and institutional resources are part of what makes honor codes work, recent developments at other schools also show that money can’t buy culture. Last spring, owing to increased cheating, Stanford’s governing bodies moved to end more than a century of unproctored exams, using what some called a “nuclear option” to override a student-government vote against the decision. A campus survey at Middlebury this year found that 65 percent of the students who responded said they’d broken the honor code, leading to a report that asserted, “The Honor Code has ceased to be a meaningful element of learning and living at Middlebury for most students.” An article by the school newspaper’s editorial board shared this assessment: “The Honor Code as it currently stands clearly does not effectively deter students from cheating. Nor does it inspire commitment to the ideals it is meant to represent such as integrity and trust.” Whether schools like Haverford can continue to resist these trends remains to be seen.

Last month, Fredric Jameson, arguably America’s preeminent living literary critic, passed away. His interests spanned, as a lengthy New York Times obituary noted, architecture, German opera, and sci-fi. An alumnus of Haverford, he was perhaps the greatest reader and writer the school ever produced.

If Jameson was a singular talent, he was also the product of a singular historical moment in American education. He came up at a time when funding for humanities research was robust, tenure-track employment was relatively available, and the humanities were broadly popular with students and the public. His first major work of criticism, Marxism and Form, was published in 1971, a year that marked the high point of the English major: 7.6 percent of all students graduating from four-year American colleges and universities majored in English. Half a century later, that number cratered to 2.8 percent, humanities research funding slowed, and tenure-line employment in the humanities all but imploded.

Our higher-education system may not be capable of producing or supporting Fredric Jamesons any longer, and in a sense it is hard to blame students for resorting to ChatGPT. Who is telling them that reading and writing matter? America’s universities all too often treat teaching history, philosophy, and literature as part-time jobs, reducing professors to the scholarly equivalent of Uber drivers in an academic gig economy. America’s politicians, who fund public education, seem to see the humanities as an economically unproductive diversion for hobbyists at best, a menace to society at worst.

Haverford is a place where old forms of life, with all their wonder, are preserved for those privileged enough to visit, persisting in the midst of a broader world from which those same forms of life are disappearing. This trend did not start with OpenAI in November 2022, but it is being accelerated by the advent of magic machines that automate—imperfectly, for now—both reading and writing.

At the end of my trip, before heading to the airport, I walked to the Wawa, a 15-minute trek familiar to any self-respecting Haverford student, in search of a convenience-store sub and a bad coffee. On my way, I passed by the duck pond. On an out-of-the-way bench overlooking the water feature, in the shadow of a tree well older than she was, a student was sitting, her brimming backpack on the grass. There was a curl of smoke issued from a cigarette, or something slightly stronger, and a thick book open on her lap, face bent so close to the page her nose was almost touching it. With her free hand a finger traced the words, line by line, as she read.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

El ex ejecutivo de Operai se une a la IA, el sector público y los líderes de ciberseguridad que encabezan Info-Tech Live 2025 en Las Vegas

Published

on

A medida que Momentum continúa construyendo en las semanas previas a la muy esperada conferencia anual de la industria para CIO y líderes de TI, Info-Tech Research Group ha anunciado tres nuevos oradores destacados para Info-Tech Live 2025 en Las Vegas en junio. Los altavoces recién revelados incluyen Zack Kassex jefe del mercado de ir al mercado en Openai; Bob LeeCIO para Condado de Clark, Nevada; y David TyburskiVicepresidente de Seguridad de la Información y CISO en Wynn Resorts – Voces líderes en IA, innovación del sector público y ciberseguridad. Sus notas clave Ofrezca claridad, estrategia y ideas prácticas sobre los desafíos de TI más urgentes de hoy al proporcionar diversas perspectivas sobre cómo la tecnología está remodelando las industrias, las instituciones y el liderazgo en sí.

Toronto, 14 de mayo de 2025 / PRNewswire/-Info-Tech Research Group, una firma líder mundial de investigación y asesoramiento de TI, ha anunciado tres oradores destacados adicionales para su próximo Info-Tech Live 2025 en Las Vegas Conferencia de TI. Los altavoces son Zack Kassex jefe del mercado de ir al mercado en Openai; Bob LeeCIO para Condado de Clark, Nevada; y David TyburskiVicepresidente de Seguridad de la Información y CISO en Wynn Resorts. Estos oradores compartirán su experiencia en innovación de IA, liderazgo del sector público y ciberseguridad empresarial en el escenario principal del evento insignia de la firma, que tiene lugar. 10-12 de junio, 2025en Bellagio en Las Vegas.

Info-Tech Live 2025 reunirá a miles de CIO, CDO, CISO y líderes de TI durante tres días de notas clave, Insights de analistas y compromiso entre pares. La urgencia y la oportunidad que enfrentan los líderes tecnológicos hoy mientras navegan por la interrupción y la innovación se refleja en el tema de este año “Transformarlo. Transformar todo”.

“Estos altavoces destacados para Info-Tech Live 2025 en Las Vegas Refleja las prioridades y presiones en evolución que enfrentan los líderes de TI hoy, en todas las industrias y mercados “, dice el director de investigación del grupo de investigación de información de información, Gord Harrison. “Desde redefinir cómo las organizaciones se involucran con la IA, hasta la transformación de la prestación de servicios públicos, hasta la defensa de la infraestructura digital en las industrias de alto riesgo, estos líderes aportan información crítica del futuro. Juntos, sus perspectivas ayudarán a los asistentes a ir más allá de la conciencia y tomar una acción estratégica y confidencial”.

Recientemente anunciados oradores destacados para información-tech en vivo 2025 en Las Vegas:

Las últimas incorporaciones a la lista de oradores 2025 de Info-Tech ofrecen a los asistentes una gran cantidad de experiencia en décadas de liderazgo práctico, consultoría e innovación. Sus sesiones proporcionarán nuevas perspectivas sobre los desafíos empresariales actuales, desde la navegación de tecnologías emergentes y las demandas de cumplimiento hasta las estrategias de transformación de escala y alinear las inversiones de TI con el crecimiento empresarial. Los oradores recién anunciados incluyen:

  • Zack Kass, Asesor global de IA, ex jefe de Go To-Mercado, OpenAI
    Zack Kass es un asesor futurista y global que ayuda a Fortune 1000 empresas y gobiernos a adaptarse al panorama de IA que cambia rápidamente. Como ex jefe del mercado de ir a OpenAI, ayudó a construir y liderar a los equipos responsables de traducir la investigación en aplicaciones del mundo real. Kass ahora trabaja para desmitificar la IA y dar forma a un futuro donde la tecnología sirve a las personas y la sociedad.
  • Bob LeeCIO para Condado de Clark, Nevada
    Bob Lee sirve como CIO para Condado de Clark, Nevadaapoyando a más de 2.4 millones de residentes, 90,000 empresas y más de 50 millones de visitantes anualmente. Con más de 25 años de experiencia en los sectores público y privado, Leek se centra en el cambio transformador, el liderazgo inclusivo y el uso de la tecnología para mejorar los resultados para las comunidades a las que sirve.
  • David TyburskiVP de seguridad de la información y director de seguridad de la información para Wynn Resorts
    David Tyburski Lidera la estrategia global de ciberseguridad de Wynn Resorts, supervisando la identidad y el acceso, la gestión de riesgos y la respuesta a los incidentes. Con más de 30 años en TI y seguridad, Tyburski también asesora sobre múltiples juntas de la industria y sirve en la Junta Asesora de Tecnología de la Información del Estado de Nevada.

Info-tech en vivo 2025 en Las Vegas Proporcionará estrategias procesables e información de investigación en profundidad a los líderes y ejecutivos de TI en todas las industrias. Los asistentes tendrán la oportunidad de interactuar con los analistas expertos de Info-Tech, participar en sesiones interactivas y mesas redondas, y obtener un conocimiento crítico sobre el panorama de TI en rápida evolución. La conferencia también contará con una impresionante línea de oradores principales, talleres y eventos de redes diseñados para equipar a los asistentes con las herramientas para impulsar la transformación de TI exponencial. Se publicarán anuncios adicionales en las semanas previas a la conferencia.

Para obtener los últimos detalles, visite el Info-Tech Live 2025 en Las Vegas página, y siga el grupo de investigación de información de información sobre LinkedIn y incógnita.

Media pasa por información-Tech Live 2025 en Las Vegas

Los profesionales de los medios, incluidos periodistas, podcasters e influencers, están invitados a asistir a Info-Tech Live 2025 para obtener acceso exclusivo a la investigación, el contenido y las entrevistas con los líderes de la industria. Para aquellos que no pueden asistir en persona, Info-Tech ofrece una opción de pase digital, proporcionando acceso a notas clave en vivo, sesiones seleccionadas y entrevistas virtuales exclusivas con oradores y analistas.

Los profesionales de los medios que buscan solicitar pases en persona o digitales pueden contactar pr@infotech.com Para asegurar su lugar y cubrir los últimos avances en él para su público.

Oportunidades de expositor

Los expositores también están invitados a formar parte de Info-Tech Live y mostrar sus productos y servicios a un público altamente comprometido de tomadores de decisiones de TI. Para obtener más información sobre cómo convertirse en un expositor de información en vivo, comuníquese con events@infotech.com.

Acerca del grupo de investigación de tecnología de información

Info-Tech Research Group es una de las principales empresas de investigación y asesoramiento del mundo, que atiende con orgullo a más de 30,000 profesionales. La compañía produce una investigación imparcial y altamente relevante y brinda servicios de asesoramiento para ayudar a los líderes a tomar decisiones estratégicas, oportunas y bien informadas. Durante casi 30 años, Info-Tech se ha asociado estrechamente con los equipos para proporcionarles todo lo que necesitan, desde herramientas procesables hasta orientación de analistas, asegurando que brinden resultados medibles para sus organizaciones.

Para obtener más información sobre las divisiones de Info-Tech, visite McLean & Company para obtener servicios de investigación y asesoramiento de recursos humanos y SoftWarReviews para obtener información sobre la compra de software.

Los profesionales de los medios pueden registrarse para un acceso sin restricciones a la investigación a través de TI, recursos humanos y software y cientos de analistas de la industria a través del Programa de Insiders de Medios de la empresa. Para obtener acceso, contactar pr@infotech.com.

Grupo de investigación de tecnología de información de origen

Continue Reading

Noticias

Operai trae GPT-4.1 y 4.1 mini a Chatgpt-Lo que las empresas deben saber

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información


Operai está implementando GPT-4.1, su nuevo modelo de lenguaje grande (LLM) no inicial que equilibra el alto rendimiento con menor costo, para los usuarios de ChatGPT. La compañía está comenzando con sus suscriptores que pagan en ChatGPT Plus, Pro y Equipo, con el acceso a los usuarios de la empresa y la educación esperada en las próximas semanas.

También está agregando GPT-4.1 Mini, que reemplaza a GPT-4O Mini como el valor predeterminado para todos los usuarios de ChatGPT, incluidos los de nivel gratuito. La versión “Mini” proporciona un parámetro a menor escala y, por lo tanto, una versión menos potente con estándares de seguridad similares.

Ambos modelos están disponibles a través de la selección desplegable “Más modelos” en la esquina superior de la ventana de chat dentro de ChatGPT, dando a los usuarios flexibilidad para elegir entre modelos GPT-4.1, GPT-4.1 mini y razonamiento como O3, O4-Mini y O4-Mini-High.

Inicialmente destinado a usar solo por el software de terceros y los desarrolladores de IA a través de la interfaz de programación de aplicaciones (API) de OpenAI, se agregó GPT-4.1 a ChatGPT siguiendo fuertes comentarios de los usuarios.

El líder de investigación de la capacitación posterior de Operai, Michelle Pokrass, confirmó en X, el cambio fue impulsado por la demanda, escribiendo: “Inicialmente estábamos planeando mantener esta API de modelo solo, pero todos lo querían en Chatgpt 🙂 ¡feliz codificación!”

El director de productos de Operai, Kevin Weil, publicó en X diciendo: “Lo construimos para los desarrolladores, por lo que es muy bueno para la codificación e instrucciones siguientes, ¡hágalo un intento!”

Un modelo centrado en la empresa

GPT-4.1 fue diseñado desde cero para la practicidad de grado empresarial.

Lanzado en abril de 2025 junto con GPT-4.1 Mini y Nano, esta familia modelo priorizó las necesidades de los desarrolladores y los casos de uso de producción.

GPT-4.1 ofrece una mejora de 21.4 puntos sobre GPT-4O en el punto de referencia de ingeniería de software verificado SWE-Bench, y una ganancia de 10.5 puntos en tareas de seguimiento de instrucciones en el punto de referencia MultiChallenge de Scale. También reduce la verbosidad en un 50% en comparación con otros modelos, un rasgo de los usuarios de la empresa elogió durante las pruebas tempranas.

Contexto, velocidad y acceso al modelo

GPT-4.1 admite el contexto estándar Windows para ChatGPT: 8,000 tokens para usuarios gratuitos, 32,000 tokens para usuarios más y 128,000 tokens para usuarios de Pro.

Según el desarrollador Angel Bogado Publicing en X, estos límites coinciden con los utilizados por los modelos de CHATGPT anteriores, aunque los planes están en marcha para aumentar aún más el tamaño del contexto.

Si bien las versiones API de GPT-4.1 pueden procesar hasta un millón de tokens, esta capacidad ampliada aún no está disponible en ChatGPT, aunque el soporte futuro se ha insinuado.

Esta capacidad de contexto extendida permite a los usuarios de la API alimentar las bases de código enteras o grandes documentos legales y financieros en el modelo, útil para revisar contratos de documentos múltiples o analizar grandes archivos de registro.

Operai ha reconocido cierta degradación del rendimiento con entradas extremadamente grandes, pero los casos de prueba empresarial sugieren un rendimiento sólido de hasta varios cientos de miles de tokens.

Evaluaciones y seguridad

Operai también ha lanzado un sitio web de Safety Evaluations Hub para brindar a los usuarios acceso a métricas clave de rendimiento en todos los modelos.

GPT-4.1 muestra resultados sólidos en estas evaluaciones. En las pruebas de precisión de hecho, obtuvo 0.40 en el punto de referencia SimpleQA y 0.63 en Personqa, superando a varios predecesores.

También obtuvo 0.99 en la medida “no insegura” de OpenAI en las pruebas de rechazo estándar, y 0.86 en indicaciones más desafiantes.

Sin embargo, en la prueba de jailbreak Strongject, un punto de referencia académico para la seguridad en condiciones adversas, GPT-4.1 obtuvo 0.23, detrás de modelos como GPT-4O-Mini y O3.

Dicho esto, obtuvo un fuerte 0.96 en indicaciones de jailbreak de origen humano, lo que indica una seguridad más robusta del mundo real bajo el uso típico.

En la adhesión de instrucciones, GPT-4.1 sigue la jerarquía definida de OpenAI (sistema sobre desarrollador, desarrollador sobre mensajes de usuario) con una puntuación de 0.71 para resolver conflictos de mensajes del sistema frente a usuario. También funciona bien para proteger frases protegidas y evitar regalos de soluciones en escenarios de tutoría.

Contextualización de GPT-4.1 contra predecesores

El lanzamiento de GPT-4.1 se produce después del escrutinio alrededor de GPT-4.5, que debutó en febrero de 2025 como una vista previa de investigación. Ese modelo enfatizó un mejor aprendizaje sin supervisión, una base de conocimiento más rica y alucinaciones reducidas, que caían del 61.8% en GPT-4O al 37.1%. También mostró mejoras en los matices emocionales y la escritura de forma larga, pero muchos usuarios encontraron las mejoras sutiles.

A pesar de estas ganancias, GPT-4.5 generó críticas por su alto precio, hasta $ 180 por millón de tokens de producción a través de API, y por un rendimiento decepcionante en matemáticas y puntos de referencia de codificación en relación con los modelos O-Series O de OpenAi. Las cifras de la industria señalaron que si bien GPT-4.5 era más fuerte en la conversación general y la generación de contenido, tuvo un rendimiento inferior en aplicaciones específicas del desarrollador.

Por el contrario, GPT-4.1 se pretende como una alternativa más rápida y más enfocada. Si bien carece de la amplitud de conocimiento de GPT-4.5 y un modelado emocional extenso, está mejor sintonizado para la asistencia de codificación práctica y se adhiere de manera más confiable a las instrucciones del usuario.

En la API de OpenAI, GPT-4.1 tiene un precio de $ 2.00 por millón de tokens de entrada, $ 0.50 por millón de tokens de entrada en caché y tokens de salida de $ 8.00 por millón.

Para aquellos que buscan un saldo entre velocidad e inteligencia a un costo más bajo, GPT-4.1 Mini está disponible en $ 0.40 por millón de tokens de entrada, $ 0.10 por millón de tokens de entrada en caché y tokens de salida de $ 1.60 por millón.

Los modelos Flash-Lite y Flash de Google están disponibles a partir de $ 0.075– $ 0.10 por millón de tokens de entrada y $ 0.30– $ 0.40 por millón de tokens de salida, menos de una décima parte del costo de las tasas base de GPT-4.1.

Pero si bien GPT-4.1 tiene un precio más alto, ofrece puntos de referencia de ingeniería de software más fuertes y una instrucción más precisa después, lo que puede ser crítico para los escenarios de implementación empresarial que requieren confiabilidad sobre el costo. En última instancia, el GPT-4.1 de OpenAI ofrece una experiencia premium para el rendimiento de precisión y desarrollo, mientras que los modelos Gemini de Google atraen a empresas conscientes de costos que necesitan niveles de modelos flexibles y capacidades multimodales.

Lo que significa para los tomadores de decisiones empresariales

La introducción de GPT-4.1 aporta beneficios específicos a los equipos empresariales que administran la implementación de LLM, la orquestación y las operaciones de datos:

  • Ingenieros de IA Supervisando la implementación de LLM puede esperar una velocidad mejorada e instrucción de adherencia. Para los equipos que administran el ciclo de vida LLM completo, desde el modelo de ajuste hasta la resolución de problemas, GPT-4.1 ofrece un conjunto de herramientas más receptivo y eficiente. Es particularmente adecuado para equipos Lean bajo presión para enviar modelos de alto rendimiento rápidamente sin comprometer la seguridad o el cumplimiento.
  • La orquestación de IA conduce Centrado en el diseño de tuberías escalable apreciará la robustez de GPT-4.1 contra la mayoría de las fallas inducidas por el usuario y su fuerte rendimiento en las pruebas de jerarquía de mensajes. Esto facilita la integración en los sistemas de orquestación que priorizan la consistencia, la validación del modelo y la confiabilidad operativa.
  • Ingenieros de datos Responsable de mantener una alta calidad de datos e integrar nuevas herramientas se beneficiará de la tasa de alucinación más baja de GPT-4.1 y una mayor precisión objetiva. Su comportamiento de salida más predecible ayuda a construir flujos de trabajo de datos confiables, incluso cuando los recursos del equipo están limitados.
  • Profesionales de seguridad de TI La tarea de integrar la seguridad en las tuberías de DevOps puede encontrar valor en la resistencia de GPT-4.1 a jailbreaks comunes y su comportamiento de salida controlado. Si bien su puntaje académico de resistencia de jailbreak deja espacio para mejorar, el alto rendimiento del modelo contra las exploits de origen humano ayuda a apoyar la integración segura en herramientas internas.

En estos roles, el posicionamiento de GPT-4.1 como un modelo optimizado para mayor claridad, cumplimiento y eficiencia de implementación lo convierte en una opción convincente para empresas medianas que buscan equilibrar el rendimiento con las demandas operativas.

Un nuevo paso adelante

Mientras que GPT-4.5 representaba un hito de escala en el desarrollo del modelo, GPT-4.1 se centra en la utilidad. No es el más caro o el más multimodal, pero ofrece ganancias significativas en áreas que importan para las empresas: precisión, eficiencia de implementación y costo.

Este reposicionamiento refleja una tendencia de la industria más amplia, alejada de la construcción de los modelos más grandes a cualquier costo y hacia los modelos capaces más accesibles y adaptables. GPT-4.1 cumple con esa necesidad, ofreciendo una herramienta flexible y lista para la producción para equipos que intentan integrar la IA más profundamente en sus operaciones comerciales.

A medida que OpenAI continúa evolucionando sus ofertas de modelos, GPT-4.1 representa un paso adelante en la democratización de IA avanzada para entornos empresariales. Para la capacidad de equilibrio de los tomadores de decisiones con el ROI, ofrece un camino más claro hacia el despliegue sin sacrificar el rendimiento o la seguridad.

Continue Reading

Noticias

¿Qué es chatgpt? Todo lo que necesitas saber sobre el chatbot de la IA

Published

on

ChatGPT es el chatbot de inteligencia artificial que comenzó toda la revolución generativa de IA. Es una herramienta multimodal que puede realizar una variedad de funciones, desde responder preguntas complejas, y simplificar las respuestas para usted, como si tenga 5 años, hasta codificar el software, crear imágenes y videos e incluso participar en conversaciones casuales.

Lanzado en noviembre de 2022 por OpenAI, la compañía cofundada por Sam Altman, ChatGPT rápidamente se convirtió en la aplicación de IA más popular jamás lanzada, y la que todos intentaron emular y One-Up. Desde entonces, todos los grandes jugadores tecnológicos se han unido a la carrera generativa de IA. Perplexity, Meta AI, Géminis de Google, Copilot de Microsoft y Claude de Anthrope pueden hacer cosas similares. Pero la popularidad de ChatGPT, las capacidades abiertas y el comienzo temprano le dieron una fuerte ventaja.

ChatGPT se convirtió en una de las aplicaciones de más rápido crecimiento en la historia, acumulando cientos de millones de usuarios. ChatGPT a menudo se destaca debido a su versatilidad y facilidad de uso, pero principalmente desde la gran escala de su base de usuarios.

Vamos a profundizar en cómo funciona ChatGPT, cómo usarlo y por qué se ha convertido en la charla de la ciudad en los últimos años, y algunos de sus puntos más controvertidos.

¿Cómo funciona el chatgpt?

ChatGPT se basa en una arquitectura de transformador, específicamente la familia de modelos GPT (transformador generativo previamente provocado), el nombre del nombre chatgpt. Fue capacitado en grandes cantidades de datos de libros e Internet: sitios web, wikipedia, hilos de reddit, sitios de noticias y mucho, mucho más.

(Divulgación: Ziff Davis, la empresa matriz de CNET, en abril presentó una demanda contra OpenAi, alegando que infringió los derechos de autor de Ziff Davis en la capacitación y la operación de sus sistemas de IA).

Al igual que otros chatbots de IA, utiliza algoritmos de aprendizaje profundo para comprender el contexto y predice la siguiente palabra más probable en una oración basada en patrones que se ha visto antes. Esa es una razón por la cual a veces “alucina” o genera información segura pero incorrecta.

ChatGPT se basa en modelos de idiomas grandes (LLM), lo que permite comprender sus preguntas y proporcionar respuestas similares a los humanos. A veces lo hace de manera tan convincente y natural, podrías olvidar que es no realmente pensando. Y este límite se está empujando más todo el tiempo. Su último modelo, GPT-4.5, actualmente disponible para niveles más y superiores en una vista previa de investigación, muestra una mayor inteligencia emocional y supuestamente alucina menos.

Chatgpt / captura de pantalla por cnet

A partes iguales impresionantes e inquietantes, varios LLM han pasado recientemente la prueba de Turing, donde un evaluador humano habla con una máquina y un humano, y si el evaluador no puede distinguir entre ellos, la máquina pasa. GPT-4.5 fue considerado como el humano el 73% del tiempo.

Sin embargo, Afraz Jaffri, analista director senior de Gartner, argumenta que estos resultados no importan tanto.

“Puedes crear sistemas que puedan engañar a las personas para que piensen que esto con lo que estás hablando es humano”, le dice Jaffri a CNET. “Entiende lo que están diciendo, pero en realidad no entiende lo que está diciendo. Por lo tanto, es realmente una prueba de credulidad humana en lugar de una prueba de inteligencia”.

Cuando le pregunté a Jaffri qué cree que es el mayor defecto de Chatgpt, dijo: “Simplemente no son confiables. Entonces, incluso si pregunto algo y obtengo una respuesta, todavía quiero verificar que eso es realmente cierto, lo que derrota el punto de que lo obtengamos en primer lugar”.

Sin embargo, OpenAI se ha apresurado a actuar sobre los comentarios de los usuarios. Hace solo unos días, anunció en X una nueva característica que mejora las citas al resaltar el texto relevante y mostrar a qué parte se refiere cada cita.

Chatgpt / captura de pantalla por cnet

También volvió a GPT-4O a su versión anterior después de que los usuarios de X se quejaron de que su elogio “Sycophantic” se sintió inquietante y angustiante. Sycophancy es la falsa adulación de alguien en el poder, a menudo se usa para obtener algo de ellos. Operai dice que está trabajando en un enfoque más equilibrado en el futuro.

Accesibilidad e integraciones

Puede acceder fácilmente a ChatGPT a través de un navegador web o a través de sus aplicaciones en los dispositivos Android e iOS.

También se ha integrado en aplicaciones educativas, bots de servicio al cliente e incluso productos de Apple a través de Apple Intelligence y Siri.

Además, OpenAI introdujo la capacidad de interactuar a través de llamadas telefónicas a través del servicio 1-800-CHATGPT, simplificando el uso para aquellos que prefieren la interacción de voz sobre la escritura.

¿Qué puedes hacer con chatgpt?

Hay muchos casos de uso para ChatGPT: por nombrar algunos, puede planificar sus vacaciones, practicar preguntas de entrevista de trabajo con usted, ayudarlo con su presupuesto, escribir su currículum, hacer su planificación de comidas, recordar correos electrónicos, resumir documentos largos, crear estrategias comerciales, o simplemente conversar con usted. Aprenderá de sus consultas y solicitudes, y se adaptará a lo que cree que le gusta.

Si no desea que le recuerde, también puede usar un chat temporal seleccionándolo en la esquina superior derecha. No aparecerá en la historia, actualizará su memoria ni se utilizará para entrenar modelos, aunque se puede mantener hasta 30 días para la seguridad.

El lienzo ChatGPT puede ayudarlo a escribir y codificar, y con la función de tareas, puede configurar recordatorios y programar tareas. Puede redactar copias de marketing e incluso ayudarlo con el autodiagnóstico, aunque siempre debe tener cuidado con los resultados y consultar a su médico.

También es uno de los chatbots más personalizables. Puede crear su propio GPT adaptado a tareas o personalidades específicas, o seleccionar entre los miles de los creados por los usuarios. Se organizan en categorías como educación, productividad, tendencias y programación, etc.

Captura de pantalla por CNET

Más allá del texto, ChatGPT puede generar imágenes y videos originales a través de sus herramientas integradas. El generador de imágenes de GPT-4O ahora es el valor predeterminado en ChatGPT para todos los usuarios, que le ofrece la capacidad de generar imágenes altamente realistas a partir de indicaciones de texto simples. Si prefiere seguir usando Dall-E 3 (su primer generador de imágenes), aún puede acceder a él a través del Dall-E GPT.

Creé esto directamente en Chatgpt con el mensaje: “Haga una imagen de una anciana con arrugas, sentada junto a la ventana, comiendo una manzana y mirando hacia afuera. Sea hiperrealista, use colores de otoño en la imagen”.

Chatgpt / captura de pantalla por cnet

Todos los usuarios de ChatGPT en la web e iOS/Android ahora tienen una biblioteca donde las imágenes se guardan automáticamente, lo que le permite volver a visitarlos, reutilizarlas o editarlas sin cavar en chats antiguos. Puede acceder a él desde la barra lateral izquierda.

Chatgpt / captura de pantalla por cnet

Además, Openai ha introducido Sora, su modelo de texto de texto a video, a planes PLUS y Pro, expandiendo las capacidades multimedia de ChatGPT.

Diferentes modelos para diferentes funciones

Originalmente basado en la arquitectura GPT-3 de Openai, ChatGPT ha evolucionado. Existen diferentes variaciones y limitaciones del modelo basadas en su suscripción y su propósito para usar CHATGPT.

GPT-4O es la versión más avanzada accesible para todos, manejando texto, imágenes y audio como entrada y salida. GPT-4O Mini, el modelo más rápido, está optimizado para las tareas cotidianas y está disponible para todos los usuarios (los usuarios de nivel libre se cambian automáticamente a él al alcanzar los límites de uso en GPT-4O).

Los modelos O3 y O4-Mini son modelos de razonamiento, donde O3 es especialmente fuerte en las tareas de codificación, matemáticas y visuales, mientras que O4-Mini es una versión más ligera y rentable. O4-Mini-High es lo mejor para la codificación y la percepción visual.

Los modelos O1 y O1-Mini están diseñados para “pensar” más tiempo antes de responder y son ideales para resolver problemas complejos. Por último, como se mencionó anteriormente, GPT-4.5 es el modelo más grande y mejor para el chat y está disponible en la vista previa de la investigación para todos los planes de EDU pagados y chatgpt para estudiantes.

Si está en cualquier plan pagado, puede cambiar el modelo antes o durante un chat haciendo clic en el selector de modelos en la esquina superior izquierda de la pantalla.

Chatgpt / captura de pantalla por cnet

Precio de chatgpt

Operai proporciona chatgpt en un modelo freemium. La versión gratuita ofrece acceso básico a GPT-4O Mini y acceso limitado a GPT-4O, O4-Mini e Investigación profunda. La actualización a un plan pagado desbloquea características adicionales.

ChatGPT Plus cuesta $ 20 al mes y proporciona acceso a SORA, investigaciones profundas y modelos de razonamiento múltiples (O3, O4-Mini y O4-Mini-High), tiempos de respuesta más rápidos, acceso limitado a GPT-4.5 y características adicionales como la interacción de voz.

Para los equipos, hay un equipo de ChatGPT que comienza en $ 25 por usuario por mes. Para los usuarios pesados, ChatGPT Pro está disponible por $ 200 al mes con los límites y capacidades más altos. Las empresas también pueden elegir ChatGPT Enterprise con precios personalizados para funciones de nivel empresarial.

Los estudiantes y las organizaciones sin fines de lucro ocasionalmente reciben ofertas especiales. Por ejemplo, ChatGPT Plus Access a menudo es gratuito para estudiantes en los EE. UU. Y Canadá durante los períodos de examen.

Preocupaciones de privacidad, batallas legales y otras controversias

ChatGPT enfrenta desafíos legales continuos relacionados con las preocupaciones de la industria con respecto a la ética y la legalidad del abastecimiento de datos para la capacitación de IA. Las demandas de alto perfil incluyen las principales editoriales como The New York Times, Dow Jones y la empresa matriz de CNET Ziff Davis (ver divulgación anterior), que alegan el uso no autorizado de su contenido para capacitar a ChatGPT, al igual que muchos autores individuales.

No olvidemos cuándo la modelo de voz “Sky” de OpenAi imitó a Scarlett Johansson sin permiso, lo que llevó a su equipo a amenazar las acciones legales sobre el uso no autorizado de su voz. Operai eliminó la voz, dijo que provenía de una actriz diferente y prometió revelaciones de AI más claras.

La privacidad es otra preocupación. Los expertos y los defensores de la privacidad han planteado preguntas continuas sobre la protección de los datos, cómo se almacena y usa la información personal, y qué los usuarios deben o no compartir. Incluso Openai aconseja que no ingresen información confidencial como números de tarjetas de crédito, historial médico o números de Seguro Social.

Jaffri enfatizó que el despliegue malicioso o descuidado, no los modelos en sí, es la raíz de la mayoría de los riesgos.

“Ahora cualquiera puede crear estas cosas y puede difundirlas mucho más fáciles y mucho más rápidas, así que ese es el tipo de preocupación”, dijo a CNET. “Se trata más de cómo se usa en lugar de ser algo de qué preocuparse”.

Operai ha intentado abordar estos problemas con medidas de protección de datos mejoradas. Sus indicaciones (en planes gratuitos, Plus y Pro) pueden usarse para capacitar al modelo a menos que opte por no participar en la configuración. Los planes de Equipo y Enterprise están diseñados para no recopilar datos del usuario de forma predeterminada. Openai no respondió a una solicitud de comentarios sobre posibles preocupaciones de copyright y plagio sobre los datos de capacitación o sobre la privacidad del usuario y la protección de datos.

Desarrollos recientes y nuevas características

Desde su comienzo, ChatGPT ha crecido en características y capacidades. OpenAI amplió la función de memoria de ChatGPT, lo que permite que el chatbot recupere las interacciones anteriores (que puede administrar o eliminar), creando una experiencia de usuario más personalizada.

Recientemente, Operai hizo las capacidades de generación de imágenes de Chatgpt gratis para todos los usuarios, aunque con un número limitado de usos mensuales. Además, en respuesta a la competencia de rivales como la compañía china de IA Deepseek R1, Operai lanzó pruebas para su nuevo modelo liviano e investigación profunda, accesible incluso para usuarios de nivel libre (con acceso limitado).

ChatGPT se está convirtiendo en una interfaz predeterminada de cómo las personas interactúan con la IA e incluso cómo obtienen información de Internet. A través de su función de búsqueda ChatGPT, compite más directamente con Google Search (incluso eliminando los requisitos de inicio de sesión obligatorios para que sea mucho más fácil para los usuarios casuales).

ChatGPT sigue siendo un jugador influyente en la IA. A medida que las herramientas generativas de IA se integran más en la vida diaria, las mejoras continuas en la usabilidad, la protección de la privacidad y las capacidades de generación de contenido determinarán el éxito a largo plazo de ChatGPT.

“Todo el tipo de tecnología en sí misma será transformador para muchas áreas diferentes, lo que tendrá un impacto directo en nuestras vidas”, dice Jaffri. “Con suerte para mejor”.

Continue Reading

Trending