Connect with us

Noticias

Here’s a recap of major OpenAI ChatGPT features and events of 2024

Published

on

Image by MOMO36H10 via Pixabay

ChatGPT has taken the tech world by storm since its debut, and 2024 wasn’t any less for the chatbot and its maker, OpenAI. The Delaware-based generative AI company saw many ups and downs last year. While it continued to launch new AI products and features, OpenAI was a part of several legal battles.

Let’s recap major launches and other big updates from 2024 related to OpenAI and ChatGPT. In your free time, you can check out our recaps of major Gemini features from 2024, services Google killed in 2024, and the Instagram wishlist for 2025.

Table of Contents:

Note: This list is not exhaustive and may not contain all updates related to ChatGPT and OpenAI. The features are not arranged in any order of preference.

GPT Store, ChatGPT Team subscription, $200 Pro plan

GPT Store

OpenAI started 2024 with a brand new GPT Store to expand the potential use cases of its chatbot. The store is a central hub where users can find and share custom versions of ChatGPT (called GPTs) made for specific tasks. Over three million GPTs were already available at launch, OpenAI announced, adding that bot creators can earn money through the revenue-sharing program.

A new paid subscription tier called ChatGPT Team was also introduced, targeting teams with up to 150 users for collaborative creation. Compared to the Plus tier, it offers higher message limits on GPT-4, GPT-4o, and other tools like DALL-E and data analysis.

The ChatGPT-maker unveiled a “Pro” plan in December with a hefty price tag of $200/mo for those with deep pockets. The company said that the highly-priced subscription offers the best of OpenAI and the highest level of access. ChatGPT Pro comes with all the perks of the Plus tier and unlimited access to advanced voice mode, GPT-4o, o1, and o1-mini models.

ChatGPT via landline phones

Yes, you read that correctly! Using ChatGPT via a landline phone is something you might rarely think of. However, OpenAI launched a new phone number (1-800-CHATGPT) that you can dial to get a taste of generative AI using legacy tech.

You can throw questions at the chatbot and interrupt it anytime. The experience might feel similar to the advanced voice mode. If you live in the US or Canada, you get 15 minutes of free calling in a month (standard carrier fees may apply). You can also save the number on your phone and talk to ChatGPT via WhatsApp. Again, there is a daily limit to how many WhatsApp messages you can exchange.

Use ChatGPT without an account

Walls around ChatGPT were lowered by OpenAI, allowing users to access the chatbot without an account completely free. OpenAI announced in April that it will “gradually” roll out account-free access to everyone, adding that there will be more “guardrails” with it and that some text prompts may be blocked.

You still need an account to unlock features such as chat history, share chats, voice conversations, and custom instructions.

ChatGPT for Apple Vision Pro

While tech giants like Netflix, Spotify, and YouTube shied away from being early adopters of Apple’s pocket-burning spatial computing headset, OpenAI hopped on the ship quickly.

ChatGPT for Vision Pro

The ChatGPT app for Vision Pro was launched in February last year, powered by OpenAI’s then-latest large language model (LLM) GPT-4 Turbo. ChatGPT was among the 600 apps and games natively available for Apple Vision Pro at its launch.

Watermarks for AI-generated images, deepfake image detector

OpenAI started adding watermarks to AI-generated images created using its text-to-image model DALL-E 3 and ChatGPT. The move was to make dealing with sophisticated AI tools easier and help users identify whether a human or an AI created the image. The change aligned with the specifications issued by the Coalition for Content Provenance and Authenticity (C2PA).

DALL-E AI watermark

The watermark includes details such as the creation date and C2PA logo in the upper left corner. While OpenAI assured no reduction in image quality or processing speeds, the watermark increased the image’s file size. It added that removing provenance data by cropping the image or editing its pixels was technically possible.

Apart from that, OpenAI started testing a new tool to detect if an image was made using the DALL-E art generator. An early version of the unnamed tool successfully identified over 98% of images generated by DALL-E and misidentified images by less than 0.5 of the time as being made by DALL-E.

Memory for ChatGPT

A memory feature for ChatGPT went into testing in February last year, enabling the chatbot to remember past chats and use the information when needed for future chats. For instance, you can ask the chatbot to remember your name, if you have a puppy, if you have a neighborhood coffee shop, or if you prefer concise responses.

ChatGPT Memory Feature

The feature allows ChatGPT to forget parts of its memory you don’t want. It was released to ChatGPT Plus users in April and made available to free users in September.

ChatGPT on iPhone

Apple was late to the generative AI party. However, that changed last year with the iOS 18 update, which introduced the Apple Intelligence suite of AI features. Adding more to that was ChatGPT integration for Siri, allowing the iPhone’s voice assistant to call up its more capable counterpart when things go out of hand.

A previous report claimed the deal was structured so that Apple didn’t have to pay any money to OpenAI. Instead, the Cupertino giant believed offering OpenAI’s brand and tech to over one billion active devices would provide more value than cash payment.

It might contribute to more ChatGPT Plus paid tier sign-ups as users can manage the chatbot directly from the iPhone’s settings app. Meanwhile, Apple can earn a commission as a referring partner.

However, the partnership invited criticism from the tech mogul Elon Musk, who threatened to ban iPhones with ChatGPT from his companies and put them in a Faraday cage.

Apple was also rumored to add Google’s Gemini chatbot to its Apple Intelligence suite and power Siri’s responses. Meanwhile, OpenAI was reportedly in talks with Samsung about integrating ChatGPT into Galaxy devices.

Media Manager

Media Manager allows content makers and owners to inform OpenAI about their content ownership and whether or not they want their content to be used to train its AI models. OpenAI said during the announcement that it plans to have the tool, which was in the early stages of development, in place by 2025.

OpenAI added that Media Manager will be the first-of-its-kind tool built “to help us identify copyrighted text, images, audio, and video across multiple sources and reflect creator preferences.”

GPT-4o model, ChatGPT Edu

The Spring Update event in May introduced the GPT-4o LLM for everyone using ChatGPT, including free users. Faster and more capable than GPT-4, the new model can process input modes such as text, image, audio, and video.

OpenAI followed GPT-4o’s launch with a new ChatGPT Edu subscription aimed at university students, faculties, and researchers. While there have been concerns over students using ChatGPT to dodge their homework, OpenAI tried to push the chatbot as a helping hand. For example, students can discuss their assignments with a GPT trained on their course material, which can help them think more deeply.

Advanced Voice Mode

GPT-4o also made ChatGPT’s advanced Voice Mode capable of delivering a human-like conversation experience. However, it landed in trouble after one of the female voices spoken by ChatGPT resembled American actor Scarlett Johansson. The actor later said that OpenAI offered to hire her to be one of ChatGPT’s AI voices, but a deal didn’t come to fruition.

ChatGPT video sharing

Advanced Voice Mode was updated in later months with support for video input, screen sharing, and image uploads, enabling the chatbot to see, hear, and speak in real time.

Apps for Mac and Windows, cloud support

OpenAI also launched the ChatGPT app for macOS at last year’s Spring Update event. Initially available for paid subscribers, ChatGPT’s Mac desktop app was loaded with Voice Mode and the ability to upload files and take screenshots, among various features.

ChatGPT desktop app for Windows was previewed sometime in October and made available to all users in November. Features such as text scaling adjustment, advanced voice mode, and clicking photos using the built-in webcam were also added.

Building on ChatGPT’s data analysis capabilities, OpenAI allowed users to upload files directly from Google Drive and Microsoft OneDrive, enabling the chatbot to access services such as Sheets, Docs, Slides, Excel, Word, and PowerPoint.

ChatGPT also got an expandable view for tables and charts. The chatbot can generate interactive tables from a dataset. Users can switch to a full-screen view and click on specific areas in the table to ask follow-up questions.

The situation became embarrassing for OpenAI after reports that the ChatGPT macOS app stored all the conversations in plain text inside an unprotected file location. The company later fixed it.

ChatGPT in Audi and Mercedes-Benz cars

Not just tech companies, automakers also tried their hands on the generative AI tech. German carmaker Audi announced ChatGPT integration for millions of its models released since 2021. Updated voice control features allow users to operate infotainment, navigation, and AC systems without using their hands. They can also ask general knowledge questions from the ChatGPT-powered Audi assistant.

MBUX Voice Assistant ChatGPT

Last month, Mercedes-Benz also rolled out its ChatGPT integration as a free update to over three million vehicles equipped with its MBUX infotainment system. The automaker developed a new voice experience on top of the Microsoft Azure OpenAI Service, bringing context-aware and up-to-date responses to the drivers. They can press the speech button on the steering or say “Hey Mercedes” to use the feature.

CriticGPT to find mistakes

OpenAI knows that no AI model is perfect, and there might be occasions when things get embarrassing. The company trained a new model called CriticGPT to find mistakes in the code snippets generated by ChatGPT and highlight inaccuracies.

OpenAI CriticGPT model

CriticGPT is meant to assist human AI trainers who train and improve ChatGPT’s responses. A model of such kind becomes more critical when a study suggests that programming answers given by ChatGPT could be wrong 52% of the time.

SearchGPT and ChatGPT Search

OpenAI now has an offering to rival Google in the search engine game. While CEO Sam Altman initially denied rumors of a ChatGPT search engine in the making, the company unveiled a prototype called SearchGPT in July.

Instead of simply presenting a list of links, SearchGPT tries to answer user queries with up-to-date information and provides links to the sources used. You can throw follow-up questions at the search engine while continuing the context.

ChatGPT Search news

OpenAI released ChatGPT Search in October after testing the prototype version for months. The company partnered with several news organizations to include their content in the ChatGPT search experience.

The search experience was initially limited to paying ChatGPT subscribers but was released to everyone in December. A Chrome extension allows users to use the search engine directly from the browser’s URL bar.

GPT-4o model updates

OpenAI’s updated frontier model, ChatGPT-4o-latest, quickly reclaimed the number one spot in the LMSYS Chatbot Arena. However, the model was intended for research and evaluation only; it supported a context length of 128,000 tokens and 16,384 output tokens.

This happened almost a week after gpt-4o-2024-08-06 was released with support for Structured Outputs in the API and the same number of input/output tokens as chatgpt-4o-latest.

Another GPT-4o API update named gpt-4o-2024-11-20 was pushed in November with improved creative writing ability. OpenAI claimed the model works better with uploaded files, providing deeper insights and more thorough responses.

OpenAI o1, o1-mini

A new large language model called OpenAI o1 was introduced last year that takes more time to think before responding. It is designed to handle complex reasoning tasks, particularly in coding, math, and scientific problem-solving.

However, the o1 model can’t do some of GPT’s tasks, such as finding information on the web or checking out uploaded images and other files. Its smaller, faster, and cheaper version, OpenAI o1-mini, was also launched last year.

ChatGPT Canvas

Canvas is the first major update to ChatGPT’s visual interface since its debut in 2022. The new interface is designed to work with ChatGPT on specific tasks like writing and coding. It lets you refine prompts using a side panel and offers several usability improvements.

ChatGPT Canvas

For instance, you can highlight parts of the output and ask ChatGPT to focus on those. You can use shortcuts to perform various tasks, such as adding emojis, reviewing code, suggesting edits, adding comments, and more. The new user interface was made generally available for all users in December during the 12 Days of OpenAI live stream series.

ChatGPT Projects

12 Days of OpenAI event also dropped the ChatGPT Projects feature, which lets users organize their chats about similar topics. In other words, users can create projects to keep related chats, files, and custom instructions in one place.

The feature works with the GPT-4o model and is available to Plus, Pro, and Team subscribers. Support for Enterprise and Edu users will be added in 2025, and Projects will also be available to free users (there is no word on the release date).

Return of Sam Altman to the board

OpenAI’s co-founder and CEO Sam Altman’s abrupt firing from his position and removal from the board in November 2023 sounds like a corporate movie plot. More so because Altman dramatically returned as OpenAI’s CEO just five days later. Meanwhile, the board members who voted to fire him agreed to depart.

WilmerHale, a third-party group appointed to look into the matter, ended up reviewing over 30,000 documents and conducted dozens of interviews with prior board members, OpenAI executives, and others. Altman’s official return to OpenAI’s board was announced in March 2024 after the group found “that his conduct did not mandate removal.”

Lawsuits by Elon Musk

Elon Musk was among the founding members of OpenAI. However, the tech billionaire has started bombarding OpenAI with lawsuits in recent years, mostly revolving around OpenAI’s stance towards becoming a for-profit organization.

In one of the lawsuits filed in early 2024, Musk claimed OpenAI breached its own contract by trying to become a for-profit company rather than the non-profit organization initially set up to benefit humanity.

While there are more layers to the drama, a new motion filed late last year asked for a preliminary injunction to prevent OpenAI’s for-profit transition and accused the company of anti-competitive behavior.

Lawsuits by authors and news agencies

It was not just new features; much legal and corporate drama happened around OpenAI and ChatGPT. Two non-fiction authors sued the AI company and Microsoft at the start of 2024, alleging their work was used without permission to train AI models for ChatGPT and other services.

One of the complainants previously worked for The New York Times (NYT), which had also filed a copyright lawsuit against the two companies. In return, OpenAI accused NYT of tricking ChatGPT into copying its articles, and Microsoft also wanted the court to dismiss parts of the lawsuit filed by NYT.

It was reported in February that lawsuits from more news organizations targeted OpenAI, echoing claims of copying stories from their sites as part of AI training.

Shut down of US presidential candidate chatbots

OpenAI’s updated policies banned using its tools and services to create simulated versions of real election candidates. This was part of its efforts around combating false election information during the 2024 US Presidential elections.

In January, the generative AI company banned a developer who used ChatGPT to simulate Dean Philips, a declared candidate for US President in the Democratic Party. Another chatbot shutdown concerning the declared presidential candidate Robert F. Kennedy Jr was reported in March.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Probé 10 detectores de contenido de IA, y estos 5 se identificaron correctamente el texto de IA cada vez

Published

on

Mustafahacalaki/Getty Images

Cuando examiné por primera vez si es posible luchar contra el plagio generado por la IA y cómo podría funcionar ese enfoque, era enero de 2023, solo unos meses después de la explosión de la IA generativa del mundo.

También: las 20 mejores herramientas de IA de 2025, y la cosa #1 para recordar cuando las usas

Esta es una versión completamente actualizada de ese artículo original de enero de 2023. Cuando probé por primera vez los detectores GPT, el mejor resultado fue el 66% correcto de uno de los tres damas disponibles. Mi conjunto de pruebas más reciente, en febrero de 2025, utilizó hasta 10 damas, y tres de ellas tenían puntajes perfectos. Esta vez, solo un par de meses después, cinco lo hicieron.

Lo que estoy probando y cómo lo estoy haciendo

Sin embargo, antes de continuar, discutamos el plagio y cómo se relaciona con nuestro problema. Merriam-Webster define “plagiar” como “robar y pasar (las ideas o palabras de otro) como propias; usar (la producción de otro) sin acreditar la fuente”.

Esta definición se adapta bien al contenido creado por AI. Si bien alguien que usa una herramienta de IA como la noción AI o el chatgpt no está robando contenido, si esa persona no acredita las palabras como provenientes de una IA y las reclama como suyas, todavía cumple con la definición del diccionario de plagio.

También: el sorteo muerto que chatgpt escribió su contenido y cómo trabajar con él

Para probar los detectores de IA, estoy usando cinco bloques de texto. Dos fueron escritos por mí y tres fueron escritos por Chatgpt. Para probar un detector de contenido, alimento cada bloque al detector por separado y registro el resultado. Si el detector es correcto, considero que la prueba se pasa; Si está mal, considero que falló.

Cuando un detector proporciona un porcentaje, trato cualquier cosa por encima del 70% como una probabilidad fuerte, ya sea a favor del contenido escrito por humanos o escritos por IA, y considero que la respuesta del detector. Si desea probar un detector de contenido utilizando los mismos bloques de texto, puede extraerlos de este documento.

Los resultados generales

Para evaluar los detectores de IA, reran mi serie de cinco pruebas en 10 detectores. En otras palabras, corté y pegé 50 pruebas individuales (tenía una lote de café).

Los detectores que probé incluyen Morder, Copileaks, Detector de salida GPT-2, Gptzero, Gramática, Mónica, Originalidad.Ai, Plantilla, Indetectable.Ai, Escritor.comy Zerogpt.

También: 3 trucos de chatgpt inteligentes que demuestran que sigue siendo la IA para vencer

Para esta actualización, agregué CopyLeaks y Monica. Dejé escrito de mis pruebas porque suspendió su detector GPT. Guardián de contenido Solicité inclusión, pero no escuché en el tiempo para probar cuentas.

Esta tabla muestra resultados generales. Como puede ver, cinco detectores identificaron correctamente el texto humano y de IA en todas las pruebas.

2025-04-contenido de contenido-001

David Gewirtz/Zdnet

Traté de determinar si había un patrón de mejora tangible con el tiempo, por lo que construí un gráfico que comparó la prueba de cinco pruebas con el tiempo. Hasta ahora, he ejecutado esta serie seis veces, pero no hay una tendencia fuerte. Aumenté el número de detectores probados e intercambiados algunos, pero el único resultado consistente es que la prueba 5 se identificó de manera confiable como humana en los detectores y fechas.

2025-04-contenido de contenido-002

David Gewirtz/Zdnet

Continuaré probando con el tiempo, y espero ver una tendencia de confiabilidad constantemente hacia arriba.

Si bien ha habido algunos puntajes perfectos, no recomiendo confiar únicamente en estas herramientas para validar el contenido escrito por humanos. Como se muestra, la escritura de altavoces no nativos a menudo se califica según lo generado por una IA.

A pesar de que mi contenido hecho a mano ha sido calificado en su mayoría escrito por humanos en esta ronda, un detector (GPTZero) se declaró demasiado incierto para juzgar, y otro (copyleks) declaró que es escrito. Los resultados son tremendamente inconsistentes en todos los sistemas.

También: los mejores chatbots de IA: chatgpt, copilot y alternativas notables

En pocas palabras: abogaría por precaución antes de confiar en los resultados de cualquiera, o todas, de estas herramientas.

Cómo se desempeñó cada detector de contenido de IA

Ahora, veamos cada herramienta de prueba individual, enumerada alfabéticamente.

Detección de contenido de Brandwell AI (precisión 40%)

Esta herramienta fue producida originalmente por una empresa de generación de contenido de IA, contenido a escala. Luego emigró a Brandwell.ai, Un nuevo nombre para una empresa de servicios de marketing centrado en la IA.

También: Las imágenes generadas por IA son un desastre legal, y sigue siendo un proceso muy humano

Desafortunadamente, su precisión fue baja. La herramienta no pudo saber si el contenido generado por IA en la prueba 2 era humano o AI, como se muestra en esta captura de pantalla:

morder

Captura de pantalla de David Gewirtz/Zdnet

Copileaks (precisión 80%)

Me parece divertido que Copileaks se declara “el detector de IA más preciso con más del 99% de precisión” cuando más de la mitad de los detectores probados funcionaron mejor. Pero las personas de marketing serán la gente de marketing: los superlativos son tan difíciles de resistir para ellos como ladrar en una ardilla (y el camión FedEx, y todos los niños vecinos) es para mi perro.

También: 5 formas rápidas en que las herramientas de IA de Apple pueden ajustar su escritura sobre la marcha

La oferta principal de la compañía es un verificador de plagio que se vende a instituciones educativas, editores y empresas que buscan garantizar la originalidad del contenido y mantener la integridad académica.

copileaks

Captura de pantalla de David Gewirtz/Zdnet

Detector de salida GPT-2 (precisión 60%)

Esta herramienta fue construida utilizando un centro de aprendizaje automático administrado por AI Company, con sede en Nueva York. Cara abrazada. Mientras que la compañía ha recibido $ 40 millones en fondos para desarrollar su biblioteca de idiomas naturales, el Detector GPT-2 Parece ser una herramienta creada por el usuario que utiliza la biblioteca de transformadores faciales de abrazos.

GPT2

Captura de pantalla de David Gewirtz/Zdnet

Gptzero (precisión 80%)

Gptzero ha estado creciendo claramente. Cuando lo probé por primera vez, el sitio era desnudo, ni siquiera estaba claro si Gptzero era una empresa o simplemente el proyecto de pasión de alguien. Ahora, la compañía tiene un equipo completo con una misión de “proteger lo que es humano”. Ofrece herramientas de validación de IA y un verificador de plagio.

También: Las herramientas de IA más populares de 2025 (y lo que eso significa)

Desafortunadamente, el rendimiento parece haber disminuido. En mis dos últimas carreras, Gptzero identificó correctamente mi texto como generado por humanos. Esta vez, declaró ese mismo texto que Generated.

gptzero

Captura de pantalla de David Gewirtz/Zdnet

Grammarly (precisión 40%)

Gramática es bien conocido por ayudar a los escritores a producir contenido gramaticalmente correcto, eso no es lo que estoy probando aquí. Grammarly puede verificar el plagio y el contenido de IA. En el verificador de gramática, hay un botón de verificación de texto de plagio y texto de IA en la esquina inferior derecha:

gramática

Captura de pantalla de David Gewirtz/Zdnet

No estoy midiendo la precisión del verificador de plagio aquí, pero aunque la precisión de la check de gramática fue deficiente, el sitio identificó correctamente el texto de la prueba como se publicó anteriormente.

Mónica (precisión 100%)

Mónica es un nuevo participante. Este servicio ofrece un asistente de IA todo en uno con una amplia gama de servicios. Los usuarios pueden elegir entre varios modelos de idiomas grandes.

También: 5 formas en que chatgpt puede ayudarlo a escribir ensayos

La compañía llama a Mónica el “mejor detector de IA en línea”, pero parece que ejecuta contenido a través de otros detectores, incluidos Zerogpt, GPTZero y CopyLeaks. Extrañamente, tanto Gptzero como CopyLeaks no funcionaban bien en mis pruebas, pero Monica y Zerogpt lo hicieron.

Lo estamos dando al 100% porque ganó esa calificación, pero veré cómo se pone de pie en futuras pruebas.

Mónica

Captura de pantalla de David Gewirtz/Zdnet

Originalidad.Ai (precisión 100%)

Originalidad.Ai es un servicio comercial que se factura a sí mismo como una IA y un verificador de plagio. La compañía vende créditos de uso: utilicé 30 créditos para este artículo. Venden 2,000 créditos por $ 12.95 por mes. Bombeé 1.400 palabras a través del sistema y usé solo el 1.5% de mi asignación mensual.

originalidad

Captura de pantalla de David Gewirtz/Zdnet

Quillbot (precisión 100%)

Las últimas veces que probé Plantillalos resultados fueron muy inconsistentes: múltiples pases del mismo texto arrojaron puntajes muy diferentes. Esta vez, sin embargo, fue sólida como una roca y 100% correcto. Así que le estoy dando la victoria. Volveré a consultar en unos meses para ver si se mantiene en esta actuación.

plantilla

Captura de pantalla de David Gewirtz/Zdnet

Indetectable.ai (precisión 100%)

Indetectable.ai La gran afirmación es que puede “humanizar” el texto generado por la IA para que los detectores no lo marcarán. No he probado esa función: me molesta como autor y educador profesional, porque parece hacer trampa.

También: Por qué deberías ignorar el 99% de las herramientas de IA, y cuáles uso todos los días

Sin embargo, la compañía también tiene un detector de IA, que fue muy importante.

indetectable

Captura de pantalla de David Gewirtz/Zdnet

El detector de IA pasó las cinco pruebas. Observe los indicadores que muestran banderas para otros detectores. La compañía dijo: “Desarrollamos algoritmos de detectores múltiples modelados después de esos principales detectores para proporcionar un enfoque federado y basado en el consenso. No alimentan directamente los modelos listados; más bien, los modelos están capacitados en función de los resultados que han generado. Cuando dicen que esos modelos lo señalaron, se basa en el algoritmo que creamos y actualizamos para esos modelos”.

También: Cómo usar ChatGPT: una guía para principiantes para el chatbot de IA más popular

Tengo una pregunta sobre la bandera de Operai, ya que el detector de contenido de OpenAI se suspendió en 2023 debido a la baja precisión. Aun así, indetectable.Ai detectó las cinco pruebas, ganando un 100%perfecto.

Writer.com Detector de contenido de IA (precisión 40%)

Escritor.com es un servicio que genera escritura de IA para equipos corporativos. Su herramienta de detector de contenido de IA puede escanear el contenido generado. Desafortunadamente, su precisión fue baja. Identificó cada bloque de texto como escrito por humanos, a pesar de que ChatGPT escribió tres de las seis pruebas.

escritor

Captura de pantalla de David Gewirtz/Zdnet

Zerogpt (precisión 100%)

Zerogpt ha madurado desde la última vez que lo evalué. Luego, no se enumeró ningún nombre de empresa, y el sitio estaba salpicado de anuncios de Google y carecía de una clara monetización. El servicio funcionó bastante bien, pero parecía incompleto.

También: ¿La IA destruirá la creatividad humana? No, y aquí está por qué

Ese sentimiento incompleto se ha ido. Zerogpt ahora se presenta como un servicio SaaS típico, completo con precios, nombre de la empresa e información de contacto. Su precisión también aumentó: la última vez fue del 80%; Esta vez obtuvo 5 de 5.

zerogpt

Captura de pantalla de David Gewirtz/Zdnet

¿Es humano o es AI?

¿Qué pasa contigo? ¿Has probado detectores de contenido de IA como CopyLeaks, Monica o Zerogpt? ¿Qué tan precisos han sido en su experiencia? ¿Ha utilizado estas herramientas para proteger la integridad académica o editorial? ¿Has encontrado situaciones en las que el trabajo escrito por humanos fue marcado por error como AI? ¿Hay detectores en los que confíe más que otros para evaluar la originalidad? Háganos saber en los comentarios a continuación.

Obtenga las principales historias de la mañana en su bandeja de entrada cada día con nuestro Boletín de Tech Today.


Puede seguir mis actualizaciones de proyecto diarias en las redes sociales. Asegúrese de suscribirse a mi boletín de actualizaciones semanales y sígueme en Twitter/X en @Davidgewirtzen Facebook en Facebook.com/davidgewirtz, en Instagram en Instagram.com/davidgewirtz, en bluesky en @davidgewirtz.com, y en YouTube en youtube.com/davidgewirtztv.

Continue Reading

Noticias

Operai retrocede el chatgpt Sycophancy, explica lo que salió mal

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información


Operai ha retrasado una actualización reciente de su modelo GPT-4O utilizado como el valor predeterminado en ChatGPT después de informes generalizados de que el sistema se había vuelto excesivamente halagador y demasiado agradable, incluso apoyando delirios absolutamente e ideas destructivas.

La reversión se produce en medio de los reconocimientos internos de los ingenieros de Operai y la creciente preocupación entre los expertos en IA, los ex ejecutivos y los usuarios sobre el riesgo de lo que muchos ahora llaman “skicancia de la IA”.

En una declaración publicada en su sitio web al final de la noche del 29 de abril de 2025, OpenAI dijo que la última actualización de GPT-4O tenía la intención de mejorar la personalidad predeterminada del modelo para que sea más intuitiva y efectiva en variados casos de uso.

Sin embargo, la actualización tuvo un efecto secundario involuntario: ChatGPT comenzó a ofrecer elogios no críticos para prácticamente cualquier idea del usuario, sin importar cuán poco práctico, inapropiado o incluso dañino.

Como explicó la compañía, el modelo se había optimizado utilizando la retroalimentación de los usuarios, las señales de thumbs y pulgar hacia abajo, pero el equipo de desarrollo puso demasiado énfasis en los indicadores a corto plazo.

Operai ahora reconoce que no explicó completamente cómo las interacciones y las necesidades del usuario evolucionan con el tiempo, lo que resultó en un chatbot que se inclinó demasiado en la afirmación sin discernimiento.

Los ejemplos provocaron preocupación

En plataformas como Reddit y X (anteriormente Twitter), los usuarios comenzaron a publicar capturas de pantalla que ilustraban el problema.

En una publicación de Reddit ampliamente circulada, un usuario relató cómo ChatGPT describió una idea de negocio de GAG, que vende “mierda” literal de un palo “, como genio y sugirió invertir $ 30,000 en la empresa. La IA elogió la idea como “arte de performance disfrazado de regalo de mordaza” y “oro viral”, destacando cuán sin crítica estaba dispuesto a validar incluso los lanzamientos absurdos.

Otros ejemplos fueron más preocupantes. En un caso citado por VentureBeat, un usuario que pretende defender los delirios paranoicos recibió refuerzo de GPT-4O, que elogió su supuesta claridad y autocomisos.

Otra cuenta mostró que el modelo ofrecía lo que un usuario describió como un “respaldo abierto” de las ideas relacionadas con el terrorismo.

La crítica montó rápidamente. El ex CEO interino de Operai, Emmett Shear, advirtió que ajustar los modelos para ser personas complacientes puede provocar un comportamiento peligroso, especialmente cuando la honestidad se sacrifica por la simpatía. Abrazando el CEO de Clemente Delangue volvió a publicar las preocupaciones sobre los riesgos de manipulación psicológica planteados por la IA que está de acuerdo reflexivamente con los usuarios, independientemente del contexto.

Medidas de respuesta y mitigación de Openai

Operai ha tomado medidas rápidas al volver a la actualización y restaurar una versión GPT-4O anterior conocida por un comportamiento más equilibrado. En el anuncio adjunto, la compañía detalló un enfoque múltiple para corregir el curso. Esto incluye:

  • Refinar capacitación y estrategias rápidas para reducir explícitamente las tendencias sycofánticas.
  • Reforzar la alineación del modelo con la especificación del modelo de OpenAI, particularmente en torno a la transparencia y la honestidad.
  • Pruebas de expansión previa a la implementación y mecanismos directos de retroalimentación de los usuarios.
  • Introducción de características de personalización más granulares, incluida la capacidad de ajustar los rasgos de personalidad en tiempo real y seleccionar entre múltiples personajes predeterminados.

Operai Technical Stafper Depue publicado en X destacando el problema central: el modelo fue capacitado utilizando comentarios de los usuarios a corto plazo como una guía, que sin darse cuenta dirigió el chatbot hacia la adulación.

OpenAI ahora planea cambiar hacia mecanismos de retroalimentación que priorizan la satisfacción y la confianza del usuario a largo plazo.

Sin embargo, algunos usuarios han reaccionado con escepticismo y consternación a las lecciones aprendidas de Openi y propuestas soluciones en el futuro.

“Por favor asuma más responsabilidad por su influencia sobre millones de personas reales”, escribió artista @nearcyan en X.

Harlan Stewart, generalista de comunicaciones en el Instituto de Investigación de Inteligencia de Machine de Machine en Berkeley, California, publicó en X una preocupación a término más grande sobre la skicancia de la IA, incluso si este modelo en particular Operai se ha solucionado: “La charla sobre la sileno esta semana no se debe a que GPT-4O es un sycophant. Se debe a que GPT-4O es un GPT-4O siendo GPT-4O. Realmente, muy malo en ser un sycofant. La IA aún no es capaz de una skicancia hábil y más difícil de detectar, pero algún día será algún día ”.

Una señal de advertencia más amplia para la industria de IA

El episodio GPT-4O ha reavivado debates más amplios en toda la industria de la IA sobre cómo la sintonización de personalidad, el aprendizaje de refuerzo y las métricas de compromiso pueden conducir a una deriva conductual involuntaria.

Los críticos compararon el comportamiento reciente del modelo con los algoritmos de redes sociales que, en busca de la participación, optimizan para la adicción y la validación sobre precisión y salud.

Shear subrayó este riesgo en su comentario, señalando que los modelos de IA sintonizados para elogios se convierten en “chupas”, incapaces de estar en desacuerdo incluso cuando el usuario se beneficiaría desde una perspectiva más honesta.

Advirtió además que este problema no es exclusivo de OpenAI, señalando que la misma dinámica se aplica a otros grandes proveedores de modelos, incluido el copiloto de Microsoft.

Implicaciones para la empresa

Para los líderes empresariales que adoptan la IA conversacional, el incidente de la sycophancy sirve como una señal clara: el comportamiento del modelo es tan crítico como la precisión del modelo.

Un chatbot que halagará a los empleados o valida el razonamiento defectuoso puede plantear riesgos graves, desde malas decisiones comerciales y código desalineado hasta problemas de cumplimiento y amenazas internas.

Los analistas de la industria ahora aconsejan a las empresas que exigan más transparencia de los proveedores sobre cómo se realiza la sintonización de la personalidad, con qué frecuencia cambia y si se puede revertir o controlar a nivel granular.

Los contratos de adquisición deben incluir disposiciones para auditoría, pruebas de comportamiento y control en tiempo real de las indicaciones del sistema. Se alienta a los científicos de datos a monitorear no solo las tasas de latencia y alucinación, sino también métricas como la “deriva de la amabilidad”.

Muchas organizaciones también pueden comenzar a moverse hacia alternativas de código abierto que puedan alojar y sintonizar. Al poseer los pesos del modelo y el proceso de aprendizaje de refuerzo, las empresas pueden retener el control total sobre cómo se comportan sus sistemas de IA, lo que elimina el riesgo de una actualización empujada por el proveedor que convierte una herramienta crítica en un hombre digital y sí durante la noche.

¿A dónde va la alineación de la IA desde aquí? ¿Qué pueden aprender y actuar las empresas de este incidente?

Operai dice que sigue comprometido con la construcción de sistemas de IA que sean útiles, respetuosos y alineados con diversos valores de usuarios, pero reconoce que una personalidad única no puede satisfacer las necesidades de 500 millones de usuarios semanales.

La compañía espera que mayores opciones de personalización y una mayor recopilación de comentarios democráticos ayuden a adaptar el comportamiento de ChatGPT de manera más efectiva en el futuro. El CEO Sam Altman también ha declarado previamente los planes de la compañía para, en las próximas semanas y meses, lanzar un modelo de lenguaje grande de código abierto (LLM) de última generación para competir con la serie Llama de Meta’s Meta’s Llama, Mistral, Cohere, Cohere, Deepseek y Alibaba’s Qwen.

Esto también permitiría a los usuarios preocupados por una compañía de proveedores de modelos, como OpenAI, actualizar sus modelos alojados en la nube de manera no deseada o que tengan impactos perjudiciales en los usuarios finales para desplegar sus propias variantes del modelo localmente o en su infraestructura en la nube, y ajustarlas o preservarlas con los rasgos y cualidades deseadas, especialmente para los casos de uso empresarial.

Del mismo modo, para aquellos usuarios de IA empresariales e individuales preocupados por la senofancia de sus modelos, ya ha creado una nueva prueba de referencia para medir esta calidad en diferentes modelos, Tim Duffy ha creado el desarrollador. Se llama “Syco Bench” y está disponible aquí.

Mientras tanto, la reacción violenta de la sileno ofrece una historia de advertencia para toda la industria de la IA: el fideicomiso del usuario no está construido solo por afirmación. A veces, la respuesta más útil es un “no” reflexivo.

Continue Reading

Noticias

Apocalipsis Biosciencias para desarrollar Géminis para la infección en pacientes con quemaduras graves

Published

on

– Esta nueva indicación es otro paso para desbloquear todo el potencial de la plataforma Gemini –

San Diego-(Business Wire)-$ Revb #GÉMINISApocalipsis Biosciences, Inc. (NASDAQ: RevB) (la “empresa” o “revelación”), una compañía de ciencias de la vida de etapas clínicas que se centra en reequilibrar la inflamación para optimizar la salud, anunció una nueva indicación de objetivo para Géminis para la prevención de la infección en pacientes con quemaduras graves que requieren hospitalización (el Gema-PBI programa). El uso de Géminis para la prevención de la infección en pacientes con quemaduras severas, así como la prevención de la infección después de la cirugía (el Gema-PSI programa) son parte de la revelación familiar de patentes anteriormente con licencia de la Universidad de Vanderbilt.


“Estamos muy contentos de colaborar con el equipo de Apocalipsis para el avance de Géminis para la prevención de la infección en esta población de pacientes desatendida”, dijo Dra. Julia BohannonProfesor Asociado, Departamento de Anestesiología, Departamento de Patología, Microbiología e Inmunología, Universidad de Vanderbilt. “Creemos que la actividad de biomarcador clínico observada con Gemini se correlaciona fuertemente con nuestra experiencia preclínica en modelos de quemaduras de infecciones”.

El equipo de investigación de Vanderbilt demostrado El tratamiento posterior a la quemadura reduce significativamente la gravedad y la duración de la infección pulmonar de Pseudomonas, así como un nivel general reducido de inflamación en un modelo preclínico.

“La prevención de la infección en pacientes severamente quemados es un esfuerzo importante y complementa que la revelación laboral ha completado hasta la fecha”, dijo “, dijo”, dijo James RolkeCEO de Revelation “El programa Gemini-PBI puede ofrecer varias oportunidades regulatorias, de desarrollo y financiación que la compañía planea explorar”.

Sobre quemaduras e infección después de quemar

Las quemaduras son lesiones en la piel que involucran las dos capas principales: la epidermis externa delgada y/o la dermis más gruesa y profunda. Las quemaduras pueden ser el resultado de una variedad de causas que incluyen fuego, líquidos calientes, productos químicos (como ácidos fuertes o bases fuertes), electricidad, vapor, radiación de radiografías o radioterapia, luz solar o luz ultravioleta. Cada año, aproximadamente medio millón de estadounidenses sufren lesiones por quemaduras que requieren intervención médica. Si bien la mayoría de las lesiones por quemaduras no requieren ingreso a un hospital, se admiten alrededor de 40,000 pacientes, y aproximadamente 30,000 de ellos necesitan tratamiento especializado en un centro de quemaduras certificadas.

El número total anual de muertes relacionadas con quemaduras es de aproximadamente 3.400, siendo la infección invasiva la razón principal de la muerte después de las primeras 24 horas. La tasa de mortalidad general para pacientes con quemaduras graves es de aproximadamente 3.3%, pero esto aumenta al 20.6% en pacientes con quemaduras con lesión cutánea de quemaduras y inhalación, versus 10.5% por lesión por inhalación solo. La infección invasiva, incluida la sepsis, es la causa principal de la muerte después de la lesión por quemaduras, lo que representa aproximadamente el 51% de las muertes.

Actualmente no hay tratamientos aprobados para prevenir la infección sistémica en pacientes con quemaduras.

Sobre Géminis

Géminis es una formulación propietaria y propietaria de disacárido hexaacil fosforilada (PHAD (PHAD®) que reduce el daño asociado con la inflamación al reprogramarse del sistema inmune innato para responder al estrés (trauma, infección, etc.) de manera atenuada. La revelación ha realizado múltiples estudios preclínicos que demuestran el potencial terapéutico de Géminis en las indicaciones objetivo. Revelación anunciado previamente Datos clínicos positivos de fase 1 para el tratamiento intravenoso con Géminis. El punto final de seguridad primario se cumplió en el estudio de fase 1, y los resultados demostraron la actividad farmacodinámica estadísticamente significativa como se observó a través de los cambios esperados en múltiples biomarcadores, incluida la regulación positiva de IL-10.

Géminis se está desarrollando para múltiples indicaciones, incluso como pretratamiento para prevenir o reducir la gravedad y la duración de la lesión renal aguda (programa Gemini-AKI), y como pretratamiento para prevenir o reducir la gravedad y la duración de la infección posquirúrgica (programa GEMINI-PSI). Además, Gemini puede ser un tratamiento para detener o retrasar la progresión de la enfermedad renal crónica (programa Gemini-CKD).

Acerca de Apocalipsis Biosciences, Inc.

Revelation Biosciences, Inc. es una compañía de ciencias de la vida en estadio clínico centrada en aprovechar el poder de la inmunidad entrenada para la prevención y el tratamiento de la enfermedad utilizando su formulación patentada Géminis. Revelation tiene múltiples programas en curso para evaluar Géminis, incluso como prevención de la infección posquirúrgica, como prevención de lesiones renales agudas y para el tratamiento de la enfermedad renal crónica.

Para obtener más información sobre Apocalipsis, visite www.revbiosciences.com.

Declaraciones con avance

Este comunicado de prensa contiene declaraciones prospectivas definidas en la Ley de Reforma de Litigios de Valores Privados de 1995, según enmendada. Las declaraciones prospectivas son declaraciones que no son hechos históricos. Estas declaraciones prospectivas generalmente se identifican por las palabras “anticipar”, “creer”, “esperar”, “estimar”, “plan”, “perspectiva” y “proyecto” y otras expresiones similares. Advirtemos a los inversores que las declaraciones prospectivas se basan en las expectativas de la gerencia y son solo predicciones o declaraciones de las expectativas actuales e involucran riesgos, incertidumbres y otros factores conocidos y desconocidos que pueden hacer que los resultados reales sean materialmente diferentes de los previstos por las declaraciones de prospección. Apocalipsis advierte a los lectores que no depositen una dependencia indebida de tales declaraciones de vista hacia adelante, que solo hablan a partir de la fecha en que se hicieron. Los siguientes factores, entre otros, podrían hacer que los resultados reales difieran materialmente de los descritos en estas declaraciones prospectivas: la capacidad de la revelación para cumplir con sus objetivos financieros y estratégicos, debido a, entre otras cosas, la competencia; la capacidad de la revelación para crecer y gestionar la rentabilidad del crecimiento y retener a sus empleados clave; la posibilidad de que la revelación pueda verse afectada negativamente por otros factores económicos, comerciales y/o competitivos; riesgos relacionados con el desarrollo exitoso de los candidatos de productos de Apocalipsis; la capacidad de completar con éxito los estudios clínicos planificados de sus candidatos de productos; El riesgo de que no podamos inscribir completamente nuestros estudios clínicos o la inscripción llevará más tiempo de lo esperado; riesgos relacionados con la aparición de eventos de seguridad adversos y/o preocupaciones inesperadas que pueden surgir de los datos o análisis de nuestros estudios clínicos; cambios en las leyes o regulaciones aplicables; Iniciación esperada de los estudios clínicos, el momento de los datos clínicos; El resultado de los datos clínicos, incluido si los resultados de dicho estudio son positivos o si se puede replicar; El resultado de los datos recopilados, incluido si los resultados de dichos datos y/o correlación se pueden replicar; el momento, los costos, la conducta y el resultado de nuestros otros estudios clínicos; El tratamiento anticipado de datos clínicos futuros por parte de la FDA, la EMA u otras autoridades reguladoras, incluidos si dichos datos serán suficientes para su aprobación; el éxito de futuras actividades de desarrollo para sus candidatos de productos; posibles indicaciones para las cuales se pueden desarrollar candidatos de productos; la capacidad de revelación para mantener la lista de sus valores en NASDAQ; la duración esperada sobre la cual los saldos de Apocalipsis financiarán sus operaciones; y otros riesgos e incertidumbres descritos en este documento, así como aquellos riesgos e incertidumbres discutidos de vez en cuando en otros informes y otras presentaciones públicas con la SEC por Apocalipsis.

Contactos

Mike Porter

Relaciones con inversores

Porter Levay & Rose Inc.

Correo electrónico: mike@plrinvest.com

Chester Zygmont, III

Director financiero
Apocalipsis Biosciences Inc.

Correo electrónico: czygmont@revbiosciences.com

Continue Reading

Trending