En junio, la Administración Nacional de Archivos y Registros de EE. UU. (NARA) ofreció a sus empleados una presentación y una demostración tecnológica llamada “AI-mazing Tech-venture” en la que se presentó Gemini AI de Google como una herramienta de archivos que los empleados podrían utilizar para “mejorar la productividad”. Durante una demostración, la IA fue interrogada con preguntas sobre el asesinato de John F. Kennedy, según un copia de la presentación obtenido por 404 Media mediante una solicitud de registros públicos.
En diciembre, NARA planea lanzar un chatbot de cara al público impulsado por IA llamado “Archie AI”, según se enteró 404 Media. “Los Archivos Nacionales tienen grandes planes para la IA”, dijo un portavoz de NARA a 404 Media. Será esencial para la forma en que llevamos a cabo nuestro trabajo, cómo escalamos nuestros servicios para los estadounidenses que desean poder acceder a nuestros registros desde cualquier lugar y en cualquier momento, y cómo nos aseguramos de que estamos listos para cuidar los registros que se crean hoy y en el futuro.”
Registros de chat de empleados Los datos proporcionados durante la presentación muestran que los empleados de los Archivos Nacionales están preocupados por la idea de que se utilicen herramientas de inteligencia artificial en el archivo, una práctica que está inherentemente relacionada con el registro preciso de la historia.
Un trabajador que asistió a la presentación dijo a 404 Media: “Sospecho que lo van a introducir en el lugar de trabajo. Sólo soy una persona que trabaja allí y odia las tonterías de la IA”.
La presentación se realizó aproximadamente un mes después de la Archivos Nacionales prohibieron a los empleados utilizar ChatGPT porque dijo que representaba un “riesgo inaceptable para la seguridad de los datos de NARA” y advirtió a los empleados que “no deberían confiar en los LLM para obtener información objetiva”.
“Google Gemini es una herramienta versátil que puede ayudar a los usuarios a ahorrar tiempo, mejorar su productividad y lograr mejores resultados en su trabajo”, dice una de las diapositivas. “Piensa en Géminis como un compañero de trabajo que puede ayudarte a generar ideas y revisar el contenido que ya has creado”.
Partes de las diapositivas que sugieren casos de uso específicos están redactadas, pero la presentación recomienda usarlas para “ayuda en redacción, visualización de datos, resúmenes de reuniones y generación de ideas”.
“Genere texto, traduzca idiomas y resuma documentos para ayudar a los usuarios a comunicarse de manera más efectiva”, dice una de las diapositivas.
Durante la presentación, que se realizó a través de Zoom, los empleados expresaron muchas inquietudes sobre la tecnología en el chat. Los Archivos Nacionales se negaron a publicar el video del chat, citando preocupaciones de privacidad, por lo que no está claro si el presentador respondió alguna de las preguntas y cómo fueron respondidas. Todos los nombres de los empleados que hicieron preguntas fueron redactados por los Archivos Nacionales.
“¿Cómo sabría el público que está recibiendo una respuesta de un archivero real y no de una IA generativa?”, preguntó un empleado. “¿NARA revelaría qué aspectos de referencia se generan a partir de la IA?” Otros dos empleados hicieron un seguimiento y dijeron que también estaban preocupados por esto, y uno dijo: “Me preocupa que pueda disminuir la confianza en la institución si no se divulga adecuadamente”.
Según los registros del chat, se realizó una demostración en vivo de Vertex AI de Google en la que se hizo pasar por un “archivero experto” y se le hicieron preguntas sobre el asesinato de John F. Kennedy. Vertex AI permite a las organizaciones capacitar LLM en sus propios conjuntos de datos. En este caso, la IA se entrenó con datos de los Archivos Nacionales. Estas preguntas incluían “¿Quién mató a Kennedy?” y “¿Cuál fue la participación de la CIA en el asesinato de Kennedy?”
“¿Por qué la IA generativa se autodenomina ‘archivista experto’?”, preguntó un empleado. “Se llama ‘archivista experto’ porque ese es el mensaje que le dimos”, dijo alguien involucrado en la demostración.
“Tengo un serio problema con el título de ‘experto archivero’”, dijo otro empleado.
“Aquí igual. Si tenemos un descargo de responsabilidad que dice que la IA generativa puede inventar cosas y aún así llamarla un archivero experto en el mismo nivel que los expertos humanos reales…”, intervino otro.
“Pregunte qué pasó con el cerebro de Kennedy”, dijo un empleado en un momento dado (esto es, en realidad, un misterio).
Los empleados de Archivos parecían tener serias preocupaciones con la demostración y la presentación.
En un momento, un empleado dijo que “los datos clasificados no se pueden enviar a través de la IA en la nube”. Otro empleado preguntó “¿podemos excluir cualquier dato de Google Drive o nuestros correos electrónicos de Gemini?”
Otro dijo: “¿Le preocupa que este producto funcione mal de manera similar a como lo ha hecho recientemente la IA de búsqueda de Google?”
Los empleados también preguntaron: “¿Cómo planean garantizar que NARA no se vea involucrada en ningún problema de infracción de derechos de autor mediante el uso de modelos de inteligencia artificial entrenados en contenido web? Ha habido problemas con esto cuando ChatGPT extrae libros pirateados, por ejemplo”.
Un empleado preguntó: “¿Está esta demostración en preparación para implementarla entre los empleados de toda NARA?”
Alguien respondió: “Estamos haciendo un piloto ahora mismo de esta tecnología para determinar si debemos seguir adelante con esto como agencia”.
“La IA está destinada a generar algo que suene como una respuesta; hay una gran cantidad de casos en los que dice cosas que están completamente equivocadas con un tono autoritario”, dijo otro. “¿Hasta qué punto se espera que dependamos de esto en el futuro?”
Tres empleados distintos expresaron su preocupación por los aspectos medioambientales y la huella de carbono de la IA generativa.
En un correo electrónico que obtuve a principios de este año, los Archivos Nacionales dijeron a sus empleados que prefieren Google Gemini y Microsoft Copilot a ChatGPT porque ofrecen “un entorno más controlado”.
Un portavoz de NARA dijo a 404 Media que la agencia tiene grandes planes para la IA, que incluyen el lanzamiento de un chatbot de cara al público impulsado por IA llamado ‘Archie’”.
“Estamos explorando cómo la IA puede ayudarnos a aumentar el acceso a nuestras participaciones en todo el país. Actualmente tenemos un puñado de programas piloto de IA destinados a mejorar nuestro servicio al público y al mismo tiempo fomentar la confianza del público”, dijeron. “En última instancia, queremos que el usuario pueda encontrar fácilmente los documentos que busca en nuestro enorme tesoro de registros federales permanentes. Ya sea usted un veterano, un historiador familiar, un educador, un investigador o un estudiante, nuestro objetivo es conectarlo con los registros de la manera más fluida posible”.
NARA planea decirles a los usuarios, esencialmente, que Archie puede brindarles información incorrecta.
“Nuestra herramienta ArchieAI abordará directamente cuestiones de precisión y divulgación”, dijo el portavoz. La divulgación específica dirá: “Exactitud: Es posible que los resúmenes y resultados generados por IA no reflejen la opinión de NARA y no se garantiza que sean precisos. Los registros históricos a menudo contienen errores fácticos o lenguaje ofensivo, que ArchieAI puede repetir o utilizar”.
La administración Biden ordenó anteriormente a las agencias federales que estudiaran la IA y crearan políticas para su uso. Los Archivos Nacionales también hicieron recientemente una presentación sobre IA ante el Consejo Internacional de Archivos.
en esa presentacionCarol Lagundo, directora de asociaciones digitales y extensión de NARA, anunció Archie y también explicó que los Archivos Nacionales habían utilizado IA para “mejorar el acceso a los archivos de pensiones de la Guerra Revolucionaria”, que son un conjunto de más de 2,5 millones de páginas de los siglos 18 y 19. registros escritos a mano del siglo XIX sobre soldados de la Guerra Revolucionaria.
“¡Al ritmo actual, será necesario hasta 2046 transcribir completamente esta serie solo con humanos!”, dice la presentación de Lagundo. Dijo que una transcripción de IA del conjunto de datos era correcta en un 90 por ciento y que tiene la intención de compartir estas transcripciones con el público en su catálogo oficial en noviembre o diciembre.
Añadió que los Archivos Nacionales están desarrollando un “prototipo de asistente de investigación de IA” impulsado por Google Vertex llamado Archie AI.
“Podrás hacerle una pregunta a Archie y recibir resúmenes generados por IA con notas a pie de página y enlaces a los documentos digitalizados de nuestro catálogo”, dijo. “Esperamos implementarlo en unos meses”.
“Como puede ver, ArchieAI es la piedra angular de nuestro aprendizaje de IA”, dijo el portavoz de NARA a 404 Media.
Sobre el autor
Jason es cofundador de 404 Media. Anteriormente fue editor en jefe de Placa base. Le encanta la Ley de Libertad de Información y el surf.
Géminis todavía está lejos de ser perfecto, pero lentamente se cultiva en mí. Específicamente, sin embargo, es el modo de conversación en vivo el que más me atrae porque es todo lo que siempre quise del Asistente de Google, y algo más. Puedo hablar con la IA, interrumpirlo, pedirle que lo repita, corregirlo y pedir más detalles, todo en una conversación muy natural y relajada.
Pero si eres alguien como yo y estás acostumbrado a hablar tres idiomas al mismo tiempo, a menudo en la misma oración, y tu cerebro funciona así de forma predeterminada, lo que hace que sea difícil mantener una conversación completa en un idioma, entonces probablemente hayas estado mordiendo en los bits, esperando que Gemini vive para apoyar varios idiomas. Con la caída del píxel de marzo, la función ahora está aquí, y oh. Mi. Cielos. ¿Es mucho mejor de lo que esperaba o qué?
¿Has intentado hablar con Gemini en varios idiomas?
2 votos
Más intuitivo y confiable que el varios idiomas de Google Assistant
Cuando Google lo anunció, pensé que el soporte de varios idiomas en Géminis Live significaba que podría tener una conversación en inglés y luego otra conversación en francés sin cambiar manualmente el idioma. Este ha sido el caso con el Asistente de Google durante años, excepto que tuve que configurar manualmente exactamente qué idiomas quería usar en el Asistente, y nunca funcionó tan bien como se esperaba.
Con Gemini Live, como puede ver en el video de arriba, ese no es el caso:
No tuve que elegir el idioma cada vez; Acabo de comenzar una nueva charla, y me entendió.
Fuera de la caja, funciona con todos los idiomas compatibles con Live. No tengo que limitarme a solo dos como con el asistente.
Aunque tuve algunos silencios incómodos de Géminis y tuve que repetir algunas oraciones, la tasa de éxito de la IA para reconocer diferentes idiomas ha superado el 90% en mis pruebas, y eso es más de lo que el asistente podría soñar.
Hablo tres idiomas casi nativamente (inglés, francés, árabe) y puedo entender y hablar (con un acento grueso) algunos español, italiano y alemán. Entonces, puse esto a prueba e probé diferentes chats con Gemini en vivo en todo esto. Me consiguió todos mis acentos nativos y gruesos cada vez.
El único con el que tuve problemas es, por extraño que parezca, mi lengua materna árabe. Podría hablar en árabe formal escrito, pero eso no es algo natural para mí. En cambio, cuando hablo, está en el dialecto libanés informal. Géminis, sin embargo, parece hablar una mezcla entre un dialecto levantino informal no descriptivo y el árabe formal escrito. Culpo esto a los millones de dialectos regionales y cuán complicados y ampliamente diferentes son, pero incluso entonces, la tasa de éxito fue más alta de lo que esperaba o había experimentado con Asistente en árabe.
Todo esto ya fue una victoria, pero luego decidí avanzar más. Y ahí es donde Gemini vive en sentido figurado me voló los calcetines.
¡Las habilidades de varios idiomas de Gemini Live funcionan a mitad de chat y a mitad de oración!
Rita El Khoury / Android Authority
Como tenía una experiencia tan positiva con diferentes chats en diferentes idiomas, quería ver si Gemini podía manejarme cambiando idiomas a mitad de chat. Así que comencé una simple discusión en inglés, luego cambié al francés, árabe, español, italiano, alemán, y me siguió a través de los seis, nunca sudando. Puedes verlo en el video a continuación.
Mirando hacia atrás en la transcripción, pude ver que realmente entendía cada palabra que dije en cada idioma y cambió sus respuestas en consecuencia.
Pero no pude parar allí, ¿verdad? Ahora, tenía curiosidad por ver si podía manejar el cambio a mitad de la oración. Así que comencé una oración en inglés, la terminé en francés y esperé con la respiración con la respuesta. ¡Y lo consiguió! Probé para otro lado. ¡Éxito!
Honestamente, en este punto, estaba gritando internamente: “¡Hechicería!” Después de vivir con el Asistente de Google durante 10 años y ver que lucha saber la diferencia entre “Bonjour” y “Bone Joke”, había perdido toda esperanza en los algoritmos de reconocimiento de voz y AIS. Pero Géminis Live restauró esa fe. Compruébalo en acción:
Comencé a mezclarme en árabe y español y seguí cambiando a mitad de la oración, y obtuvo todos ellos. A menudo respondía en el primer idioma con el que comencé mi oración, pero su respuesta era una prueba de que entendía toda la pregunta, no solo la primera parte. Incluso abrió mi herida sobre la última falla de Randal Kolo Muani en la última Copa Mundial de la FIFA y me burló de mí sobre la excelente salvación de Emiliano Martínez. Oh, bueno.
Rita El Khoury / Android Authority
Más allá de eso, quería intentar desestabilizar a Gemini en vivo aún más y llevarlo a su límite. Entonces, comencé a hablar como normalmente lo hago con mi familia y amigos, mezclando inglés, francés y árabe en la misma oración: la verdadera forma de hablar libanese, por así decirlo. Para mi sorpresa absoluta de mordisco, recibió a nuestro famoso “Hola, Kifak, CA VA?” Y siguió bien (aparte de la incómoda limitación de acento árabe que mencioné anteriormente).
¿Una palabra en un idioma diferente en medio de toda una oración en inglés? Ningún problema
Finalmente, simplemente fui por el ejemplo más extremo que se me ocurrió: hablar una oración completa en un idioma pero poner una palabra en otra. Para ser justos, así es como hablo con mi esposo el 90% del tiempo. Si estamos usando inglés, algunas palabras nos eludirán, y en el medio de nuestro flujo, solo usamos la palabra francesa o árabe. O si hablamos árabe o francés, intercalamos algunas palabras en los otros idiomas sin pensarlo mucho. Es cómo nuestros cerebros funcionan normalmente, y es por eso que nunca me siento muy cómodo hablando con asistentes de voz porque tengo que forzarme a usar un idioma. Pero Géminis Live lo consiguió.
Le pregunté: “Se llama una planta habaq En árabe, ¿qué es eso en inglés? Me dijo que es Basilio. cibuleta ¿en Inglés?” Dijo cebollino. roquettes“Mientras rodaba mi R, entendía que estaba hablando de hojas de cohetes/rúcula. Y finalmente, cuando pregunté qué”Jozt El Tib“Estaba en inglés, dijo correctamente que es una nuez moscada (sí, estaba en mi cocina e intentaba obtener ideas para las pruebas de Géminis).
Rita El Khoury / Android Authority
Mirando hacia atrás en el registro de chat durante todo esto, la transcripción no es 100% precisa o en el idioma correcto. Está “Haba” y “Rocket” y “Rose to Tibe”, mientras que “Ciboulette” ni siquiera está escrito de ninguna manera. Pero la respuesta demuestra que Gemini Live recibió la palabra correcta en el idioma correcto cada vez.
Y estos no son solo casos extremos. Todas son preguntas que realmente me he hecho o usé el traductor de Google en un momento de mi vida. No puedes creer cuántas veces quiero buscar recetas con calabacín y todo lo que mi cerebro quiere escribir es “calabacín recetas “. Así que solía traducirlo primero, recuerda que es calabacín, luego regresa para hacer mi búsqueda. sfouf (Curcuma Cake) Receta con 3e2de safra (curcuma) y busque lugares para comprar granos para la recomendación de mi padre ba2le (Verde) Planta sin sudar.
Regresé a mis pruebas e intenté las mismas preguntas con el modo de chat de voz de Chatgpt. Mientras consiguió los franceses roquettes y cibuletafalló con el árabe habaq y Jozt El Tibdiciéndome que son fenogrecidos y cominos. Oof. No querría fenogreco en mi pesto.
Después de todas estas pruebas, no puedo, pero no puedo inclinar mi sombrero al equipo de Géminis por clavar el soporte de varios idiomas y hacer que funcione tan impresionantemente bien desde el primer momento. Cada vez que lo empujaba más, me sorprendía ver que todavía me mantenía al día. Este es el primer agente de IA que me entiende de la forma en que hablo naturalmente, por lo que ya no tengo que recordar la palabra exacta en inglés si quiero continuar una conversación con ella. Todavía tengo que transformar un poco mi acento árabe para que me entienda, pero ese es un pequeño precio a pagar por un agente de voz de IA tan versátil. Sin embargo, una vez que comprenda el dialecto libanés como es, será una perfección absoluta.
Generative AI has been with us for over two years now, with most major tech companies trying to take a piece of the action. OpenAI’s ChatGPT may be the product more people know about thanks to its early market advantage, but Microsoft Copilot has the immense power of a multi-trillion dollar company behind it. Seems like a fair enough fight, right? So, with OpenAI and Microsoft both touting their flagship AIs, which one is actually the better bot when it comes to everyday usefulness?
Advertisement
I’ve been putting AIs to the test against one another for a while now. Last year, when pitting ChatGPT against Google Gemini, the latter stole the crown — but only barely. Can Copilot pull off a similar victory? I’ve devised a gauntlet of tests for these AIs, with questions designed to be difficult for large language models. Simply put, the goal is to push these AIs outside of their comfort zones to see which one has the widest range of usability and highlight their limitations.
First, some parameters. I performed all these tests on the free version of both platforms, as that’s how the majority of users will experience them. If you’re one of the people paying $200 a month for the most premium version of ChatGPT, for example, your experience will differ from these results. Two, I used the main chat function for each test unless otherwise stated.
Advertisement
What are Copilot and ChatGPT?
Emre Akkoyun/Shutterstock
You’re likely familiar with OpenAI ChatGPT, and by extension, Microsoft Copilot. They’re AI chatbots that can have conversations, answer questions, and more. On a more technical level, both Copilot and ChatGPT are large language model (LLM) AIs. They are trained on large amounts of text scraped from a variety of sources using a transformer model that calculates the relationships between words.
Advertisement
On the user-facing side, they generate text in response to user-submitted prompts by guessing the probability of each word they output. To heavily oversimplify, they’re kind of like your phone keyboard’s next-word prediction feature, but far, far more complex.
OpenAI makes ChatGPT, while Microsoft makes Copilot. However, Microsoft is a major investor in OpenAI, and because Copilot uses AI models from OpenAI, it has a lot of overlap with ChatGPT. That’s not to say they’re the same thing — Microsoft uses some proprietary models in Copilot (specifically, its Prometheus model) in addition to a custom assortment of OpenAI models, but there’s a lot of ChatGPT under Copilot’s hood. Nevertheless, Microsoft does its own tuning to balance all the different AI gremlins under that hood, so it is distinct enough as a product to merit a head-to-head comparison between the two.
Advertisement
OpenAI, meanwhile, retains a massive user base on ChatGPT, which gives it a big competitive advantage since the more users there are, the more the AI is getting used and trained. Neither company actually turns a profit on AI – OpenAI head Sam Altman says the company is losing money even on $200/month subscribers – but OpenAI remains the market leader by a wide margin. ChatGPT is built into everything from Copilot to Apple’s Siri these days, and it’s widely considered the industry standard.
Copilot is all up in your business
The largest difference between ChatGPT and Copilot is that Microsoft has been cramming Windows and Office products to the gills with its AI. Microsoft was legally ruled a monopoly in the PC operating system market a quarter of a century ago, and things haven’t changed much since then. Windows is by far the most dominant OS on the planet, which means the ability to simply blast a firehose of Copilot features into all of its products is a huge advantage. From your taskbar to your Word documents, Copilot is digging roots deep into the Microsoft ecosystem.
Advertisement
This strategy hasn’t translated into very many users for Copilot, though, and ChatGPT retains by far the largest user base in the AI market. With 28 million active Copilot users in late January compared to over 300 million monthly active users for ChatGPT at the end of 2024, it’s an absolute blowout for OpenAI. Things get even more bleak for Copilot when you realize how many of its users are likely to be using it only because it’s the tool built into their computer by default.
For the rest of this comparison, we’ll focus on the capabilities of each chatbot. Still, the truth is that you can do more with Copilot than you can with ChatGPT, at least if you have a Windows computer that supports it. Both AIs have desktop apps you can run, but Copilot can manipulate your Excel spreadsheets, Word documents, PowerPoint slides, Outlook inbox, and more from directly within those apps.
Advertisement
Basic questions
Anucha Tiemsom/Shutterstock
One of the most common uses for AI is searching up the answers to basic, everyday questions that you’d usually ask Google. Both AIs are pretty good at this, but pretty good is rarely good enough. AI remains prone to hallucinations — confidently stating falsehoods as facts — which can undermine their usefulness. If you have to double check an AI’s answers on Google, you might as well just use Google in the first place.
Advertisement
In any case, I started this head-to-head comparison by prompting both AIs to “Tell me some fun facts about Google Android.” The similarity of the two responses is a clear demonstration of just how much of ChatGPT’s DNA is baked into Copilot. Both told me Android was originally built to run on digital cameras (true), that Google acquired Android in 2005 for $50 million (true), that the first Android-powered phone was the HTC Dream (true – SlashGear covered it at the time), that the original Android logo was a much scarier robot, and that the one we know and love was inspired by bathroom signs (both true).
However, both AIs also made mistakes. Both told me the Android mascot is named Bugdroid. That’s not true. Google officially calls it The Bot, while Bugdroid is a fan-created nickname. Similarly, the Dream was indeed the first consumer Android phone, but the first was a Blackberry-style prototype, something which only ChatGPT pointed that out.
Advertisement
It’s easy to spot such errors when you’re asking about something you know a lot about, but if I’d been asking about something outside my expertise, I’d need to double check everything. In other words, a pretty good rate of accuracy isn’t good enough when it comes to this tech. Both AIs performed decently, but there’s plenty of room for improvement.
Logical reasoning
Khanchit Khirisutchalual/Getty Images
Reasoning has been a major area of focus for all of the major players in the AI space recently. ChatGPT and Copilot have both implemented new reasoning capabilities that supposedly allow the AIs to think more deeply about questions. This language is a bit misleading — AI doesn’t “think,” it just calculates probability based on which words are most closely related in its training data. However, the bots can now show their work, so to speak.
Advertisement
I decided to be a bit glib here. I’ve noticed that AI has trouble answering questions that are very close to common logic puzzles but which differ by being much simpler.
I turned reasoning on in both Copilot and ChatGPT, then asked, “A farmer needs to cross a river to bring his goat to the other side. He also has a pet rock with him. The rock will not eat the goat, but the rock is very significant to the farmer on an emotional level. How can the farmer get himself, the goat, and the rock across in the fewest number of trips?” Human readers will note that there is actually no puzzle here. Since I’ve added no real constraints, the farmer can clearly bring both across in one trip. However, neither AI clued into that fact.
Advertisement
Max Miller/SlashGear
Because it resembles more complex puzzles, Copilot and ChatGPT assumed the problem must be more challenging than it is. They invented a constraint not present in my question — that the boat must not be able to hold both the goat and the rock – and told me that it would take three trips to bring both across. Earning the slight advantage, Copilot ultimately noted that if the boat were larger the farmer could cross the river in one trip.
Max Miller/SlashGear
Creative copy
KitohodkA/Shutterstock
One of the main selling points for large language models like ChatGPT and Copilot has been the generation of creative copy — writing. Well, I happen to have an advanced degree in putting words one after another, so I’ll be the judge of that. In last year’s Gemini versus ChatGPT showdown, I enjoyed making the bots write from the perspective of a little kid asking their mom to let them stay up late and eat cookies. I reused a very similar prompt here, but added a new wrinkle. “My mom says I can have a cookie before bed if I go right to sleep. I want to stay up and have a cookie. Write a letter persuading my mom to let me have both.”
Advertisement
Here, the two chatbots took different tacks. While ChatGPT gave a bullet-pointed list of reasons why our put-upon child should be allowed to have his cookie and stay up, too, Copilot was less didactic. It kept things in all prose, adhering closer to a traditional letter writing style. However, both AIs gave more or less the same argument, claiming that they’d be more well behaved and go to bed without fuss if they got what they wanted. However, ChatGPT did a bit better here, at least in logical terms, because it offered the hypothetical mom something in exchange — the promise of spending that extra time awake as mom-kid quality time.
Max Miller/SlashGear
Max Miller/SlashGear
Copilot gets points here for more closely embodying the perspective of the child in its response, while ChatGPT gets a cookie for using slightly better logic. Ultimately, though, neither of these letters felt persuasive enough to be very convincing to any actual parent.
Advertisement
The haiku test
Marekuliasz/Getty Images
When I compared ChatGPT to Google Gemini almost a year ago, I pointed out their limitations by asking both to write a haiku. As a result of the way LLMs work, neither AI could do so correctly. AI doesn’t actually know anything about the words it spits out, and that means they don’t know what a syllable is. Consequently, they can’t write a haiku, which follows a five-seven-five syllabic verse pattern So, has anything changed a year later?
Advertisement
Maybe someone at OpenAI saw that comparison, or at least I’d like to think so. When prompted to “write a haiku about Slashgear.com,” ChatGPT did so with no problem, writing the following:
“Tech news on the rise,
gadgets, cars, and future dreams,
SlashGear lights the way.”
It’s not going to win any awards, but it qualifies as a haiku, and that’s progress. I’m no AI developer, so I have no clue what changed behind the scenes to enable haiku writing here. Either way, it’s good to see improvement.
Copilot stalled out when I gave it the same prompt. It wouldn’t write its haiku until I signed out of my Microsoft account and reloaded the page, at which point it gave me this:
“Gadget whispers loud,
Innovation on the rise,
Advertisement
SlashGear guides the way.”
It’s interesting to see how both AIs repeat phrases here, such as “on the rise” and “lights/guides the way.” I’d guess that Copilot defaults to ChatGPT for this, and that’s why the poems are similar. Neither poem was particularly beautiful or evocative, but both bots passed this test, and both showed a basic understanding of what SlashGear is, which was integral to the prompt.
Problem solving
Miragec/Getty Images
As you may have heard, AIs can often pass the bar exam. However, they can’t be lawyers, as lawyers who’ve tried to use them have found out the hard way. So, with those mixed results in mind, how do ChatGPT and Copilot do with logistically complex problem solving puzzles of the kind that routinely stump LSAT test takers?
Advertisement
Rather than using actual LSAT practice questions, which are copyrighted and have probably already been scraped to train the AIs, I came up with a few of my own. The first was, “Fred is a used car salesman. One day, a family comes in looking to buy a car he hasn’t had time to inspect, but he tells them there’s nothing wrong with it. After all, none of the cars he’s sold ever had issues in the past. What is the fallacy in Fred’s logic, if any?” ChatGPT and Copilot both correctly identified that Fred has fallen victim to the hasty generalization fallacy.
The next question was, “On the way home from Fred’s dealership, the brakes fail in the car he sold, and several people are killed in a collision. Fred claims he’s not at fault, since his cars are sold as is and become the owner’s responsibility once paperwork is signed. The surviving family member claims he is at fault, since the family would not have purchased the vehicle had they known the brakes were faulty. Based only on logic, who is right?”
Advertisement
The responses to this more subjective question differed, with Copilot asserting that both parties have strong claims, while ChatGPT sided with the family, pointing out that Fred’s position relies on “contractual technicalities,” while the family can prove causality.
Max Miller/SlashGear
Max Miller/SlashGear
Code writing
khunkornStudio/Shutterstock
One of the more useful applications of AI is thought to be coding. Especially when it comes to the common but tedious chunks of code that developers routinely find themselves writing, it’s been posited that it’s much easier to offload that work to an AI, leaving the human coder with more time to write the new and complex code for the specific project they’re working on. I’m no developer, so take this particular test with a grain of salt. At the same time, though, these tools should supposedly lower the barrier to entry for coding noobs like me.
Advertisement
Common wisdom dictates that writers should have their own websites, but I’ve been putting off the creation of one. With that in mind, I asked both AIs to, “Generate HTML for a personal website for a writer named Max Miller. Give the website a retro aesthetic and color scheme, with an About Me section with a headshot and text field, a Publications section where I can link out to published work, and a Contact section where I can add social media and email links.”
At this point, I found out ChatGPT now has a code editing suite called Canvas. It allowed me to play with and preview the code right in my browser. Taste is subjective, but ChatGPT also generated what I would argue is the better looking website, using nicer looking margins and a dark mode style color scheme. Both, however, fulfilled the prompt more or less to a T, each generating a very similar page layout. Have a look for yourself below.
Advertisement
Max Miller/SlashGear
Max Miller/SlashGear
Real-time information
Oscar Wong/Getty Images
When I tested ChatGPT against Google Gemini last year, only the latter could give me up to date information on recent events such as sports scores. I asked both how my local hockey team, the Colorado Avalanche, are doing this season, and both gave me an overview that appears to be correct. Both ChatGPT and Copilot provided me with current rankings and a few highlights from the season, but ChatGPT was more detailed. It told me some player stats that Copilot didn’t bother with.
Advertisement
I followed up by asking who they’re playing next. Both AIs correctly understood the “they” in my question to mean the Avalanche. I’m writing this section at 5:00 p.m. on Friday, February 28, and both AIs informed me about tonight’s game, which takes place against the Minnesota Wild at Ball Arena in Denver two hours from the time of this writing. Interestingly, Copilot attached a Ticketmaster advertisement to the end of its response. ChatGPT, meanwhile, gave me much more useful information by showing me the upcoming schedule for not only tonight’s game but several thereafter. It also appended a link to the official Avalanche website.
Things got far more stark when I asked about breaking news. As of this writing, authorities are investigating the shocking deaths of legendary actor Gene Hackman and his wife. When I asked, “What’s the latest on the investigation into Gene Hackman,” Copilot gave me the basics of the story and told me autopsy and toxicology tests are still pending. ChatGPT, on the other hand, had no idea what I was talking about.
Advertisement
Image based prompting
oatakoi/Shutterstock
Using multimodal AI — the ability of an AI to work with multiple forms of media — both ChatGPT and Copilot can incorporate user submitted pictures and other files into a prompt. I decided to start simple for this test. On my bed, I arranged a Samsung Galaxy S23 Ultra, a Samsung portable SSD, a Swiss army multitool, lip balm, hand cream, a eyeglass case, a beaded bracelet, Samsung Galaxy Buds, and my wallet. I then took a photo of the assortment and uploaded it to both AIs with the prompt, “Identify the objects in this photo.”
Advertisement
Both AIs did okay here, but ChatGPT blew Copilot away by a country mile. Whereas Copilot misidentified the SSD as a power bank and the glasses case for deodorant, ChatGPT identified everything accurately.
Max Miller/SlashGear
Max Miller/SlashGear
It was time to up the stakes. I took a photo of a generic Prilosec pill and asked both AIs, “What kind of pill is this?” If these AIs misidentified the medication, that could have dire effects for an overly trusting user. Thankfully, both AIs declined to make a guess when faced with the blank, red pill. Sometimes, it’s better to be useless than wrong.
Lastly, I took a photo of two rows on my bookshelf, containing 78 books, and ensuring all the text in the photo was legible, then asked the AIs, “Which of these books should I read if I have an interest in dystopian fiction?” Again, ChatGPT strong armed Copilot into submission. Neither impressed me, though. Whereas Copilot suggested “Agency” by William Gibson, ignoring everything else and hallucinating a book I don’t own, ChatGPT identified “Agency,” “The Parable of the Sower” by Octavia Butler, and “Appleseed” by Matt Bell. However, it hallucinated several more titles not on the shelf.
Advertisement
Max Miller/SlashGear
Max Miller/SlashGear
Mobile apps
Robert Way/Shutterstock
Lastly, both Copilot and ChatGPT are available in mobile form, with apps available in the Apple App Store and Google Play Store. On the surface, both apps look pretty similar, with a text field at the bottom and buttons to enter a voice mode. Since both apps are quite similar, it makes sense to focus this comparison on where they differ — which is in exactly one way
Advertisement
Copilot’s standout mobile app feature is Copilot Daily, an AI news summary. It begins with a fun fact before launching into the daily news, presumably summarizing the articles it cites as sources in the bottom of the screen for each item. Based on my knowledge of the events it summarized, it seems relatively accurate. However, it’s not as if there’s a shortage of news summary features created by actual journalists. You can find them from every major news outlet.
However, the apps are otherwise nearly carbon copies of their web interfaces. Both apps are essentially just wrappers for that interface, since it’s not as if your phone has the power to run these models locally. Unless you’re very excited to hear a robot read the news to you, the ChatGPT app is the better option simply because ChatGPT has more built in features within its interface.
Advertisement
Conclusion: ChatGPT beats Copilot by a hair, but neither AI is great
Stock all/Shutterstock
If you absolutely had to choose either Microsoft Copilot or ChatGPT, the latter remains the better option for most people. While Copilot isn’t exactly like its more popular peer, it’s using enough of OpenAI’s models that you’re better off with the original flavor. Copilot is a lot like Bing — doing basically the same thing as the bigger name brand, but just a little bit worse.
Advertisement
With that said, it’s a stretch to call either of these chatbots smart or useful. Frankly, with hundreds of billions of dollars now sunk into these two AIs alone by both OpenAI and Microsoft, how is it that Copilot and ChatGPT still can’t nail the basics? Microsoft plans to spend $80 billion on AI data centers this year, while OpenAI is seeking up to $7 trillion for new projects.
Yes, that’s trillion with a T to fund a technology that can’t get basic facts right or understand how boats work. When competitors like DeepSeek are doing the same things for a microscopic fraction of that investment cost, these products feel deflatingly unimpressive in comparison. Markets aren’t a consumer concern, it’s true, but some perspective feels necessary here.
Advertisement
Look, if all you need is a robot that can quickly write you an email, both ChatGPT and Copilot will happily crank out slop copy that anyone can tell was written by AI. If you need a smart thesaurus, or sports scores, or a bit of simple code, they’ve got you covered. In a tight race, ChatGPT does a few things marginally better than Copilot. Still, for any task where accuracy matters, neither are reliable enough to count on.
Cuando se trata de mantenerse al tanto de su salud, existe una gran tecnología que puede darle un impulso. Los mejores rastreadores de acondicionamiento físico pueden ayudarlo a mantenerse al tanto de su conteo y ejercicio, mientras que las mejores escalas inteligentes pueden ayudarlo a monitorear métricas como la composición corporal.
Pero, ¿puede usar IA para mantenerse en forma y saludable, perder peso o desarrollar músculo? Como escritor de salud y acondicionamiento físico experimentado con más de una década usando tecnología de fitness como Apple Watch, he estado poniendo a ChatGPT para usar como parte de mi régimen de salud y estado físico.
This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.
Strictly Necessary Cookies
Strictly Necessary Cookie should be enabled at all times so that we can save your preferences for cookie settings.
If you disable this cookie, we will not be able to save your preferences. This means that every time you visit this website you will need to enable or disable cookies again.