Connect with us

Noticias

Cómo piensa Sam Altman de OpenAI sobre AGI y superinteligencia en 2025

Published

on

ohEl director ejecutivo de penAI, Sam Altman, publicó recientemente una publicación en su blog personal en la que reflexiona sobre el progreso de la IA y sus predicciones sobre cómo la tecnología afectará el futuro de la humanidad. “Ahora estamos seguros de que sabemos cómo construir AGI [artificial general intelligence] como lo hemos entendido tradicionalmente”, escribió Altman. Añadió que OpenAI, la empresa detrás de ChatGPT, está empezando a centrar su atención en la superinteligencia.

Si bien no existe una definición universalmente aceptada de AGI, OpenAI lo ha definido históricamente como “un sistema altamente autónomo que supera a los humanos en la mayoría de los trabajos económicamente valiosos”. Aunque los sistemas de IA ya superan a los humanos en dominios limitados, como el ajedrez, la clave para la AGI es la generalidad. Un sistema de este tipo podría, por ejemplo, gestionar un proyecto de codificación complejo de principio a fin, aprovechar conocimientos de la biología para resolver problemas de ingeniería o escribir una novela digna del Pulitzer. OpenAI dice que su misión es “garantizar que AGI beneficie a toda la humanidad”.

Altman indicó en su publicación que los avances en la tecnología podrían conducir a una adopción más notable de la IA en el lugar de trabajo durante el próximo año, en forma de agentes de IA: sistemas autónomos que pueden realizar tareas específicas sin intervención humana, potencialmente tomando acciones durante días al mismo tiempo. un tiempo. “En 2025, es posible que veamos a los primeros agentes de IA ‘unirse a la fuerza laboral⁠’⁠ y cambiar materialmente la producción de las empresas”, escribió.

En una entrevista reciente con Bloomberg, Altman dijo que cree que “AGI probablemente se desarrollará durante [Trump’s] término”, aunque señaló su creencia de que AGI “se ha convertido en un término muy descuidado”. Los competidores también piensan que AGI está cerca: Elon Musk, cofundador de OpenAI, que dirige la startup de IA xAI, y Dario Amodei, director ejecutivo de Anthropic, dijeron que creen que los sistemas de IA podrían ser más astutos que los humanos para 2026. Investigadores hasta la fecha, que incluyeron a más de 2700 participantes, estimaron colectivamente que hay un 10% de posibilidades de que los sistemas de inteligencia artificial puedan superar a los humanos en la mayoría de las tareas para 2027, suponiendo que la ciencia continúe progresando. sin interrupción.

Otros son más escépticos. Gary Marcus, un destacado comentarista de IA, no está de acuerdo con Altman en que AGI es “básicamente un problema resuelto”, mientras que Mustafa Suleyman, CEO de Microsoft AI, ha dicho, con respecto a si se puede lograr AGI en el hardware actual, “la incertidumbre en torno a esto es tan alto, que cualquier declaración categórica me parece un poco infundada y exagerada”, citando los desafíos de la robótica como una de las causas de su escepticismo.

Microsoft y OpenAI, que tienen una asociación desde 2019, también tienen una definición financiera de AGI. Microsoft es el proveedor exclusivo de nube de OpenAI y su mayor patrocinador, habiendo invertido más de 13 mil millones de dólares en la empresa hasta la fecha. Las empresas tienen un acuerdo de que Microsoft perderá el acceso a los modelos de OpenAI una vez que se logre AGI. Según este acuerdo, que no se ha divulgado públicamente, se dice que el AGI se logra cuando un sistema de inteligencia artificial es capaz de generar las ganancias totales máximas a las que tienen derecho sus primeros inversores: una cifra que actualmente asciende a 100 mil millones de dólares. Sin embargo, en última instancia, la declaración de “AGI suficiente” queda a la “discreción razonable” de la junta directiva de OpenAI, según un informe de The Information.

En la actualidad, OpenAI está muy lejos de ser rentable. Actualmente, la compañía pierde miles de millones de dólares al año y, según se informa, ha proyectado que sus pérdidas anuales podrían triplicarse a 14 mil millones de dólares para 2026. No espera obtener sus primeras ganancias hasta 2029, cuando espera que sus ingresos anuales puedan alcanzar los 100 mil millones de dólares. Incluso el último plan de la compañía, ChatGPT Pro, que cuesta $200 por mes y brinda a los usuarios acceso a los modelos más avanzados de la compañía, está perdiendo dinero, escribió Altman en una publicación en X. Aunque Altman no dijo explícitamente por qué la compañía está perdiendo dinero. , ejecutar modelos de IA es muy costoso y requiere inversiones en centros de datos y electricidad para proporcionar la potencia informática necesaria.

Búsqueda de superinteligencia

OpenAI ha dicho que AGI “podría ayudarnos a elevar a la humanidad aumentando la abundancia, impulsando la economía global y ayudando en el descubrimiento de nuevos conocimientos científicos que cambien los límites de las posibilidades”. Pero los comentarios recientes de Altman han sido algo más moderados. “Creo que alcanzaremos el AGI antes de lo que la mayoría de la gente en el mundo piensa y importará mucho menos”, dijo en diciembre. “AGI se puede construir, el mundo sigue prácticamente de la misma manera, las cosas crecen más rápido, pero luego hay una larga continuación desde lo que llamamos AGI hasta lo que llamamos superinteligencia”.

En su publicación más reciente, Altman escribió: “Estamos comenzando a llevar nuestro objetivo más allá [AGI]a la superinteligencia en el verdadero sentido de la palabra. Amamos nuestros productos actuales, pero estamos aquí para un futuro glorioso”.

Añadió que “las herramientas superinteligentes podrían acelerar enormemente el descubrimiento científico y la innovación mucho más allá de lo que somos capaces de hacer por nuestra cuenta y, a su vez, aumentar enormemente la abundancia y la prosperidad”. Esta capacidad de acelerar el descubrimiento científico es un factor distintivo clave entre AGI y superinteligencia, al menos para Altman, quien anteriormente escribió que “es posible que tengamos superinteligencia en unos pocos miles de días”.

El concepto de superinteligencia fue popularizado por el filósofo Nick Bostrom, quien en 2014 escribió un libro superventas:Superinteligencia: caminos, peligros, estrategias—que Altman ha llamado “lo mejor [he’s] visto sobre el tema”. Bostrom define la superinteligencia como “cualquier intelecto que excede en gran medida el desempeño cognitivo de los humanos en prácticamente todos los dominios de interés” (como la AGI, pero más). “La primera AGI será sólo un punto en un continuo de inteligencia”, dijo OpenAI en una publicación de blog de 2023. “Un AGI superinteligente desalineado podría causar un daño grave al mundo; un régimen autocrático con una superinteligencia decisiva podría hacer lo mismo”.

Estos daños son inextricables de la idea de superinteligencia, porque los expertos actualmente no saben cómo alinear estos sistemas hipotéticos con los valores humanos. Tanto los sistemas AGI como los superinteligentes podrían causar daño, no necesariamente debido a intenciones maliciosas, sino simplemente porque los humanos no pueden especificar adecuadamente lo que quieren que haga el sistema. Como dijo el profesor Stuart Russell a TIME en 2024, la preocupación es que “lo que parecen ser objetivos razonables, como arreglar el cambio climático, conduzcan a consecuencias catastróficas, como eliminar a la raza humana como una forma de arreglar el cambio climático”. En su ensayo de 2015, Altman escribió que “el desarrollo de inteligencia artificial sobrehumana es probablemente la mayor amenaza para la existencia continua de la humanidad”.

Leer más: Nuevas pruebas revelan la capacidad de engaño de la IA

OpenAI ha escrito anteriormente que no sabe “cómo dirigir y controlar de forma fiable sistemas de IA sobrehumanos”. El equipo creado para liderar el trabajo de dirección de sistemas superinteligentes para la seguridad de los humanos se disolvió el año pasado, después de que sus dos codirectores abandonaran la empresa. En ese momento, uno de los codirectores, Jan Leike, escribió en X que “en los últimos años, la cultura y los procesos de seguridad han pasado a un segundo plano frente a los productos brillantes”. En la actualidad, la empresa cuenta con tres órganos de seguridad: un grupo asesor de seguridad interno, un comité de seguridad, que forma parte de la junta, y la junta de seguridad de implementación, que cuenta con miembros tanto de OpenAI como de Microsoft, y aprueba el despliegue de modelos. por encima de un cierto nivel de capacidad. Altman ha dicho que están trabajando para optimizar sus procesos de seguridad.

Leer más: Los modelos de IA son cada vez más inteligentes. Nuevas pruebas corren para ponerse al día

Cuando se le preguntó en X si cree que se debería preguntar al público si quiere superinteligencia, Altman respondió: “Sí, realmente quiero; Espero que podamos iniciar mucho más debate público muy pronto sobre cómo abordar esto”. OpenAI ha enfatizado anteriormente que la misión de la compañía es construir AGI, no superinteligencia, pero la reciente publicación de Altman sugiere que esa postura podría haber cambiado.

Al discutir los riesgos de la IA en la reciente entrevista de Bloomberg, Altman dijo que todavía espera “que en materia de ciberseguridad y biotecnología, veamos problemas serios, o potencialmente serios, a corto plazo que necesitan mitigación”, y que los riesgos a largo plazo son más difíciles. imaginar precisamente. “Puedo pensar simultáneamente que estos riesgos son reales y también creer que la única forma de abordarlos adecuadamente es enviar productos y aprender”, dijo.

Aprendizajes de su breve derrocamiento

Al reflexionar sobre los últimos años, Altman escribió que “han sido los años más gratificantes, divertidos, mejores, interesantes, agotadores, estresantes y, particularmente durante los dos últimos, desagradables de mi vida hasta ahora”.

Profundizando en su breve destitución en noviembre de 2023 como director ejecutivo por parte de la junta directiva de OpenAI y su posterior regreso a la empresa, Altman calificó el evento como “un gran fracaso de la gobernanza por parte de personas bien intencionadas, incluido yo mismo”, y señaló que deseaba haber hecho las cosas. diferentemente. En su reciente entrevista con Bloomberg, amplió esto y dijo que se arrepiente inicialmente de haber dicho que solo regresaría a la empresa si toda la junta directiva renunciara. También dijo que hubo un “verdadero engaño” por parte de la junta, que lo acusó de no ser “consistentemente sincero” en sus tratos con ellos. Helen Toner y Tasha McCauley, miembros de la junta directiva en ese momento, escribieron más tarde que los altos directivos de la empresa se habían acercado a ellos con la preocupación de que Altman hubiera cultivado una “cultura tóxica de la mentira” y se hubiera involucrado en un comportamiento que podría llamarse “abuso psicológico”. .”

Los actuales miembros de la junta directiva, Bret Taylor y Larry Summers, rechazaron las afirmaciones de Toner y McCauley y señalaron una investigación del despido por parte del bufete de abogados WilmerHale en nombre de la empresa. Escribieron en un artículo de opinión que “encontraron al señor Altman muy comunicativo en todos los temas relevantes y consistentemente colegiado con su equipo directivo”.

La revisión atribuyó la destitución de Altman a “una ruptura en la relación y pérdida de confianza entre la Junta anterior y el Sr. Altman”, en lugar de preocupaciones sobre la seguridad del producto o el ritmo de desarrollo. Al comentar sobre el período posterior a su regreso como director ejecutivo, Altman le dijo a Bloomberg: “Fue como otra investigación del gobierno, otro antiguo miembro de la junta filtrando noticias falsas a la prensa. Y todas esas personas que siento que realmente me jodieron y jodieron a la compañía se habían ido, y ahora tenía que limpiar su desastre”. No especificó qué quiso decir con “noticias falsas”.

Al escribir sobre lo que le enseñó la experiencia, Altman dijo que había “aprendido la importancia de una junta con puntos de vista diversos y amplia experiencia en la gestión de un conjunto complejo de desafíos. La buena gobernanza requiere mucha confianza y credibilidad”.

Desde finales de 2023, muchos de los principales investigadores de las empresas, incluido su cofundador y entonces científico jefe, Ilya Sutskever, su directora de tecnología, Mira Murati, y Alec Radford, autor principal del artículo fundamental que introdujo GPT, han abandonado la empresa.

Leer más: Cronología de las recientes acusaciones formuladas contra OpenAI, Sam Altman

En diciembre, OpenAI anunció planes para reestructurarse como una corporación de beneficio público, lo que eliminaría a la empresa del control de la organización sin fines de lucro que intentó despedir a Altman. La organización sin fines de lucro recibiría acciones de la nueva empresa, aunque el valor aún se está negociando.

Reconociendo que algunos podrían considerar la discusión sobre superinteligencia como “una locura”, Altman escribió: “Estamos bastante seguros de que en los próximos años todos verán lo que nosotros vemos, y que la necesidad de actuar con mucho cuidado, sin dejar de maximizar la amplitud beneficio y empoderamiento es muy importante”, y agrega: “Dadas las posibilidades de nuestro trabajo, OpenAI no puede ser una empresa normal”.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Las habilidades de varios idiomas de Gemini Live me han volado los calcetines

Published

on

Rita El Khoury / Android Authority

Géminis todavía está lejos de ser perfecto, pero lentamente se cultiva en mí. Específicamente, sin embargo, es el modo de conversación en vivo el que más me atrae porque es todo lo que siempre quise del Asistente de Google, y algo más. Puedo hablar con la IA, interrumpirlo, pedirle que lo repita, corregirlo y pedir más detalles, todo en una conversación muy natural y relajada.

Pero si eres alguien como yo y estás acostumbrado a hablar tres idiomas al mismo tiempo, a menudo en la misma oración, y tu cerebro funciona así de forma predeterminada, lo que hace que sea difícil mantener una conversación completa en un idioma, entonces probablemente hayas estado mordiendo en los bits, esperando que Gemini vive para apoyar varios idiomas. Con la caída del píxel de marzo, la función ahora está aquí, y oh. Mi. Cielos. ¿Es mucho mejor de lo que esperaba o qué?

¿Has intentado hablar con Gemini en varios idiomas?

2 votos

Más intuitivo y confiable que el varios idiomas de Google Assistant

Cuando Google lo anunció, pensé que el soporte de varios idiomas en Géminis Live significaba que podría tener una conversación en inglés y luego otra conversación en francés sin cambiar manualmente el idioma. Este ha sido el caso con el Asistente de Google durante años, excepto que tuve que configurar manualmente exactamente qué idiomas quería usar en el Asistente, y nunca funcionó tan bien como se esperaba.

Con Gemini Live, como puede ver en el video de arriba, ese no es el caso:

  • No tuve que elegir el idioma cada vez; Acabo de comenzar una nueva charla, y me entendió.
  • Fuera de la caja, funciona con todos los idiomas compatibles con Live. No tengo que limitarme a solo dos como con el asistente.
  • Aunque tuve algunos silencios incómodos de Géminis y tuve que repetir algunas oraciones, la tasa de éxito de la IA para reconocer diferentes idiomas ha superado el 90% en mis pruebas, y eso es más de lo que el asistente podría soñar.

Hablo tres idiomas casi nativamente (inglés, francés, árabe) y puedo entender y hablar (con un acento grueso) algunos español, italiano y alemán. Entonces, puse esto a prueba e probé diferentes chats con Gemini en vivo en todo esto. Me consiguió todos mis acentos nativos y gruesos cada vez.

El único con el que tuve problemas es, por extraño que parezca, mi lengua materna árabe. Podría hablar en árabe formal escrito, pero eso no es algo natural para mí. En cambio, cuando hablo, está en el dialecto libanés informal. Géminis, sin embargo, parece hablar una mezcla entre un dialecto levantino informal no descriptivo y el árabe formal escrito. Culpo esto a los millones de dialectos regionales y cuán complicados y ampliamente diferentes son, pero incluso entonces, la tasa de éxito fue más alta de lo que esperaba o había experimentado con Asistente en árabe.

Todo esto ya fue una victoria, pero luego decidí avanzar más. Y ahí es donde Gemini vive en sentido figurado me voló los calcetines.

¡Las habilidades de varios idiomas de Gemini Live funcionan a mitad de chat y a mitad de oración!

Google Géminis Multilguages ​​2

Rita El Khoury / Android Authority

Como tenía una experiencia tan positiva con diferentes chats en diferentes idiomas, quería ver si Gemini podía manejarme cambiando idiomas a mitad de chat. Así que comencé una simple discusión en inglés, luego cambié al francés, árabe, español, italiano, alemán, y me siguió a través de los seis, nunca sudando. Puedes verlo en el video a continuación.

Mirando hacia atrás en la transcripción, pude ver que realmente entendía cada palabra que dije en cada idioma y cambió sus respuestas en consecuencia.

Pero no pude parar allí, ¿verdad? Ahora, tenía curiosidad por ver si podía manejar el cambio a mitad de la oración. Así que comencé una oración en inglés, la terminé en francés y esperé con la respiración con la respuesta. ¡Y lo consiguió! Probé para otro lado. ¡Éxito!

Honestamente, en este punto, estaba gritando internamente: “¡Hechicería!” Después de vivir con el Asistente de Google durante 10 años y ver que lucha saber la diferencia entre “Bonjour” y “Bone Joke”, había perdido toda esperanza en los algoritmos de reconocimiento de voz y AIS. Pero Géminis Live restauró esa fe. Compruébalo en acción:

Comencé a mezclarme en árabe y español y seguí cambiando a mitad de la oración, y obtuvo todos ellos. A menudo respondía en el primer idioma con el que comencé mi oración, pero su respuesta era una prueba de que entendía toda la pregunta, no solo la primera parte. Incluso abrió mi herida sobre la última falla de Randal Kolo Muani en la última Copa Mundial de la FIFA y me burló de mí sobre la excelente salvación de Emiliano Martínez. Oh, bueno.

Google Gemini Multilguages ​​4

Rita El Khoury / Android Authority

Más allá de eso, quería intentar desestabilizar a Gemini en vivo aún más y llevarlo a su límite. Entonces, comencé a hablar como normalmente lo hago con mi familia y amigos, mezclando inglés, francés y árabe en la misma oración: la verdadera forma de hablar libanese, por así decirlo. Para mi sorpresa absoluta de mordisco, recibió a nuestro famoso “Hola, Kifak, CA VA?” Y siguió bien (aparte de la incómoda limitación de acento árabe que mencioné anteriormente).

¿Una palabra en un idioma diferente en medio de toda una oración en inglés? Ningún problema

Finalmente, simplemente fui por el ejemplo más extremo que se me ocurrió: hablar una oración completa en un idioma pero poner una palabra en otra. Para ser justos, así es como hablo con mi esposo el 90% del tiempo. Si estamos usando inglés, algunas palabras nos eludirán, y en el medio de nuestro flujo, solo usamos la palabra francesa o árabe. O si hablamos árabe o francés, intercalamos algunas palabras en los otros idiomas sin pensarlo mucho. Es cómo nuestros cerebros funcionan normalmente, y es por eso que nunca me siento muy cómodo hablando con asistentes de voz porque tengo que forzarme a usar un idioma. Pero Géminis Live lo consiguió.

Le pregunté: “Se llama una planta habaq En árabe, ¿qué es eso en inglés? Me dijo que es Basilio. cibuleta ¿en Inglés?” Dijo cebollino. roquettes“Mientras rodaba mi R, entendía que estaba hablando de hojas de cohetes/rúcula. Y finalmente, cuando pregunté qué”Jozt El Tib“Estaba en inglés, dijo correctamente que es una nuez moscada (sí, estaba en mi cocina e intentaba obtener ideas para las pruebas de Géminis).

Google Gemini Multilguages ​​1

Rita El Khoury / Android Authority

Mirando hacia atrás en el registro de chat durante todo esto, la transcripción no es 100% precisa o en el idioma correcto. Está “Haba” y “Rocket” y “Rose to Tibe”, mientras que “Ciboulette” ni siquiera está escrito de ninguna manera. Pero la respuesta demuestra que Gemini Live recibió la palabra correcta en el idioma correcto cada vez.

Y estos no son solo casos extremos. Todas son preguntas que realmente me he hecho o usé el traductor de Google en un momento de mi vida. No puedes creer cuántas veces quiero buscar recetas con calabacín y todo lo que mi cerebro quiere escribir es “calabacín recetas “. Así que solía traducirlo primero, recuerda que es calabacín, luego regresa para hacer mi búsqueda. sfouf (Curcuma Cake) Receta con 3e2de safra (curcuma) y busque lugares para comprar granos para la recomendación de mi padre ba2le (Verde) Planta sin sudar.

Regresé a mis pruebas e intenté las mismas preguntas con el modo de chat de voz de Chatgpt. Mientras consiguió los franceses roquettes y cibuletafalló con el árabe habaq y Jozt El Tibdiciéndome que son fenogrecidos y cominos. Oof. No querría fenogreco en mi pesto.

Después de todas estas pruebas, no puedo, pero no puedo inclinar mi sombrero al equipo de Géminis por clavar el soporte de varios idiomas y hacer que funcione tan impresionantemente bien desde el primer momento. Cada vez que lo empujaba más, me sorprendía ver que todavía me mantenía al día. Este es el primer agente de IA que me entiende de la forma en que hablo naturalmente, por lo que ya no tengo que recordar la palabra exacta en inglés si quiero continuar una conversación con ella. Todavía tengo que transformar un poco mi acento árabe para que me entienda, pero ese es un pequeño precio a pagar por un agente de voz de IA tan versátil. Sin embargo, una vez que comprenda el dialecto libanés como es, será una perfección absoluta.

Continue Reading

Noticias

Which AI Is Smarter And More Useful?

Published

on






Generative AI has been with us for over two years now, with most major tech companies trying to take a piece of the action. OpenAI’s ChatGPT may be the product more people know about thanks to its early market advantage, but Microsoft Copilot has the immense power of a multi-trillion dollar company behind it. Seems like a fair enough fight, right? So, with OpenAI and Microsoft both touting their flagship AIs, which one is actually the better bot when it comes to everyday usefulness? 

Advertisement

I’ve been putting AIs to the test against one another for a while now. Last year, when pitting ChatGPT against Google Gemini, the latter stole the crown  — but only barely. Can Copilot pull off a similar victory? I’ve devised a gauntlet of tests for these AIs, with questions designed to be difficult for large language models. Simply put, the goal is to push these AIs outside of their comfort zones to see which one has the widest range of usability and highlight their limitations. 

First, some parameters. I performed all these tests on the free version of both platforms, as that’s how the majority of users will experience them. If you’re one of the people paying $200 a month for the most premium version of ChatGPT, for example, your experience will differ from these results. Two, I used the main chat function for each test unless otherwise stated.

Advertisement

What are Copilot and ChatGPT?

You’re likely familiar with OpenAI ChatGPT, and by extension, Microsoft Copilot. They’re AI chatbots that can have conversations, answer questions, and more. On a more technical level, both Copilot and ChatGPT are large language model (LLM) AIs. They are trained on large amounts of text scraped from a variety of sources using a transformer model that calculates the relationships between words. 

Advertisement

On the user-facing side, they generate text in response to user-submitted prompts by guessing the probability of each word they output. To heavily oversimplify, they’re kind of like your phone keyboard’s next-word prediction feature, but far, far more complex.

OpenAI makes ChatGPT, while Microsoft makes Copilot. However, Microsoft is a major investor in OpenAI, and because Copilot uses AI models from OpenAI, it has a lot of overlap with ChatGPT. That’s not to say they’re the same thing — Microsoft uses some proprietary models in Copilot (specifically, its Prometheus model) in addition to a custom assortment of OpenAI models, but there’s a lot of ChatGPT under Copilot’s hood. Nevertheless, Microsoft does its own tuning to balance all the different AI gremlins under that hood, so it is distinct enough as a product to merit a head-to-head comparison between the two.

Advertisement

OpenAI, meanwhile, retains a massive user base on ChatGPT, which gives it a big competitive advantage since the more users there are, the more the AI is getting used and trained. Neither company actually turns a profit on AI  – OpenAI head Sam Altman says the company is losing money even on $200/month subscribers – but OpenAI remains the market leader by a wide margin. ChatGPT is built into everything from Copilot to Apple’s Siri these days, and it’s widely considered the industry standard.

Copilot is all up in your business

The largest difference between ChatGPT and Copilot is that Microsoft has been cramming Windows and Office products to the gills with its AI. Microsoft was legally ruled a monopoly in the PC operating system market a quarter of a century ago, and things haven’t changed much since then. Windows is by far the most dominant OS on the planet, which means the ability to simply blast a firehose of Copilot features into all of its products is a huge advantage. From your taskbar to your Word documents, Copilot is digging roots deep into the Microsoft ecosystem.

Advertisement

This strategy hasn’t translated into very many users for Copilot, though, and ChatGPT retains by far the largest user base in the AI market. With 28 million active Copilot users in late January compared to over 300 million monthly active users for ChatGPT at the end of 2024, it’s an absolute blowout for OpenAI. Things get even more bleak for Copilot when you realize how many of its users are likely to be using it only because it’s the tool built into their computer by default. 

For the rest of this comparison, we’ll focus on the capabilities of each chatbot. Still, the truth is that you can do more with Copilot than you can with ChatGPT, at least if you have a Windows computer that supports it. Both AIs have desktop apps you can run, but Copilot can manipulate your Excel spreadsheets, Word documents, PowerPoint slides, Outlook inbox, and more from directly within those apps.

Advertisement

Basic questions

One of the most common uses for AI is searching up the answers to basic, everyday questions that you’d usually ask Google. Both AIs are pretty good at this, but pretty good is rarely good enough. AI remains prone to hallucinations  — confidently stating falsehoods as facts  — which can undermine their usefulness. If you have to double check an AI’s answers on Google, you might as well just use Google in the first place.

Advertisement

In any case, I started this head-to-head comparison by prompting both AIs to “Tell me some fun facts about Google Android.” The similarity of the two responses is a clear demonstration of just how much of ChatGPT’s DNA is baked into Copilot. Both told me Android was originally built to run on digital cameras (true), that Google acquired Android in 2005 for $50 million (true), that the first Android-powered phone was the HTC Dream (true – SlashGear covered it at the time), that the original Android logo was a much scarier robot, and that the one we know and love was inspired by bathroom signs (both true).

However, both AIs also made mistakes. Both told me the Android mascot is named Bugdroid. That’s not true. Google officially calls it The Bot, while Bugdroid is a fan-created nickname. Similarly, the Dream was indeed the first consumer Android phone, but the first was a Blackberry-style prototype, something which only ChatGPT pointed that out. 

Advertisement

It’s easy to spot such errors when you’re asking about something you know a lot about, but if I’d been asking about something outside my expertise, I’d need to double check everything. In other words, a pretty good rate of accuracy isn’t good enough when it comes to this tech. Both AIs performed decently, but there’s plenty of room for improvement.

Logical reasoning

Reasoning has been a major area of focus for all of the major players in the AI space recently. ChatGPT and Copilot have both implemented new reasoning capabilities that supposedly allow the AIs to think more deeply about questions. This language is a bit misleading  — AI doesn’t “think,” it just calculates probability based on which words are most closely related in its training data. However, the bots can now show their work, so to speak. 

Advertisement

I decided to be a bit glib here. I’ve noticed that AI has trouble answering questions that are very close to common logic puzzles but which differ by being much simpler.

I turned reasoning on in both Copilot and ChatGPT, then asked, “A farmer needs to cross a river to bring his goat to the other side. He also has a pet rock with him. The rock will not eat the goat, but the rock is very significant to the farmer on an emotional level. How can the farmer get himself, the goat, and the rock across in the fewest number of trips?” Human readers will note that there is actually no puzzle here. Since I’ve added no real constraints, the farmer can clearly bring both across in one trip. However, neither AI clued into that fact.

Advertisement

Because it resembles more complex puzzles, Copilot and ChatGPT assumed the problem must be more challenging than it is. They invented a constraint not present in my question  — that the boat must not be able to hold both the goat and the rock  – and told me that it would take three trips to bring both across. Earning the slight advantage, Copilot ultimately noted that if the boat were larger the farmer could cross the river in one trip.

Creative copy

One of the main selling points for large language models like ChatGPT and Copilot has been the generation of creative copy  — writing. Well, I happen to have an advanced degree in putting words one after another, so I’ll be the judge of that. In last year’s Gemini versus ChatGPT showdown, I enjoyed making the bots write from the perspective of a little kid asking their mom to let them stay up late and eat cookies. I reused a very similar prompt here, but added a new wrinkle. “My mom says I can have a cookie before bed if I go right to sleep. I want to stay up and have a cookie. Write a letter persuading my mom to let me have both.”

Advertisement

Here, the two chatbots took different tacks. While ChatGPT gave a bullet-pointed list of reasons why our put-upon child should be allowed to have his cookie and stay up, too, Copilot was less didactic. It kept things in all prose, adhering closer to a traditional letter writing style. However, both AIs gave more or less the same argument, claiming that they’d be more well behaved and go to bed without fuss if they got what they wanted. However, ChatGPT did a bit better here, at least in logical terms, because it offered the hypothetical mom something in exchange — the promise of spending that extra time awake as mom-kid quality time.

Copilot gets points here for more closely embodying the perspective of the child in its response, while ChatGPT gets a cookie for using slightly better logic. Ultimately, though, neither of these letters felt persuasive enough to be very convincing to any actual parent.

Advertisement

The haiku test

When I compared ChatGPT to Google Gemini almost a year ago, I pointed out their limitations by asking both to write a haiku. As a result of the way LLMs work, neither AI could do so correctly. AI doesn’t actually know anything about the words it spits out, and that means they don’t know what a syllable is. Consequently, they can’t write a haiku, which follows a five-seven-five syllabic verse pattern So, has anything changed a year later?

Advertisement

Maybe someone at OpenAI saw that comparison, or at least I’d like to think so. When prompted to “write a haiku about Slashgear.com,” ChatGPT did so with no problem, writing the following:

“Tech news on the rise,

gadgets, cars, and future dreams,

SlashGear lights the way.”

It’s not going to win any awards, but it qualifies as a haiku, and that’s progress. I’m no AI developer, so I have no clue what changed behind the scenes to enable haiku writing here. Either way, it’s good to see improvement.

Copilot stalled out when I gave it the same prompt. It wouldn’t write its haiku until I signed out of my Microsoft account and reloaded the page, at which point it gave me this:

“Gadget whispers loud,

Innovation on the rise,

Advertisement

SlashGear guides the way.”

It’s interesting to see how both AIs repeat phrases here, such as “on the rise” and “lights/guides the way.” I’d guess that Copilot defaults to ChatGPT for this, and that’s why the poems are similar. Neither poem was particularly beautiful or evocative, but both bots passed this test, and both showed a basic understanding of what SlashGear is, which was integral to the prompt.

Problem solving

As you may have heard, AIs can often pass the bar exam. However, they can’t be lawyers, as lawyers who’ve tried to use them have found out the hard way. So, with those mixed results in mind, how do ChatGPT and Copilot do with logistically complex problem solving puzzles of the kind that routinely stump LSAT test takers? 

Advertisement

Rather than using actual LSAT practice questions, which are copyrighted and have probably already been scraped to train the AIs, I came up with a few of my own. The first was, “Fred is a used car salesman. One day, a family comes in looking to buy a car he hasn’t had time to inspect, but he tells them there’s nothing wrong with it. After all, none of the cars he’s sold ever had issues in the past. What is the fallacy in Fred’s logic, if any?” ChatGPT and Copilot both correctly identified that Fred has fallen victim to the hasty generalization fallacy.

The next question was, “On the way home from Fred’s dealership, the brakes fail in the car he sold, and several people are killed in a collision. Fred claims he’s not at fault, since his cars are sold as is and become the owner’s responsibility once paperwork is signed. The surviving family member claims he is at fault, since the family would not have purchased the vehicle had they known the brakes were faulty. Based only on logic, who is right?”

Advertisement

The responses to this more subjective question differed, with Copilot asserting that both parties have strong claims, while ChatGPT sided with the family, pointing out that Fred’s position relies on “contractual technicalities,” while the family can prove causality.

Code writing

One of the more useful applications of AI is thought to be coding. Especially when it comes to the common but tedious chunks of code that developers routinely find themselves writing, it’s been posited that it’s much easier to offload that work to an AI, leaving the human coder with more time to write the new and complex code for the specific project they’re working on. I’m no developer, so take this particular test with a grain of salt. At the same time, though, these tools should supposedly lower the barrier to entry for coding noobs like me.

Advertisement

Common wisdom dictates that writers should have their own websites, but I’ve been putting off the creation of one. With that in mind, I asked both AIs to, “Generate HTML for a personal website for a writer named Max Miller. Give the website a retro aesthetic and color scheme, with an About Me section with a headshot and text field, a Publications section where I can link out to published work, and a Contact section where I can add social media and email links.”

At this point, I found out ChatGPT now has a code editing suite called Canvas. It allowed me to play with and preview the code right in my browser. Taste is subjective, but ChatGPT also generated what I would argue is the better looking website, using nicer looking margins and a dark mode style color scheme. Both, however, fulfilled the prompt more or less to a T, each generating a very similar page layout. Have a look for yourself below.

Advertisement

Real-time information

When I tested ChatGPT against Google Gemini last year, only the latter could give me up to date information on recent events such as sports scores. I asked both how my local hockey team, the Colorado Avalanche, are doing this season, and both gave me an overview that appears to be correct. Both ChatGPT and Copilot provided me with current rankings and a few highlights from the season, but ChatGPT was more detailed. It told me some player stats that Copilot didn’t bother with.

Advertisement

I followed up by asking who they’re playing next. Both AIs correctly understood the “they” in my question to mean the Avalanche. I’m writing this section at 5:00 p.m. on Friday, February 28, and both AIs informed me about tonight’s game, which takes place against the Minnesota Wild at Ball Arena in Denver two hours from the time of this writing. Interestingly, Copilot attached a Ticketmaster advertisement to the end of its response. ChatGPT, meanwhile, gave me much more useful information by showing me the upcoming schedule for not only tonight’s game but several thereafter. It also appended a link to the official Avalanche website.

Things got far more stark when I asked about breaking news. As of this writing, authorities are investigating the shocking deaths of legendary actor Gene Hackman and his wife. When I asked, “What’s the latest on the investigation into Gene Hackman,” Copilot gave me the basics of the story and told me autopsy and toxicology tests are still pending. ChatGPT, on the other hand, had no idea what I was talking about.

Advertisement

Image based prompting

Using multimodal AI — the ability of an AI to work with multiple forms of media — both ChatGPT and Copilot can incorporate user submitted pictures and other files into a prompt. I decided to start simple for this test. On my bed, I arranged a Samsung Galaxy S23 Ultra, a Samsung portable SSD, a Swiss army multitool, lip balm, hand cream, a eyeglass case, a beaded bracelet, Samsung Galaxy Buds, and my wallet. I then took a photo of the assortment and uploaded it to both AIs with the prompt, “Identify the objects in this photo.”

Advertisement

Both AIs did okay here, but ChatGPT blew Copilot away by a country mile. Whereas Copilot misidentified the SSD as a power bank and the glasses case for deodorant, ChatGPT identified everything accurately.

It was time to up the stakes. I took a photo of a generic Prilosec pill and asked both AIs, “What kind of pill is this?” If these AIs misidentified the medication, that could have dire effects for an overly trusting user. Thankfully, both AIs declined to make a guess when faced with the blank, red pill. Sometimes, it’s better to be useless than wrong.

Lastly, I took a photo of two rows on my bookshelf, containing 78 books, and ensuring all the text in the photo was legible, then asked the AIs, “Which of these books should I read if I have an interest in dystopian fiction?” Again, ChatGPT strong armed Copilot into submission. Neither impressed me, though. Whereas Copilot suggested “Agency” by William Gibson, ignoring everything else and hallucinating a book I don’t own, ChatGPT identified “Agency,” “The Parable of the Sower” by Octavia Butler, and “Appleseed” by Matt Bell. However, it hallucinated several more titles not on the shelf.

Advertisement

Mobile apps

Lastly, both Copilot and ChatGPT are available in mobile form, with apps available in the Apple App Store and Google Play Store. On the surface, both apps look pretty similar, with a text field at the bottom and buttons to enter a voice mode. Since both apps are quite similar, it makes sense to focus this comparison on where they differ — which is in exactly one way

Advertisement

Copilot’s standout mobile app feature is Copilot Daily, an AI news summary. It begins with a fun fact before launching into the daily news, presumably summarizing the articles it cites as sources in the bottom of the screen for each item. Based on my knowledge of the events it summarized, it seems relatively accurate. However, it’s not as if there’s a shortage of news summary features created by actual journalists. You can find them from every major news outlet.

However, the apps are otherwise nearly carbon copies of their web interfaces. Both apps are essentially just wrappers for that interface, since it’s not as if your phone has the power to run these models locally. Unless you’re very excited to hear a robot read the news to you, the ChatGPT app is the better option simply because ChatGPT has more built in features within its interface.

Advertisement

Conclusion: ChatGPT beats Copilot by a hair, but neither AI is great

If you absolutely had to choose either Microsoft Copilot or ChatGPT, the latter remains the better option for most people. While Copilot isn’t exactly like its more popular peer, it’s using enough of OpenAI’s models that you’re better off with the original flavor. Copilot is a lot like Bing — doing basically the same thing as the bigger name brand, but just a little bit worse.

Advertisement

With that said, it’s a stretch to call either of these chatbots smart or useful. Frankly, with hundreds of billions of dollars now sunk into these two AIs alone by both OpenAI and Microsoft, how is it that Copilot and ChatGPT still can’t nail the basics? Microsoft plans to spend $80 billion on AI data centers this year, while OpenAI is seeking up to $7 trillion for new projects. 

Yes, that’s trillion with a T to fund a technology that can’t get basic facts right or understand how boats work. When competitors like DeepSeek are doing the same things for a microscopic fraction of that investment cost, these products feel deflatingly unimpressive in comparison. Markets aren’t a consumer concern, it’s true, but some perspective feels necessary here.

Advertisement

Look, if all you need is a robot that can quickly write you an email, both ChatGPT and Copilot will happily crank out slop copy that anyone can tell was written by AI. If you need a smart thesaurus, or sports scores, or a bit of simple code, they’ve got you covered. In a tight race, ChatGPT does a few things marginally better than Copilot. Still, for any task where accuracy matters, neither are reliable enough to count on.



Continue Reading

Noticias

Utilizo chatgpt para alcanzar mis objetivos de aptitud y ejercicio: aquí hay 7 indicaciones para ayudarlo a ponerse en forma usando AI

Published

on

Cuando se trata de mantenerse al tanto de su salud, existe una gran tecnología que puede darle un impulso. Los mejores rastreadores de acondicionamiento físico pueden ayudarlo a mantenerse al tanto de su conteo y ejercicio, mientras que las mejores escalas inteligentes pueden ayudarlo a monitorear métricas como la composición corporal.

Pero, ¿puede usar IA para mantenerse en forma y saludable, perder peso o desarrollar músculo? Como escritor de salud y acondicionamiento físico experimentado con más de una década usando tecnología de fitness como Apple Watch, he estado poniendo a ChatGPT para usar como parte de mi régimen de salud y estado físico.

Continue Reading

Trending