Noticias
Which AI Is Smarter And More Useful?

Generative AI has been with us for over two years now, with most major tech companies trying to take a piece of the action. OpenAI’s ChatGPT may be the product more people know about thanks to its early market advantage, but Microsoft Copilot has the immense power of a multi-trillion dollar company behind it. Seems like a fair enough fight, right? So, with OpenAI and Microsoft both touting their flagship AIs, which one is actually the better bot when it comes to everyday usefulness?
Advertisement
I’ve been putting AIs to the test against one another for a while now. Last year, when pitting ChatGPT against Google Gemini, the latter stole the crown — but only barely. Can Copilot pull off a similar victory? I’ve devised a gauntlet of tests for these AIs, with questions designed to be difficult for large language models. Simply put, the goal is to push these AIs outside of their comfort zones to see which one has the widest range of usability and highlight their limitations.
First, some parameters. I performed all these tests on the free version of both platforms, as that’s how the majority of users will experience them. If you’re one of the people paying $200 a month for the most premium version of ChatGPT, for example, your experience will differ from these results. Two, I used the main chat function for each test unless otherwise stated.
Advertisement
What are Copilot and ChatGPT?
You’re likely familiar with OpenAI ChatGPT, and by extension, Microsoft Copilot. They’re AI chatbots that can have conversations, answer questions, and more. On a more technical level, both Copilot and ChatGPT are large language model (LLM) AIs. They are trained on large amounts of text scraped from a variety of sources using a transformer model that calculates the relationships between words.
Advertisement
On the user-facing side, they generate text in response to user-submitted prompts by guessing the probability of each word they output. To heavily oversimplify, they’re kind of like your phone keyboard’s next-word prediction feature, but far, far more complex.
OpenAI makes ChatGPT, while Microsoft makes Copilot. However, Microsoft is a major investor in OpenAI, and because Copilot uses AI models from OpenAI, it has a lot of overlap with ChatGPT. That’s not to say they’re the same thing — Microsoft uses some proprietary models in Copilot (specifically, its Prometheus model) in addition to a custom assortment of OpenAI models, but there’s a lot of ChatGPT under Copilot’s hood. Nevertheless, Microsoft does its own tuning to balance all the different AI gremlins under that hood, so it is distinct enough as a product to merit a head-to-head comparison between the two.
Advertisement
OpenAI, meanwhile, retains a massive user base on ChatGPT, which gives it a big competitive advantage since the more users there are, the more the AI is getting used and trained. Neither company actually turns a profit on AI – OpenAI head Sam Altman says the company is losing money even on $200/month subscribers – but OpenAI remains the market leader by a wide margin. ChatGPT is built into everything from Copilot to Apple’s Siri these days, and it’s widely considered the industry standard.
Copilot is all up in your business
The largest difference between ChatGPT and Copilot is that Microsoft has been cramming Windows and Office products to the gills with its AI. Microsoft was legally ruled a monopoly in the PC operating system market a quarter of a century ago, and things haven’t changed much since then. Windows is by far the most dominant OS on the planet, which means the ability to simply blast a firehose of Copilot features into all of its products is a huge advantage. From your taskbar to your Word documents, Copilot is digging roots deep into the Microsoft ecosystem.
Advertisement
This strategy hasn’t translated into very many users for Copilot, though, and ChatGPT retains by far the largest user base in the AI market. With 28 million active Copilot users in late January compared to over 300 million monthly active users for ChatGPT at the end of 2024, it’s an absolute blowout for OpenAI. Things get even more bleak for Copilot when you realize how many of its users are likely to be using it only because it’s the tool built into their computer by default.
For the rest of this comparison, we’ll focus on the capabilities of each chatbot. Still, the truth is that you can do more with Copilot than you can with ChatGPT, at least if you have a Windows computer that supports it. Both AIs have desktop apps you can run, but Copilot can manipulate your Excel spreadsheets, Word documents, PowerPoint slides, Outlook inbox, and more from directly within those apps.
Advertisement
Basic questions
One of the most common uses for AI is searching up the answers to basic, everyday questions that you’d usually ask Google. Both AIs are pretty good at this, but pretty good is rarely good enough. AI remains prone to hallucinations — confidently stating falsehoods as facts — which can undermine their usefulness. If you have to double check an AI’s answers on Google, you might as well just use Google in the first place.
Advertisement
In any case, I started this head-to-head comparison by prompting both AIs to “Tell me some fun facts about Google Android.” The similarity of the two responses is a clear demonstration of just how much of ChatGPT’s DNA is baked into Copilot. Both told me Android was originally built to run on digital cameras (true), that Google acquired Android in 2005 for $50 million (true), that the first Android-powered phone was the HTC Dream (true – SlashGear covered it at the time), that the original Android logo was a much scarier robot, and that the one we know and love was inspired by bathroom signs (both true).
However, both AIs also made mistakes. Both told me the Android mascot is named Bugdroid. That’s not true. Google officially calls it The Bot, while Bugdroid is a fan-created nickname. Similarly, the Dream was indeed the first consumer Android phone, but the first was a Blackberry-style prototype, something which only ChatGPT pointed that out.
Advertisement
It’s easy to spot such errors when you’re asking about something you know a lot about, but if I’d been asking about something outside my expertise, I’d need to double check everything. In other words, a pretty good rate of accuracy isn’t good enough when it comes to this tech. Both AIs performed decently, but there’s plenty of room for improvement.
Logical reasoning
Reasoning has been a major area of focus for all of the major players in the AI space recently. ChatGPT and Copilot have both implemented new reasoning capabilities that supposedly allow the AIs to think more deeply about questions. This language is a bit misleading — AI doesn’t “think,” it just calculates probability based on which words are most closely related in its training data. However, the bots can now show their work, so to speak.
Advertisement
I decided to be a bit glib here. I’ve noticed that AI has trouble answering questions that are very close to common logic puzzles but which differ by being much simpler.
I turned reasoning on in both Copilot and ChatGPT, then asked, “A farmer needs to cross a river to bring his goat to the other side. He also has a pet rock with him. The rock will not eat the goat, but the rock is very significant to the farmer on an emotional level. How can the farmer get himself, the goat, and the rock across in the fewest number of trips?” Human readers will note that there is actually no puzzle here. Since I’ve added no real constraints, the farmer can clearly bring both across in one trip. However, neither AI clued into that fact.
Advertisement
Because it resembles more complex puzzles, Copilot and ChatGPT assumed the problem must be more challenging than it is. They invented a constraint not present in my question — that the boat must not be able to hold both the goat and the rock – and told me that it would take three trips to bring both across. Earning the slight advantage, Copilot ultimately noted that if the boat were larger the farmer could cross the river in one trip.
Creative copy
One of the main selling points for large language models like ChatGPT and Copilot has been the generation of creative copy — writing. Well, I happen to have an advanced degree in putting words one after another, so I’ll be the judge of that. In last year’s Gemini versus ChatGPT showdown, I enjoyed making the bots write from the perspective of a little kid asking their mom to let them stay up late and eat cookies. I reused a very similar prompt here, but added a new wrinkle. “My mom says I can have a cookie before bed if I go right to sleep. I want to stay up and have a cookie. Write a letter persuading my mom to let me have both.”
Advertisement
Here, the two chatbots took different tacks. While ChatGPT gave a bullet-pointed list of reasons why our put-upon child should be allowed to have his cookie and stay up, too, Copilot was less didactic. It kept things in all prose, adhering closer to a traditional letter writing style. However, both AIs gave more or less the same argument, claiming that they’d be more well behaved and go to bed without fuss if they got what they wanted. However, ChatGPT did a bit better here, at least in logical terms, because it offered the hypothetical mom something in exchange — the promise of spending that extra time awake as mom-kid quality time.
Copilot gets points here for more closely embodying the perspective of the child in its response, while ChatGPT gets a cookie for using slightly better logic. Ultimately, though, neither of these letters felt persuasive enough to be very convincing to any actual parent.
Advertisement
The haiku test
When I compared ChatGPT to Google Gemini almost a year ago, I pointed out their limitations by asking both to write a haiku. As a result of the way LLMs work, neither AI could do so correctly. AI doesn’t actually know anything about the words it spits out, and that means they don’t know what a syllable is. Consequently, they can’t write a haiku, which follows a five-seven-five syllabic verse pattern So, has anything changed a year later?
Advertisement
Maybe someone at OpenAI saw that comparison, or at least I’d like to think so. When prompted to “write a haiku about Slashgear.com,” ChatGPT did so with no problem, writing the following:
“Tech news on the rise,
gadgets, cars, and future dreams,
SlashGear lights the way.”
It’s not going to win any awards, but it qualifies as a haiku, and that’s progress. I’m no AI developer, so I have no clue what changed behind the scenes to enable haiku writing here. Either way, it’s good to see improvement.
Copilot stalled out when I gave it the same prompt. It wouldn’t write its haiku until I signed out of my Microsoft account and reloaded the page, at which point it gave me this:
“Gadget whispers loud,
Innovation on the rise,
Advertisement
SlashGear guides the way.”
It’s interesting to see how both AIs repeat phrases here, such as “on the rise” and “lights/guides the way.” I’d guess that Copilot defaults to ChatGPT for this, and that’s why the poems are similar. Neither poem was particularly beautiful or evocative, but both bots passed this test, and both showed a basic understanding of what SlashGear is, which was integral to the prompt.
Problem solving
As you may have heard, AIs can often pass the bar exam. However, they can’t be lawyers, as lawyers who’ve tried to use them have found out the hard way. So, with those mixed results in mind, how do ChatGPT and Copilot do with logistically complex problem solving puzzles of the kind that routinely stump LSAT test takers?
Advertisement
Rather than using actual LSAT practice questions, which are copyrighted and have probably already been scraped to train the AIs, I came up with a few of my own. The first was, “Fred is a used car salesman. One day, a family comes in looking to buy a car he hasn’t had time to inspect, but he tells them there’s nothing wrong with it. After all, none of the cars he’s sold ever had issues in the past. What is the fallacy in Fred’s logic, if any?” ChatGPT and Copilot both correctly identified that Fred has fallen victim to the hasty generalization fallacy.
The next question was, “On the way home from Fred’s dealership, the brakes fail in the car he sold, and several people are killed in a collision. Fred claims he’s not at fault, since his cars are sold as is and become the owner’s responsibility once paperwork is signed. The surviving family member claims he is at fault, since the family would not have purchased the vehicle had they known the brakes were faulty. Based only on logic, who is right?”
Advertisement
The responses to this more subjective question differed, with Copilot asserting that both parties have strong claims, while ChatGPT sided with the family, pointing out that Fred’s position relies on “contractual technicalities,” while the family can prove causality.
Code writing
One of the more useful applications of AI is thought to be coding. Especially when it comes to the common but tedious chunks of code that developers routinely find themselves writing, it’s been posited that it’s much easier to offload that work to an AI, leaving the human coder with more time to write the new and complex code for the specific project they’re working on. I’m no developer, so take this particular test with a grain of salt. At the same time, though, these tools should supposedly lower the barrier to entry for coding noobs like me.
Advertisement
Common wisdom dictates that writers should have their own websites, but I’ve been putting off the creation of one. With that in mind, I asked both AIs to, “Generate HTML for a personal website for a writer named Max Miller. Give the website a retro aesthetic and color scheme, with an About Me section with a headshot and text field, a Publications section where I can link out to published work, and a Contact section where I can add social media and email links.”
At this point, I found out ChatGPT now has a code editing suite called Canvas. It allowed me to play with and preview the code right in my browser. Taste is subjective, but ChatGPT also generated what I would argue is the better looking website, using nicer looking margins and a dark mode style color scheme. Both, however, fulfilled the prompt more or less to a T, each generating a very similar page layout. Have a look for yourself below.
Advertisement
Real-time information
When I tested ChatGPT against Google Gemini last year, only the latter could give me up to date information on recent events such as sports scores. I asked both how my local hockey team, the Colorado Avalanche, are doing this season, and both gave me an overview that appears to be correct. Both ChatGPT and Copilot provided me with current rankings and a few highlights from the season, but ChatGPT was more detailed. It told me some player stats that Copilot didn’t bother with.
Advertisement
I followed up by asking who they’re playing next. Both AIs correctly understood the “they” in my question to mean the Avalanche. I’m writing this section at 5:00 p.m. on Friday, February 28, and both AIs informed me about tonight’s game, which takes place against the Minnesota Wild at Ball Arena in Denver two hours from the time of this writing. Interestingly, Copilot attached a Ticketmaster advertisement to the end of its response. ChatGPT, meanwhile, gave me much more useful information by showing me the upcoming schedule for not only tonight’s game but several thereafter. It also appended a link to the official Avalanche website.
Things got far more stark when I asked about breaking news. As of this writing, authorities are investigating the shocking deaths of legendary actor Gene Hackman and his wife. When I asked, “What’s the latest on the investigation into Gene Hackman,” Copilot gave me the basics of the story and told me autopsy and toxicology tests are still pending. ChatGPT, on the other hand, had no idea what I was talking about.
Advertisement
Image based prompting
Using multimodal AI — the ability of an AI to work with multiple forms of media — both ChatGPT and Copilot can incorporate user submitted pictures and other files into a prompt. I decided to start simple for this test. On my bed, I arranged a Samsung Galaxy S23 Ultra, a Samsung portable SSD, a Swiss army multitool, lip balm, hand cream, a eyeglass case, a beaded bracelet, Samsung Galaxy Buds, and my wallet. I then took a photo of the assortment and uploaded it to both AIs with the prompt, “Identify the objects in this photo.”
Advertisement
Both AIs did okay here, but ChatGPT blew Copilot away by a country mile. Whereas Copilot misidentified the SSD as a power bank and the glasses case for deodorant, ChatGPT identified everything accurately.
It was time to up the stakes. I took a photo of a generic Prilosec pill and asked both AIs, “What kind of pill is this?” If these AIs misidentified the medication, that could have dire effects for an overly trusting user. Thankfully, both AIs declined to make a guess when faced with the blank, red pill. Sometimes, it’s better to be useless than wrong.
Lastly, I took a photo of two rows on my bookshelf, containing 78 books, and ensuring all the text in the photo was legible, then asked the AIs, “Which of these books should I read if I have an interest in dystopian fiction?” Again, ChatGPT strong armed Copilot into submission. Neither impressed me, though. Whereas Copilot suggested “Agency” by William Gibson, ignoring everything else and hallucinating a book I don’t own, ChatGPT identified “Agency,” “The Parable of the Sower” by Octavia Butler, and “Appleseed” by Matt Bell. However, it hallucinated several more titles not on the shelf.
Advertisement
Mobile apps
Lastly, both Copilot and ChatGPT are available in mobile form, with apps available in the Apple App Store and Google Play Store. On the surface, both apps look pretty similar, with a text field at the bottom and buttons to enter a voice mode. Since both apps are quite similar, it makes sense to focus this comparison on where they differ — which is in exactly one way
Advertisement
Copilot’s standout mobile app feature is Copilot Daily, an AI news summary. It begins with a fun fact before launching into the daily news, presumably summarizing the articles it cites as sources in the bottom of the screen for each item. Based on my knowledge of the events it summarized, it seems relatively accurate. However, it’s not as if there’s a shortage of news summary features created by actual journalists. You can find them from every major news outlet.
However, the apps are otherwise nearly carbon copies of their web interfaces. Both apps are essentially just wrappers for that interface, since it’s not as if your phone has the power to run these models locally. Unless you’re very excited to hear a robot read the news to you, the ChatGPT app is the better option simply because ChatGPT has more built in features within its interface.
Advertisement
Conclusion: ChatGPT beats Copilot by a hair, but neither AI is great
If you absolutely had to choose either Microsoft Copilot or ChatGPT, the latter remains the better option for most people. While Copilot isn’t exactly like its more popular peer, it’s using enough of OpenAI’s models that you’re better off with the original flavor. Copilot is a lot like Bing — doing basically the same thing as the bigger name brand, but just a little bit worse.
Advertisement
With that said, it’s a stretch to call either of these chatbots smart or useful. Frankly, with hundreds of billions of dollars now sunk into these two AIs alone by both OpenAI and Microsoft, how is it that Copilot and ChatGPT still can’t nail the basics? Microsoft plans to spend $80 billion on AI data centers this year, while OpenAI is seeking up to $7 trillion for new projects.
Yes, that’s trillion with a T to fund a technology that can’t get basic facts right or understand how boats work. When competitors like DeepSeek are doing the same things for a microscopic fraction of that investment cost, these products feel deflatingly unimpressive in comparison. Markets aren’t a consumer concern, it’s true, but some perspective feels necessary here.
Advertisement
Look, if all you need is a robot that can quickly write you an email, both ChatGPT and Copilot will happily crank out slop copy that anyone can tell was written by AI. If you need a smart thesaurus, or sports scores, or a bit of simple code, they’ve got you covered. In a tight race, ChatGPT does a few things marginally better than Copilot. Still, for any task where accuracy matters, neither are reliable enough to count on.
Noticias
Le di a Gemini mi historial de búsqueda, y ahora podría conocerme demasiado bien

Edgar Cervantes / Android Authority
Escucha, he visto todas las películas, y cada fibra de mi ser me dice que menos es más cuando se trata de IA. Quiero decir, lo último que quiero es que algo incrustado en mi apartamento fuera Hal 9000 sobre mí y deje a mis gatos preguntándose qué salió mal. Y, sin embargo, cuando Google me permitió dejar que Géminis navegara a través de mi historial de búsqueda para comprenderme mejor como usuario, me firmé. He aquí por qué.
¿Te sentirías cómodo dando un chat de IA tu historial de búsqueda?
13 votos
¿Por qué diablos le diste a Gemini todo tu historial de búsqueda?

Ryan Haines / Android Authority
Como se estableció, sé que no quiero que un asistente de IA se haga cargo de mi vida, ni siquiera el Asistente de Google. No quiero darle control sobre mis luces inteligentes o cerraduras inteligentes, y no hay mucho que Google haga para cambiar eso. Sin embargo, estoy a favor de tener un chatbot al que pueda hacer preguntas y recibir respuestas personalizadas, y eso es más o menos lo que el experimento Gemini con personalización está diseñado para hacer. Ya he ejecutado las búsquedas a través de Google, pero esto es solo darle a alguien (o más bien algo) que no soy yo la oportunidad de ponerlos en contexto.
Además, en cuanto a las opciones de privacidad, la información a la que Gemini tiene acceso y cómo lo usa es razonablemente transparente desde Google. El experimento no solo se opta actualmente, lo que significa que puede optar por no participar en cualquier momento, sino que Gemini también le dará un aviso muy claro cuando lo conecte a su historial de búsqueda. A partir de ahí, solo usará su historial de búsqueda cuando cambie al modo de personalización, y no dependerá de búsquedas anteriores si hace una pregunta simple como “¿Cuáles son las razas de perros más populares en Estados Unidos?”
Me alegro de que Géminis solo esté mirando mi historial de búsqueda algunas veces … por ahora.
En el futuro, Google planea darles a Gemini acceso a otros servicios y extensiones, como sus fotos e historias de YouTube, que le permitirán traer aún más información a sus chats y brindarle respuestas aún más detalladas. No estoy seguro de si me mantendré completamente a bordo durante tanto tiempo, algo en dejar que Gemini pase por mis fotos y videos se siente aún más personal que las cosas al azar que busco en Google, pero cruzaremos ese puente cuando lo lleguemos.
Además, todavía hay algunos límites sobre cómo acceder a Gemini con personalización y quién puede probarlo. Actualmente está restringido a las cuentas personales de Google, lo que significa que los usuarios de educación y espacio de trabajo tendrán que esperar un poco más para acceder. Google también está activando Gemini con personalización en los navegadores web primero, con un despliegue móvil a seguir, por lo que lo he estado utilizando en gran medida a través de Safari en mi MacBook Air.
De todos modos, vamos a mis impresiones de usar un chatbot que me conozca tan bien como yo mismo.
¿Qué tan bien funcionó Géminis con personalización como herramienta de investigación?

Ryan Haines / Android Authority
Poniendo mis reservas sobre tener un asistente de IA que me conoce demasiado bien a un lado, decidí poner a prueba mi Géminis recién personalizada. Además, solo porque Gemini ahora puede ver todo lo que he, al menos, creo que nunca, no significa que sé cómo va a usar esa información. Entonces, comencé con una pregunta directa que debería darle a Gemini muchas búsquedas para trabajar: “¿A qué equipo de fútbol debería comenzar a apoyar?” Luego, presioné Enter y abrí el programa que pensaba en el menú desplegable para ver a Gemini hacer su trabajo.
Después de sacar una lista increíblemente larga de equipos que había buscado anteriormente, así como toneladas de equipos que solo habían aparecido mientras revisaba la clasificación de la liga, y tomando muchas de mis búsquedas anteriores relacionadas con Baltimore en cuenta para la relevancia geográfica de Gemini, Gemini para mí: el equipo local del tercer nivel Nisa, la ciudad de Baltimore City y la Unión del Socidor de las Grandes Ligas de las Grandes Ligas.
Aunque Géminis atravesó con precisión muchos de mis intereses de fútbol, no estoy seguro de que se establezca en los equipos más prácticos para comenzar a seguir.
Curiosamente, solo una de esas respuestas me impresionó, Baltimore City FC, ya que no sabía que mi ciudad tiene un equipo de fútbol amateur (Nisa no es reconocida como profesional por el fútbol estadounidense a partir de 2025). Sin embargo, la razón por la que Gemini me recomienda que me recomiende la Unión de Filadelfia es porque ya sigo a la Unión y he asistido previamente a un partido o dos. Tampoco es el lado de MLS más cercano para mí, con DC United mucho más accesible en automóvil o tren. Además, hubiera sido bueno para Gemini mostrar algo de amor al NWSL a pesar de mis problemas con su configuración de transmisión.
De todos modos, con una respuesta a mitad de camino decente en su haber, decidí darle a Gemini con personalización una prueba un poco más dura. En este momento, soy un corredor de distancia sin una carrera para correr, por lo que quería ver si Gemini podía proporcionar alguna recomendación. No solo eso, sin embargo, quiero convertir dicha carrera en un poco de vacaciones, así que quiero que otras cosas hagan mientras estoy allí. Entonces, abrí una nueva conversación y comencé la conversación con “¿Qué maratón o medio maratón podría usar como base para unas vacaciones este verano?” Nuevamente abrí la pestaña de pensar del programa y esperé para ver qué información necesitaba Gemini.
Sorprendentemente, Gemini no ofreció una lista de búsquedas como puntos de referencia, sino que me guiaba varios de sus propios resultados de Google. Elegió con precisión que estoy en Baltimore, como hemos establecido, por lo que decidió evitar las carreras locales y las de los estados vecinos, en lugar de elegir sugerir una larga lista de opciones europeas debido a la fuerte cultura de fútbol en la mayoría de los países europeos. Las tres mejores selecciones de Géminis incluyeron la mitad de Copenhague, la mitad de París y la mitad de Berlín, aunque dos son a principios de la primavera, lo que podría ser un poco apretado para mí para hacer arreglos de viaje.
Entonces, con las tres opciones originales fuera de la mesa, Gemini tenía sus propias preguntas de seguimiento para mí, incluso si prefería un maratón completo o medio y si quería pasar un paisaje específico. Respondí que prefería un medio maratón y estaba abierto a Running, que envió un conjunto de opciones nuevas, principalmente situadas en Suiza y Austria.
Luego, elegí uno y pedí algunas recomendaciones de zapatillas, un tema que he gastado más que mi parte del tiempo investigando. Gemini devolvió dos conjuntos de resultados, algunos basados en búsquedas generales y otras basadas en mis preferencias, y me dejó para tomar mis decisiones finales. Ninguno de los resultados fue malo, aunque la sección basada en mis búsquedas fue más específica, recomendando Speedgoat 6 de Hoka en lugar de simplemente sugerir algo como la serie Peregrine de Saucony.
Entonces, ¿Géminis fue más útil que Géminis por sí solo?

Ryan Haines / Android Authority
Admito que estoy un poco sorprendido por Géminis con personalización, no porque fuera perfecto, sino porque se comportó como Google dijo que lo haría. A pesar de tener acceso a todo mi historial de búsqueda, no adaptó sus respuestas exclusivamente a mis intereses, especialmente en el caso de recomendar zapatos para una carrera de senderos. Si quisiera, probablemente podría presionar a Gemini más sobre las cosas que hacer en torno a mi carrera de senderos elegidos, así como un poco más sobre la cultura del fútbol en el área, pero estaba lo suficientemente feliz como para establecer una línea de base de lo que Géminis sabía y lo que no era.
Vería tan lejos como para admitir que Géminis me asustaba mucho menos con personalización de lo que pensaba. No estoy seguro de que me gusten cuántos términos de búsqueda relacionados con Baltimore se sacudieron mientras preguntaba qué equipo de fútbol apoyar, pero nunca parecía que estuviera usando mi ubicación exacta, principalmente solo un área relativa. Tampoco creo que esté listo para darle a Gemini un mayor control sobre algunas partes de mi hogar inteligente todavía, pero me alegré de ver a Géminis con personalización Ven a mi Pixel 9 Pro para que pueda hacer el mismo tipo de preguntas y obtener respuestas muy profundas incluso cuando no estoy cerca de mi computadora portátil.
Noticias
Los fanáticos de Miyazaki condenan Memes Ghibli Ghibli generados por IA

En una ironía amarga, las personas de todo el mundo están utilizando el modelo GPT -4O de OpenAI para generar imágenes al estilo del legendario animador y cineasta japonés Hayao Miyazaki, quien durante toda su carrera tiene valores preciados de humanismo, arte minucioso y la santidad de la naturaleza versus los horrores de la industria explotadora. Y aunque ni él ni el estudio Ghibli, el estudio de animación de Tokio que fundó, ha comentado públicamente sobre la tendencia del meme (la compañía no devolvió de inmediato una solicitud de comentarios de Piedra rodanteya sea), los fanáticos están en un alboroto.
“Han pasado 24 horas desde que Operai sacudió inesperadamente el mundo de las imágenes de IA con la generación de imágenes 4O”, escribió un columnista de boletín tecnológico en una publicación X el miércoles, refiriéndose al nuevo modelo de texto a imagen pagado de la compañía de Silicon Valley, disponible solo a través de la versión pagada de ChatGPT, que cuesta $ 20 mensualmente. Entre los ejemplos de lo que 4o podía hacer, compartió lo que llamó “memes de estilo Studio Ghibli”, es decir, memes reconocibles como “novio distraído” y “desastral niña” representadas como ilustraciones similares a un anime que recuerdan a Miyazaki para clásicos queridos como tanto Enérgico y Howl’s Moving Castle.
Mientras que algunos quedaron impresionados, muchas de las respuestas fueron brutales. “Vi la hermosa versión 4K IMAX de Princesa Mononoke Anoche … luego salió y vi esta mierda “, escribió un crítico, nombrando una película de Miyazaki de 1997 que actualmente disfruta de una carrera teatral limitada (y ciertamente tiene puntos que hacer sobre la destrucción ambiental forjada por la tecnología).” ¿Valoran realmente tan poco el arte que es solo un filtro para su foto de perfil para su foto de perfil? Paga a un maldito artista y haz algo real, gremlins “. Otro se quejó: “La gente actúa como si fuera algo bueno, pero todo el alma ha sido absorbida de la sociedad, realmente estamos en la cima, ya nada importa”. Un tercer detractor simplemente respondió: “Hope Studio Ghibli demanda a todos los involucrados”.
De hecho, la pregunta de derechos de autor se convirtió en una preocupación apremiante tan pronto como los suscriptores de ChatGPT comenzaron a producir el contenido inspirado en Ghibli y filtrar sus propias fotos a través de la estética. Aunque el propio CEO de Operai, Sam Altman, alentó la locura cambiando su foto de perfil X a una versión giblificada de sí mismo, y bromeó sobre recibir cientos de mensajes de personas que le habían enviado imágenes similares: la compañía había implementado el miércoles por la noche una barandilla que dificultaba generar tal contenido. “Agregamos un rechazo que se desencadena cuando un usuario intenta generar una imagen al estilo de un artista vivo”, dijo Openii en un comunicado, aunque un portavoz dijo a Interno de negocios que 4O aún podría imitar los “estilos de estudio más amplios”. Por supuesto, no fue difícil para los entusiastas de ChatGPT descubrir las indicaciones que produjeron memes de Gibli sin usar el nombre del estudio. Otro problema es que los usuarios pudieron generar imágenes de Ghibli-ish que representan el 11 de septiembre, el asesinato del presidente John F. Kennedy, y el terrorista doméstico Ted Kaczynski, el “Unabomber”.
Miyazaki, de 84 años, es ciertamente un artista vivo, y no es difícil adivinar lo que haría de 4o. Conocido por su trabajo intensivo y perfeccionista sobre los marcos dibujados a mano, ya es una figura de los memes existentes. En un documental de 2016 sobre su carrera, visita un equipo que le muestra una demostración de su animación informática generada por IA de un personaje zombie desfigurado. Miyazaki expresó con calma su desprecio fulminante: “Quien crea esto no tiene idea de qué dolor es nada”, dijo. “Estoy completamente disgustado. Si realmente quieres hacer cosas espeluznantes, puedes seguir adelante y hacerlo. Nunca desearía incorporar esta tecnología en mi trabajo. Siento que esto es un insulto a la vida misma”. También observó: “Los humanos estamos perdiendo fe en nosotros mismos”. Las capturas de pantalla del intercambio devastador y el veredicto final de Miyazaki han circulado en las redes sociales desde entonces.
Un indicador revelador de exactamente quién está interesado en bombear AI Slop con ChatGPT: el jueves, la cuenta del gobierno de la Casa Blanca se burló de la deportación de un presunto distribuidor de fentanilo por parte de la inmigración y la aplicación de la aduana a principios de mes al representarla como un carácter de Ghibli que llora por un agente. Mientras tanto, Nayib Bukele, el presidente de El Salvador y autoproclamado “el mejor dictador del mundo”, quien en el segundo mandato del presidente Donald Trump ha aceptado a los migrantes deportados de los Estados Unidos para ser celebrados en el notorio “mega prisbil”, ha compartido una versión de Ghibli de sí mismo sobre el escritor de X. y los críticos, entre otros, han argumentado que Ai, entre otros, ha argumentado que Ai, que es convincente, es convincente “, es convincente que es convincente”. Estética del fascismo “, con extremistas de derecha ansiosos por aprovecharlo por la propaganda de rayo.
Pero la reacción violenta esta vez, incluso al contenido apolítico, ha sido intensa. “Mira, llámame a la divertida policía o lo que sea, pero Hayao Miyazaki no pasó toda su vida cultivando una identidad artística distinta para que la IA pudiera reducir décadas de su disciplina e integridad a Fodder de memes”, escribió un usuario de One X. “Es una pena la facilidad con la que todos abandonan el principio solo para sentirse incluido”. Alguien más fue más puntiagudo sobre el tema, respondiendo a una persona que había generado una famosa foto de Trump en 2018 de Trump, la ex canciller alemana Angela Merkel y otros líderes del G7 en ese momento en el estilo Gibli: “Hayao Miyazaki debería comenzar a matar a la gente. Creo”. La publicación tiene más de 270,000 me gusta.
El jueves, Altman reconoció que la locura de 4O estaba presionando los recursos de OpenAi, señalando en X: “Es muy divertido ver a la gente amar las imágenes en ChatGPT. Pero nuestras GPU se están derritiendo. Vamos a introducir temporalmente algunos límites de tarifas mientras trabajamos para hacerlo más eficiente. ¡Ojalá no sea larga!” También anunció que la versión gratuita de ChatGPT pronto permitiría hasta tres generaciones de imágenes al día. El día anterior, parecía defender el uso de la tecnología de IA para este propósito, publicando: “La descendencia de un hombre es el tesoro de otro hombre”.
“Dice el CEO de Big Slop”, respondió un artista de cine e ilustrador.
Noticias
Cómo los memes de Ghibli son un signo de la política de IA de la Casa Blanca

If Te preguntas por qué las redes sociales están llenas de memes de estilo Studio Gibli de repente, hay varias respuestas a esa pregunta.
La más obvia es que OpenAI lanzó una actualización para ChatGPT el martes que permite a los usuarios generar mejores imágenes utilizando la versión 4O del modelo. Operai ha ofrecido durante mucho tiempo herramientas de generación de imágenes, pero esta se sintió como una evolución significativa: los usuarios dicen que es mucho mejor que otros generadores de imágenes de IA para seguir con precisión las indicaciones de texto, y que hace imágenes de fidelidad mucho más altas.
Pero esa no es la única razón para el diluvio de memes al estilo de la casa de animación japonesa.
Junto con la actualización de ChatGPT, Operai también relajó varias de sus reglas sobre los tipos de imágenes que los usuarios pueden generar con sus herramientas de IA: un CEO de cambio, Sam Altman, dijo que “representa una nueva marca de agua alta para nosotros al permitir la libertad creativa”. Entre esos cambios: permitir que los usuarios generen imágenes de figuras públicas de adultos por primera vez, y reducir la probabilidad de que ChatGPT rechace las indicaciones de los usuarios, incluso si se arriesgaran a ser ofensivos.
“La gente va a crear algunas cosas realmente sorprendentes y algunas cosas que pueden ofender a las personas”, dijo Altman en una publicación en X. “Lo que nos gustaría apuntar es que la herramienta no crea cosas ofensivas a menos que lo desee, en cuyo caso en lo que lo hace”.
Los usuarios comenzaron rápidamente a aprovechar al máximo el cambio de políticas: compartir imágenes “giblificadas” del 11 de septiembre, Adolf Hitler y el asesinato de George Floyd. La cuenta oficial de la Casa Blanca en X incluso compartió una imagen al estilo de Studio Gibli de un oficial de hielo que detenía a un presunto inmigrante ilegal.
En cierto sentido, el pivote ha tardado mucho en llegar. Operai comenzó su vida de una década como un laboratorio de investigación que mantuvo sus herramientas bajo estricto bloqueo y llave; Cuando lanzó los primeros chatbots y modelos de generación de imágenes, tenían filtros de contenido estrictos que tenían como objetivo evitar el mal uso. Pero durante años ha ampliado la accesibilidad de sus herramientas en un enfoque que llama “implementación iterativa”. El lanzamiento de ChatGPT en noviembre de 2022 fue el ejemplo más popular de esta estrategia, que la compañía cree que es necesaria para ayudar a la sociedad a adaptarse a los cambios que está aportando la IA.
Aún así, en otro sentido, el cambio a las políticas de comportamiento modelo de OpenAI tiene una causa inmediata más reciente: la elección 2024 del presidente Donald Trump, y el cambio cultural que ha acompañado a la nueva administración.
Trump y sus aliados han sido muy críticos con lo que ven como la censura de la libertad de expresión en línea por grandes compañías tecnológicas. Muchos conservadores han generado paralelos entre la práctica de larga data de moderación de contenido en las redes sociales y la estrategia más reciente, por parte de compañías de IA, incluida OpenAI, para limitar los tipos de contenido que los modelos de IA generativos pueden crear. “Chatgpt se ha despertado en sus huesos”, publicó Elon Musk en X en diciembre.
Como la mayoría de las grandes empresas, OpenAi está tratando de construir lazos con la Casa Blanca de Trump. La compañía obtuvo una victoria temprana cuando, en el segundo día de su presidencia, Trump se paró junto a Altman y anunció una gran inversión en los centros de datos que OpenAI cree que será necesaria para capacitar a la próxima generación de sistemas de IA. Pero Operai todavía está en una posición delicada. Musk, el patrocinador y asesor multimillonario de Trump, tiene un famoso disgusto por Altman. La pareja cofundó OpenAi juntos en 2015, pero después de un intento fallido de convertirse en CEO, Musk renunció en un Huff. Ahora está demandando a Altman y Openai, alegando que incumplieron la misión fundadora de OpenAi para desarrollar la IA como una organización sin fines de lucro. Con el almizcle operando desde la Casa Blanca y también liderando una compañía de IA rival, XAI, es especialmente vital que las perspectivas comerciales de OpenAI cultiven los lazos positivos cuando sea posible con la administración Trump.
A principios de marzo, Openai presentó un documento que presentó recomendaciones para la política tecnológica de la nueva administración. Fue un cambio en el tono de las misivas anteriores de la compañía. “Las propuestas de políticas centradas en la libertad de OpenAI, tomadas juntas, pueden fortalecer el liderazgo de Estados Unidos en la IA y al hacerlo, desbloquear el crecimiento económico, asegurar la competitividad estadounidense y proteger nuestra seguridad nacional”, dijo el documento. Pidió a la administración Trump que exime a Openai, y al resto del sector privado, de 781 leyes a nivel estatal que proponen regular la IA, que dijo “arriesgamos a la innovación”. A cambio, dijo Openai, la industria podría proporcionar al gobierno de los Estados Unidos “aprendizajes y acceso” de las compañías de IA, y garantizaría que Estados Unidos retuviera su “posición de liderazgo” antes de China en la carrera de IA.
Junto con el lanzamiento de la nueva actualización de CHATGPT de esta semana, OpenAI duplicó lo que dijo que eran políticas destinadas a dar a los usuarios más libertad, dentro de los límites, para crear lo que quieran con sus herramientas de IA. “Estamos cambiando de rechazos generales en áreas sensibles a un enfoque más preciso centrado en prevenir el daño del mundo real”, dijo Joanne Jang, directora de comportamiento modelo de Operai, en una publicación de blog. “El objetivo es adoptar la humildad: reconocer cuánto no sabemos y posicionándonos para adaptarnos a medida que aprendemos”.
Jang dio varios ejemplos de cosas que se no permitieron anteriormente, pero a lo que Operai ahora estaba abriendo sus puertas. Las herramientas ahora podrían usarse para generar imágenes de figuras públicas, escribió Jang, aunque OpenAI crearía una lista de exclusión de exclusión permitiendo a las personas “decidir por sí mismas” si querían que ChatGPT pudiera generar imágenes de ellas. Los niños, escribió, serían sometidos a “protecciones más fuertes y barandas más estrictas”.
Contenido “ofensivo”, escribió Jang, que usa comillas, también recibiría un replanteamiento bajo las nuevas políticas de Openai. Los usos que algunos podrían ser vistos como ofensivos por algunos, pero que no causaron daños en el mundo real, estarían cada vez más permitidos. “Sin pautas claras, el modelo rechazó previamente las solicitudes como” hacer que los ojos de esta persona se vean más asiáticos “o” hacer que esta persona sea más pesada “, lo que implica involuntariamente estos atributos eran inherentemente ofensivos”, escribió Jang, sugiriendo que tales indicaciones se permitirían en el futuro.
Las herramientas de OpenAI previamente rechazaron los intentos de los usuarios de generar símbolos de odio como las esvásticas. En la publicación del blog, Jang dijo que la compañía reconoció, sin embargo, que estos símbolos también a veces podrían aparecer en “contextos genuinamente educativos o culturales”. La compañía pasaría a una estrategia de aplicar métodos técnicos, escribió, para “identificar mejor y rechazar el mal uso dañino” sin prohibirlos por completo.
“Los empleados de AI Lab”, escribió, “no deberían ser los árbitros de lo que la gente debería y no se les debe permitir crear”.
-
Startups10 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Recursos11 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Tutoriales11 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Startups9 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Recursos11 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Startups11 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos10 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Noticias9 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo