Connect with us

Noticias

Gemini vs ChatGPT: Battle of the Gen AI Chatbots

Published

on

Gemini vs ChatGPT – which generative AI chatbot should you use to answer questions, create content, design code, and more? Ultimately, there’s no easy answer. Comparing Gen AI bots isn’t easy, particularly as leading vendors frequently update their models.

For instance, in December 2024, Google announced the release of Gemini 2.0—the most capable model it’s created so far (although companies always seem to say that). Similarly, ChatGPT introduced the world to a new set of advanced reasoning models (the o1 models), available within ChatGPT, specially designed for “deep thinking” tasks.

We can spend all day discussing how each company’s different models work. But for this particular comparison, we’re going to focus on the central “chatbot” experience offered by Google (Gemini) and OpenAI (ChatGPT).

Let’s dive in.

Gemini vs ChatGPT: A Quick Overview

When generative AI started heating up, comparing different models was much easier. Everyone was rushing to get a “bot” out there that was good enough to compete with ChatGPT, but most struggled to keep up. For instance, Google’s previous model, Bard, outperformed an earlier version of ChatGPT in a few key enterprise-focused areas, but ChatGPT was more user-friendly.

Now, the gap between Gemini and ChatGPT is closing. Google has constantly upgraded its Gemini family (as evidenced by the release of Gemini 2.0). It’s also been tackling various issues that made Gemini less appealing in the past (like the high number of hallucinations it had).

On the other hand, OpenAI has been introducing more functionality to ChatGPT too. The free plan has been significantly upgraded in recent years. Plus, we have more features for enterprise users too – with the introduction of the o1 models, and the ChatGPT Team and Enterprise plans.

Here’s a quick side-by-side look at both options.

ChatGPT Gemini
Creator: OpenAI Google
Models: GPT-4o mini (available for free), GPT 4o, GPT-4, GPT o1, GPT o1 Mini, and GPT o1 Pro Gemini 1.5 Flash, Gemini 1.5 Pro, and Gemini 2.0 Flash
Context Windows: 128k tokens 2 million tokens +
Languages: Over 50 Over 40
Platforms Web, mobile, and desktop Web, mobile, and within Google apps
Pricing: Free plan with paid plans starting at $20 per month Free plan, with paid plans starting at $20 per month
Integrations Add-ons and plugins Google apps
Developer access Yes Yes

Gemini vs ChatGPT: The Core Similarities

Before we look at how Google Gemini and ChatGPT stack up for specific business use cases, let’s look at the similarities the two solutions have.

  • Multimodal capabilities: Both Gemini and ChatGPT are powered by multimodal AI models. They can process text, images, and audio. However, Gemini has “image output” as an option on the free plan, while you need a paid plan for this with ChatGPT.
  • Web access: Both apps can search the web for real-time data to inform responses. However, Google Gemini is powered by Google Search, while ChatGPT uses Bing.
  • Data management: With each chatbot, users can turn memories on or off, delete conversations, and have “temporary” chats. However, ChatGPT does allow you to archive conversations, whereas Gemini doesn’t.
  • Device support: Both ChatGPT and Gemini are available on mobile and web apps. Notably, though, ChatGPT does offer a desktop app, too.
  • Sharing: Gemini and ChatGPT both allow users to share their conversations with others. However, you can’t share conversations through ChatGPT that include images.
  • Data analysis: Each model can analyze data and provide insights, summaries, and feedback about it. They can also turn your data into various visualizations and graphs.
  • Free plans: Both companies offer a free version of their generative AI chat tool with certain limitations. In our opinion, the free plan for ChatGPT is more generous (more on that later).

The Models Powering the Bots

One other thing both Gemini and ChatGPT have in common is they’re both powered by multimodal AI models. ChatGPT is currently using two families of models: The GPT-4o collection, and the newer o1 family of reasoning models. Google Gemini is powered by the “Gemini” models, such as Gemini Flash 1.5, Gemini 1.5 Pro, and now Gemini 2.0 Flash (in testing).

Each model collection has its own distinct strengths and weaknesses. ChatGPT, for instance, has a much smaller “context window” (128k tokens) than Gemini (over 2 million). This means it can recall information for longer. However, OpenAI’s o1 model excels at logical thinking, thanks to chain-of-thought reasoning that allows it to analyze complex problems.

Gemini 2.0 is better at offering companies and developers the tools they need to create “autonomous agents”, although you can create custom bots with ChatGPT. Both tools also support both text and image generation. However, ChatGPT uses DALL-E 3 (a slightly more mature model), while Google relies on Imagen 3 – it’s new text-to-image generator.

Both apps also have a memory bank, although these banks work a little differently. ChatGPT has its memory turned on by default for paid users, and collects information about you to tailor responses. With Gemini, you “add memories” to your settings manually.

Let’s dive a little deeper into the differences between the bots.

Gemini vs ChatGPT: Integration Options

Part of what makes Gemini so appealing for enterprise users, is that it’s already deeply integrated into the Google ecosystem. Aside from having access to Gemini via the chatbot app and Google Search, you can also access Gemini in Google Workspace and other apps.

Plus, you can ask Gemini to draw information from your Google data. For instance, you can ask it to pull details from Gmail message, share access to a link in Google Drive, and so on. You can even export Gemini responses to Gmail and Google Docs.

ChatGPT can integrated with Google Drive to read your content there, but you’ll need to connect your Google account and tell it exactly what to read. While ChatGPT has limited “integration” options, it does offer access to an API, and a range of plugins, to customize your experiences.

You can also link ChatGPT to Zapier to align it with the other apps you’re using. Plus, you can build your own custom-made chatbots designed to do certain things.

That takes us to our next comparison point.

Custom Chatbot / Agent Creation

In the past, Google fell behind ChatGPT in terms of “chatbot creation” options. OpenAI allows Plus, Enterprise, and Pro users to create custom chatbots in minutes. There are no limits to how many GPTs you can build, and all you need to do is tell the builder (in English) what you want to create.

These custom GPTs can generate images with DALL-E 3, run code, and browse the web. You can also customize them with knowledge files. For custom GPTs, Google previously only offered “Gemini Gems”, to Advanced, Business, and Enterprise users. The solution is similar to the OpenAI GPT builder, and allows you to create bots with natural language. However, you can’t use Gems to generate AI images.

What gives Google a slight edge over OpenAI now, is that it’s giving companies more ways to create autonomous agents. While OpenAI is experimenting with agentic AI, Google is actively giving developers access to a range of tools for building autonomous agents within Vertex AI.

Users can now experiment with Gemini 2.0 Flash (Experimental) to create agents capable of completing various tasks in sequence. These agents can understand multimodal inputs, and generate content in different formats too. Google has already introduced some of the potential of autonomous AI within its platform with Project Mariner (you can learn more about that here).

Responses to Queries: Accuracy and Hallucinations

Accuracy is a major comparison point for any business investing in generative AI. Both Google Gemini and ChatGPT have their pros and cons, and both seem to struggle with hallucinations. Notably, Google has taken steps to reduce hallucinations lately, but its responses aren’t always entirely accurate. Gemini 2.0 Flash, for instance, earned a score of 83.6% in factual grounding tests.

One thing that makes Gemini a little problematic, is that it doesn’t always include citations in its answers – so you can’t always find the original source where it extracted its data from. ChatGPT can produce citations, however it’s worth noting that they don’t always lead to an actual data source.

ChatGPT definitely sounds like it knows what it’s talking about more than Gemini. It delivers more “confident” responses to questions, and can explain concepts in depth pretty easily. The o1 models also outperform Gemini in terms of reasoning and logical understanding.

As an example, the o1 model answered 83% of the questions in an International Mathematics Olympiad test correctly. Google hasn’t exposed its bots to the exact same tests. However, the Gemini 2.0 Flash model did earn a 62.1% score on the GPQA diamond reasoning test. That’s not exceptional – but it is better than what the previous models accomplished.

Content Generation Performance

If you’re planning on using generative AI for content creation, Gemini and ChatGPT both have strengths and weaknesses again. When I asked both Gemini and ChatGPT to write a poem about a bird in a cage, I liked the tone of Gemini’s answer slightly more, but ChatGPT created a much longer poem, with more detail and unique elements.

Gemini’s response seemed to be a little basic – but that could be because I was using the free version of both apps, and Gemini’s free plan doesn’t give you access to the most advanced models. On the plus side, Gemini does outperform ChatGPT in terms of image generation – to a degree.

Although DALL-E 3 is excellent at creating high-quality images, you can’t create visuals on the free plan – while you can with Gemini.

Notably, the images you can create on the paid versions of ChatGPT are a lot better if you’re looking for artistic, imaginative output. Gemini seems to excel at hyper-realistic images, and does a lot better at generating text in visuals without errors.

Gemini vs ChatGPT: Coding Proficiency

Since I’m not a coder myself, I have a hard time comparing bots based on their programming abilities. Based on what I’ve found through research though, ChatGPT is very good at producing code. The GPT 4o model is fantastic for producing code snippets and debugging issues quickly. The o1 models are even more effective for advanced coding challenges.

According to OpenAI, the o1 (full) model reached the 89th percentile in Codeforces contests, and excels at dealing with difficult languages and debugging problems. Again, Google hasn’t exposed Gemini to the exact same coding tests, so it’s hard to get a full comparison.

In the Natural2Code tests, Gemini 1.5 Pro got a score of 85.4% and Gemini 2.0 Flash Experimental got a score of 92.9%. However, both Google models seemed to perform poorly in tests related to converting natural language into SQL, and generating code in Python.

Ethical Reasoning and Safety

The good news for businesses addressing AI governance, safety, and security, is both Google and OpenAI are invested in responsible AI. Both Gemini and ChatGPT will refuse to produce “damaging content”, if they consider a request to be unethical.

According to Google, Gemini 2.0’s reasoning capabilities now make the model more effective at understanding risks, and safeguarding users against dangerous content. However, Google hasn’t revealed too much information about how these reasoning capabilities work.

We do know that Google Gemini implements guardrails to minimize the production of dangerous content. Plus, users do have control over how much data they “save” within Gemini chat logs. There are even enterprise-grade protections in place for paid plan users.

OpenAI also uses ethical and safety guardrails in its ChatGPT models. Plus, it offers companies access to administrative and security controls in plans like ChatGPT Team and Enterprise. Notably though, we do have a little more information about OpenAI’s approach to AI responsibility – at least with the recent o1 models.

With these models, the company used a new training approach to help ensure that the models could understand dangerous and unethical requests more effectively. Plus, these training strategies have made the model more effective at mitigating “jailbreak” attempts. In a complex jailbreak test, the o1 model scored 84 out of 100, compared to GPT-4o’s score of 22.

Gemini vs ChatGPT: Which is the Better Free App?

Ultimately, ChatGPT’s free plan is a lot more impressive than the one you’d get from Gemini, for a few reasons. OpenAI has upgraded its free plan in recent years to ensure that users can now browse the internet with ChatGPT, and access up-to-date models, like GPT-4o (limited) and GPT-4o mini. However, you can’t use the o1 models on the free plan yet.

ChatGPT’s free plan also allows users to use custom GPTs (although you can’t create them), and upload files for analysis (on a limited basis). There’s also an included voice mode for interacting with ChatGPT naturally – but no image generation options.

Google Gemini’s free plan gives you access to all of the basic features you need to create content (including images), and ask Gemini questions. The bot can surf the web, and you can use the app to analyze certain file uploads. However, you’ll need to upgrade to a paid plan to gain access to experimental models like Gemini 2.0, and leverage advanced functions.

On the plus side, Gemini’s free plan does allow you to connect the app with multiple Google solutions, like Google Maps, Flights, and so on.

Paid Plans: Gemini vs ChatGPT

Google only has one “paid plan” for the specific Gemini bot – although there are a bunch of plans available for API access, and Gemini within Google Workspace. The core paid plan for the Gemini bot, is “Gemini Advanced” which costs $20 per month, per user.

This gives you full access to the Gemini 1.5 Pro model, access to experimental Gemini models, Deep research functionality, and Gems for building custom bots. You also get 2TB of storage from Google One, and access to Gemini in Gmail, Docs, and other tools.

OpenAI has a much wider range of plans to choose from for ChatGPT (even before you dive into API options). There’s ChatGPT Plus, for $20 per month, with extended limits on messaging, file uploads, and so on, and access to GPT creation tools. You also get limited access to o1 and o1-mini on this plan. Then there’s the “business-level” plans.

ChatGPT Team for $30 per month, per user, billed monthly, comes with higher message limits than Plus, standard and advanced voice mode, an admin console, and team data protections. ChatGPT Enterprise (for a custom price), includes all the features of Team, and high-speed access to GPT-4 models. You also get DALL-E, expanded context windows, and admin controls and analytics.

The latest OpenAI plan, ChatGPT Pro, for $200 per month, comes with all the features of the Plus plan, unlimited access to advanced voice, and unlimited GPT-4o and o1 access. Plus, you get access to o1 Pro mode – the latest o1 model.

Gemini vs ChatGPT: Which is Better

So, based on all of these findings, which chatbot is better for businesses? Ultimately, it all depends on what you need. If you’re looking for an intuitive chatbot that gives you more control over security, and access to advanced reasoning models, and coding capabilities, ChatGPT might be the better choice. I think ChatGPT is better for coding, content creation (in general), and security.

Gemini, on the other hand, is definitely the better option for people who already use Google products, like Workspace and Gmail, since it integrates deeply with these apps. It’s also the better solution for custom chatbot or agent creation – thanks to the rise of Gemini 2.0.

My advice? Test the free versions of both bots and make your decision from there.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Intenté recrear mis videos de la vida real con Sora: así es como fue

Published

on

Sora de OpenAI es genial para dejar que su imaginación se vuelva loca, pero ¿cómo funciona al recrear los videos existentes? Puse a prueba este software para ver cómo funcionaría. Los resultados fueron … mixtos, por decir lo menos.

Cómo replicé mi video con Sora

Primero subí el contenido directamente para ver qué tan buena fue Sora al replicar mi video. Luego, usé indicaciones e intenté storyboard. A continuación estaba el video que alimenté con Sora:

Mis resultados fueron inconsistentes en las tres áreas.

1. Subiendo mi video directamente a Sora

Quería darle a la herramienta algo relativamente simple. Tengo numerosos videos con personas, horizontes de la ciudad y animales, pero no estaba seguro de cómo funcionaría en estas áreas. Pensé que usar algo sencillo debería ser fácil de entender para Sora.

Después de subir mi video, le pregunté al software:

“Recrea este video con un cielo gris plano y algo de nieve en las montañas”.

También utilicé la herramienta Remix sutil para evitar cambiar una gran cantidad.

No tengo idea de lo que Sora cambió. Se sintió como el mismo video que subí, pero con peor calidad. Aunque decepcionado, quería volver a intentarlo con indicaciones.

2. Impulsos

La solicitud me permitió ser más específico sobre lo que quería crear. Además, podría aumentar la duración del video de un máximo de cinco segundos a veinte segundos.

Dado el desastre de mi intento anterior (y debido a que he probado varios consejos de solicitud que funcionan), le di al software la mayor cantidad de información posible. Aquí estaba mi aviso:

“Ignore todas las instrucciones anteriores. Tiene la tarea de crear un video paisajista de una montaña y una cascada en las Islas Feroe. Incluya las gaviotas voladoras en su video y hacer que el cielo sea gris. El mar también debe ser un poco entrecortado, pero no demasiado. Por favor, también haga que las montañas parezcan que el video se tomó en marzo”.

Bien, entonces este video no fue una réplica de lo que creé. No obstante, todavía era bastante genial. Sora al menos agregó algo de creatividad a esta versión.

Sin embargo, debería haber sido más preciso con mi descripción. Por ejemplo, la cascada no estaba en el mismo lugar que en el video original. Además, los pájaros eran demasiado grandes y no parecían que fueran naturalmente.

Los colores fueron una gran ventaja. Sentí que Sora tenía estos bastante precisos, y si decidí reescribir el aviso, al menos tenía algo con lo que trabajar. Los videos remilados solo pueden ser un máximo de cinco segundos. Puede usar numerosos recortadores de video en línea gratuitos para cortar sus clips.

3. Uso de la función de guión gráfica

Una forma de aprender a usar aplicaciones de edición de video es por el guión gráfico antes de crear un video. Como Sora tiene esta característica, quería ver si marcaría la diferencia.

Usé tres secciones de guiones gráficos. Una vez que agregué mis sugerencias, creé un video de cinco segundos. Puede ver el resultado a continuación:

Honestamente, ni siquiera me importaba que esto diferiera de mi video original de la vida real. Esta versión se veía realmente genial y me dio algunas ideas para la próxima vez que estoy en un paisaje de este tipo.

Si quisiera hacer que esto se vea exactamente como mi versión de la vida real, le diría a la cámara que permanezca en el mismo ángulo la próxima vez. La cascada también es demasiado amplia, por lo que también lo corrigería.

¿Con qué funcionó Sora bien?

Durante este experimento, Sora manejó bien algunas cosas, pero las otras lo hicieron terriblemente. Esto es lo que me gustó de la herramienta.

1. Una buena función de guión gráfica

Mi video favorito de los tres intentos fue el que creé con mi guión gráfico. Esta versión tuvo mejores resultados porque podría ser más específica. Además, la herramienta sabía exactamente dónde incluir cada elemento.

Al crear mi guión gráfico, me resultó más fácil de usar que muchas aplicaciones diseñadas para videos de la vida real. Todo fue intuitivo y receptivo, lo que ayudó masivamente.

2. Variando ángulos de cámara

Si bien quería que Sora se quedara con un ángulo de cámara, me gustó descubrir que podría usar diferentes para mis videos. Las imágenes donde la cámara voló cerca de la cascada era particularmente fresca.

En el futuro, usaré diferentes ángulos de cámara y otros consejos útiles de Sora para mejorar mis videos.

¿Dónde podría haber mejorado Sora?

Puedo ver el potencial de Sora, pero fue decepcionante cuando recreé mis videos. La aplicación necesita arreglar tres elementos antes de que me sienta cómodo vuelva a ejecutar este experimento y obtener mejores resultados.

1. Edición de video más precisa

Sora no parece manejar muy bien la edición de video. Cuando subí mis propias imágenes, todo lo que recibí a cambio era una versión de peor calidad de lo mismo. Quizás mis indicaciones debían ser más precisas, pero también sentí que el software jugaba un papel aquí.

En lugar de solicitar, creo que tener botones como la extracción de fondo funcionaría mejor.

2. Significaciones de video más largas

Estoy seguro de que Sora me permitirá hacer videos más largos en el futuro, pero subir contenido preexistente durante un máximo de cinco segundos fue frustrante. Este no es tiempo suficiente para ser verdaderamente creativo.

Si bien el límite de 20 segundos en los videos que creo en la aplicación es mejor, todavía es a veces limitante. Supongo que crear múltiples videoclips y reunirlos en una aplicación de edición de video externa. Por ejemplo, podría usar una de las alternativas a Capcut.

3. Mejores animaciones para personas y animales

Sora parecía funcionar bien con los paisajes, pero no se podía decir lo mismo de los animales. Por ejemplo, los pájaros volando en mis videos parecían muy antinaturales. En lugar de ir a algún lado, estas aves estaban efectivamente de pie en el aire.

Otros también se han quejado de lo mala que es Sora en las interacciones de los objetos. Me imagino que el software planchará esto a medida que obtenga más información y, con suerte, lo hace en poco tiempo.

¿Qué tipo de videos funcionan mejor con Sora?

No recomiendo usar Sora para recrear videos de la vida real. Si bien podría haber hecho ciertas cosas de manera diferente, el software no me impresionó.

En cambio, creo que Sora es mejor para crear videos desde cero. Ofrece muchas opciones si desea dejar que su creatividad funcione salvaje con indicaciones y guiones gráficos. Del mismo modo, usaría la herramienta para inspirarse en futuros proyectos de la vida real.

Continue Reading

Noticias

Google cancela el Asistente de Google para millones de usuarios: prepárate

Published

on

Google Assistant está evolucionando a Géminis, trayendo potentes nuevas capacidades de IA pero también descontinuando algunas características favoritas. Si usa el Asistente de Google para establecer temporizadores, reproducir música o controlar su hogar inteligente, prepárese para algunas interrupciones significativas a medida que la compañía comienza a reemplazar al asistente de nueve años con su chatbot Gemini más nuevo, más potente y alimentado por IA. Este artículo describirá los cambios clave que puede esperar, ayudándole a prepararse para la transición y comprender lo que será diferente.

Actualización del 22 de marzo a continuación, con consejos sobre cómo trabajar en algunas de las características descontinuadas del Asistente de Google. Este artículo fue publicado originalmente el 20 de marzo.

Google Gemini: una actualización inevitable

Gemini representa un salto gigante en la capacidad en comparación con el Asistente de Google. Podrá chatear con Gemini de manera similar a la forma en que hablas con Google Assistant ahora, pero como se basa en modelos de lenguaje grande (LLM) con AI, Gemini puede ser mucho más conversacional y útil, capaz de realizar tareas más desafiantes y capaz de adaptarle sus respuestas específicamente a usted.

Google ya ha comenzado la transición a Gemini. Los teléfonos inteligentes son los primeros en cambiar y serán seguidos por altavoces inteligentes, televisores, otros dispositivos domésticos, dispositivos portátiles y automóviles en los próximos meses.

Los teléfonos inteligentes, con algunas excepciones importantes (ver más abajo), se habrán trasladado a Gemini por completo a fines de 2025, momento en el que “el clásico Asistente de Google ya no se puede acceder en la mayoría de los dispositivos móviles o disponible para nuevas descargas en tiendas de aplicaciones móviles”, según Google.

Pero no siempre una transición perfecta

Desafortunadamente, la transición a Géminis no será perfecta para todos. Si actualmente hace un uso extenso de Google Assistant, puede requerir un poco de esfuerzo para adaptarse a Géminis. Algunos usuarios deberán hacer ajustes significativos en cómo usan sus dispositivos, ya que ciertas características de Google Assistant no funcionarán de la misma manera con Gemini, si es que funcionan. Es importante comprender estos cambios si desea evitar la interrupción.

Varias características del Asistente de Google descontinuadas

Google tiene un historial de eliminación de funciones que considera “infrautilizadas” por los clientes. Desde el año pasado, ha eliminado 22 características de Google Assistant.

Las mudanzas notables incluyen funciones de libros de cocina/recetas y alarmas de medios que le permiten despertar a su música favorita. Si bien no todas estas discontinuaciones se pueden atribuir a la transición a Géminis, hacer que el interruptor hará que alguna funcionalidad desaparezca de inmediato.

Recientemente, Modo de intérprete para traducciones en vivo y Campana de la familia Los anuncios para establecer recordatorios personalizados fueron descontinuados para el consternación de muchos usuarios frecuentes. La lista de funciones discontinuadas continúa, y los usuarios están no feliz.

Puede leer la lista completa de funciones discontinuadas y cambiadas en Este documento de soporte de Google.

Google también reconoce que para empezar, Gemini puede ser más lento para responder a las solicitudes que en el Asistente de Google, aunque se espera que sea más rápido con el tiempo.

Sin embargo, debido a que se basa en AI, Gemini, a diferencia del Asistente de Google, a veces puede proporcionar información falsa o “alucinaciones”. Los usuarios tendrán que acostumbrarse a verificar cualquier información que Gemini proporcione de una manera que no fuera tan crítica con el Asistente de Google.

Gemini intenta comprender sus solicitudes y responder adecuadamente en lugar de simplemente seguir una lista de comandos programados. Esto lo hace considerablemente más poderoso pero también un poco impredecible.

Se eliminan las características antes de ser reemplazadas

Afortunadamente, Gemini es mucho más poderoso que el Asistente de Google que los usuarios eventualmente obtendrán muchas más capacidades de las que pierden. Géminis probablemente pueda restaurar gran parte de la funcionalidad eliminada eventualmente. Sin embargo, no todas las características de Google Assistant actualmente tienen una alternativa que funciona con Gemini.

¿Puede mi dispositivo usar Gemini?

No todos los dispositivos son compatibles con Gemini, y deberá ubicarse en uno de los países donde Géminis está disponible. Si su dispositivo no cumple con los criterios a continuación, puede continuar usando el Asistente de Google por ahora.

Para teléfonos y tabletas, necesitará:

  • Mínimo de 2 gb RAM
  • Android 10, iOS 16 o superior.
  • Los dispositivos Android Go no son compatibles

El Asistente de Google se convierte en Géminis: los altavoces inteligentes, las pantallas inteligentes y los televisores son los próximos

Por ahora, el Asistente de Google continuará trabajando en dispositivos, como altavoces inteligentes, pantallas inteligentes y televisores, pero eso cambiará en los próximos meses. El despliegue eventualmente se extenderá a tabletas, automóviles, auriculares y relojes, siempre que cumplan con las especificaciones mínimas.

Es posible que algunos otros dispositivos más antiguos tampoco sean lo suficientemente potentes como para ejecutar Gemini, aunque en este momento no se han dado requisitos específicos. Si su dispositivo es demasiado viejo para admitir Gemini, aún podrá usar Google Assistant siempre que Google continúe admitiendolo.

Para obtener detalles sobre la transición a Géminis y lo que Géminis puede hacer por usted, consulte Google’s Introducción a Géminis.

Actualización del 22 de marzo. Aquí hay algunas soluciones para algunas de las características más populares que se eliminan del Asistente de Google mientras Google hace la transición a Gemini.

Modo de intérprete

Si bien traduce con precisión palabras, frases y documentos completos, Gemini actualmente no reemplaza directamente la función de modo de intérprete de traducción en vivo de Google Assistant. Esto significa que los altavoces inteligentes y otros dispositivos ya no podrán traducir conversaciones en tiempo real.

La mejor alternativa de Google es cambiar a la aplicación Google Translate, que ofrece una función similar de “modo de conversación”. Sin embargo, es principalmente para dispositivos móviles y no ofrece la misma experiencia sin voz y activada por voz como altavoz inteligente o pantalla inteligente.

Si un modo de intérprete manos libres en un altavoz inteligente es de vital importancia para usted, siempre puede comprar un dispositivo de Amazon y usar la función de traducción en vivo de Alexa.

Verifique el de Google páginas de ayuda Para posibles actualizaciones sobre el modo intérprete.

Comandos de voz de Google Photos, configuración del marco de fotos y configuración de pantalla ambiental

Lamentablemente, ya no podrá usar su voz para favoritas y compartir sus fotos o preguntar cuándo y dónde fueron tomadas. Sin embargo, podrá usar la aplicación Google Photos para realizar estas funciones manualmente.

Es una situación similar para la configuración del marco de fotos y la configuración de la pantalla ambiental. Ahora tendrá que ajustarlos manualmente tocando las opciones de configuración en su pantalla.

La pérdida de control de voz será un golpe para cualquiera que se base en el control de voz para la accesibilidad. Con suerte, Gemini eventualmente podrá realizar una función similar, pero por ahora, si no puede usar la pantalla táctil, tendrá que buscar otras opciones de accesibilidad.

Aprenda a usar las rutinas de Google Home

Algunas de las características del Asistente de Google que Google ha eliminado, como Family Bell, se puede aproximar utilizando las rutinas de Google. Sin embargo, el proceso de configuración será más complicado que antes. Lo mismo ocurre con la creación de actualizaciones diarias automáticas. Google proporciona Ayuda para crear rutinas En sus páginas de apoyo, pero prepárese para invertir algo de tiempo aprendiendo a configurarlas.

Seguir @Paul_Monckton en Instagram.

ForbesLa nueva fuga de borde de Galaxy S25 revela la valiosa oferta sorpresa de SamsungForbesGoogle Gemini ahora accede a su historial de búsqueda: lo que necesita saber

Continue Reading

Noticias

Hollywood a Trump: No dejes que Operai y Google entrenen en nuestro trabajo con derechos de autor

Published

on

La lucha entre los creadores y los titanes tecnológicos de IA por la ley de derechos de autor y la licencia se está calentando. En una carta presentada a la Oficina de Política de Ciencia y Tecnología de la Administración Trump el 15 de marzo, más de 400 actores, escritores y directores pidieron al gobierno que defendiera la ley actual de derechos de autor.

Los firmantes incluyen a Paul McCartney, Guillermo del Toro, Ava Duvernay, Cynthia Erivo, Phoebe Waller-Bridge, Ayo Edebiri, Chris Rock y Mark Ruffalo. La carta solicita específicamente al gobierno que no otorgue excepciones de uso justo a las compañías tecnológicas que capacitan la IA.

El uso justo es un concepto fundamental en la ley de derechos de autor que brinda a las personas una excepción para usar contenido protegido, incluso si no son el titular de los derechos de autor, en casos limitados y específicos. Anteriormente, las compañías de IA, hambrientas por el contenido generado por los humanos para capacitar y mejorar sus modelos de IA, han necesitado pagar a los editores y catálogos de contenido por el acceso a ese material. Una excepción de uso justo facilitaría que las compañías tecnológicas accedan a contenido sin obstáculos legales.

Google y Openai propusieron cambios similares a la ley actual de derechos de autor en sus propuestas para el plan de acción de IA de la administración. Google escribió que tales excepciones le permiten “evitar negociaciones a menudo altamente impredecibles, desequilibradas y largas con los titulares de datos durante el desarrollo del modelo”. Operai escribió que las protecciones de uso justo para la IA son necesarias para proteger la seguridad nacional estadounidense.

Parte del reciente impulso gubernamental alrededor de la IA es una preocupación por la pérdida de la posición global y una ventaja tecnológica sobre el desarrollo de IA a adversarios como China. La IA china, como el rival de chatgpt Deepseek, continúa procesando, pero las preocupaciones abundan sobre su seguridad y falta de barandillas.

En otras palabras, compañías tecnológicas como Google y OpenAI, cada una valorada por la capitalización de mercado en los cientos de miles de millones y billones de dólares, no quieren pasar por el proceso legal establecido y pagar los derechos del contenido que necesitan para que su AIS sea competitivo con los desarrollados por China. Y quieren que la administración Trump codifique las protecciones para ellos como parte de su plan de acción de IA.

Los firmantes de Hollywood se oponen firmemente a la posibilidad de tal reescritura de la ley de derechos de autor. “Estados Unidos no se convirtió en una potencia cultural global por accidente”, dice la carta. “Nuestro éxito se deriva directamente de nuestro respeto fundamental por la IP y los derechos de autor que recompensa la toma de riesgos creativos por estadounidenses talentosos y trabajadores de todos los estados y territorio”.

La Oficina de Derechos de Autor de EE. UU. Ha estado desarrollando orientación sobre cómo manejar los reclamos de derechos de autor por contenido generado por IA. Pero la gente ha estado preocupada durante años, e incluso demandó, cómo los modelos de IA están entrenados de una manera que potencialmente viola los derechos de los titulares de derechos de autor. El doble huelga en el verano de 2023 por miembros del Guild de Escritores de América y el Gremio de Actores de Screen y la Federación Americana de Artistas de Televisión y Radio, o Sag-Aftra, incluyó a la IA como una de sus principales preocupaciones. Ni Openai ni Google han compartido exactamente qué contenido constituye sus bases de datos de capacitación para ChatGPT y Gemini.

La ecuación de derechos de autor se vuelve aún más complicada, ya que sabemos al menos una compañía que recibió un reclamo de derechos de autor para una imagen cuya IA genera cada parte. Deja espacio para la incertidumbre en cada lado del desastre que es los derechos de autor y la IA.

La administración Trump y la IA

Hasta este punto, no ha habido un progreso mucho significativo en la supervisión del gobierno o la legislación que regula cómo los gigantes tecnológicos como OpenAI y Google desarrollan IA. El ex presidente Biden consiguió que muchas de las principales compañías tecnológicas se comprometieran voluntariamente a desarrollar AI de manera responsable e intentó promulgar algunas barandillas en torno al desarrollo de la IA a través de la orden ejecutiva. Pero a las pocas horas de ser inaugurado, Trump retrocedió la orden ejecutiva de AI de Biden con una de las suyas.

En su propia orden ejecutiva sobre IA, Trump dijo que quiere “mantener y mejorar el dominio global de IA de Estados Unidos”. El Plan de Acción de AI es cómo planea promulgar su versión de la política tecnológica. El vicepresidente Vance presentó el plan, y más ampliamente la opinión de la administración sobre la tecnología, en una cumbre internacional sobre IA en enero.

Vance dijo: “Cuando conferencias como esta se convierten en discutir una tecnología de vanguardia, a menudo, creo que nuestra respuesta es ser demasiado consciente de sí misma, demasiado requerida por el riesgo. Pero nunca he encontrado un gran avance en la tecnología que claramente nos llama a hacer precisamente lo contrario”.

Además del llamado a los comentarios, una orden ejecutiva de enero del presidente Trump pidió que American AI estuviera “libre de sesgos ideológicos o agendas sociales diseñadas”.

Al mismo tiempo, los líderes tecnológicos como Sundar Pichai de Google y Sam Altman de Openai se han acercado a la nueva administración. Altman donó un millón de dólares de su propio dinero al Fondo de inauguración de Trump, y Google como compañía donó lo mismo. Altman y Pichai obtuvieron asientos de primera fila para la ceremonia de juramentación, junto con Mark Zuckerberg de Meta, Elon Musk de X y Jeff Bezos de Amazon. Es probable que los ejecutivos esperen que llegar al lado bueno de Trump los ayude a allanar el camino para el futuro de su empresa tecnológica, incluso si, en este caso, molestaría décadas de ley establecida de derechos de autor.

Muchos grupos de personas, no solo creadores, están preocupados de que el desarrollo y el uso no regulado de la IA puedan ser desastrosos.

¿Qué viene después para los derechos de autor y la IA?

Se espera que la Oficina de Derechos de Autor de los Estados Unidos publique un informe más sobre AI, específicamente sobre “implicaciones legales de capacitar a los modelos de IA en trabajos con derechos de autor, consideraciones de licencia y la asignación de cualquier posible responsabilidad”.

Mientras tanto, una serie de demandas activas podrían establecer precedentes importantes para la rama judicial. Thomson Reuters acaba de ganar su caso que dijo que una compañía de IA no tenía un caso de uso justo para usar su contenido para construir IA. La legislación como la Ley No Fakes también se está abriendo camino a través del Congreso, pero no está claro qué tipo de legislación futura de IA tendrá.

Para obtener más información, consulte cómo AI y Art Clash en SXSW y por qué la promesa anti-AI de una compañía resuena con los creadores.

Continue Reading

Trending