Noticias
Let’s Start Thinking Of Breathtaking Ways To Leverage Generative AI Far Beyond What We Are Doing Right Now
In today’s column, I explore the rising vocal clamor that we are woefully underutilizing generative AI and large language models or LLMs.
This might come as quite a surprise since the use of generative AI seems to be just about everywhere and continues to rapidly expand. There are reportedly 250 million weekly active users of OpenAI ChatGPT and undoubtedly hundreds of millions or into the billions more users of AI when including the likes of Anthropic Claude, Google Gemini, Meta Llama, and other major generative AI apps.
But the rub is this.
It’s not how many people are using generative AI, it’s the way in which generative AI has been set up to be used.
The primary approach that nearly everyone uses is that generative AI takes in essay-like text and produces text-based responses, or possibly images and video. That is the norm. Generative AI and large language models are data trained on patterns in human language and the way that humans write.
Maybe we should be identifying something else to pattern on. Perhaps we can reach far beyond just everyday natural language. The sky is the limit, or shall we say limitless.
Does that catch your attention and offer some intrigue?
Let’s talk about it.
This analysis of an innovative proposition is part of my ongoing Forbes.com column coverage on the latest in AI including identifying and explaining various impactful AI complexities (see the link here).
The Push To Go Outside The Box
A modern-day luminary in the AI field named Andrej Karpathy began quite an online conversation and debate when he posted a tweet on X that said this (posting on September 14, 2024, per @karpathy):
- “It’s a bit sad and confusing that LLMs (‘Large Language Models’) have little to do with language; It’s just historical. They are highly general-purpose technology for statistical modeling of token streams. A better name would be Autoregressive Transformers or something. They don’t care if the tokens happen to represent little text chunks. It could just as well be little image patches, audio chunks, action choices, molecules, or whatever. If you can reduce your problem to that of modeling token streams (for any arbitrary vocabulary of some set of discrete tokens), you can ‘throw an LLM at it’.
- “Actually, as the LLM stack becomes more and more mature, we may see a convergence of a large number of problems into this modeling paradigm. That is, the problem is fixed at that of ‘next token prediction’ with an LLM, it’s just the usage/meaning of the tokens that changes per domain. If that is the case, it’s also possible that deep learning frameworks (e.g. PyTorch and friends) are way too general for what most problems want to look like over time. What’s up with thousands of ops and layers that you can reconfigure arbitrarily if 80% of problems just want to use an LLM? I don’t think this is true, but I think it’s half true.”
I’d like to walk you through the underlying proposition.
You might want to grab a glass of fine wine and find a quiet spot to sit and mull over the significance of what this is all about.
Tokens And Pattern Matching Are The Key
Currently, when you enter a prompt into generative AI, the words that you input are converted into a numeric format referred to as tokens. For example, suppose the sentence was “The dog barked” and that we had beforehand assigned the number 23 to the word “The”, 51 to the word “dog” and 18 to “barked”. The tokenized version of the sentence “The dog barked” would be those numbers shown in the sequence of 23, 51, and 18.
Next, after that conversion from text to numbers, the numbers or tokens are then used within the generative AI to figure out what the output will be. A long series of computations are undertaken. At the tail end of the processing, and before you see any text output, the resultant numbers might consist of say 10, 48, 6, which let’s assume that 10 is for the word “Yes”, 48 is for the word “it” and 6 is for the word “did”. Thus, the output as a result of making use of the inputs 23, 51, and 18, gives us the numbers 10, 48, and 6, which is shown to you as “Yes it did”.
For a more detailed explanation of tokenization, see my discussion at the link here.
By and large, the premise of generative AI and large language models is that when someone enters a set of sequenced tokens (via text-based words), a response can be computed that will consist of some other set of sequenced tokens (which is then converted into text-based words). In my example, I entered the three sequenced words consisting of “The dog barked” and I got a response of three sequenced words saying, “Yes it did”. My sequence of words “The dog barked” was converted into numeric tokens, run through a gauntlet of mathematical and computational processes, and the result produced was numeric tokens that after conversion into text-based words was “Yes it did.”
How does the AI calculate the words or tokens that form the response?
The general principle is that by doing extensive data training on how humans write, it is feasible to figure out how to take in tokens and generate or produce tokens that fit to the patterns of human writing. Usually, this data training is undertaken by scanning vast amounts of text found on the Internet, including essays, stories, narratives, poems, and so on. It turns out that humans make use of patterns in how they write, and the pattern-matching can pretty much pick up on those patterns.
That’s why generative AI seems fluent. It is computationally mimicking human writing. This requires a lot of examples of human writing to identify those patterns. I’ve discussed that some worry we won’t be able to make dramatic advances in generative AI because there might not be enough available human writing to pattern on, see my analysis at the link here.
Lean Into Pattern Matching As The Crux
It is time to think outside the box.
Are you ready?
Set aside the natural language aspects. Put that at the edge of your thinking. Don’t let it cloud your judgment.
What we really have going on is a kind of statistical predictor that can take in a set of tokens and produce as output a set of other tokens. Within the computational pattern matching is a type of mapping from what happens when some sequence of tokens is encountered and what ought to be predicted as the next tokens to come out.
The existing perspective is that this is useful for natural languages such as English, German, French, etc. Indeed, generative AI is customarily based on and referred to as large language models or LLMs. Why? Because the computational pattern matching is focused on natural languages, forming a model of what our everyday languages entail. After several initial years of trying this, AI researchers realized that you need lots of data to do proficient pattern matching and modeling. In the early days of generative AI, the models weren’t very good, partially due to a lack of scaling up.
At a macroscopic level, assume we need three crucial elements for our predictor mechanism:
- (1) Something that we can convert into tokens.
- (2) There is some pattern associated with inputs to outputs.
- (3) We have enough of the material to sufficiently pattern on.
If any of those assumed elements are unavailable or don’t exist, we are somewhat up a creek without a paddle. Allow me to elaborate on each of the three and why they are respectively vital.
It could be that we cannot convert into tokens whatever it is that we want to use. That’s a problem. We won’t be able to use our prediction models that are based on tokens (as an aside, we could potentially devise models that use something other than tokens).
Another sour possibility is that there aren’t any patterns to be found within the arrangement of the tokens. If there aren’t any patterns, the model can’t make useful predictions. It could be that the patterns are so hard to find that our existing pattern-identifying techniques won’t crack open the secret sauce. It could also be that there just aren’t any patterns at all, period, end of story.
Finally, the likelihood of finding patterns and reliably making predictions is often based on having lots and lots of whatever it is that we are trying to pattern on. If all you have is a drop in the bucket, the odds are it won’t be enough to garner a big picture. Things will be askew.
Throwing The Amazing Predictor At Whatever Works
Okay, now that we have those three elements in mind, we need to start finding new avenues worth venturing into.
I want you to take a moment and put your mind to hard work:
- The Big Question — What else is there other than natural language that provides a source of something that can be converted into tokens, contains patterns, and that we have sufficient volume of the thing that we can reasonably pattern match on it?
And, of course, of which we would want an AI system to be able to process for us.
There must be a buck to be made or some justifiable reason why we would go to the trouble to toss AI at it. I suppose you might do it for kicks but given the cost of churning out this type of AI, there should be a pot of gold at the end of the rainbow, one way or another.
Thinking, thinking, thinking.
Keep your thinking cap on and your mind activated.
You already know that we can do this with natural languages in terms of taking as input text and producing as output some associated text. The same can be said about audio. Generative AI is being used already to take as input audio, convert it into tokens, identify patterns based on available large volumes of audio, and produce audio outputs. Likewise, video is yet another mode, though the video is a lot harder to deal with than text or audio. See my coverage of multi-modal generative AI at the link here.
I’m sure that you know that coding or programming is already under the microscope for generative AI and LLMs. This is an interesting angle because though coding is text-based, it is not quite a natural language per se. You could argue that coding is an artificial language and not a conventional natural language. The beauty though is that it can be converted into tokens, patterns can be identified, and there is a lot of code out there to data train for pattern matching purposes.
Sorry that I keep telling you about possibilities that are already known or taken. That is though good to know about so that you aren’t trying to reinvent the wheel.
Ideas Being Early Days Floated
I will share with you some additional possibilities that are generally underway but still in the early stages of exploration:
- Game playing. You can use the same precepts to get AI to play games. Moves are actions that can be described and converted into tokens. Patterns can be identified. By collecting lots of games being played, data is plentiful.
- Stock market predictions. Consider stock prices as potential tokens. If you want to include other factors, such as the status of the economy, those can be similarly tokenized. Patterns can be presumably found and lots of data is available.
- Molecular structure predictions. Take the shapes or structures of molecules and convert them into tokens. There are patterns to be found. Lots of data is available.
- Route optimizations. Routing of traffic is essential and currently tends to be solved via symbolic or traditional mathematical means. The traffic parameters could be tokenized, patterns figured out, and lots of such data would be available for this.
Those are paths that are seriously being pursued. You are encouraged to jump in and help out. They are still cooking those meals, and the results are not yet finalized. There is ample room to make progress.
Okay, your homework is this.
Think about fields of one kind or another that may have not yet been explored for applying a generative AI or LLM-like capability. If you happen to be a domain expert in that field, you have a leg-up on this. I say that because you hopefully already know whether there are patterns afoot, you know why using AI for predictions would be valuable in that arena, and you possibly know if or where data can be found.
An added twist is this.
If there aren’t known patterns, you might be onto something especially enriching. Here’s the deal. If no one has yet found patterns, it could be that they just haven’t looked the right way. Prior efforts to find patterns might not have had the kind of computational power and pattern matching that we have with contemporary generative AI and LLMs.
The domain might be a sleeper. It is waiting for the right person to have the right vision. The heretofore unknown patterns could be unlocked via the right use of generative AI and LLMs or similar technology. I assure you that if that were the case, you might be in line for big bucks, big fame, and maybe even one of those vaunted Nobel prizes.
Isn’t that worth taking some dedicated time and attention to think about?
Yes, I would certainly say so, and I wish you the best of luck and urge you to get cracking. You can do it.
Noticias
13 sencillos consejos y trucos de Google Gemini para lograr la máxima productividad
Mucho más que un simple chatbot talentoso, Google Gemini ofrece funcionalidad de IA multimodal y una interactividad potente e indolora. El nivel más alto de Google One, uno de los mejores servicios de almacenamiento en la nube de la actualidad, incluye convenientemente acceso a su versión más potente.
Emitir indicaciones sencillas y generar texto escrito competente resulta fácil para los nuevos usuarios de Gemini, pero su conjunto de herramientas en constante expansión proporciona impresionantes mejoras en la productividad. Estas son algunas de las formas más útiles de utilizar el agente de inteligencia artificial de Google en constante mejora para ahorrar tiempo y aumentar el rendimiento.
Relacionado
Primeros pasos con Google Gemini: conceptos básicos del último asistente de Android
Si quieres probar Géminis, estos consejos y trucos te ayudarán
13 Actualizar la gestión del tiempo y las rutinas de autocuidado
Aprenda hábitos eficientes y prácticas efectivas.
Alimentar a Géminis con una lista completa de tareas pendientes, completa con tareas recurrentes y actividades únicas, puede generar un cronograma conciso que priorice su rutina personal, las próximas fechas límite importantes o los nuevos hábitos que está tratando de adquirir. Alternativamente, brinde al agente de IA un resumen detallado de cómo pasó los últimos días, y podrá brindarle consejos sobre cómo optimizar su agenda para que todo se ajuste más cómodamente.
En su vida profesional, delinear las necesidades y los recursos de un proyecto le permite a Gemini analizar las formas más rentables y rentables de lograr sus objetivos. Después de todo, nada ayuda más a desarrollar la eficiencia de una máquina que preguntarle a una máquina.
12 Obtenga esquemas sencillos de videos de YouTube
No pierdas el tiempo sentado viendo vídeos extendidos
A veces, los creadores de información se van por la tangente y los expertos educados se vuelven prolijos. En lugar de esperar vídeos largos para ir al grano, o intentar mantener todos los elementos en orden en tu cabeza, pídele a Gemini un resumen. Puede seleccionar los puntos más importantes a lo largo de una producción y presentarlos en un formato fácil de leer.
Funciona especialmente bien con vídeos instructivos, como tutoriales de reparación y cocina, pero resulta útil con todo tipo de contenido. Incluso puede ayudar a evitar anuncios tediosos para aquellos que aún no están suscritos a YouTube Premium.
Relacionado
El vicepresidente senior de Arm explica el verdadero impacto de la IA, y no es lo que piensas
Nuestra entrevista con el ejecutivo de Arm, Chris Bergey
11 Resumir conjuntos de datos grandes y complejos
Analizar cantidades abrumadoras de información
Si tiene una hoja de cálculo con demasiadas páginas y columnas para entenderla rápidamente, pídale a Gemini que la desglose por usted. Puede extraer inferencias generales de toda la colección de datos, investigar tendencias dentro de categorías individuales e incluso ayudar a desarrollar gráficos para visualizar la información. Puede solicitar resultados más simples o más complejos si todavía tiene problemas para comprender un documento o necesita información más detallada.
10 Autocompletar hojas de cálculo según el contexto
Complete rápidamente la entrada de datos repetitivos
Fuente: Google
La función mejorada Smart Fill de Gemini en Google Sheets detecta patrones y proporciona soluciones automatizadas para la tediosa entrada de texto. Transfiere rápidamente datos relativamente simples de una columna o formato a otro. Gemini Autofill agrega una capa de integración de IA, identifica relaciones más complejas y sugiere formas de registrarlas de manera clara y efectiva. Estas dos características ejemplifican la utilidad de lo que algunos llaman un “autocompletado glorificado”.
Relacionado
8 formas de usar Gemini en Google Sheets
Google Sheets con Gemini garantiza que tu día sea más fácil
9 Analice fácilmente la calidad SEO de los sitios web
Consulte las entradas del blog y los editoriales para comprobar su exhaustividad.
Un mensaje rápido le permite a Gemini examinar qué tan bien usted o un medio crearon un sitio. Puede compilar un informe sobre la cohesión de encabezados, meta descripciones, palabras clave y enlaces entrelazados. También puede usarlo junto con la página de resultados del motor de búsqueda para ver qué tan bien se está conectando con lo que quiere el público. Sobresale especialmente en generar preguntas de personas que también hacen y fragmentos destacados.
Con acceso a la herramienta de prueba de datos estructurados de Google, pocos agentes de inteligencia artificial pueden igualar la capacidad de Gemini para analizar la estructura y navegación de una página. Sin embargo, al igual que con otras solicitudes directas de análisis, asegúrese de comprobar los sentidos de las respuestas de Géminis. En lugar de confiar en que sus consejos de SEO sean correctos, utilice sus afirmaciones para comparar la página con las técnicas de SEO actuales y establecidas, y prepárese para solicitar revisiones o una segunda opinión.
8 Solucionar problemas y verificar el código
Rebotar ideas de programación de un modelo programado.
Los programadores han utilizado durante mucho tiempo patos de goma como oyentes inanimados para ayudar a encontrar problemas que se escapan de las grietas. Géminis puede responder, lo que lo hace aún más efectivo. Puede brindarle numerosos puntos de partida y métodos para abordar una tarea de programación y evaluar la eficiencia con la que se ejecutará su código ya escrito.
Querrá comparar sus sugerencias con sus conocimientos y recursos y, a veces, se topa con callejones sin salida o alucina, pero es mucho más efectivo que un juguete de baño.
7 Crea itinerarios de viaje inspiradores
Deje que Géminis actúe como trampolín para sus planes de vacaciones
Utilice Gemini para Google Sheets para crear planes de viaje perfectos, ya sea para un viaje de trabajo o recreativo. Puede dirigirlo a los sitios más famosos, mostrarle más atracciones que pasan desapercibidas e incluso presentarle algunos lugares locales oscuros. Naturalmente, siempre puedes utilizar sus itinerarios de muestra para ayudarte a pensar dónde quieres ir y qué quieres hacer, eliminando el estrés de planificar salidas de larga distancia.
6 Diseñe indicaciones de IA más efectivas
Cómo Gemini te ayuda a usar Gemini
Decirle al asistente de inteligencia artificial que necesita ayuda con el mensaje de Géminis correcto puede desbloquear estrategias que de otro modo tendría que investigar y adivinar. Esto tiene sentido, porque ¿qué conoce mejor a Géminis que él? Describir sus necesidades, incluido el contexto, el formato y el grado de especificidad, puede reducir la cantidad de tiempo necesario para obtener información útil. También puede adaptar el resultado al tono adecuado para comunicarse con grupos específicos de personas.
Relacionado
Aquí se explica cómo avisar a Géminis, según Google
Google publicó una hoja de trucos para aprovechar al máximo su herramienta de IA
5 Simplifique la redacción técnica para lectores generales
Reduzca la jerga y optimice los temas complicados
Para un escritor técnico que explica temas avanzados a generalistas, o para un profano que intenta comprender las complejidades de un campo de alta tecnología, Gemini hace maravillas al simplificar temas confusos. Reemplaza la terminología específica de un campo con una redacción sencilla y ayuda a lectores y escritores de ambos extremos del espectro a mantenerse en sintonía.
4 Encuentre respuestas a preguntas oscuras
Cuando la Búsqueda de Google no es suficiente
Es difícil obtener las respuestas exactas a algunas preguntas, pero el vasto Gráfico de conocimiento de Google vincula su enorme variedad de información de maneras poderosas. Mejora su capacidad para investigar y crear contenido informativo en profundidad, especialmente cuando utiliza Gemini en Google Docs.
Gemini y otros LLM cometen errores y siempre necesitarás volver a verificar sus respuestas, pero copiar y pegar rápidamente lo hace fácil. Al menos, buscar en la web a través de Gemini le brinda el trampolín perfecto para responder consultas extremadamente específicas.
3 Implementar fórmulas avanzadas de hojas de cálculo
Omita el proceso de dominar Google Sheets
Ya no necesitas pasar incontables horas dominando hojas de cálculo para implementar las fórmulas más efectivas. Gemini para Google Sheets ya hace un trabajo fantástico al sugerir las operaciones correctas y siempre está mejorando. La gestión competente de hojas de cálculo puede hacer o deshacer un equipo, lo que la convierte en una poderosa herramienta profesional.
2 Prepárese para entrevistas y reuniones importantes
Haga que Géminis haga las preguntas para evitar que lo tomen por sorpresa
Fuente: Policía de Android
No hay nada mejor que practicar para entrevistas individuales y paneles de discusión grupales. Proporcione a Gemini su tesis, currículum o tema y recursos de discusión, y pídale que le interrogue sobre contenido relacionado. Rápidamente desarrollarás una comprensión más profunda de tu propio material e incluso podría ayudarte a conseguir un trabajo o un ascenso.
1 Ajuste los agentes de IA de Gems personalizados
Tenga a mano asistentes de IA personalizados en todo momento
Fuente: Google
Los agentes de IA de Google Gems le permiten personalizar un agente específico para los temas, formatos y tonos que necesita habitualmente. Desarrolla el tuyo propio y mantenlo a tu lado para tus tareas más habituales. Esto puede reducir en gran medida la cantidad de tiempo y esfuerzo que se necesita para usar la IA, de otra manera que Gemini te ayuda a usarla.
Relacionado
Cómo crear chatbots de IA personalizados con Gemini Gems
Crea un chatbot personalizado usando Gemini Gems
Las posibilidades casi infinitas siguen aumentando
A medida que Google integre aún más Gemini en servicios potentes como la aplicación Workspace, su efectividad solo mejorará, especialmente considerando el procesamiento de IA en el dispositivo que permiten los mejores teléfonos inteligentes de la actualidad. Reduce la complejidad de la capacitación, la comunicación, el resumen y la creación, y puede ayudarlo a mantener sus pensamientos en orden cuando aparentemente tiene demasiada información que manejar.
Si utiliza estos u otros consejos de productividad con frecuencia, probablemente se beneficiará de una suscripción Gemini Advanced, que brinda acceso a un procesamiento más potente que el Gemini estándar.
Noticias
7 razones por las que Google Gemini es mejor que ChatGPT
Con el año 2024 casi detrás de nosotros, los chatbots de IA se han vuelto esenciales para muchos, con ChatGPT como la opción preferida. De hecho, Sam Altman de OpenAI señaló recientemente que ChatGPT es ahora el octavo sitio web más visitado a nivel mundial. Sin embargo, Google ha estado mejorando constantemente su propio chatbot, Gemini, y se está poniendo al día rápidamente. Aquí hay algunas razones por las que Google Gemini podría ser una mejor opción que ChatGPT para usted.
Relacionado
ChatGPT vs. Gemini: ¿Cuál da las mejores respuestas?
Gemini le ofrece a ChatGPT una competencia muy necesaria
7 Gemini ofrece múltiples respuestas para cada consulta
Más respuestas significan más perspectivas
Si bien ChatGPT es excelente para responder preguntas, solo proporciona una respuesta a la vez. Google Gemini, sin embargo, genera tres respuestas diferentes a cada pregunta de forma predeterminada; simplemente puedes tocar el Mostrar borradores para ver estas respuestas alternativas. Por el contrario, con ChatGPT, debes hacer clic manualmente en el botón regenerar si deseas una respuesta diferente.
Como se muestra en la captura de pantalla anterior, cuando le pedí a Gemini que me ayudara a escribir una solicitud de licencia, me ofreció tres respuestas únicas en diferentes estilos. Esta función es particularmente útil para tareas creativas, como redactar correos electrónicos o documentos, ya que ofrece instantáneamente múltiples opciones para elegir.
6 Géminis ofrece respuestas más concisas
Respuestas directas sin detalles innecesarios.
Cuando se trata de estilo de respuesta, Gemini de Google a menudo proporciona respuestas más concisas y directas en comparación con ChatGPT. ChatGPT tiende a ser más detallado, incluso con preguntas sencillas. Si bien puede pedirle que acorte o resuma, si prefiere respuestas rápidas y sencillas, Géminis es la mejor opción.
Por ejemplo, como se muestra arriba, les pregunté a ambos chatbots cómo funcionan las vacunas. La respuesta de ChatGPT tuvo alrededor de 350 palabras, mientras que Gemini devolvió una respuesta más breve que cubría todos los puntos esenciales.
5 Géminis puede comprender consultas más complejas
Maneja mensajes más largos gracias a un límite de token más alto
Una de las ventajas destacadas de Gemini sobre ChatGPT es su ventana de contexto significativamente mayor (límite de token). Mientras que el modelo GPT-4 de OpenAI puede manejar hasta 128.000 tokens, Google Gemini 1.5 Pro cuenta con un límite de tokens de un millón. En pocas palabras, esto significa que Gemini puede procesar consultas mucho más largas y complejas con facilidad. Puede profundizar en su solicitud, recogiendo detalles que podrían perderse en modelos con límites de token más bajos.
Por ejemplo, si necesita trabajar con archivos PDF largos o desea que un chatbot de IA resuma un documento de texto grande, Gemini manejará la tarea de manera más efectiva que ChatGPT.
4 Google Gemini ya está disponible
Integrado en Android: no es necesario realizar descargas adicionales
La mejor parte de usar Gemini es su perfecta disponibilidad en dispositivos Android. Si bien Google ofrece una aplicación Gemini independiente, también puedes acceder a ella simplemente cambiando tu asistente predeterminado a Gemini en la configuración de Android. De hecho, en dispositivos más nuevos como la serie Pixel 9, Google incluso incluye Gemini como asistente predeterminado, reemplazando al Asistente de Google.
Por el contrario, usar ChatGPT en Android requiere descargar una aplicación separada de Play Store, lo cual no es tan conveniente como Gemini. Además, Gemini se está integrando en el conjunto de aplicaciones y servicios de Google, pero hablaremos más sobre eso a continuación.
3 Géminis puede acceder a los servicios de Google
Se integra perfectamente con Drive, YouTube, Gmail y más
Dado que Gemini es un producto de Google, se beneficia de una integración perfecta con los numerosos servicios de Google que utilizamos a diario. Google ha implementado extensiones Gemini para YouTube, Gmail, Docs, Drive y más en los últimos meses, lo que permite que Gemini funcione de forma nativa dentro de estas aplicaciones.
Y como Gemini se conecta a través de tu cuenta de Google, ya tiene la información que necesita. Por ejemplo, puede pedirle a Gemini que busque un correo electrónico específico, resuma un correo electrónico extenso o inserte sus respuestas directamente en Google Docs sin copiar ni pegar. Incluso puedes hacer que resuma videos de YouTube o muestre fotos de viajes anteriores.
Le pedí a Gemini que obtuviera detalles sobre mis vuelos recientes con una aerolínea específica y mostró exactamente lo que necesitaba. No tuve que buscar en mi Gmail para buscar manualmente. Con estas integraciones, Gemini ofrece una experiencia más conectada que ChatGPT, que carece de soporte integrado para servicios populares y, a menudo, requiere que usted ingrese información manualmente.
2 El plan gratuito de Gemini permite la creación ilimitada de imágenes
Genera tantas imágenes como quieras sin límites
Si utiliza con frecuencia chatbots de IA para generar imágenes, Gemini puede ser la mejor opción. Incluso en su plan gratuito, Google permite la creación ilimitada de imágenes con tantos ajustes como necesites. No solo eso, sino que la compañía también brinda acceso a su último modelo Imagen 3 AI sin restricciones. Mientras tanto, el plan gratuito de ChatGPT limita a los usuarios a tres imágenes cada 24 horas, lo que puede no ser suficiente para muchos.
1 El plan pago de Gemini ofrece más valor
Incluye 2 TB de almacenamiento de Google y una prueba gratuita más larga
Si bien tanto ChatGPT como Gemini ofrecen planes pagos a $20 por mes, el plan AI One Premium de Google ofrece notablemente más valor. Por el mismo precio, obtienes acceso a Gemini Advanced (impulsado por el modelo Gemini Pro de alto rendimiento) y 2 TB adicionales de almacenamiento de Google, utilizables en Drive, Fotos y otros servicios.
Con el plan pago, también te beneficias de la integración de Gemini en aplicaciones de Google Workspace como Docs y Gmail. Además, Google ofrece una prueba gratuita de dos meses para la versión paga de Gemini, mientras que ChatGPT no ofrece ninguna prueba gratuita. El plan pago de ChatGPT simplemente otorga acceso a todos los modelos de IA con mayor uso, sin ningún beneficio adicional.
Relacionado
5 características que Google Gemini debería robarle a ChatGPT
No dejes atrás estas gemas, Géminis: róbalas de ChatGPT
Gemini está cerrando la brecha con ChatGPT
Si bien OpenAI pudo haber tenido una ventaja inicial en la carrera de los chatbots de IA, Google rápidamente ha cerrado la brecha. Dado lo integrales que son los servicios de Google en la vida diaria, ya sea mirar videos en YouTube o navegar con Maps, la integración de Gemini en estas plataformas le brinda una ventaja sustancial sobre ChatGPT. Gemini es sin lugar a dudas una de las mejores alternativas a ChatGPT disponibles en la actualidad.
Noticias
OpenAI lanza el modo de voz avanzado ChatGPT para usuarios web
OpenAI ha ampliado la disponibilidad del modo de voz avanzado de ChatGPT, llevando la función a los navegadores web.
La introducción del modo de voz avanzado en la web fue anunciada por el director de producto de OpenAI, Kevin Weil, en la plataforma de redes sociales X.
Esta funcionalidad avanzada ahora es accesible para los suscriptores de los planes pagos de OpenAI, incluidos Plus, Enterprise, Teams o Edu.
Weil afirmó que la función, que aprovecha las capacidades de audio nativas de GPT-4 para conversaciones naturales en tiempo real, estaría disponible para los clientes de pago a partir de esta semana.
La medida se produce tras el lanzamiento exitoso de la misma función en aplicaciones de iOS y Android en septiembre de 2024.
Weil dijo que OpenAI planea lanzar la función para usuarios gratuitos en “las próximas semanas”.
Acceda a los perfiles de empresa más completos del mercado, impulsados por GlobalData. Ahorre horas de investigación. Obtenga una ventaja competitiva.
Perfil de la empresa: muestra gratuita
¡Gracias!
Su correo electrónico de descarga llegará en breve
Confiamos en la calidad única de nuestros perfiles de empresa. Sin embargo, queremos que tome la decisión más beneficiosa para su negocio, por eso le ofrecemos una muestra gratuita que puede descargar enviando el siguiente formulario.
Por GlobalData
En un comunicado de prensa sobre X, Weil dijo: “Lanzamos el modo de voz avanzado en nuestras aplicaciones de iOS y Android en septiembre, y recientemente lo llevamos a nuestras aplicaciones de escritorio”.
Weil añadió: “Ahora estamos entusiasmados de añadir la web a la mezcla. Esto significa que ahora puedes hablar con ChatGPT directamente desde tu navegador.
“Utilizo el modo de voz para explorar ideas y hacer preguntas rápidas sin tener que escribir. A @thirdweil y a los niños les encanta; siempre piden “hablar con ChatGPT” mientras conducimos. Y recientemente lo usé como traductor universal en Seúl y Tokio, manteniendo conversaciones de negocios con personas con las que no tenía un idioma común”.
En octubre de 2024, OpenAI introdujo la integración de búsqueda web en su chatbot de inteligencia artificial (IA) generativa ChatGPT.
Con la actualización, los suscriptores de ChatGPT Plus y Team tienen acceso a la información directamente a través de la interfaz de chat. Esto amplía las capacidades del bot más allá de sus limitaciones de datos históricos anteriores.
-
Recursos6 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Startups6 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Recursos6 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Recursos6 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Eventos6 meses ago
La nueva era de la inteligencia artificial por el Washington Post – Mayo 2024
-
Noticias4 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo
-
Estudiar IA6 meses ago
Curso de Inteligencia Artificial de UC Berkeley estratégico para negocios
-
Tutoriales6 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes