Noticias
Is it worth the hype?

On Monday, December 9, 2024, OpenAI officially launched Sora, its AI-powered video generator, for ChatGPT Pro and Plus subscribers.
I’ll be honest: I’ve always been skeptical of AI video generators. They make bold promises of stunning visuals, effortless editing, and limitless creativity, but more often than not, they fall short. Either the videos look robotic, the transitions are clunky, or the output feels…well, AI-generated.
So when OpenAI dropped Sora, their highly anticipated AI video tool, I had to see for myself — although it has taken nearly three months for me to do this. Could it truly turn simple text prompts into seamless, high-quality videos? Or was this just another case of overhyped AI?
I spent hours testing Sora, pushing it to its limits with different prompts, analyzing the video quality, and comparing it to existing AI video tools. If you’re wondering if Sora is the real deal or just another AI experiment, you’re in the right place.
Here’s my honest review.
TL;DR: Key takeaways from this review
- OpenAI’s Sora Video Generator offers AI-powered video creation with unique tools like Remix, Re-cut, and Storyboard.
- The interface is intuitive, making it accessible for both beginners and professionals.
- Video output quality is high, but customization options have some limitations.
- Pricing is competitive, especially with ChatGPT Plus and Pro plans.
- It’s a strong tool for quick video generation but may not replace professional-grade editing software yet.
What is Sora?
Platform | Sora |
Developer | OpenAI |
Year established | December 2024 |
Best for | AI-powered video creation, quick content generation, and creative storytelling |
Key features | Text-to-video generation, Remix, Re-cut, Storyboard tools, high-quality visuals |
Customization options | Limited but improving; offers scene adjustments and minor edits |
Output quality | High-resolution, realistic videos with smooth transitions |
Pricing | Available with ChatGPT Plus ($20) & Pro ($200) plans |
Mobile App | Not available yet |
Sora is OpenAI’s cutting-edge AI-powered text-to-video generator designed to create high-quality, photorealistic videos from simple text prompts. Unlike earlier AI video tools that struggled with realism and fluidity, Sora aims to revolutionize the space by generating smooth, lifelike animations with complex backgrounds, multiple characters, and natural movements—all within a single video.
At its core, Sora takes text input and transforms it into dynamic video content using deep learning models trained on vast amounts of visual and motion data. The tool can generate videos up to 20 seconds long, ensuring consistency in characters, environments, and even lighting across different scenes.
While Sora is still not widely available to the public (unavailable in the UK and Europe), the AI-powered video generator has impressed industry experts with the ability to produce high-quality, cinematic videos, setting a new benchmark in AI-powered video generation.
How does Sora work?
Sora operates using a combination of deep learning, computer vision, and natural language processing (NLP) to convert text prompts into fully animated video sequences.
The process can be broken down into several key steps:
1. Understanding the prompt
When you input a text description (e.g., “A futuristic city at sunset with flying cars and neon signs”), Sora’s AI model first breaks it down into key components:
- Objects and characters: Identifying subjects, such as people, animals, or objects.
- Scenes and backgrounds: Recognizing the environment (urban, natural, fantasy, etc.).
- Movements and interactions: Defining how elements should behave in motion.
2. Generating visual and motion data
Unlike traditional video editing, where footage is pieced together from existing clips, Sora creates video content from scratch using its deep learning models. These models have been trained on massive datasets of videos and animations to learn realistic motion patterns and visual aesthetics.
3. Rendering the video
Sora applies its advanced diffusion models to transform raw AI-generated visuals into a polished, high-quality video. This includes:
- Generating frame-by-frame continuity to ensure smooth transitions.
- Adding realistic lighting, shadows, and textures for photorealism.
- Ensuring character consistency so that faces, clothing, and objects remain the same across different frames.
4. Editing and enhancing
Once the initial video is created, Sora allows users to refine it using tools like:
- Remix: Tweaks specific parts of the video while keeping the core structure intact.
- Re-cut: Adjusts pacing and transitions for a smoother flow.
- Storyboard: Helps structure longer narratives by generating multiple shots in sequence.
Why I tested OpenAI’s Sora
The hype surrounding OpenAI’s Sora was impossible to ignore. AI-driven video generation has been evolving rapidly, and with each new tool comes the promise of effortless, high-quality content creation. But does Sora live up to the buzz, or is it just another AI experiment that looks great in demos but falls short in real-world applications?
I wanted to find out for myself.
What was my goal?
I wasn’t just here for a quick test; I wanted to push Sora to its limits and see if it could truly revolutionize video creation for content creators, marketers, and video professionals. My focus was on three key areas:
- Ease of use: Can anyone, regardless of skill level, create impressive videos with minimal effort?
- Features and capabilities: Does Sora offer enough creative control and flexibility for professionals?
- Real-world application: Is this just a fun AI experiment, or can businesses and creators genuinely rely on it for content production?
With these questions in mind, I dove into Sora, experimenting with different prompts, testing its storytelling abilities, and analyzing the final output.
Here’s what I discovered.
My first impressions: What makes Sora special?
Sora isn’t the first AI-powered video generator to be invented. Heavyweights like Runway Gen-3 and Kling have already set high standards, proving that AI-generated videos can be more than just stitched-together animations. But OpenAI’s approach with Sora isn’t about reinventing the wheel, it’s about refining it.
Instead of throwing another complex tool into the mix, OpenAI seems to have studied what works (and what doesn’t) in AI video generation. The result? A more intuitive, user-friendly experience is housed at sora.com.
For someone like me, who’s spent years wrestling with traditional video editing software, Sora was a breath of fresh air. No need to navigate endless menus or tweak a hundred settings just to get a simple video. Sora does the heavy lifting for you, making high-quality AI video generation accessible to both beginners and professionals alike.
Getting started: Onboarding and user experience.
Jumping into a new AI tool can sometimes feel daunting, but Sora’s onboarding process is refreshingly simple. From signing up to generating your first video, the entire experience is designed to be seamless, even if you’ve never used an AI video generator before.
Sign-up process and initial setup
Registering for Sora is straightforward. If you’re already a ChatGPT Plus or Pro subscriber, you automatically get access to Sora—no extra fees, no separate sign-ups. For new users, the process involves:
- Logging into your OpenAI account (or creating one if you don’t have it).
- Subscribing to ChatGPT Plus or Pro if you haven’t already.
- Navigating to Sora.com and launching the tool directly.
The entire setup takes just a few minutes. There’s no complicated installation or software download, everything runs in the cloud.
How easy is it to use Sora?
Once you’re inside, getting started is as simple as typing a text prompt. Here’s a breakdown of how to use it:
- Enter a prompt. Describe the video you want (e.g., “A futuristic African city skyline at sunset, with flying cars zooming by”).
- Choose video length. Sora can generate clips up to 20 seconds long.
- Select style preferences. Options like cinematic, animation, or realistic can help fine-tune the aesthetic.
- Generate. Hit the create button and watch Sora bring your vision to life in seconds.
- Edit and refine: Use tools like Remix, Re-cut, and Storyboard (more details on these later in this review) to tweak your video further.
Unlike traditional video editing, you don’t need prior experience or have to adjust lighting, frame rates, or manual transitions.
User interface: Intuitive or overwhelming?
Sora’s UI is refreshingly simple. It’s designed to eliminate friction, allowing users to focus on creativity rather than complexity.
- Clean layout. The dashboard is minimalist and well-organized, making it easy to navigate.
- Preset options. Ready-to-use templates help beginners get started quickly.
- Drag-and-drop editing. You can make adjustments without needing professional editing skills.
For beginners, it’s easy to dive in without feeling lost. For professionals, Sora’s advanced tools provide enough flexibility to refine and customize videos.
Features of Sora video generator
Sora is packed with powerful tools designed to streamline video creation, enhance storytelling, and maximize creative control.
Here’s what makes Sora stand out:
1. Remix – Modify without starting over
Tired of regenerating an entire video just to tweak one detail?
Remix lets you replace, remove, or reimagine specific elements without having to start from scratch. Whether it’s swapping a character’s outfit, adjusting a background element, or refining details, Remix gives you precise control over edits.
2. Re-cut – Seamless scene adjustments
Editing AI-generated videos can be tricky, but Re-cut makes it easy to isolate and extend keyframes for a smoother flow. If a scene feels too abrupt or needs an extra second of motion, Re-cut helps you fine-tune transitions without distorting the original video.
3. Storyboard — A built-in video sequencer
Think of Storyboard as a simplified version of Adobe Premiere Pro but without the steep learning curve.
It lets users:
- Arrange clips in a timeline interface.
- Specify inputs for each frame.
- Create cohesive narratives within the app.
This feature is especially useful for marketers, educators, and storytellers who want to structure their videos without using external editing software.
4. Loop – Generate seamless repeating clips
Need a smooth, endless animation?
Loop automatically trims and adjusts videos to create seamless repeating sequences, perfect for GIFs, animated backgrounds, and social media posts.
5. Blend – Merge two videos
Blend takes AI video generation a step further by seamlessly merging two clips into a single, cohesive video. If you’re looking to transition between scenes or combine different AI-generated elements, this tool ensures the visuals flow naturally.
6. Style Presets – Instantly apply aesthetic filters
Sora makes stylizing videos effortless with built-in presets that add a unique artistic touch:
- Film Noir – For a dramatic, cinematic look.
- Papercraft – Stop-motion-style animation.
- Abstract Visuals – Great for experimental, artsy content.
These presets make it easier to maintain a consistent theme across multiple videos.
7. Community feeds – Get inspired and share ideas
Sora integrates a social element through its Featured and Recent Feeds, where users can:
- Browse AI-generated videos for inspiration.
- View the exact prompts used to create each clip.
- Remix and modify community-shared content
This makes learning and experimenting with AI video generation more accessible, as users can build on existing ideas instead of starting from scratch.
Sora pricing
Sora is bundled with ChatGPT subscriptions:
Plans | Monthly cost | Video generations | Resolution | Duration | Watermark |
ChatGPT Plus | $20 | Up to 50 | Up to 720p | 5 sec | Yes |
ChatGPT Pro | $200 | Up to 500 | Up to 1080p | 20 sec | No |
Note: No additional cost if you’re a ChatGPT Plus/Pro user.
My hands-on testing experience
I tested Sora for creating a promotional video, a short social media clip, and a tutorial.
Here’s what I liked and didn’t like:
What I liked about Sora
1. High-quality video output
Sora produces stunning, photorealistic videos that capture natural motion, lighting, and scene composition. Unlike many AI generators that struggle with consistency, Sora maintains visual coherence most of the time.
2. Intuitive controls for beginners and professionals
Sora is designed to be accessible for first-time users while still offering enough depth for experienced creators. The drag-and-drop interface, clear tooltips, and well-organized settings make it easy to get started without a steep learning curve.
3. Rapid prototyping
The speed of video generation, particularly at lower resolutions, makes Sora perfect for quick iterations. A 480p video takes less than 20 seconds to generate, allowing creators to experiment with different ideas, styles, and scripts rapidly before finalizing their projects.
4. Natural Language Processing capabilities
Sora understands context, sentiment, and meaning in text prompts, enabling it to create more accurate visual representations. If you describe a dynamic action scene or a serene landscape, Sora interprets the details effectively, leading to better prompt accuracy than many competitors.
5. Customization options
Sora allows users to tweak visual styles, animation effects, color schemes, and typography, ensuring that every video aligns with their unique branding or creative vision. This flexibility makes it a powerful tool for content creators and marketers alike.
6. Collaboration tools
For teams working on marketing, educational content, or creative storytelling, Sora includes real-time editing, version control, and commenting features. This streamlines workflow and ensures seamless collaboration between multiple stakeholders.
7. Accessibility and ease of use
Sora’s user-friendly interface makes video creation accessible to both professionals and casual users. By leveraging text prompts instead of complex animation controls, it removes technical barriers, making high-quality video creation more inclusive and effortless.
What I didn’t like about Sora video generator
1. Limited customization for complex edits
While Sora’s editing tools are impressive, they still lack the depth of professional video software like Premiere Pro or After Effects. Fine-tuning intricate transitions or advanced visual effects isn’t possible as of yet.
2. Watermark on videos
If you’re using the Plus plan of Sora, expect a watermark on all generated videos. Only Pro subscribers get clean, unbranded exports, which might be a dealbreaker for users who want professional-looking output without a subscription.
3. Ethical concerns
The rise of AI-generated videos raises ethical issues, including misinformation, deepfakes, and digital trust. OpenAI has implemented transparency measures like watermarks, but as the tech evolves, ethical oversight will be crucial.
4. Unrealistic physics
Sora somewhat struggles with physics consistency. Objects may move unnaturally, disappear, or fail to interact realistically. For instance, characters might hold an item in one scene, only for it to vanish in the next, breaking immersion.
5. High cost
Sora’s Pro plan costs $200 per month, which might be expensive for casual users or small businesses. Competing AI tools like Fliki or Runway offer cheaper or pay-as-you-go alternatives, making them more budget-friendly options.
6. Regional restrictions
Sora is not yet available in several major markets, including most of Europe and the UK. This limits its adoption, making it inaccessible to a significant portion of global content creators.
7. No manual motion control
While Sora excels at natural movement, there’s no direct way to animate characters with specific actions beyond what the AI interprets. This makes precision storytelling a bit tricky.
How does Sora compare to other AI video tools?
Sora stands out in the AI video space, but how does it stack up against competitors like Runway, Fliki, Pika Labs, and Synthesia?
1. Seamless OpenAI integration
Unlike other AI video tools, Sora is natively integrated into OpenAI’s ecosystem, ensuring smoother workflow for users familiar with ChatGPT and DALL·E. This makes it an attractive choice for those already using OpenAI’s products.
2. Faster video generation
Sora generates high-quality videos in seconds, outperforming most AI video tools in speed. For example, a 480p video takes under 20 seconds, whereas competitors like Runway might take several minutes to produce similar results.
3. Advanced AI scene understanding
Sora understands prompts with impressive accuracy, generating complex scenes with multiple characters, natural motion, and consistent environments. Many other AI tools struggle with object permanence and realistic movement, but Sora handles these aspects better than most.
4. Editing flexibility: Room for improvement
While Sora is great for AI-powered automation, it lacks the manual editing precision that exists in tools like Runway and Pika Labs. It’s ideal for quick prototyping but not for fine-tuned professional edits.
5. Video length: A major limitation
Compared to Runway and Fliki, which offer longer videos (up to several minutes), Sora is limited to 20 seconds per clip (The Plus plan, making it less suitable for long-form content creators.
6. Cost considerations
Sora’s Pro plan at $200 per month is significantly higher than Fliki or Pika Labs, which offer lower-cost subscriptions or pay-as-you-go models. Budget-conscious users may find better value elsewhere.
Verdict
Sora is great for AI-powered video creation, excelling in speed, AI automation, and scene comprehension. However, its editing constraints, short video length, and high price tag make it less appealing for professionals needing full-scale video production tools. If you need quick, high-quality AI videos, Sora is a top choice, but for detailed editing and longer videos, competitors like Runway or Pika Labs may be better suited.
Who should use the Sora video generator?
Sora is designed for anyone looking to create AI-generated videos quickly and efficiently. Content creator, marketer, educator, or business owner, Sora provides a fast and intuitive way to generate engaging video content.
1. Content creators
YouTubers, TikTok influencers, and social media creators can use Sora to produce visually stunning videos without expensive equipment or editing software. Its AI-powered automation allows for rapid prototyping and creative experimentation, making it ideal for short-form content.
2. Marketers
Brands and advertisers can leverage Sora to create eye-catching promotional videos, social media ads, and explainer content. The ability to generate high-quality clips in seconds makes it a great tool for A/B testing and campaign iterations.
3. Educators
Teachers and online course creators can use Sora to produce interactive and engaging video lessons. With text-to-video generation and storyboard sequencing, educators can simplify complex topics into digestible visual content.
4. Businesses
Companies can streamline video production for product demos, training materials, and corporate presentations. Sora’s AI-driven tools allow businesses to generate professional-looking videos without needing a dedicated video editing team.
Potential use cases for Sora
Sora’s AI-driven video generation opens up a variety of creative and professional applications. Here are some key areas where it shines:
1. Marketing and branding
- Generate sleek, professional-looking video ads in seconds.
- Produce branded short clips for TikTok, Instagram, and YouTube without hiring a production team.
- Showcase products with smooth transitions and AI-enhanced visuals.
2. Education and training
- Develop engaging video lessons or explainer videos for online courses.
- Animate complex concepts to improve understanding and retention.
- Create interactive training videos for employee onboarding and corporate learning.
3. Content creation
- Create shot clips for entertainment or artistic expression.
- Remix existing content to provide fresh perspectives and variations.
- Produce cinematic storytelling clips without the need for professional filming equipment.
4. Gaming and virtual worlds
- Design cinematic cutscenes for game trailers or promotional content.
- Generate concept animations for characters, environments, and storytelling elements.
- Quickly iterate game design ideas with AI-generated previews.
How to optimally prompt Sora for the best results
Crafting effective prompts is the key to unlocking Sora’s full potential. Unlike traditional video editing tools, Sora relies entirely on natural language inputs to generate visually stunning outputs.
To get the most out of this AI video generator, follow these expert-level prompting techniques:
1. Be specific and descriptive
The more detailed and vivid your prompt, the better Sora will understand and generate your video. AI models rely on clarity. So, instead of a generic request, be explicit about the scene, style, mood, and action.
Instead of just writing “A futuristic city at night,” good would be “A cyberpunk city at night, neon signs glowing, light rain falling, pedestrians in futuristic outfits walking past high-tech billboards, a robotic taxi driving down the street, cinematic and immersive lighting.”
2. Define the motion and camera style
Since Sora generates full scenes with motion, describing the camera angles and movements can greatly impact the final video. It could be as simple as adding “A sweeping aerial shot over…” to your prompt.
3. Use clear action commands
Sora can generate dynamic, multi-step actions if you specify them. Instead of just describing a setting, explain what’s happening within the scene.
For example, rather than say “A scientist working in a lab,” write “A scientist in a white lab coat mixes colorful chemicals in a glass beaker, which starts bubbling and changes color from blue to red. She smiles in excitement as a robot assistant hands her another beaker. The scene is bright and futuristic, shot in a modern laboratory.”
4. Set the lighting, atmosphere, and depth
Lighting dramatically affects how a scene feels. Whether it’s soft golden hour sunlight, neon cyberpunk glow, or moody shadows, describing lighting and depth enhances realism.
5. Avoid overloading
While detail is important, don’t overstuff your prompt with too many conflicting ideas. AI works best when it has a clear structure to follow.
6. Tweak
Don’t be afraid to tweak and refine your prompt if the output isn’t perfect. Try:
- Adjusting wording for better clarity.
- Adding more visual detail if the scene is too simple.
- Removing unnecessary elements if the video feels cluttered.
Final verdict: Is the Sora video generator worth the hype?
Sora is a groundbreaking AI video generator with immense potential, but it’s not without its limitations. It excels in speed, automation, and ease of use, making it ideal for creators who want to generate high-quality videos with minimal effort. However, compared to traditional video editing software, it still lacks advanced customization, precise frame control, and detailed post-production tools.
Sora is cool but it’s not a full replacement for professional video editing tools…yet. If OpenAI continues refining it, Sora could redefine how we create video content in the future.
I’ll rate it a 7.5/10.
FAQs for OpenAI’s Sora video generator
Is Sora free to use?
No. Sora is included in OpenAI’s ChatGPT Plus and Pro subscriptions, $20 and $200 respectively.
What types of videos can Sora generate?
Sora can create 5 – 20 seconds of promotional videos, animations, explainer videos, and more, making it useful for content creators, marketers, and educators.
Can OpenAI Sora produce video and sound at the same time?
Currently, Sora does not generate audio alongside video. Users must add voiceovers, background music, or sound effects separately in post-production.
Can you make a full-feature film using Sora?
No, Sora is not yet capable of producing full-length films. While it can generate short, high-quality clips, a complete movie requires complex storytelling, scene transitions, and extensive post-production work.
What are the main drawbacks of using Sora?
The main limitations include limited video duration (capped at 20 seconds), lack of advanced manual editing tools found in professional software, and expensive subscription costs.
Can I use Sora for professional video production?
Yes, but it depends on the project’s requirements. Sora is best suited for quick content generation, marketing materials, and prototyping, rather than fully polished cinematic productions.
Does Sora support different aspect ratios and resolutions?
Yes, but resolution and video length depend on your subscription plan. ChatGPT Pro users can generate videos up to 1080p quality.
How will OpenAI Sora change the traditional video editing workflow?
Sora streamlines video creation by eliminating the need for manual editing and complex animation work. While it won’t replace professional editors, it offers a faster, AI-driven approach to generating high-quality visuals.
Conclusion
Sora is an impressive AI-powered video generator that simplifies content creation. While it excels in speed and automation, it still has limitations in manual editing, audio integration, and video length. As OpenAI continues improving the tool, Sora has the potential to reshape the future of video production.
Disclaimer!
This publication, review, or article (“Content”) is based on our independent evaluation and is subjective, reflecting our opinions, which may differ from others’ perspectives or experiences. We do not guarantee the accuracy or completeness of the Content and disclaim responsibility for any errors or omissions it may contain.
The information provided is not investment advice and should not be treated as such, as products or services may change after publication. By engaging with our Content, you acknowledge its subjective nature and agree not to hold us liable for any losses or damages arising from your reliance on the information provided.
Always conduct your research and consult professionals where necessary.
Noticias
Su asistente de Google Gemini está obteniendo 8 características útiles: aquí está el registro de actualizaciones

Google Gemini ya ofrece una gran cantidad de capacidades útiles. Desde generar texto y crear imágenes hasta conversaciones en vivo, investigaciones profundas y analizar archivos, la IA de Google ha demostrado ser un fuerte contendiente en el campo de IA.
También: Todo anunciado en Google I/O 2025: Gemini, Search, Android XR y más
En Google I/O 2025 el martes, la compañía reveló una serie de características nuevas y mejoradas ahora disponibles con su asistente de IA.
1. Nuevos planes Google AI Pro y Ultra
Primero hay dos nuevas suscripciones de Google AI que ofrecen más funciones, pero naturalmente vienen con sus propios precios.
El primer plan se conoce como Google AI Pro, que en realidad es el mismo plan de AI Premium que ha existido por un tiempo solo con un nuevo nombre. Todavía con un precio de $ 20 por mes, AI Pro ofrece las mismas funciones de IA disponibles con la versión gratuita de Gemini, pero agrega límites de tarifa más altos y características especiales.
AI Pro también incluye la aplicación Gemini anteriormente conocida como Gemini Advanced, junto con productos como NotebookLM y el nuevo editor de video de AI Flow. Esas dos características llegarán a los suscriptores de AI Pro primero en los EE. UU. Y luego se expandirán a otros países.
Los estudiantes universitarios en los Estados Unidos, el Reino Unido, Brasil, Indonesia y Japón pueden obtener un año escolar gratuito de Google AI Pro.
Si necesita más potencia y características y está dispuesto a gastar mucho dinero, también hay un plan de Google Al Ultra. Este ofrece los modelos más poderosos, los límites de tarifa más altos y el acceso temprano a las características experimentales de AL.
También: Google presenta su suscripción de AI Ultra de $ 250 por mes: lo que está incluido
Como ejemplo, el Ultra Plan le otorgará acceso temprano al modo de agente, una nueva herramienta de agente basada en escritorio que llevará a cabo tareas para usted. Simplemente describa su solicitud o pregunta; En respuesta, el agente navega por la Web, realiza su propia investigación y se integra con sus aplicaciones de Google para abordar tareas complejas de varios pasos de principio a fin.
El Ultra Plan cuesta $ 250 al mes, aunque los suscriptores por primera vez obtienen un 50% de descuento durante los primeros tres meses.
2. Géminis en vivo
El siguiente es Gemini Live, el práctico modo de chat en el que llevas una conversación de voz de ida y vuelta con la IA. Anteriormente, solo los usuarios de Android podían compartir su pantalla o vista de cámara y hacer preguntas de Gemini al respecto. Ahora, Google está expandiendo esta función para que los usuarios de Android e iOS puedan usar la cámara y el intercambio de pantalla.
También: el intercambio de pantalla en vivo de Gemini y la cámara ahora están disponibles para todos, gratis
Para probar esto, abra la aplicación Gemini en su dispositivo iPhone o Android y toque el icono de Gemini Live a la derecha de la solicitud. El icono de la cámara en la parte inferior le permite apuntar su teléfono en cualquier objeto o escena y pedirle a Gemini que lo describiera o responda preguntas al respecto. El segundo icono le permite compartir cualquier pantalla en su dispositivo para que Gemini analice.
Hay más: en las próximas semanas, Gemini Live funcionará con otras aplicaciones y servicios de Google, incluidos los mapas de Google, el calendario, las tareas y el mantenimiento. Esto significa que podrá pedirle a Gemini Live que realice tareas tales como crear una cita de calendario o proporcionar instrucciones a su próximo destino.
3. Imagen 4 Generación de imágenes
Anteriormente, Google usó su modelo Imagen 3 para generar imágenes basadas en sus descripciones. Ahora, la compañía se ha actualizado a Imagen 4, que según él ofrecerá un rendimiento más rápido, más detalles realistas y una mejor producción de texto. Cualquiera ahora podrá probar Imagen 4 a través de la aplicación móvil Gemini.
4. Veo 3 Generación de videos
También recibe una actualización es el generador de video VEO de Gemini. Avanzando de VEO versión 2, VEO 3 ofrece una generación de audio nativa con soporte para el diálogo entre personajes, ruidos de fondo y efectos de sonido. Como Google lo describe, ahora puede agregar cualquier cosa, desde los sonidos de la ciudad bulliciosos hasta el susurro de las hojas hasta el diálogo del personaje solo desde sus descripciones de texto. La barrera principal aquí es que VEO 3 estará disponible solo para Google AI Ultra suscriptores en los EE. UU.
5. Mejoras de lienzo
La herramienta Canvas de Google le ofrece un espacio de trabajo interactivo y colaborativo en el que puede crear código, diseñar páginas web e idear otro contenido visual, con los resultados que aparecen de lado a lado en tiempo real. Utilizando el último modelo Gemini 2.5, Canvas promete ser más intuitivo y poderoso, según Google.
También: Google Beam está listo para traer videoconferencia 3D convencional
Puede crear infografías interactivas, cuestionarios y descripciones de audio al estilo de podcast en cualquiera de los 45 idiomas. Con las habilidades de codificación de Gemini 2.5 Pro, Canvas ahora es más experto en convertir sus ideas en código real, lo que le ayuda a desarrollar aplicaciones completas.
6. Tamizios interactivos
¿Tratando de aprender un nuevo tema complicado? Géminis puede ayudar. Ahora puede pedirle a la IA que cree un cuestionario sobre su tema de interés. En respuesta, Gemini lo desafía con una serie de preguntas diseñadas para expandir su conocimiento. A medida que responde a cada pregunta, la IA le dirá cómo está y se concentrará en cualquier área que necesite atención especial. Esta característica ahora se está implementando en todos los usuarios de Gemini en los dispositivos de escritorio y móviles.
7. Géminis en Chrome
Hasta el miércoles, Gemini comenzará a aparecer en Chrome en el escritorio tanto en Windows como en MacOS. Aquí, podrá pedirle a Gemini que analice o responda preguntas sobre su página web actual. En el futuro, la IA también funcionará a través de múltiples pestañas e incluso lanzará diferentes sitios web para usted.
También: Conoce a Gemini-in Chrome, tu nuevo asistente de navegación de IA, aquí es quién lo usa
Suena útil, pero el acceso será limitado. Gemini-in Chrome estará disponible solo para los suscriptores de Google Al Pro y Google Al Ultra en los EE. UU. Que usan el inglés como idioma en el navegador.
8. Investigación profunda
Finalmente, el modo de investigación profunda de Gemini es una herramienta de agente que puede realizar una investigación en línea para usted y presentar los resultados en un informe detallado, por sí solo. Anteriormente, Deep Research solo pudo consultar a los sitios web para obtener la información que necesitaba. Ahora, también puede ver sus propios PDF e imágenes. Esto significa que podría decirle a Gemini que incluya tendencias y temas que ya han sido capturados en sus propios archivos personales o de trabajo.
En un ejemplo citado por Google, un investigador de mercado podría cargar cifras de ventas internas almacenadas en un PDF para referencias cruzadas con las tendencias del mercado público. En otro ejemplo, un investigador académico podría decirle a Gemini que consulte a los artículos de revistas descargados para agregar a una revisión de la literatura en línea. Como un elemento más, Google dijo que planea integrar una investigación profunda con Google Drive y Gmail para expandir el número de fuentes disponibles.
También: Google le da al video generado por IA una voz con VEO 3 – Cómo probarlo
Vaya, eso es mucho para desempacar. Pero con AI impactando cada vez más tanto individuos como organizaciones, Google está demostrando que está tratando de mantenerse competitivo. E incluso con la nueva y costosa suscripción Ultra, hay suficiente aquí para los usuarios gratuitos de Gemini y los suscriptores de AI Pro para tratar de ver si pueden aprovechar los últimos desarrollos y cómo y cómo.
¿Quieres más historias sobre AI? Regístrese para la innovaciónnuestro boletín semanal.
Noticias
Operai gana la demanda por difamación presentada por el activista de los derechos de las armas sobre reclamos de malversación de fondos alucinados

En la decisión de ayer por el juez Tracie Cason (Georgia Super. Ct. Gwinnett County) en Walters v. Openai, LLCel activista de los derechos de armas Mark Walters demandó a OpenAi después de que el periodista Frederick Riehl (“editor de Ammoland.com, un sitio de noticias y defensa relacionada con los derechos de la Segunda Enmienda”) recibió una alucinación generada por IA de Chatgpt que alegaba que Walters estaba siendo demandado por presunta presunta sobresslemento. El tribunal otorgó un juicio sumario de OpenAI, concluyendo que OpenAi debe prevalecer “por tres razones independientes”:
[1.] En Contexto, un lector razonable no habría entendido las acusaciones “podrían ser” razonablemente entendidas que describen hechos reales “,”, “,” que es un elemento clave de un reclamo de difamación. El Tribunal no concluyó que OpenAi y otras compañías similares son categóricamente inmunes cada vez que incluyen un descargo de responsabilidad, sino que declaró que “el descargo de responsabilidad o el lenguaje de advertencia pesan en la determinación de si este objetivo objetivo, el estándar de ‘lector razonable’ se cumple”, y que “en las circunstancias presentes aquí, un lector razonable en la posición de Riehl no podría haber concluido que el chatgptutputppppput en la comunicación ” en realidad ‘: las hechos reales’ en realidad ” en realidad ”.
{Riehl pegó secciones del Fergusón queja [a Complaint in a civil case that Riehl was researching] en Chatgpt y le pidió que resumiera esas secciones, que hizo con precisión. Riehl luego proporcionó un enlace de Internet, o URL, a la queja a ChatGPT y le pidió que resumiera la información disponible en el enlace. ChatGPT respondió que “no tenía acceso a Internet y no puede leer ni recuperar ningún documento”. Riehl proporcionó la misma URL nuevamente. Esta vez, Chatgpt proporcionó un resumen diferente e inexacto del Fergusón Queja, diciendo que implicaba acusaciones de malversación de malversación por parte de un tesorero y director financiero no identificado de SAF. Riehl nuevamente proporcionó la URL y le preguntó a ChatGPT si podía leerla. Chatgpt respondió “sí” y nuevamente dijo que la queja involucraba acusaciones de malversación de fondos; esta vez, dijo que el malversador acusado era un individuo llamado Mark Walters, quien Chatgpt dijo que era el tesorero y director financiero de la SAF.}
En esta interacción específica, ChatGPT advirtió a Riehl que no podía acceder a Internet o acceder al enlace al Fergusón Queja que Riehl le proporcionó y que no tenía información sobre el período de tiempo en el que se presentó la queja, que fue después de su “fecha de corte de conocimiento”. Antes de que Riehl proporcionara el enlace a la queja, ChatGPT resumió con precisión el Fergusón Queja basada en el texto riehl ingresada. Después de que Riehl proporcionó el enlace, y después de ChatGPT inicialmente advirtió que no podía acceder al enlace, ChatGPT proporcionó un resumen completamente diferente e inexacto.
Además, los usuarios de ChatGPT, incluido Riehl, fueron advertidos repetidamente, incluso en los términos de uso que gobiernan las interacciones con ChatGPT, que ChatGPT puede y a veces proporciona información fácticamente inexacta. Un usuario razonable como Riehl, que era consciente de la experiencia pasada que ChatGPT puede y sí proporciona “respuestas ficticias planas”, y quién había recibido las repetidas renuncias que advierte que la producción equivocada era una posibilidad real, no habría creído que el resultado estaba diciendo “hechos reales” sobre Walters sin intentar verificarlo …
Eso es especialmente cierto aquí, donde Riehl ya había recibido un comunicado de prensa sobre el Fergusón Queja y tuvo acceso a una copia de la queja que le permitió verificar de inmediato que la salida no fuera verdadera. Riehl admitió que “en aproximadamente una hora y media” había establecido que “lo que sea [Riehl] estaba viendo “en la producción de Chatgpt” no era cierto “. Como Riehl testificó, él ” entendió que la máquina fantaseaba por completo. …
Por separado, es indiscutible que Riehl en realidad no creyera que el Fergusón La queja acusó a Walters de malversación de la SAF. Si el individuo que lee una declaración desafiada no cree subjetivamente que sea real, entonces la declaración no es difamatoria como una cuestión de derecho.… [Riehl] Sabía que Walters no era, y nunca había sido, el tesorero o director financiero de la SAF, una organización para la cual Riehl sirvió en la junta directiva …
[2.a.] El tribunal también concluyó que Walters no podía mostrar ni siquiera negligencia Por parte de Operai, que se requiere para todas las reclamaciones de difamación sobre asuntos de preocupación pública:
El Tribunal de Apelaciones ha sostenido que, en un caso de difamación “,[t]El estándar de conducta requerido de un editor … se definirá por referencia a los procedimientos de un editor razonable en [its] El puesto habría empleado antes de publicar [an item] como [the] uno [at issue. A publisher] será mantenido a la habilidad y experiencia normalmente ejercida por miembros de [its] profesión. La costumbre en el comercio es relevante pero no controladora “. Walters no ha identificado evidencia de qué procedimientos un editor razonable en la posición de Openal habría empleado en función de la habilidad y la experiencia que normalmente ejercen los miembros de su profesión. Tampoco Walters ha identificado ninguna evidencia que OpenAI no cumpliera con este estándar.
Y Openai ha ofrecido evidencia de su experto, el Dr. White, que Walters no refutó ni se abordó, lo que demuestra que Operai lidera a la industria de la Liga Americana al intentar reducir y evitar la producción equivocada como la producción desafiada aquí. Específicamente, “Openai ejerció un cuidado razonable en el diseño y la liberación de Chatgpt basado en ambos (1) los esfuerzos líderes en la industria OpenAi emprendió para maximizar la alineación de la producción de ChatGPT a la intención del usuario y, por lo tanto, reducen la probabilidad de alucinamiento; y (2), proporcionando a las advertencias recurrentes a los usuarios sobre la posibilidad de alucinaciones en la producción de Chatgpt. ChatGPT y los diversos LLM que OpenAI ha puesto a disposición de los usuarios a través de ChatGPT. Operai también ha tomado medidas extensas para advertir a los usuarios que ChatGPT puede generar resultados inexactos a veces, lo que niega aún más cualquier posibilidad de que Walters pueda mostrar OpenAi fue negligente …
Ante esta evidencia indiscutible, el abogado de Walters afirmó el argumento oral de que OpenAi era negligente porque “un hombre prudente se encargaría de no desatar un sistema en el público que forme declaraciones falsas aleatorias sobre los demás … En otras palabras, el abogado de Walters argumentó que debido a que ChatGPT es capaz de producir una producción errónea, OpenAi tuvo la culpa simplemente al operar ChatGpt en absoluto, sin tener en cuenta los procedimientos de un editor razonable en [OpenAl’s] el puesto habría empleado “o a la” habilidad y experiencia normalmente ejercida por miembros de [its] profesión. “El tribunal no es persuadido por el argumento del demandante.
Walters no ha identificado ningún caso que tenga en cuenta que un editor es negligente como una cuestión de ley de difamación simplemente porque sabe que puede cometer un error y por una buena razón. Tal regla impondría un estándar de responsabilidad estricta, no negligencia, porque sería responsable de OpenAi por lesiones sin ninguna “referencia a” un grado razonable de habilidad y cuidado “medido contra una determinada comunidad”. La Corte Suprema de los Estados Unidos y la Corte Suprema de Georgia han sostenido claramente que un demandante de difamación debe demostrar que el acusado actuó con “al menos negligencia ordinaria” y puede no responsabilizar a un acusado “sin culpa”. …
[2.b.] El tribunal también concluyó que Walters era una figura pública y, por lo tanto, tuvo que mostrar no solo negligencia, sino también Falsidad Conocer o imprudente por parte de OpenAi (llamada “malicia real”):
Walters califica como una figura pública dada su prominencia como presentador de radio y comentarista sobre los derechos constitucionales, y la gran audiencia que ha construido para su programa de radio. Admite que su programa de radio atrae a 1,2 millones de usuarios por cada segmento de 15 minutos y se llama a sí mismo ” la voz más fuerte en Estados Unidos que lucha por los derechos de las armas “. Como el demandante en Williams v. Trust Company of Georgia (Ga. App.), Walters es una figura pública porque ha “recibido publicidad generalizada por sus derechos civiles … actividades”, tiene “su propio programa de radio”, ” llevó su causa a la gente a pedir el apoyo del público “, y es” franco sobre asignaturas de interés público “. Además, Walters califica como una figura pública porque tiene” una oportunidad más real para contrarrestar falsas declaraciones falsas que las personas privadas que normalmente disfrutan de las personas que normalmente se disfrutan de la radio de radio con una gran audiencia con una gran audiencia de radio con una gran audiencia con un audiencia de radio. Las declaraciones de chatgpt falsas en cuestión aquí … [And] Como mínimo, Walters califica como una figura pública de propósito limitado aquí porque estas declaraciones son claramente “pertinentes” a la “participación” admitida de Walters en los “controversos públicos[ies]”que están relacionados con la salida de chatgpt en cuestión aquí …
Los dos argumentos de Walters de que ha demostrado malicia real. Primero, argumenta que Operai actuó con “malicia real” porque OpenAi dijo a los usuarios que ChatGPT es una “herramienta de investigación”. Pero esta afirmación no se relaciona de ninguna manera con si OpenAi sabía subjetivamente que la producción de ChatGPT desafiada era falsa en el momento en que se publicó, o ignoraba imprudentemente la posibilidad de que pudiera ser falso y lo publicara de todos modos, que es lo que requiere el estándar de “malicia real”. Walters no presenta evidencia de que alguien en OpenAi tuviera forma de saber que la producción que recibió probablemente sería falsa … [The] El estándar de “malicia real” requiere prueba de la “conciencia subjetiva del acusado de la falsedad probable” …
En segundo lugar, Walters parece argumentar que Operai actuó con “malicia real” porque es indiscutible que OpenAi era consciente de que ChatGPT podría cometer errores al proporcionar salida a los usuarios. El mero conocimiento de que un error fue posible Se encuentra muy por debajo de la “evidencia clara y convincente” requerida de que OpenAi en realidad “tenía una conciencia subjetiva de la falsedad probable” cuando ChatGPT publicó la producción cuidada específica en sí …
[3.] Y el tribunal concluyó que en cualquier caso Walters tuvo que perder porque (a) no podía mostrar daños reales, (b) No pudo recuperar presuntos daños, porque aquí la evidencia refuta cualquier presunción de daño, dado que Riehl era la única persona que vio la declaración y no lo creyó, y (c) bajo la ley de Georgia “,”.[A]LL Libel Demandantes que tienen la intención de buscar daños punitivos [must] Solicite una corrección o retracción antes de presentar su acción civil contra cualquier persona para publicar una declaración falsa y difamatoria “, y no se hizo dicha solicitud aquí.
Una decisión interesante, y bien podría ser correcta (ver mi Modelos de difamación grandes Artículo para la imagen legal más grande), pero está vinculado estrechamente a sus hechos: en otro caso, donde el usuario no tenía tantas señales de que la afirmación sea falsa, o cuando el usuario distribuyó más ampliamente el mensaje (que puede haber producido más daños), o cuando el demandante no fue una cifra pública, o cuando el demandante había alertado al demandante del demandante y aún no lo hizo a la demandante que no lo hizo, el resultado, el resultado. Para comparar, consulte el Starbuck v. Meta Platforms, Inc. Caso discutido en esta publicación de hace tres semanas.
Tenga en cuenta que, como es común en los tribunales de algunos estados, la decisión adopta en gran medida una orden propuesta presentada por la parte que prevaleció sobre la moción de juicio sumario. Por supuesto, el juez ha aprobado la orden y está de acuerdo con lo que dice (ya que podría haber editado fácilmente partes con las que no estaba de acuerdo); Pero el encuadre retórico en tales casos a menudo es más el de la parte prevaleciente que la del juez.
Operai está representado por Stephen T. Labriola y Ethan M. Knott (Fellows Labriola LLP); Ted Botrous, Orin Snyder y Connor S. Sullivan (Gibson, Dunn & Crutcher LLP); y Matthew MacDonald (Wilson Sonsini Goodrich y Rosati, PC).
Noticias
New Android 16, Gemini AI y todo lo demás que esperar en la nota clave del martes
Google I/O, la conferencia anual de desarrolladores del gigante de la búsqueda, comienza el martes 20 de mayo. El evento es posiblemente el más importante en el calendario anual de la compañía, ofreciendo la oportunidad para que la compañía comparta un vistazo a todo lo que ha estado trabajando durante el año pasado, y contextualiza sus mayores prioridades durante los próximos doce meses.
Aparentemente, la tarjeta de baile para Google estaba tan llena que la compañía salió de un escaparate de Android dedicado una semana antes. (Vea todo lo que se anunció en el Show de Android o vaya a nuestro Blog LiveBlog para tener una idea de cómo se desarrollaron las cosas). Con ese evento ahora detrás de nosotros, Google puede mantenerse enfocado en su competencia central más importante: la IA.
La presentación de Google vendrá inmediatamente después de los anuncios de tres grandes rivales en los últimos días. Además de la costa del Pacífico, Microsoft está organizando su Conferencia de Desarrollador Build, donde ya ha presentado una aplicación de AI de copilotas actualizada. Mientras tanto, en el Show de Computex en Taiwán, el CEO de NVIDIA, Jensen Huang, destacó una asociación con Foxconn para desarrollar una “supercomputadora de fábrica de IA” impulsada por 10,000 chips de IA Blackwell. Y Meta celebró su conferencia debut Llamacon AI el mes pasado, pero los planes del CEO Mark Zuckerberg para el dominio de la inteligencia artificial han llegado a algunos enganches. (Apple compartirá su hoja de ruta AI actualizada el 9 de junio cuando comience su conferencia de desarrolladores de WWDC).
Si desea sintonizar desde casa y seguir mientras Google hace sus anuncios, consulte nuestro artículo sobre cómo ver la nota clave de Google I/O 2025. También estaremos en Live Blogging el evento, por lo que puede venir a Engadget para las últimas noticias.
Android 16
La presentación presentó al presidente del ecosistema de Android, Sameer Samat, quien se hizo cargo de Burke en 2024. Vimos a Samat y a sus colegas mostrar años, Android no ha tenido mucha atención en la conferencia anual de desarrolladores de Google. Afortunadamente, el show de Android de la semana pasada, el sistema operativo móvil de Google permitió que el centro de atención tome el centro de atención durante al menos un día.
La presentación presentó al presidente del ecosistema de Android, Sameer Samat, quien se hizo cargo de Burke en 2024. Vimos a Samat y sus colegas mostrar el nuevo diseño expresivo del nuevo material 3, y lo que aprendimos confirmó algunas de las características que se filtraron anteriormente, como la barra de “notificaciones continuas”. Material 3 Expressive también está llegando a Wear OS 6, y la compañía está ampliando el alcance de Gemini al llevarlo a su plataforma Smartwatch, Android Auto y Google TV. Android también está ampliando sus características de detección de estafas y un centro de búsqueda refinado que verá soporte para la conectividad satelital más adelante en el año.
Hablando de tiempo, Google ya ha confirmado que el nuevo sistema operativo llegará en algún momento antes de la segunda mitad del año. Aunque hoy no lanzó una construcción estable de Android 16, Samat compartió durante el programa que Android 16 (o al menos parte) llegará el próximo mes a los dispositivos de píxeles. Y aunque la compañía cubrió algunas características nuevas que llegaron a Android XR, el director senior de Android Product y UX Guemmy Kim dijo durante la presentación que “compartiremos más en Android XR en E/S la próxima semana”.
Claramente parece que aún está por venir, y no solo para Android XR. No obtuvimos confirmación en el Autoridad de Android Informe que Google podría agregar un selector de fotos más robusto, con soporte para soluciones de almacenamiento en la nube. Eso no significa que no estará en Android 16, podría ser algo que la compañía no pudiera mencionar en su escaparate de 30 minutos. Además, Google ha estado lanzando nuevas funciones de Android en una cadencia trimestral últimamente, en lugar de esperar hasta una ventana de actualización anual para poner a disposición actualizaciones. Es posible que veamos más a Android 16 a medida que avanza el año.
Uno de los mejores lugares para tener una idea de lo que vendrá en Android 16 está en su versión beta, que ya ha estado disponible para los desarrolladores y actualmente está en su cuarta iteración. Por ejemplo, aprendimos en marzo que Android 16 traerá el soporte de Auracast, lo que podría facilitar la escucha y cambiar entre múltiples dispositivos Bluetooth. Esto también podría permitir a las personas recibir audio Bluetooth en audífonos que han emparejado con sus teléfonos o tabletas.
Android XR
¿Recuerdas Google Glass? ¿No? ¿Qué tal Daydream? ¿Quizás cartón? Después de enviar (al menos) tres proyectos XR al cementerio, pensaría que incluso Google diría que lo suficiente es suficiente. En cambio, la compañía se está preparando para lanzar Android XR después de una vista previa de la plataforma a fines del año pasado. Esta vez, la compañía dice que el poder de sus modelos Gemini AI hará que las cosas sean diferentes. Sabemos que Google está trabajando con Samsung en un proyecto con nombre en código auricular Moohan. El otoño pasado, Samsung insinuó que el dispositivo podría llegar en algún momento de este año.
Ya sea que Google y Samsung Demo Project Moohan en E/S, imagino que el gigante de la búsqueda tendrá más que decir sobre Android XR y los socios del ecosistema que ha trabajado para llevar a su lado para la iniciativa. Esto está en línea con lo que Kim dijo sobre más sobre Android XR que se comparte en E/S.
Ai, ai y más ai
Si Google sintió la necesidad de dividir a Android en su propio escaparate, es probable que obtengamos más anuncios relacionados con la IA en E/S que nunca. La compañía no ha proporcionado muchas sugerencias sobre lo que podemos esperar en ese frente, pero si tuviera que adivinar, es probable que las características como las descripciones de IA y el modo AI obtengan actualizaciones sustantivas. Sospecho que Google también tendrá algo que decir sobre Project Mariner, el agente de vigilancia web que se demostró en la E/S 2024. De cualquier manera, Google es una compañía de IA ahora, y cada E/S en el futuro lo reflejará.
Proyecto Astra
Hablando de la IA, Project Astra fue una de las demostraciones más impresionantes que Google mostró en I/O 2024. La tecnología aprovechó al máximo las últimas capacidades multimodales de los modelos Gemini de Google para ofrecer algo que no habíamos visto antes de la compañía. Es un asistente de voz con características avanzadas de reconocimiento de imágenes que le permite conversar sobre las cosas que ve. Google visualiza el proyecto Astra algún día proporciona un asistente artificial verdaderamente útil.
Sin embargo, después de ver una demostración en persona de Astra, el equipo de Engadget sintió que la tecnología necesitaba mucho más trabajo. Dado el proyecto Splash que Astra realizó el año pasado, hay una buena posibilidad de que pudiéramos obtener una actualización sobre él en I/O 2025.
Un competidor de Pinterest
Según un informe de La informaciónGoogle podría estar planeando presentar su propia versión de Pinterest en E/S. Esa caracterización es cortesía deLa información, Pero según las características descritas en el artículo, los miembros del equipo de Engadget lo encontraron más que recuerdan a Cosmos. Cosmos es una versión reducida de Pinterest, que permite que las personas guarden y seleccionen todo lo que vean en Internet. También le permite compartir sus páginas guardadas con otros.
Según los informes, la versión de Google mostrará los resultados de la imagen basados en sus consultas, y puede guardar las imágenes en diferentes carpetas en función de sus propias preferencias. Entonces, digamos que estás organizando un lookbook basado en Jennie de Blackpink. Puede buscar sus atuendos y guardar sus favoritos en una carpeta que puede titular “Lewks”, tal vez.
No está claro si esto está simplemente incorporado en la búsqueda o existe como un producto independiente, y tendremos que esperar hasta que E/S para ver si el informe era preciso y cómo es realmente la característica.
Usa el sistema operativo
El año pasado, Wear OS no recibió una mención durante la principal nota principal de la compañía, pero Google realizó una vista previa de Wear OS 5 durante las sesiones de desarrolladores que siguieron. La compañía solo comenzó a implementar Wear OS 5.1 a Pixel Devices en marzo. Este año, ya hemos aprendido en el Show de Android que Wear OS 6 se acerca, con el material 3 expresivo en el adorno de su interfaz. ¿Aprenderemos más en I/O? No está claro, pero no sería un shock si eso fuera todo el tiempo de tiempo de aire que OS obtiene este año.
Cuaderno
Google ha saltado el arma y ya lanzó una aplicación independiente Notebooklm antes de E/S. La aplicación de toma de notas de aprendizaje automático, disponible en los navegadores de escritorio desde 2023, puede resumir documentos e incluso sintetizar resúmenes de podcast de estilo NPR completo para arrancar.
Todo lo demás
Google tiene un historial terrible cuando se trata de prevenir fugas dentro de sus rangos internos, por lo que la probabilidad de que la compañía pueda sorprendernos es baja. Aún así, Google podría anunciar algo que no esperamos. Como siempre, su mejor opción es visitar Engadget el 20 y 21 de mayo. Tendremos lo último de Google, junto con nuestro LiveBlog and Analysis.
Actualización, 5 de mayo 2025, 7:08 PM ET: Esta historia se ha actualizado para incluir detalles en una publicación de blog filtrada que discute “Material 3 Expresivo”.
Actualización, 6 de mayo 2025, 5:29 PM ET: Esta historia se ha actualizado para incluir detalles sobre Android 16 Beta, así como el soporte de Auracast.
Actualización, 8 de mayo 2025, 3:20 pm ET: Esta historia se ha actualizado para incluir detalles sobre cómo ver el programa de Android y la nota clave de E/S de Google, así como ajustar la introducción para la frescura.
Actualización, 13 de mayo de 2025, 3:22 PM ET: Esta historia se ha actualizado para incluir todos los anuncios del programa de Android y un nuevo informe de La información Acerca de una posible función de búsqueda de imágenes que debutan en E/S. La introducción también fue editada para reflejar con precisión lo que ha sucedido desde la última vez que se actualizó este artículo.
Actualización, 14 de mayo de 2025, 4:32 PM ET: Esta historia se ha actualizado para incluir detalles sobre otros eventos que ocurren al mismo tiempo que la E/S de Google, incluidas Microsoft Build 2025 y ComputeX 2025.
Actualización, 19 de mayo de 2025, 5:13 PM ET: Las noticias de IA competidores actualizadas de Microsoft, Meta y Nvidia, y los rumores e informes finales contextualizados antes de la E/S.
Si compra algo a través de un enlace en este artículo, podemos ganar comisión.
-
Startups12 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales1 año ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Startups10 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Recursos1 año ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups1 año ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos12 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Recursos1 año ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Noticias10 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo