Noticias
Is it worth the hype?

On Monday, December 9, 2024, OpenAI officially launched Sora, its AI-powered video generator, for ChatGPT Pro and Plus subscribers.
I’ll be honest: I’ve always been skeptical of AI video generators. They make bold promises of stunning visuals, effortless editing, and limitless creativity, but more often than not, they fall short. Either the videos look robotic, the transitions are clunky, or the output feels…well, AI-generated.
So when OpenAI dropped Sora, their highly anticipated AI video tool, I had to see for myself — although it has taken nearly three months for me to do this. Could it truly turn simple text prompts into seamless, high-quality videos? Or was this just another case of overhyped AI?
I spent hours testing Sora, pushing it to its limits with different prompts, analyzing the video quality, and comparing it to existing AI video tools. If you’re wondering if Sora is the real deal or just another AI experiment, you’re in the right place.
Here’s my honest review.
TL;DR: Key takeaways from this review
- OpenAI’s Sora Video Generator offers AI-powered video creation with unique tools like Remix, Re-cut, and Storyboard.
- The interface is intuitive, making it accessible for both beginners and professionals.
- Video output quality is high, but customization options have some limitations.
- Pricing is competitive, especially with ChatGPT Plus and Pro plans.
- It’s a strong tool for quick video generation but may not replace professional-grade editing software yet.
What is Sora?
Platform | Sora |
Developer | OpenAI |
Year established | December 2024 |
Best for | AI-powered video creation, quick content generation, and creative storytelling |
Key features | Text-to-video generation, Remix, Re-cut, Storyboard tools, high-quality visuals |
Customization options | Limited but improving; offers scene adjustments and minor edits |
Output quality | High-resolution, realistic videos with smooth transitions |
Pricing | Available with ChatGPT Plus ($20) & Pro ($200) plans |
Mobile App | Not available yet |
Sora is OpenAI’s cutting-edge AI-powered text-to-video generator designed to create high-quality, photorealistic videos from simple text prompts. Unlike earlier AI video tools that struggled with realism and fluidity, Sora aims to revolutionize the space by generating smooth, lifelike animations with complex backgrounds, multiple characters, and natural movements—all within a single video.
At its core, Sora takes text input and transforms it into dynamic video content using deep learning models trained on vast amounts of visual and motion data. The tool can generate videos up to 20 seconds long, ensuring consistency in characters, environments, and even lighting across different scenes.
While Sora is still not widely available to the public (unavailable in the UK and Europe), the AI-powered video generator has impressed industry experts with the ability to produce high-quality, cinematic videos, setting a new benchmark in AI-powered video generation.
How does Sora work?
Sora operates using a combination of deep learning, computer vision, and natural language processing (NLP) to convert text prompts into fully animated video sequences.
The process can be broken down into several key steps:
1. Understanding the prompt
When you input a text description (e.g., “A futuristic city at sunset with flying cars and neon signs”), Sora’s AI model first breaks it down into key components:
- Objects and characters: Identifying subjects, such as people, animals, or objects.
- Scenes and backgrounds: Recognizing the environment (urban, natural, fantasy, etc.).
- Movements and interactions: Defining how elements should behave in motion.
2. Generating visual and motion data
Unlike traditional video editing, where footage is pieced together from existing clips, Sora creates video content from scratch using its deep learning models. These models have been trained on massive datasets of videos and animations to learn realistic motion patterns and visual aesthetics.
3. Rendering the video
Sora applies its advanced diffusion models to transform raw AI-generated visuals into a polished, high-quality video. This includes:
- Generating frame-by-frame continuity to ensure smooth transitions.
- Adding realistic lighting, shadows, and textures for photorealism.
- Ensuring character consistency so that faces, clothing, and objects remain the same across different frames.
4. Editing and enhancing
Once the initial video is created, Sora allows users to refine it using tools like:
- Remix: Tweaks specific parts of the video while keeping the core structure intact.
- Re-cut: Adjusts pacing and transitions for a smoother flow.
- Storyboard: Helps structure longer narratives by generating multiple shots in sequence.
Why I tested OpenAI’s Sora
The hype surrounding OpenAI’s Sora was impossible to ignore. AI-driven video generation has been evolving rapidly, and with each new tool comes the promise of effortless, high-quality content creation. But does Sora live up to the buzz, or is it just another AI experiment that looks great in demos but falls short in real-world applications?
I wanted to find out for myself.
What was my goal?
I wasn’t just here for a quick test; I wanted to push Sora to its limits and see if it could truly revolutionize video creation for content creators, marketers, and video professionals. My focus was on three key areas:
- Ease of use: Can anyone, regardless of skill level, create impressive videos with minimal effort?
- Features and capabilities: Does Sora offer enough creative control and flexibility for professionals?
- Real-world application: Is this just a fun AI experiment, or can businesses and creators genuinely rely on it for content production?
With these questions in mind, I dove into Sora, experimenting with different prompts, testing its storytelling abilities, and analyzing the final output.
Here’s what I discovered.
My first impressions: What makes Sora special?
Sora isn’t the first AI-powered video generator to be invented. Heavyweights like Runway Gen-3 and Kling have already set high standards, proving that AI-generated videos can be more than just stitched-together animations. But OpenAI’s approach with Sora isn’t about reinventing the wheel, it’s about refining it.
Instead of throwing another complex tool into the mix, OpenAI seems to have studied what works (and what doesn’t) in AI video generation. The result? A more intuitive, user-friendly experience is housed at sora.com.
For someone like me, who’s spent years wrestling with traditional video editing software, Sora was a breath of fresh air. No need to navigate endless menus or tweak a hundred settings just to get a simple video. Sora does the heavy lifting for you, making high-quality AI video generation accessible to both beginners and professionals alike.
Getting started: Onboarding and user experience.
Jumping into a new AI tool can sometimes feel daunting, but Sora’s onboarding process is refreshingly simple. From signing up to generating your first video, the entire experience is designed to be seamless, even if you’ve never used an AI video generator before.
Sign-up process and initial setup
Registering for Sora is straightforward. If you’re already a ChatGPT Plus or Pro subscriber, you automatically get access to Sora—no extra fees, no separate sign-ups. For new users, the process involves:
- Logging into your OpenAI account (or creating one if you don’t have it).
- Subscribing to ChatGPT Plus or Pro if you haven’t already.
- Navigating to Sora.com and launching the tool directly.
The entire setup takes just a few minutes. There’s no complicated installation or software download, everything runs in the cloud.
How easy is it to use Sora?
Once you’re inside, getting started is as simple as typing a text prompt. Here’s a breakdown of how to use it:
- Enter a prompt. Describe the video you want (e.g., “A futuristic African city skyline at sunset, with flying cars zooming by”).
- Choose video length. Sora can generate clips up to 20 seconds long.
- Select style preferences. Options like cinematic, animation, or realistic can help fine-tune the aesthetic.
- Generate. Hit the create button and watch Sora bring your vision to life in seconds.
- Edit and refine: Use tools like Remix, Re-cut, and Storyboard (more details on these later in this review) to tweak your video further.
Unlike traditional video editing, you don’t need prior experience or have to adjust lighting, frame rates, or manual transitions.
User interface: Intuitive or overwhelming?
Sora’s UI is refreshingly simple. It’s designed to eliminate friction, allowing users to focus on creativity rather than complexity.
- Clean layout. The dashboard is minimalist and well-organized, making it easy to navigate.
- Preset options. Ready-to-use templates help beginners get started quickly.
- Drag-and-drop editing. You can make adjustments without needing professional editing skills.
For beginners, it’s easy to dive in without feeling lost. For professionals, Sora’s advanced tools provide enough flexibility to refine and customize videos.
Features of Sora video generator
Sora is packed with powerful tools designed to streamline video creation, enhance storytelling, and maximize creative control.
Here’s what makes Sora stand out:
1. Remix – Modify without starting over
Tired of regenerating an entire video just to tweak one detail?
Remix lets you replace, remove, or reimagine specific elements without having to start from scratch. Whether it’s swapping a character’s outfit, adjusting a background element, or refining details, Remix gives you precise control over edits.
2. Re-cut – Seamless scene adjustments
Editing AI-generated videos can be tricky, but Re-cut makes it easy to isolate and extend keyframes for a smoother flow. If a scene feels too abrupt or needs an extra second of motion, Re-cut helps you fine-tune transitions without distorting the original video.
3. Storyboard — A built-in video sequencer
Think of Storyboard as a simplified version of Adobe Premiere Pro but without the steep learning curve.
It lets users:
- Arrange clips in a timeline interface.
- Specify inputs for each frame.
- Create cohesive narratives within the app.
This feature is especially useful for marketers, educators, and storytellers who want to structure their videos without using external editing software.
4. Loop – Generate seamless repeating clips
Need a smooth, endless animation?
Loop automatically trims and adjusts videos to create seamless repeating sequences, perfect for GIFs, animated backgrounds, and social media posts.
5. Blend – Merge two videos
Blend takes AI video generation a step further by seamlessly merging two clips into a single, cohesive video. If you’re looking to transition between scenes or combine different AI-generated elements, this tool ensures the visuals flow naturally.
6. Style Presets – Instantly apply aesthetic filters
Sora makes stylizing videos effortless with built-in presets that add a unique artistic touch:
- Film Noir – For a dramatic, cinematic look.
- Papercraft – Stop-motion-style animation.
- Abstract Visuals – Great for experimental, artsy content.
These presets make it easier to maintain a consistent theme across multiple videos.
7. Community feeds – Get inspired and share ideas
Sora integrates a social element through its Featured and Recent Feeds, where users can:
- Browse AI-generated videos for inspiration.
- View the exact prompts used to create each clip.
- Remix and modify community-shared content
This makes learning and experimenting with AI video generation more accessible, as users can build on existing ideas instead of starting from scratch.
Sora pricing
Sora is bundled with ChatGPT subscriptions:
Plans | Monthly cost | Video generations | Resolution | Duration | Watermark |
ChatGPT Plus | $20 | Up to 50 | Up to 720p | 5 sec | Yes |
ChatGPT Pro | $200 | Up to 500 | Up to 1080p | 20 sec | No |
Note: No additional cost if you’re a ChatGPT Plus/Pro user.
My hands-on testing experience
I tested Sora for creating a promotional video, a short social media clip, and a tutorial.
Here’s what I liked and didn’t like:
What I liked about Sora
1. High-quality video output
Sora produces stunning, photorealistic videos that capture natural motion, lighting, and scene composition. Unlike many AI generators that struggle with consistency, Sora maintains visual coherence most of the time.
2. Intuitive controls for beginners and professionals
Sora is designed to be accessible for first-time users while still offering enough depth for experienced creators. The drag-and-drop interface, clear tooltips, and well-organized settings make it easy to get started without a steep learning curve.
3. Rapid prototyping
The speed of video generation, particularly at lower resolutions, makes Sora perfect for quick iterations. A 480p video takes less than 20 seconds to generate, allowing creators to experiment with different ideas, styles, and scripts rapidly before finalizing their projects.
4. Natural Language Processing capabilities
Sora understands context, sentiment, and meaning in text prompts, enabling it to create more accurate visual representations. If you describe a dynamic action scene or a serene landscape, Sora interprets the details effectively, leading to better prompt accuracy than many competitors.
5. Customization options
Sora allows users to tweak visual styles, animation effects, color schemes, and typography, ensuring that every video aligns with their unique branding or creative vision. This flexibility makes it a powerful tool for content creators and marketers alike.
6. Collaboration tools
For teams working on marketing, educational content, or creative storytelling, Sora includes real-time editing, version control, and commenting features. This streamlines workflow and ensures seamless collaboration between multiple stakeholders.
7. Accessibility and ease of use
Sora’s user-friendly interface makes video creation accessible to both professionals and casual users. By leveraging text prompts instead of complex animation controls, it removes technical barriers, making high-quality video creation more inclusive and effortless.
What I didn’t like about Sora video generator
1. Limited customization for complex edits
While Sora’s editing tools are impressive, they still lack the depth of professional video software like Premiere Pro or After Effects. Fine-tuning intricate transitions or advanced visual effects isn’t possible as of yet.
2. Watermark on videos
If you’re using the Plus plan of Sora, expect a watermark on all generated videos. Only Pro subscribers get clean, unbranded exports, which might be a dealbreaker for users who want professional-looking output without a subscription.
3. Ethical concerns
The rise of AI-generated videos raises ethical issues, including misinformation, deepfakes, and digital trust. OpenAI has implemented transparency measures like watermarks, but as the tech evolves, ethical oversight will be crucial.
4. Unrealistic physics
Sora somewhat struggles with physics consistency. Objects may move unnaturally, disappear, or fail to interact realistically. For instance, characters might hold an item in one scene, only for it to vanish in the next, breaking immersion.
5. High cost
Sora’s Pro plan costs $200 per month, which might be expensive for casual users or small businesses. Competing AI tools like Fliki or Runway offer cheaper or pay-as-you-go alternatives, making them more budget-friendly options.
6. Regional restrictions
Sora is not yet available in several major markets, including most of Europe and the UK. This limits its adoption, making it inaccessible to a significant portion of global content creators.
7. No manual motion control
While Sora excels at natural movement, there’s no direct way to animate characters with specific actions beyond what the AI interprets. This makes precision storytelling a bit tricky.
How does Sora compare to other AI video tools?
Sora stands out in the AI video space, but how does it stack up against competitors like Runway, Fliki, Pika Labs, and Synthesia?
1. Seamless OpenAI integration
Unlike other AI video tools, Sora is natively integrated into OpenAI’s ecosystem, ensuring smoother workflow for users familiar with ChatGPT and DALL·E. This makes it an attractive choice for those already using OpenAI’s products.
2. Faster video generation
Sora generates high-quality videos in seconds, outperforming most AI video tools in speed. For example, a 480p video takes under 20 seconds, whereas competitors like Runway might take several minutes to produce similar results.
3. Advanced AI scene understanding
Sora understands prompts with impressive accuracy, generating complex scenes with multiple characters, natural motion, and consistent environments. Many other AI tools struggle with object permanence and realistic movement, but Sora handles these aspects better than most.
4. Editing flexibility: Room for improvement
While Sora is great for AI-powered automation, it lacks the manual editing precision that exists in tools like Runway and Pika Labs. It’s ideal for quick prototyping but not for fine-tuned professional edits.
5. Video length: A major limitation
Compared to Runway and Fliki, which offer longer videos (up to several minutes), Sora is limited to 20 seconds per clip (The Plus plan, making it less suitable for long-form content creators.
6. Cost considerations
Sora’s Pro plan at $200 per month is significantly higher than Fliki or Pika Labs, which offer lower-cost subscriptions or pay-as-you-go models. Budget-conscious users may find better value elsewhere.
Verdict
Sora is great for AI-powered video creation, excelling in speed, AI automation, and scene comprehension. However, its editing constraints, short video length, and high price tag make it less appealing for professionals needing full-scale video production tools. If you need quick, high-quality AI videos, Sora is a top choice, but for detailed editing and longer videos, competitors like Runway or Pika Labs may be better suited.
Who should use the Sora video generator?
Sora is designed for anyone looking to create AI-generated videos quickly and efficiently. Content creator, marketer, educator, or business owner, Sora provides a fast and intuitive way to generate engaging video content.
1. Content creators
YouTubers, TikTok influencers, and social media creators can use Sora to produce visually stunning videos without expensive equipment or editing software. Its AI-powered automation allows for rapid prototyping and creative experimentation, making it ideal for short-form content.
2. Marketers
Brands and advertisers can leverage Sora to create eye-catching promotional videos, social media ads, and explainer content. The ability to generate high-quality clips in seconds makes it a great tool for A/B testing and campaign iterations.
3. Educators
Teachers and online course creators can use Sora to produce interactive and engaging video lessons. With text-to-video generation and storyboard sequencing, educators can simplify complex topics into digestible visual content.
4. Businesses
Companies can streamline video production for product demos, training materials, and corporate presentations. Sora’s AI-driven tools allow businesses to generate professional-looking videos without needing a dedicated video editing team.
Potential use cases for Sora
Sora’s AI-driven video generation opens up a variety of creative and professional applications. Here are some key areas where it shines:
1. Marketing and branding
- Generate sleek, professional-looking video ads in seconds.
- Produce branded short clips for TikTok, Instagram, and YouTube without hiring a production team.
- Showcase products with smooth transitions and AI-enhanced visuals.
2. Education and training
- Develop engaging video lessons or explainer videos for online courses.
- Animate complex concepts to improve understanding and retention.
- Create interactive training videos for employee onboarding and corporate learning.
3. Content creation
- Create shot clips for entertainment or artistic expression.
- Remix existing content to provide fresh perspectives and variations.
- Produce cinematic storytelling clips without the need for professional filming equipment.
4. Gaming and virtual worlds
- Design cinematic cutscenes for game trailers or promotional content.
- Generate concept animations for characters, environments, and storytelling elements.
- Quickly iterate game design ideas with AI-generated previews.
How to optimally prompt Sora for the best results
Crafting effective prompts is the key to unlocking Sora’s full potential. Unlike traditional video editing tools, Sora relies entirely on natural language inputs to generate visually stunning outputs.
To get the most out of this AI video generator, follow these expert-level prompting techniques:
1. Be specific and descriptive
The more detailed and vivid your prompt, the better Sora will understand and generate your video. AI models rely on clarity. So, instead of a generic request, be explicit about the scene, style, mood, and action.
Instead of just writing “A futuristic city at night,” good would be “A cyberpunk city at night, neon signs glowing, light rain falling, pedestrians in futuristic outfits walking past high-tech billboards, a robotic taxi driving down the street, cinematic and immersive lighting.”
2. Define the motion and camera style
Since Sora generates full scenes with motion, describing the camera angles and movements can greatly impact the final video. It could be as simple as adding “A sweeping aerial shot over…” to your prompt.
3. Use clear action commands
Sora can generate dynamic, multi-step actions if you specify them. Instead of just describing a setting, explain what’s happening within the scene.
For example, rather than say “A scientist working in a lab,” write “A scientist in a white lab coat mixes colorful chemicals in a glass beaker, which starts bubbling and changes color from blue to red. She smiles in excitement as a robot assistant hands her another beaker. The scene is bright and futuristic, shot in a modern laboratory.”
4. Set the lighting, atmosphere, and depth
Lighting dramatically affects how a scene feels. Whether it’s soft golden hour sunlight, neon cyberpunk glow, or moody shadows, describing lighting and depth enhances realism.
5. Avoid overloading
While detail is important, don’t overstuff your prompt with too many conflicting ideas. AI works best when it has a clear structure to follow.
6. Tweak
Don’t be afraid to tweak and refine your prompt if the output isn’t perfect. Try:
- Adjusting wording for better clarity.
- Adding more visual detail if the scene is too simple.
- Removing unnecessary elements if the video feels cluttered.
Final verdict: Is the Sora video generator worth the hype?
Sora is a groundbreaking AI video generator with immense potential, but it’s not without its limitations. It excels in speed, automation, and ease of use, making it ideal for creators who want to generate high-quality videos with minimal effort. However, compared to traditional video editing software, it still lacks advanced customization, precise frame control, and detailed post-production tools.
Sora is cool but it’s not a full replacement for professional video editing tools…yet. If OpenAI continues refining it, Sora could redefine how we create video content in the future.
I’ll rate it a 7.5/10.
FAQs for OpenAI’s Sora video generator
Is Sora free to use?
No. Sora is included in OpenAI’s ChatGPT Plus and Pro subscriptions, $20 and $200 respectively.
What types of videos can Sora generate?
Sora can create 5 – 20 seconds of promotional videos, animations, explainer videos, and more, making it useful for content creators, marketers, and educators.
Can OpenAI Sora produce video and sound at the same time?
Currently, Sora does not generate audio alongside video. Users must add voiceovers, background music, or sound effects separately in post-production.
Can you make a full-feature film using Sora?
No, Sora is not yet capable of producing full-length films. While it can generate short, high-quality clips, a complete movie requires complex storytelling, scene transitions, and extensive post-production work.
What are the main drawbacks of using Sora?
The main limitations include limited video duration (capped at 20 seconds), lack of advanced manual editing tools found in professional software, and expensive subscription costs.
Can I use Sora for professional video production?
Yes, but it depends on the project’s requirements. Sora is best suited for quick content generation, marketing materials, and prototyping, rather than fully polished cinematic productions.
Does Sora support different aspect ratios and resolutions?
Yes, but resolution and video length depend on your subscription plan. ChatGPT Pro users can generate videos up to 1080p quality.
How will OpenAI Sora change the traditional video editing workflow?
Sora streamlines video creation by eliminating the need for manual editing and complex animation work. While it won’t replace professional editors, it offers a faster, AI-driven approach to generating high-quality visuals.
Conclusion
Sora is an impressive AI-powered video generator that simplifies content creation. While it excels in speed and automation, it still has limitations in manual editing, audio integration, and video length. As OpenAI continues improving the tool, Sora has the potential to reshape the future of video production.
Disclaimer!
This publication, review, or article (“Content”) is based on our independent evaluation and is subjective, reflecting our opinions, which may differ from others’ perspectives or experiences. We do not guarantee the accuracy or completeness of the Content and disclaim responsibility for any errors or omissions it may contain.
The information provided is not investment advice and should not be treated as such, as products or services may change after publication. By engaging with our Content, you acknowledge its subjective nature and agree not to hold us liable for any losses or damages arising from your reliance on the information provided.
Always conduct your research and consult professionals where necessary.
Noticias
Operai anuló las preocupaciones de los evaluadores expertos para liberar Sycophantic GPT-4O

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información
Ha sido una semana de revés para la compañía de IA generativa número uno en términos de usuarios.
Operai, creador de ChatGPT, lanzado y luego retiró una versión actualizada del modelo de lenguaje grande (texto, imagen, audio) subyacente (LLM) que ChatGPT está conectado de forma predeterminada, GPT-4O, debido a que es demasiado sycofánico para los usuarios. La compañía reportó recientemente al menos 500 millones de usuarios semanales activos del servicio web exitoso.
Un manual rápido en la terrible, sin buena actualización Sycophantic GPT-4O
Operai comenzó a actualizar GPT-4O a un modelo más nuevo que esperaba que los usuarios fueran más recibidos por los usuarios el 24 de abril, completado la actualización del 25 de abril y, luego, cinco días después, lo volvió al 29 de abril, después de días de crecientes quejas de los usuarios en las redes sociales, principalmente en X y Reddit.
Las quejas variaron en intensidad y en detalles, pero todas generalmente se unieron en torno al hecho de que GPT-4O parecía estar respondiendo a las consultas de los usuarios con halagos excesivos, apoyo para ideas equivocadas, incorrectas y francamente dañinas, y “pesando” o elogiando al usuario a un grado excesivo cuando en realidad no se solicitó, mucho menos justificado.
En ejemplos captados y publicados por los usuarios, ChatGPT impulsado por ese modelo Sycofantántico y actualizado GPT-4O había elogiado y respaldado una idea de negocio para “mierda en un palo” literal, aplaudió el texto de muestra de un usuario de aislamiento delirante esquizofrénico, e incluso supuestamente apoyó a los planes para cometer terrorismo.
Los usuarios, incluidos los principales investigadores de IA e incluso un ex CEO interino de Openai, dijeron que les preocupaba que las animadoras descaradas de un modelo de IA por este tipo de indicaciones terribles de los usuarios fueran más que simplemente molestas o inapropiadas, que podría causar daños reales a los usuarios que creían erróneamente la IA y se sintió incorporada por su apoyo por sus peores ideas e impulsas. Se elevó al nivel de un problema de seguridad de IA.
Luego, Operai lanzó una publicación de blog que describe lo que salió mal: “Nos centramos demasiado en los comentarios a corto plazo y no explicamos completamente cómo las interacciones de los usuarios con ChatGPT evolucionan sobre el tiempo. Como resultado, GPT-4O se sesgó hacia las respuestas que fueron demasiado solidarias pero falsas”, y los pasos que la compañía estaba tomando para abordar los problemas. La jefa de comportamiento de modelo de OpenAi, Joanne Jang también participó en un foro de “preguntarme cualquier cosa” o AMA que respondió publicaciones de texto de los usuarios y reveló más información sobre el enfoque de la compañía a GPT-4O y cómo terminó con un modelo excesivamente sycofántico, incluida no “BAK[ing] En suficientes matices “, en cuanto a cómo estaba incorporando la retroalimentación de los usuarios, como las acciones de” pulgar hacia arriba “realizadas por los usuarios en respuesta a los resultados del modelo que les gustaba.
Ahora hoy, Openai ha lanzado una publicación de blog con aún más información sobre cómo ocurrió la actualización sycophantic GPT-4O, acreditada no a ningún autor en particular, sino a “OpenAi”.
El CEO y cofundador Sam Altman también publicó un enlace a la publicación del blog en X, diciendo: “Nos perdimos la marca con la actualización GPT-4O de la semana pasada. Lo que sucedió, lo que aprendimos y algunas cosas que haremos de manera diferente en el futuro”.
Lo que revela la nueva publicación del blog de Operai sobre cómo y por qué GPT-4O se volvió tan sycophantic
Para mí, un usuario diario de ChatGPT, incluido el modelo 4O, la admisión más sorprendente de la nueva publicación de blog de OpenAi sobre la actualización de la skocancia es cómo la compañía parece revelar que es hizo Reciba inquietudes sobre el modelo antes de la liberación de un pequeño grupo de “probadores expertos”, pero que aparentemente anuló a los que están a favor de una respuesta entusiasta más amplia de un grupo más amplio de usuarios más generales.
Como la compañía escribe (énfasis mía):
“Si bien hemos tenido discusiones sobre los riesgos relacionados con la skofancia en GPT-4O por un tiempo, la sycophancy no se marcó explícitamente como parte de nuestras pruebas prácticas internas, ya que algunos de nuestros probadores expertos estaban más preocupados por el cambio en el tono y el estilo del modelo. Sin embargo. Algunos probadores expertos habían indicado que el comportamiento del modelo se “sentía” ligeramente …
“Luego tuvimos que tomar una decisión: ¿deberíamos retener la implementación de esta actualización a pesar de las evaluaciones positivas y los resultados de las pruebas A/B, basadas solo en los banderas subjetivas de los probadores expertos? Al final, decidimos lanzar el modelo debido a las señales positivas de los usuarios que probaron el modelo.
“Desafortunadamente, esta fue la llamada equivocada. Construimos estos modelos para nuestros usuarios y, aunque los comentarios de los usuarios son críticos para nuestras decisiones, en última instancia, es nuestra responsabilidad interpretar esa retroalimentación correctamente “.
Esto me parece un gran error. ¿Por qué incluso tener evaluadores expertos si no vas a soportar su experiencia más alto que las masas de la multitud? Le pregunté a Altman sobre esta elección en X pero aún no ha respondido.
No todas las ‘señales de recompensa’ son iguales
La nueva publicación de blog post mortem de OpenAI también revela más detalles sobre cómo la compañía capacita y actualiza nuevas versiones de los modelos existentes, y cómo la retroalimentación humana altera las cualidades del modelo, el carácter y la “personalidad”. Como la compañía escribe:
“Desde que lanzó GPT – 4O en ChatGPT en mayo pasado, hemos lanzado cinco actualizaciones importantes centrado en los cambios en la personalidad y la ayuda. Cada actualización implica un nuevo post-entrenamiento, y a menudo muchos ajustes menores al proceso de capacitación del modelo se prueban de forma independiente y luego se combinan en un solo modelo actualizado que luego se evalúa para el lanzamiento.
“Para los modelos posteriores al entrenamiento, tomamos un modelo base previamente capacitado, supervisamos el ajuste fino en un amplio conjunto de respuestas ideales escritas por humanos o modelos existentes, y luego ejecutamos el aprendizaje de refuerzo con señales de recompensa de una variedad de fuentes.
“Durante el aprendizaje de refuerzo, presentamos el modelo de idioma con un aviso y le pedimos que escriba respuestas. Luego calificamos su respuesta de acuerdo con las señales de recompensa y actualizamos el modelo de idioma para que sea más probable que produzca respuestas de mayor calificación y menos probabilidades de producir respuestas con menor calificación.“
Claramente, las “señales de recompensa” utilizadas por Operai durante el post-entrenamiento tienen un enorme impacto en el comportamiento del modelo resultante, y como la compañía admitió anteriormente cuando superó las respuestas de “pulgares” de los usuarios de ChatGPT a sus salidas, esta señal puede no ser la mejor para usar igualmente con otros al determinar a otros. cómo El modelo aprende a comunicarse y que tipos de respuestas debería estar sirviendo. Operai admite esto directamente en el próximo párrafo de su publicación, escribiendo:
“Definir el conjunto correcto de señales de recompensa es una pregunta difícil, y tenemos muchas cosas en cuenta: son las respuestas correctas, ¿son útiles? ¿Están en línea con nuestra especificación de modelo, están seguros, usan usuarios como ellos, y así sucesivamente? Tener mejores y más completas señales de recompensa produce mejores modelos para ChatGPT, por lo que siempre estamos experimentando con nuevas señales, pero cada uno tiene sus Quirks”.
De hecho, OpenAi también revela que la señal de recompensa de “pulgares hacia arriba” fue una nueva utilizada junto con otras señales de recompensa en esta actualización en particular.
“La actualización introdujo una señal de recompensa adicional basada en los comentarios de los usuarios: los datos de thumbs y pulgar de ChatGPT. Esta señal a menudo es útil; un pulgar hacia abajo generalmente significa que algo salió mal”.
Sin embargo, de manera crítica, la compañía no culpa a los nuevos datos de “pulgar hacia arriba” directamente por el fracaso del modelo y los comportamientos de porristas ostentosos. En su lugar, la publicación del blog de Openai dice que fue esta conjunto Con una variedad de otras señales de recompensa nuevas y antiguas, condujo a los problemas: “… Tuvimos mejoras de candidatos para incorporar mejor la retroalimentación, la memoria y los datos más frescos, entre otros. Nuestra evaluación temprana es que cada uno de estos cambios, que se habían visto beneficiosos individualmente, puede haber jugado un papel en la escalada sobre la sycofancia cuando se combinó”.
Al reaccionar a esta publicación de blog, Andrew Mayne, un ex miembro del personal técnico de Operai que ahora trabaja en la firma de consultoría de IA Interdimensional, escribió en X de otro ejemplo de cómo los cambios sutiles en los incentivos de recompensa y las pautas del modelo pueden afectar el rendimiento del modelo de manera bastante drástica:
“Al principio de OpenAi, tuve un desacuerdo con un colega (que ahora es un fundador de otro laboratorio) sobre el uso de la palabra “cortés” en un pronta ejemplo que escribí.
Argumentaron que “cortés” era políticamente incorrecto y querían cambiarlo por “útil”.
Señalé que centrarse solo en la ayuda puede hacer que un modelo sea demasiado compatible, de hecho, de hecho, que puede ser dirigido a contenido sexual en unos pocos turnos.
Después de demostrar ese riesgo con un intercambio simple, el aviso se mantuvo “cortés”.
Estos modelos son raros.“
Cómo Operai planea mejorar sus procesos de prueba modelo en el futuro
La compañía enumera seis mejoras en el proceso sobre cómo evitar un comportamiento de modelo indeseable y menos ideal en el futuro, pero para mí lo más importante es esto:
“Ajustaremos nuestro proceso de revisión de seguridad para considerar formalmente los problemas de comportamiento, como la alucinación, el engaño, la confiabilidad y la personalidad, como preocupaciones de bloqueo. Incluso si estos problemas no son perfectamente cuantificables hoy en día, nos comprometemos a bloquear los lanzamientos en función de las mediciones de proxy o las señales cualitativas, incluso cuando las métricas como las pruebas A/B se ven bien”.
En otras palabras, a pesar de lo importantes que los datos, especialmente los datos cuantitativos, son los campos del aprendizaje automático y la inteligencia artificial, OpenAi reconoce que esto solo no puede y no debe ser el único medio por el cual se juzga el rendimiento de un modelo.
Si bien muchos usuarios que proporcionan un “pulgar hacia arriba” podrían indicar un tipo de comportamiento deseable a corto plazo, las implicaciones a largo plazo sobre cómo responde el modelo de IA y dónde lo llevan esos comportamientos y sus usuarios podrían conducir a un lugar muy oscuro, angustioso, destructivo y indeseable. Más no siempre es mejor, especialmente cuando está limitando el “más” a algunos dominios de señales.
No es suficiente decir que el modelo aprobó todas las pruebas o recibió una serie de respuestas positivas de los usuarios: la experiencia de los usuarios avanzados capacitados y sus comentarios cualitativos de que algo “parecía” sobre el modelo, incluso si no podían expresar por qué, debería tener mucho más peso que OpenAi estaba asignando anteriormente.
Esperemos que la empresa, y todo el campo, aprenda de este incidente e integre las lecciones en el futuro.
Control y consideraciones más amplias para los tomadores de decisiones empresariales
Hablando quizás más teóricamente, para mí, también indica por qué la experiencia es tan importante, y específicamente, la experiencia en los campos más allá de y afuera de la que está optimizando (en este caso, aprendizaje automático e IA). Es la diversidad de la experiencia la que nos permite como especie lograr nuevos avances que beneficien a nuestro tipo. Uno, digamos, STEM, no necesariamente debe mantenerse por encima de los demás en las humanidades o las artes.
Y finalmente, también creo que revela en su corazón un problema fundamental con el uso de comentarios humanos para diseñar productos y servicios. Los usuarios individuales pueden decir que les gusta una IA más sycofántica basada en cada interacción aislada, al igual que también pueden decir que aman la forma en que la comida rápida y los soda saben, la conveniencia de los contenedores de plástico de un solo uso, el entretenimiento y la conexión que derivan de las redes sociales, la validación de la cosmovisión y el tribalista que se sienten cuando leen los medios políticos o el chismoso de los tabloides. Una vez más, tomados todos juntos, el acumulación De todos estos tipos de tendencias y actividades, a menudo conduce a resultados muy indeseables para los individuos y la sociedad: obesidad y mala salud en el caso de la comida rápida, la contaminación y la interrupción endocrina en el caso de los desechos plásticos, la depresión y el aislamiento de la sobreindulgencia de las redes sociales, un cuerpo más astillado y menos informado público de la lectura de noticias de mala calidad.
Los diseñadores de modelos de IA y los tomadores de decisiones técnicos en Enterprises harían bien en tener en cuenta esta idea más amplia al diseñar métricas en torno a cualquier objetivo medible, porque incluso cuando cree que está utilizando datos para su ventaja, podría ser contraproducente de una manera que no esperaba o anticipar completamente, dejando su lucha para reparar el daño y el MOP que hizo, sin embargo, sin embargo.
Noticias
Si necesita una razón para actualizar a chatgpt plus, es esto

Suscribirse a ChatGPT puede parecer inútil, pero teniendo en cuenta cuán bueno se ha vuelto GPT-4O, es hora de reconsiderar seriamente sus reservas.
9
Investigación profunda
Siempre puede realizar una cantidad decente de investigación con ChatGPT, pero las capacidades del software se han expandido significativamente con GPT-4O. La investigación profunda es el mejor ejemplo de esto.
Si bien puede usar la herramienta de investigación profunda de ChatGPT con la versión gratuita, no recibirá tantas solicitudes como con la versión Plus. Cuando avise a través de una investigación profunda, ChatGPT hará una búsqueda web integral. Puede extraer listas de lectura, estadísticas y mucho más.
Dada la medida en que la investigación profunda hace su trabajo, deberá esperar unos minutos para que se completen los resultados. Pero teniendo en cuenta cuán completas son las respuestas, vale la pena esperar. Al momento de escribir en mayo de 2025, obtienes 25 solicitudes de investigación profunda por mes.
8
Mejor razonamiento
El razonamiento fue un gran problema en las versiones anteriores de ChatGPT, pero con el tiempo, GPT-4O se ha vuelto mucho mejor a este respecto. Si bien aún no está en el mismo nivel de perplejidad, obtendrá respuestas integrales cuando solicite un razonamiento más profundo.
Puede usar esta función en todo tipo de conversaciones. Si bien tiene sentido al investigar, también puede encontrar uso en solicitar un razonamiento más profundo cuando establezca objetivos. A veces, pedir esto puede ayudar a aplicar más lógica a las decisiones que tome también.
Además de leer sus indicaciones, ChatGPT puede razonar usando las imágenes que sube.
7
Menos respuestas robóticas
ChatGPT nunca reemplazará las conversaciones humanas, pero ahora suena mucho menos robótica. Al intercambiar mensajes con el chatbot, sentirás que estás hablando con una persona. El software puede usar el lenguaje humano y los coloquialismos, y tiene la inteligencia para hacer preguntas legítimas.
Con GPT-4O, ChatGPT es más probable que dé respuestas honestas cuando lo pides. En lugar de actuar como su mayor animadora, la herramienta puede racionalizar sus puntos y tiene menos miedo de estar en desacuerdo con usted. Sin embargo, es posible que a veces deba ajustar esto, con indicaciones como “Por favor, sea honesto y no tenga miedo de estar en desacuerdo”.
6
Mejor generación de imágenes
Dall-E era un generador de imágenes AI útil, pero tenía numerosos problemas que necesitaban abordar. Por ejemplo, fue notoriamente malo para crear texto; Cualquier cosa más que palabras simples se convirtió rápidamente en un problema.
Aunque ocasionalmente comete errores, GPT-4O es mucho mejor para generar imágenes. Los humanos interactúan mejor con los objetos, y la aplicación escucha para solicitar más. Cuando se combina con las funciones de edición de ChatGPT, obtienes un fuerte generador de imágenes de IA de AI, aunque Adobe Firefly es aún mejor.
Una molestia es que incluso ahora, GPT-4O a veces no escucha solicitudes. Independientemente de cuántas veces vuelva a palabras el mensaje, Chatgpt a veces simplemente no hará lo que le pidió. Con suerte, esto se planchará con suficiente tiempo.
5
Procesamiento más rápido
Soy lo que describirías como un usuario de Power de ChatGPT, y como resultado, he notado cambios sutiles, como mayores velocidades de procesamiento. Por lo que he visto, GPT-4O lleva menos tiempo para elaborar respuestas.
Las conversaciones generalmente fluyen mucho más rápido, especialmente cuando el software no tiene que buscar en la web o actualizar la memoria. La aplicación web podría usar algunas mejoras, a medida que las velocidades de conversación se disminuyen a medida que crecen, pero sigue siendo significativamente mejor que antes.
Dado que puede hablar más rápidamente con la herramienta en estos días, es aún más fácil ahorrar tiempo y lograr más con ChatGPT.
4
Ofreciendo más sugerencias
Las versiones anteriores de CHATGPT a menudo se sentían como usar la aplicación como una idea unilateral LaunchPad. Puede recibir sugerencias si provocó manualmente el chatbot, pero rara vez tomó la iniciativa por sí sola. Sin embargo, GPT-4O es mucho mejor para dar sugerencias sin que necesite avanzar más.
ChatGPT pregunta si desea crear hojas de cálculo, imágenes, mapas mentales y más. A menudo, estas sugerencias serán cosas en las que no pensó o hubiera necesitado pasar más tiempo trabajando manualmente.
Cuando se usa investigaciones profundas, ChatGPT a menudo hace preguntas de seguimiento para asegurarse de que tenga toda la información necesaria. Puede decirle a GPT-4O que deje de ofrecer sugerencias si cree que son demasiado, pero tener esta característica de forma predeterminada es excelente para el pensamiento creativo.
3
Mejor memorización
Es posible que deba iniciar diferentes conversaciones en ChatGPT por numerosas razones. Quizás desee organizar sus pensamientos de manera más efectiva, o tal vez haya alcanzado el límite de conversación máximo.
De todos modos, no necesita preocuparse por que la aplicación olvide todo lo que le ha dicho. El software puede leer y extraer cualquier información relevante para informar mejor sus respuestas. Incluso después de eliminar ciertos recuerdos, descubrí que la herramienta es capaz de comprender el contexto sin que yo necesite refinar mi aviso.
Debido a que ChatGPT puede recordar lo que le dice de manera más efectiva, recibirá respuestas mucho mejores que antes. Vale la pena pagar el precio mensual por más.
2
Uso no inglés mejorado
Si bien ChatGPT ha hecho avances significativos en sus ofertas en inglés, no siempre ha funcionado tan bien en otros idiomas. Pero con GPT-4O, es mucho mejor a este respecto.
Además del inglés, a veces uso GPT-4O en danés. Si bien todavía no está en el mismo nivel que el inglés, la herramienta es mejor para ayudarme a memorizar y desarrollar las respuestas que quiero.
Podría usar alguna mejora en la generación de imágenes, pero espero que eso cambie a largo plazo. Los idiomas con caracteres especiales probablemente tomarán la herramienta más tiempo para aprender.
1
Mejor modo de voz
Además de las mejoras basadas en texto, el modo de voz de ChatGPT ha hecho grandes pasos desde los primeros días de GPT-4O. Las conversaciones fluyen mejor, y aunque aún puedes decir que estás hablando con un bot, se siente más humano.
ChatGPT incluso presentó el modo Monday, una nueva voz, en abril de 2025, para expandir sus ofertas. Además de pedir consejo, puede usar la herramienta para la preparación de la entrevista, participar en algunas bromas y mucho más.
Dado que sus chats se transcribirán más adelante, vale la pena experimentar con el modo de voz.
ChatGPT Plus ofrece más beneficios de los que inicialmente puede conocer a la vista, y las mejoras significativas para GPT-4O son una de ellas. La versión gratuita de ChatGPT es adecuada para conversaciones básicas, pero se perderá si no actualiza.
Noticias
Cómo analizar toda su biblioteca de Amazon con ChatGPT, y qué puede aprender

¿Alguna vez has querido una lista completa de todos los libros que compraste en Amazon? ¿Quieres saber cuáles son los libros físicos, cuáles son los libros electrónicos Kindle y cuáles son los libros audibles? ¿Desea cortar y darle la colección de libros de Amazon por género, fecha comprada o autor?
Mi esposa lo hizo. Ella tiene miles de libros de Kindle y probablemente tantos libros audibles. Ella ha sido una ávida lectora desde que era niña, y su colección de libros, tanto física como virtual, es un orgullo y una alegría.
También: cómo transformar su antiguo y obsoleto Kindle en el mejor lector de código abierto
Ella también es muy analítica. Hace unos meses, cuando estábamos guardando su colección Kindle para descargar en su computadora antes de que ocurriera la restricción de Amazon, se dio cuenta de que quería saber más sobre los metadatos de su colección. Ella quería formas fáciles de encontrar grupos de libros y comprender lo que tenía.
¿Quieres más consejos de IA? Regístrese para nuestro Boletín de Tech Today!
La extensión de la lista de descargas de la lista de libros
Entonces ella se dirigió al Google e hizo un montón de búsqueda. Su búsqueda la llevó a la página de extensión de Chrome del descargador de la lista de libros de Amazon/Kindle, que, sorprendentemente, es un descargador de la lista de libros Kindle de Amazon.
Decidí probarlo también. ¿Por qué no? Siempre tengo curiosidad sobre lo que sucede dentro de la máquina Gewirtz.
Puede instalarlo y le dará una breve lista de sus activos de Amazon como demostración. Pero si desea desbloquear toda la potencia de esta pequeña herramienta ingeniosa, tendrá que poner en cuenta los seis virtuales George Washingtons. Sí, por $ 6 por usos ilimitados, es una inversión que vale la pena. Siempre es bueno apoyar a los programadores innovadores.
También: Las mejores tabletas de lectura: experto probado y recomendado
Instalación de la extensión solicita la lista habitual de aprobaciones de miedo. Mi consejo es deshabilitar esto cuando haya terminado de usarlo, y solo habilitarlo por las pocas veces que va a descargar una lista completa.
A continuación, haga clic en el icono de la pieza del rompecabezas en su barra de herramientas Chrome, luego haga clic en el pin para fijar el descargador a su barra de herramientas.
Verá un pequeño icono, y cuando haga clic en él, obtendrá un menú desplegable similar a este.
Si hace clic en el botón Obtener libros, recibirá instrucciones sobre dónde necesita señalar su navegador.
Puede ejecutar esta extensión en dos páginas específicas de Amazon. Si lo ejecuta en la primera página que se muestra, obtendrá solo datos básicos, incluidos ISBN/ASIN, URL, tipo, origen, título y autor (s). El origen parece estar donde se adquirió el libro, pero para mí todas las listas de registros “Compra”.
También: La nueva función de resumen de IA de Kindle te ayuda a ponerte al día – cómo probarlo
Le recomiendo que elija la segunda URL, porque esa genera una hoja de cálculo con una tonelada más información interesante. Llegaremos a eso en unos minutos, pero primero hagamos el proceso de descarga y luego pasemos a manipular los datos.
Si compra la extensión, querrá poner su número de serie en el campo de código. No estoy completamente seguro de por qué los usos de los usos restantes “-4/nulo”, pero no parece afectar el rendimiento.
Asegúrate de que estés en https://www.amazon.com/yourbooks. Luego haga clic en el botón Obtener libros. Tenga en cuenta que no pasará nada si hace clic nuevamente. Simplemente desplácese un poco el menú desplegable y verá este pequeño indicador de progreso reconfortante.
Sabrá que ha terminado cuando obtiene un diálogo de descarga de archivo. Dígale al descargador dónde desea su hoja de cálculo, y ya habrá terminado con esta fase.
Mirando la hoja de cálculo
Resulta que hay una tonelada de información en esta hoja de cálculo.
Los datos incluyen los siguientes campos:
- ISBN/ASIN: Esta es la identificación de Amazon para el libro.
- Enlace: Enlace a la página de ventas para el libro.
- Fecha adquirida: Cuando lo compraste.
- RelationUbtype: Muestra si lo compró, lo está compartiendo, es parte de la Biblioteca de préstamos del propietario de Kindle (Koll), y posiblemente más.
- Tipo de relación: Para mí, cada artículo figuraba como “propietario”.
- Formato: El formato del artículo; Se veremos más en esto más tarde.
- Título: El título del libro.
- Páginas: El número de páginas.
- Longitud de escucha: Para los libros audibles.
- Géneros: El género del artículo.
- Subgéneros: Esto no tenía datos para mí.
- Posición de la serie: Si un libro es parte de una serie, qué libro es en esa serie.
- Serie: Serie de libros nombrado.
- (Primero) Autor: El nombre del autor principal.
- Todos los autores: Todos los autores enumerados para el artículo.
Puedes ver cómo esto podría ser interesante. Puede hacer mucho con Excel y sus herramientas de análisis de datos.
Pensé en usar el copiloto de Microsoft dentro de Excel para cortarlo, pero luego eché un vistazo al precio. Gasto $ 99 por año para la familia Microsoft 365 para todas las aplicaciones y cinco usuarios. Pero solo para usar la IA en Excel, tendría que gastar $ 20 por mes, $ 240 adicionales por año para una sola característica agregada. Eso es dos veces y media el costo de toda la suite de la oficina. Lo siento, pero eso no está bien.
También: Cómo usar chatgpt para resumir un libro, artículo o trabajo de investigación
Pero, de nuevo, hay chatgpt. Gasto $ 20 por mes para la cuenta PLUS, pero ChatGPT proporciona un gran valor. Sin mencionar que mi trabajo implica escribir sobre él todos los días.
Entonces, alimentemos la hoja de cálculo para chatgpt y veamos qué magia puede producir.
Análisis de metadatos de Amazon con chatgpt
Comencemos con una pista rápida de chatgpt. ChatGPT se confunde mucho cuando la fila superior de una hoja de cálculo no contiene los nombres de los campos. Puede Cajole Chatgpt para prestar atención a la fila correcta diciéndole el primer valor, pero he encontrado que las cosas van mucho más fáciles si solo corta cualquier línea superior innecesaria y presenta el chatgpt con los nombres de los encabezados como la primera fila.
Y eso es lo que hice. Luego procedí a cargar el archivo de hoja de cálculo no modificado en lugar del archivo modificado, confundiéndolo. Como uno lo hace. Comencé una nueva sesión con ChatGPT y cargué el archivo correcto.
Además: ¿Chatgpt Plus vale sus $ 20? Así es como se compara con los planes gratuitos y profesionales
Comencé a jugar con el campo de formato. Le dije: “Tabule el campo de formato. Muéstrame cuántos de cada uno hay en el archivo. Hazme un gráfico de pastel”. Recibí un bonito gráfico de pasteles, pero fue un poco desordenado.
Le pedí que lo ordenara un poco al indicar: “Use etiquetas, pero dame una leyenda para cualquier cosa por debajo del 2%”. Eso resultó dar como resultado un gráfico muy viable.
Como se esperaba, la mayor parte de mis lecturas están en Kindle. Pero no me di cuenta de que tenía tantos libros en rústica como en audiolibros. Fresco.
También: 7 razones por las que los Kindles siguen siendo una gran compra, incluso sin descargas.
A continuación, llegamos al área del que tenía más curiosidad: los géneros. Instruí ChatGPT: “Tabule el campo Géneros. Muéstrame cuántos de cada uno está en el archivo. Dibuja un gráfico circular que represente el género. Use etiquetas, pero dame una leyenda para cualquier cosa por debajo del 2%”. Los resultados fueron interesantes.
Fue no Lo que esperaba. Primero, habría jurado que tenía mucho más ciencia ficción que misterio o literatura. Pero aparentemente, compré muchos más misterios. La porción de adultos jóvenes tiene sentido. Hay una serie de grandes series de libros, como Tom Swift y muchos libros sobre steampunk y dirigibles que están dirigidos a lectores más jóvenes. Los disfruto.
También: ¿Quieres libros electrónicos gratis? Estos 10 sitios ofrecen miles de opciones
No tengo idea de cómo el 3.4% podría ser romance. Es posible que algún libro que pareciera interesante estuviera en esa categoría, mi esposa compró algo en mi cuenta, o lo descargué de una promoción de forma gratuita en mi fase de bit piggy. ¿Quién sabe? Aún así, es informativo.
Hay más información que pude sacar de esos datos con ChatGPT. Me preguntó: “¿Le gustaría esto visualizado o agrupado por tema o categoría?” Mi respuesta fue sí, y recuperé esto.
Quería ver si ChatGPT podría darme una versión diferente de mi lista de libros basada en los títulos en sí, así que pregunté: “Basado en los títulos de los libros, muéstrame una tabla de los diez temas más populares”. Recibí esto.
También: Cómo agregar archivos EPUB, MOBI y PDF a su Kindle: no se requiere convertir
Extrañamente, la ciencia o la ciencia ficción no aparecen en eso, aunque la ciencia ficción a menudo se agrupa en las categorías de thriller o aventura. El tiempo tiene sentido porque me encantan las historias de viajes en el tiempo.
Y nuevamente estoy sorprendido por la prominencia de Mystery en esta clasificación. Si combinas misterio, misterios, asesinato y acogedor, obtenemos el 56% de mis lecturas están relacionadas con el misterio. Pero no tenía idea de que tenía tantos. Hubiera pensado que mis libros de Star Trek habrían sofocado las otras categorías.
También: cómo convertir fácilmente los archivos EPUB en formato Kindle en minutos
Finalmente, le pregunté a ChatGPT: “Mirando la hoja de cálculo, ¿qué otra información o ideas interesantes puedes aparecer para mí?” Esto fue divertido.
Es un poco interesante que mi primer libro de Amazon Book data de 1998, hace casi 30 años. También es interesante, ya que leí mis libros de Kindle todos los días, que mi última compra fue hace casi dos años. Aparentemente, he estado trabajando en mi colección (lo cual es, en realidad, algo bueno).
Así que ahí tienes: una forma de cavar todas tus lecturas de Amazon y comprender un poco más sobre lo que te gusta.
También: Cómo usar el análisis de datos avanzado de ChatGPT para crear cuadros y tablas de calidad
¿Qué pasa contigo? ¿Alguna vez has tomado una inmersión profunda en tu colección de libros de Amazon? ¿Te sorprendió la cantidad de géneros o formatos que has acumulado a lo largo de los años? ¿Herramientas como este exportador de metadatos te hacen repensar tus hábitos de lectura o desencadenar nuevas ideas para organizar tu biblioteca digital? Y si ha intentado chatgpt o herramientas similares para analizar sus propios datos, ¿cómo fue? Háganos saber en los comentarios a continuación.
Obtenga las principales historias de la mañana en su bandeja de entrada cada día con nuestro Boletín de Tech Today.
Puede seguir mis actualizaciones de proyecto diarias en las redes sociales. Asegúrese de suscribirse a mi boletín de actualizaciones semanales y sígueme en Twitter/X en @Davidgewirtzen Facebook en Facebook.com/davidgewirtz, en Instagram en Instagram.com/davidgewirtz, en bluesky en @davidgewirtz.com, y en YouTube en youtube.com/davidgewirtztv.
-
Startups12 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales12 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Recursos12 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups10 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Startups12 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos11 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Recursos12 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Noticias10 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo