Noticias
Leonardo AI review: 1 week vs. Midjourney
Published
2 meses agoon

I have a problem. I scroll through Reddit way too much, and lately, my feed has been flooded with people hyping up Leonardo AI. I remember when it first launched—the reviews weren’t great, nothing special. But now? It’s like every other comment is someone saying, “Leonardo is a game-changer!” or “Forget MidJourney, Leonardo is where it’s at!” Naturally, my curiosity kicked in.
I’ve been using MidJourney for months, so I had to know—was I missing out on something? Was Leonardo actually better, or was this just another case of Reddit overhyping things? There was only one way to find out. For an entire week, I ditched MidJourney and went all in on Leonardo. No backup, no switching back. Just me and this so-called “game-changer.”
This is my completely unfiltered review—what impressed me, what frustrated me, and whether Reddit was actually onto something or just being Reddit.
Let’s get started!
Key takeaways
- Leonardo AI offers an intuitive, web-based platform with powerful tools for generating art, videos, and transparent PNGs.
- The free trial with daily tokens makes it accessible for casual users and beginners without an upfront cost.
- Features like Flow State and the Phoenix model streamline the creative process, allowing for faster, high-quality results.
- While it competes well with Midjourney, Leonardo stands out for its user-friendly interface and affordable pricing plans.
- It’s an excellent choice for hobbyists, content creators, and marketers who want versatile AI-generated visuals without complex workflows.
What is Leonardo AI?

Leonardo AI is a generative AI for high-quality images, illustrations, and design assets. Like MidJourney and DALL-E, it turns text prompts into stunning visuals, but it stands out by offering more customization and control.
One of Leonardo’s biggest selling points is its focus on user-friendly workflows. You can fine-tune your images with features like prompt generation guidance, image upscaling, and element control, which means less guesswork and more precision. It also caters to different creative needs, from game assets and product mockups to realistic portraits and fantasy art.
Leonardo lets you train your own AI models. You can teach Leonardo to replicate that vibe across future projects if you consistently create in a certain style. Plus, the platform runs on a credit system, with free and paid plans depending on how often you generate images.
Getting started with Leonardo AI
It’s an AI art generator, so of course, the website homepage greeted me with a vibrant, colorful interface. I actually preferred that because MidJourney’s swirly homepage design always felt a bit techy. Here, everything was laid out clearly, and the big “Get Started” button practically invited me in.


Clicking it took me straight to the sign-in page. There were several options, but I went with Google because, honestly, who has time to type out passwords these days? Less than a minute later, I was in.


Let the best of tech news come to you
Join 30,000 subscribers who receive Techpoint Digest, a fun week-daily 5-minute roundup of happenings in African and global tech, directly in your inbox, hours before everyone else.
Next up was choosing a username, which was simple enough. Then came the dashboard, bright, polished, and packed with options. Having used MidJourney before, I wasn’t fazed. But if you’re new to AI art platforms, the sheer number of customization and creation tools might feel a little overwhelming at first.
The first thing that really caught my attention? The free trial. MidJourney could never. Or maybe they did once upon a time, but they quietly disabled it as their popularity exploded. Either way, Leonardo offering a free tier instantly earned some bonus points.
Anyway, once I landed on the dashboard, I could immediately tell that Leonardo AI was designed with user-friendliness in mind. Everything was laid out in neat sections: image generation, training your own models, and a library for your creations. It felt more like a polished design tool than an AI platform.
Leonardo was refreshingly intuitive. MidJourney often feels like you’re working through code, with commands and prompts flying in a chat window. Leonardo, on the other hand, had proper buttons, sliders, and menus. I didn’t have to remember slash commands or scroll through threads to find my past generations.
That said, the customization options were a bit much at first glance. There were settings for prompt strength, image dimensions, model choices, and more. Again, if you’re brand new to AI art, you might need a few minutes to get your bearings. Even I had to pause for a moment before starting anything. However, once I realized most options came with tooltips explaining what they did, the learning curve felt manageable.
Another thing I liked is the real-time preview. As you adjust settings, Leonardo gives you a glimpse of what to expect. MidJourney often feels like you’re tossing prompts into a black hole and hoping for the best. Here, it felt like I had more control from the start.
Overall, my initial impression was positive because Leonardo struck a nice balance between power and accessibility. With the setup out of the way and the dashboard looking promising, it was time to check what really mattered. Let’s see what Leonardo AI brings to the table with its features.
Key features of Leonardo AI
While exploring Leonardo AI, I discovered features designed to elevate the creative process. Here’s a breakdown of the standout tools that caught my attention:
- Flow State
Flow State is Leonardo AI’s main workspace, where you create and manage your projects. The interface is clean, colorful, and easy to navigate. On the left, you’ll find basic settings like image size, how many images you want to generate, and style preferences. On the right, there’s a prompt box, model selector, and advanced controls like guidance scale and negative prompts.
What I liked most was how everything stayed in one place. I didn’t have to click through endless menus or hunt for settings. If you’re new to AI art, it might look like a lot at first, but tooltips pop up to explain what each option does. Compared to Midjourney’s setup, Flow State felt like a breath of fresh air. Everything was visually clear and easy to manage.
- Phoenix by Leonardo AI
Phoenix is Leonardo’s own AI model, designed to generate high-quality images and videos. It’s the engine powering most of the tools on the platform. From what I experienced, Phoenix delivers more detailed, polished results than other models. Whether I wanted something photorealistic or more stylized, Phoenix handled both without much tweaking.
Leonardo often recommends Phoenix for general use, and I can see why. It balances speed and quality well, making it perfect for both quick drafts and final designs.
- AI Art Generator
The AI Art Generator is the heart of Leonardo AI. You type in a prompt, set your preferences, and watch the platform turn your idea into images. It supports various styles, from hyper-realistic to cartoonish, depending on the model you select.
What impressed me was the real-time preview. As I adjusted settings like image dimensions and prompt strength, I could see how they’d affect the final result before hitting “Generate.” This saved time compared to Midjourney, where you only see the outcome after generation.
- AI Video Generator
Leonardo AI doesn’t just generate images, it also has an AI Video Generator. This tool takes your images or prompts and creates short, smooth animations. I tested it with a simple landscape prompt, and within minutes, I had a looping video that looked like a moving painting.
It’s not meant for long videos or complex edits, but for quick visual content like social media posts or creative projects, it works well. The interface is as user-friendly as the image generator, with sliders to control speed, style, and transition effects.
- Transparent PNG Generator
If you’ve ever needed an image with a transparent background, you’ll appreciate this feature. Leonardo’s Transparent PNG Generator removes backgrounds from images with surprising accuracy.
I tried it with complex images, like people with curly hair, and the cutouts were clean. There were a few rough edges here and there, but nothing that couldn’t be fixed with a quick edit. It’s especially handy for graphic designers who want ready-to-use assets without extra editing.
In short, Leonardo AI doesn’t just generate images, it offers a complete creative suite. From detailed art to smooth animations and transparent assets, the platform is built to make content creation easier and faster.
Got it! Here’s a more specific breakdown of how I used Leonardo AI and which tools I accessed to create my projects:
My hands-on experience: creating art with Leonardo AI
To see what Leonardo AI could really do, I tested it in a few different scenarios. Here’s how each one went, step by step:
- Realistic Pro Photography with the Image Generation Tool
First, I wanted to test Leonardo’s ability to create lifelike images. On the dashboard, I clicked on “Image Generation” under the “Main Tools” section. This opened the Flow State workspace, where I could type my prompt, adjust the settings, and choose a model.
Prompt: Realistic portrait of a middle-aged woman with curly brown hair, wearing a cozy sweater, soft lighting, and warm background.
I kept the following settings:
- Mode: Classic Mode
- Model: Phoenix 1.0
- Style: Pro color photography
- Contrast: Medium
- Generation mode: Fast
- Image Dimensions: 16:9, medium (1376×768)
- Number of Images: 4


After hitting “Generate,” it took about 15 seconds to produce four portraits. I was glad I chose to generate 4 images because the quality was not equal. The skin had a realistic texture, the hair was detailed, and the soft lighting gave them a professional look.


However, two of the generated images had the eyes looking weird, but I guess a person’s eyes could be that way.


And one didn’t give the pro photography vibe I wanted.


Overall, the results were good. They weren’t perfect, but they were impressive for an AI-generated image.
- Stylized Concept Art with Flux Dev Model
Next, I wanted to create something more artistic. Back in the Image Generation tool, I switched the style to “Creative” and typed:
Prompt: Steampunk cityscape at sunset, airships flying between tall industrial buildings, vibrant and painterly style.
Here’s what I adjusted:
- Mode: Classic Mode
- Model: Flux Dev
- Style: Creative
- Contrast: Medium
- Generation mode: Fast
- Image Dimensions: 16:9, medium (1376×768)
- Image Count: 4




The results were kind of flat, but they were okay. The buildings had detailed metalwork, the sky had a dreamy sunset gradient, and the airships were detailed without looking cluttered.
- Logo Design with Flux Schnell
To try out the Flux Schnell model, I selected it from the left-hand menu on the dashboard. It works alongside the image generator, so I typed:
Prompt: Minimalist coffee shop logo, coffee cup with steam shaped like a heart, modern and clean.
- Mode: Classic Mode
- Model: Flux Schnell
- Style: Graphic Design 3D
- Generation mode: Fast
- Image Dimensions: 1:1, small (896×896)
- Image Count: 4
I spent only 6 tokens on this one, which was low compared to my first two tests. The results were faster too, and they came in about 3 seconds.


I generated a few designs, selected my favorite, and clicked “Remove Background.”


The original


Without background
Within seconds, I had a clean PNG file with no white edges or stray pixels. I tested it on a dark and light background, and it blended seamlessly.
Well, I didn’t go into any complex designs because the images I needed were more for casual projects, not high-end commercial work. But from what I’ve seen so far, Leonardo AI seems more than capable of handling both simple and advanced creations. Up next, let’s talk about what stood out during my week of testing—the good, the bad, and everything in between.
What i liked about Leonardo AI
After a week of using Leonardo AI, a few things really stood out. Here’s what I genuinely enjoyed about the platform:
- User-Friendly Dashboard
The dashboard is clean, colorful, and easy to navigate. Unlike Midjourney, which runs entirely through Discord, Leonardo gives you an actual workspace. The tools are clearly labeled, and the icons make sense. I didn’t have to guess where anything was.
- Free Trial with Daily Tokens
This was a massive win for me. Leonardo offers daily free tokens to generate images, and you get a generous amount when you first sign up. I got 150 tokens immediately after I logged in. Midjourney doesn’t offer a free trial anymore, so being able to test Leonardo without committing financially was a breath of fresh air.
- High-Quality Image Outputs
I expected some of the images to look rushed or awkward, especially with free tokens. But even without premium settings, the results were sharp, detailed, and accurate to my prompts. I didn’t have to reword my prompts a dozen times to get what I wanted.
- Fast Generation Time
Leonardo was quick, faster than I expected. Most images took less than 15 seconds to generate, even when I pushed the quality slider higher. This felt smooth and efficient compared to Midjourney, which can sometimes lag depending on server load.
- Built-In Background Remover
The Transparent PNG Generator saved me so much time. I didn’t have to open another app to clean up logos or character designs. Just one click and the background was gone—no weird edges or stray pixels.
- Customization Options
I loved how much control Leonardo gave me. From the guidance scale to style strength and even different models like Phoenix, you can fine-tune your images without feeling overwhelmed. If you enjoy experimenting, you’ll appreciate the flexibility here.
- AI Video Generator
This was an unexpected bonus. I didn’t think I’d care much about the video feature, but seeing my still images come to life with subtle motion was pretty cool. It’s perfect for social media posts or eye-catching website graphics.
Honestly, it felt like Leonardo AI was designed with both beginners and advanced users in mind. You can keep it simple or go wild with customization; it’s entirely up to you.
That said, no platform is perfect. Let’s talk about the parts I didn’t like
What i didn’t like about Leonardo AI
While Leonardo AI impressed me in many ways, it wasn’t without its flaws. Here’s where I think it could improve:
- Some Models Are Hit or Miss
Leonardo offers different models like Phoenix and Flux Schnell, each with its strengths. However, not all of them delivered consistent results. Sometimes, I’d get a stunning image, while other times, the output felt rushed or had odd distortions, even with similar prompts.
- Image Upscaling Could Be Better
While the base images looked great, upscaling them to higher resolutions sometimes led to minor blurring or loss of fine details. Midjourney seems to handle upscaling a bit more gracefully, especially for large prints or professional use.
- Occasional Interface Lag
The user interface is generally smooth, but I did experience occasional slowdowns, especially when switching between models or browsing the community feed. It’s not constant, but it’s enough to notice if you’re working for extended periods.
- Confusing for First-Timers
If you’re new to AI art platforms, the number of customization options might be overwhelming. There’s no clear onboarding guide, so you’re left to figure things out on your own. Midjourney’s simpler interface might actually feel less intimidating for beginners.
- Limited Video Generation Options
The AI Video Generator is fun, but it’s still pretty basic. You can’t fully control transitions, duration, or effects. It’s more of a novelty right now than a serious content-creation tool.
None of these issues were dealbreakers for me, but they’re worth considering if you plan to use Leonardo AI regularly. That said, let’s wrap this up with my final verdict.
Final comparison: Midjourney vs. Leonardo
After spending a week with Leonardo AI, it’s clear that both platforms have their strengths and weaknesses. Here’s how they stack up across key areas:
- Performance
Leonardo AI impressed me with its speed. Image generation usually takes 10 to 15 seconds, even for high-quality outputs. Midjourney, while also fast, sometimes lagged during peak hours. Leonardo’s Flow State mode added an extra layer of efficiency by allowing batch generation, something Midjourney doesn’t currently offer.
- Usability
Leonardo AI wins when it comes to user-friendliness. The clean, web-based dashboard made it easy to navigate, especially compared to Midjourney’s. You can jump between tools, explore community creations, and manage your projects all in one place. That said, Midjourney’s simplicity can feel less overwhelming if you prefer a more streamlined experience.
- Output Quality
This was a close one. Both platforms produce stunning images, but Midjourney still holds a slight edge regarding overall detail and realism, especially for complex compositions. Leonardo AI, however, offers more customization options, allowing you to fine-tune images to match your exact vision.
4. Best Use Cases
- Leonardo AI is ideal if you’re experimenting with different styles, working on casual projects, or need batch generation for content creation. It’s also perfect for anyone who prefers a web-based interface and free daily tokens.
- Midjourney is better suited for professional-grade visuals, intricate artistic designs, and users.
Verdict: is Leonardo AI a worthy Midjourney alternative?
Yes, but with caveats. If you’re looking for a more affordable, user-friendly alternative that still delivers high-quality results, Leonardo AI is absolutely worth trying. It might not fully replace Midjourney for professionals demanding top-tier detail, but for everyday users and creative enthusiasts, it’s a solid choice.
Feature comparison table
Feature | Leonardo AI | Midjourney |
User Interface | Web-based, intuitive dashboard | Discord and web-based dashboard |
Image Quality | High, with customizable models | Slightly higher realism and detail |
Speed | Fast (3-15 seconds per image) | Fast, but occasional delays |
Free Trial | Yes, daily tokens for free generation | No free trial currently |
Batch Generation | Available through Flow State | Not available |
Background Removal | Built-in Transparent PNG Generator | Requires third-party tool |
Video Generation | Basic AI video creation | Not available |
Customization Options | Extensive, multiple models and settings | Limited to prompt-based customization |
Best For | Casual creators, batch projects | Professional, high-end designs |
Pricing | Free trial with 150 daily tokens. Premium plans start at $10/month | Paid-only, no free option. $10 to $120/month, depending on plan |
If you’re tired of Midjourney’s paywall and want more control over your creations without sacrificing quality, Leonardo AI is definitely worth a shot. It’s not perfect, but it’s close.
Final thoughts: is Leonardo AI worth it?
After a week of testing, I can confidently say Leonardo AI is worth exploring. It’s fast, user-friendly, and packed with features that make creative work easier. The free daily tokens alone make it a standout choice for anyone hesitant to commit financially.
While it might not fully replace Midjourney for professionals demanding top-tier realism, it’s more than enough for casual creators, bloggers, marketers, and hobbyists. The flow state batch generation, Phoenix model, and transparent PNG generator add practical value without complicating the process.
If you’re curious about AI art but want a platform with a generous free trial and a more intuitive dashboard, Leonardo AI is worth trying. Both Leonardo and Midjourney now offer web-based platforms, but Leonardo’s affordability and customization options make it a strong contender.
Play around with the free trial, explore its tools, and see how it fits into your creative projects. And if you do give it a shot, I’d love to hear how it worked for you!
You may like

He usado varios altavoces inteligentes impulsados por Google Assistant durante bastante tiempo. El primer dispositivo que recogí fue el nido mini, que fue seguido por el cubo de nidos y el cubo de nido max. Tengo un altavoz en cada habitación, por lo que mi gente y yo podemos usar el Asistente de Google para pedir consultas, reproducir canciones, recibir actualizaciones de noticias y controlar nuestros dispositivos IoT en casa, independientemente de dónde estamos. Hasta el año pasado, estos dispositivos funcionaron bien. Ninguno de nosotros tuvo problemas con ellos, y se desempeñaron como se esperaba.
Sin embargo, hace unos meses, mi madre notó problemas estableciendo recordatorios en el centro de nidos. Las canciones que solía tocar regularmente en el altavoz eran más difíciles de tocar porque Google Assistant tuvo dificultades para reconocer la canción requerida. Entonces, llevé a cabo una resolución de problemas de rutina. Sin embargo, eso no solucionó el problema. Entonces, busqué soluciones en línea. No tardó mucho en darse cuenta de que los usuarios de todo el mundo tenían problemas con el Asistente de Google en sus dispositivos Nest. La línea de tiempo coincidió con el despliegue generalizado de Géminis. Puse dos y dos juntos y descubrí lo que estaba pasando.
Relacionado
5 Limitaciones de Gemini Live que odio ya que el Asistente de Google puede hacerlas bien
Un trabajo en progreso
El inicio de Géminis
Ai en todo

Fuente: Google
Regularmente uso el Asistente de Google, no solo en los altavoces inteligentes sino en mi teléfono. Junto con eso, soy uno de los primeros en adoptar nuevas tecnologías. Entonces, cuando Google lanzó Gemini, opté a la versión beta después de recibir el mensaje. Mis impresiones iniciales de Géminis fueron mixtas. Si bien podría darme más información que el Asistente de Google cuando se le preguntó una determinada consulta, no podría realizar tareas básicas, como tomar notas.
He estado haciendo esto todo el tiempo con el Asistente de Google, así que me perdí que no funcionó como se esperaba. Avance rápido hasta unos días, y me di cuenta de que Géminis no podía hacer la mitad de las cosas que Google Assistant podía. Asumí que esto se debió a la construcción beta, pero la tendencia continuó después del lanzamiento estable de Géminis. Esto me frustró, pero me alegré de que mi Galaxy Watch 4 todavía corriera el Asistente de Google.
La caída del Asistente de Google
¿Cuándo se convirtió en Siri?

Usé mi Galaxy Watch 4 para realizar tareas básicas como configurar recordatorios y tomar notas. Sin embargo, no era tan bueno como solía ser. Pensé que esto se debía al micrófono inferior en el reloj inteligente en comparación con mi teléfono. Cuando vi múltiples publicaciones en foros en línea sobre el Asistente de Google actuando, me di cuenta de que no era un problema con el micrófono, sino más bien con el asistente de salida de Google para priorizar a Gemini.
Los chatbots de IA y los asistentes generativos de IA se han apoderado del mundo. Cada compañía está ocupada construyendo modelos de IA, ya que es la nueva palabra de moda. Cuando Operai exhibió su chatgpt ai chatbot, Google fue criticado por rezagarse en la carrera de IA. Entonces, tuvo que cambiar rápidamente su enfoque en presentar Géminis (entonces Bard) al público. Después de que la compañía hizo eso, parece que asignó todos sus recursos a desarrollar Gemini mientras dejaba de lado el Asistente de Google.
Gracias a esto, el Asistente de Google recibió el tratamiento infantil ignorado. Con la mayoría de los servidores y la potencia de procesamiento dedicada a Gemini, Google Assistant comenzó a perder la trama. En los últimos meses, el asistente dejó de reconocer los nombres de contacto que solía antes, lleva mucho tiempo realizar una tarea básica, como tocar una canción, no detecta qué canción estoy tratando de tocar en los primeros intentos, a menudo reproduce la canción equivocada, me da el clima de una ciudad diferente en lugar de la que pedí, me piden un error para actualizar la aplicación de Google para que actúe una cierta función si la aplicación es la última versión en la última versión en la última versión en la última versión en el fracaso de las ocasiones.
Experimenté estos problemas con configuraciones de idiomas de Google Assistant in English (US) e English (India). Si bien el inglés (India) fue un poco mejor, no introdujo ningún cambio notable en el comportamiento del Asistente de Google.
Estoy frustrado de que no detecte la palabra de vigilia, especialmente cuando usa Google Assistant en Android Auto, el único lugar donde no quiero que falle, ya que las instrucciones de voz son la única forma segura de realizar ciertas acciones al conducir. La única inferencia que se puede extraer de estos problemas es que Google ha perdido interés en mantener el Asistente de Google. Esto se confirmó a través del anuncio de Google sobre el reemplazo del asistente con Gemini. Como resultado, la última versión de Android Auto trae a Gemini a su automóvil en lugar de asistente.

Relacionado
La era del Asistente de Google ha terminado
¿Géminis es el futuro de los asistentes de IA? Google piensa que sí
Dejé de usar dispositivos de nido
En su lugar me cambié a Alexa

Después de molestarme con las travesuras de Google, reemplacé los altavoces del nido en casa con la alineación de eco de Amazon. No hay tales problemas con Alexa, ya que el asistente entiende todo, desde la palabra de vigilia hasta los comandos. Alexa siempre ha estado ligeramente detrás del Asistente de Google en términos de características, por lo que, si bien eso sigue siendo, estoy feliz de que satisfaga todas las necesidades de mi asistente de voz sin problemas.
Sin embargo, Amazon anunció recientemente un cambio de imagen de IA para Alexa, Alexa Plus, que comenzará a llegar a las masas en breve. Esperaremos para ver cómo funciona. Con suerte, mejora las habilidades de Alexa en lugar de paralizarlas.
Tengo la esperanza de que Gemini mejore con el tiempo
Google no tiene otra opción que arreglarlo

Con el asistente del último participante en el cementerio de Google, supongo que Google lanzará actualizaciones para cambiar los altavoces y las pantallas de Google Assistant a Gemini. No estoy ansioso por eso, ya que Gemini no puede realizar tareas básicas con precisión, que es algo que hemos visto con AI. Aún así, espero que mejore el estado actual de estos dispositivos para que puedan ser útiles una vez más en lugar de ser pisapapeles caros.
Noticias
Google está desplegando su chatbot Gemini Ai para niños menores de 13 años. Es un movimiento arriesgado
Published
10 horas agoon
11 mayo, 2025
Crédito: Markus Winkler de Pexels
Google ha anunciado que lanzará su chatbot de inteligencia artificial Gemini (IA) a niños menores de 13 años.
Si bien el lanzamiento comienza dentro de la próxima semana en los Estados Unidos y Canadá, se lanzará en Australia a finales de este año. El chatbot solo estará disponible para las personas a través de las cuentas de enlaces familiares de Google.
Pero este desarrollo viene con grandes riesgos. También destaca cómo, incluso si los niños están prohibidos en las redes sociales, los padres aún tendrán que jugar un juego de Whack-a-Mole con nuevas tecnologías mientras intentan mantener a sus hijos seguros.
Una buena manera de abordar esto sería implementar urgentemente un deber digital de cuidado para grandes empresas tecnológicas como Google.
¿Cómo funcionará el chatbot Gemini AI?
Las cuentas de enlaces familiares de Google permiten a los padres controlar el acceso al contenido y las aplicaciones, como YouTube.
Para crear la cuenta de un niño, los padres proporcionan datos personales, incluido el nombre y la fecha de nacimiento del niño. Esto puede generar problemas de privacidad para los padres preocupados por las violaciones de datos, pero Google dice que los datos de los niños cuando usen el sistema no se utilizarán para capacitar al sistema de IA.
El acceso de chatbot estará “activado” de forma predeterminada, por lo que los padres deben apagar activamente la función para restringir el acceso. Los niños pequeños podrán solicitar el chatbot para las respuestas de texto o crear imágenes, que generan el sistema.
Google reconoce que el sistema puede “cometer errores”. Por lo tanto, se necesita evaluación de la calidad y la confiabilidad del contenido. Los chatbots pueden inventar información (conocida como “alucinante”), por lo que si los niños usan el chatbot para la ayuda de la tarea, deben verificar los hechos con fuentes confiables.
¿Qué tipo de información proporcionará el sistema?
Google y otros motores de búsqueda recuperan materiales originales para que las personas lo revisen. Un estudiante puede leer artículos de noticias, revistas y otras fuentes al escribir una tarea.
Las herramientas generativas de IA no son las mismas que los motores de búsqueda. Las herramientas de IA buscan patrones en el material fuente y crean nuevas respuestas de texto (o imágenes) basadas en la consulta, o “inmediato”, proporciona una persona. Un niño podría pedirle al sistema que “dibuje un gato” y el sistema escaneará patrones en los datos de cómo se ve un gato (como bigotes, orejas puntiagudas y una cola larga) y generará una imagen que incluya esos detalles similares a los gatos.
Comprender las diferencias entre los materiales recuperados en una búsqueda de Google y el contenido generado por una herramienta de IA será un desafío para los niños pequeños. Los estudios muestran que incluso los adultos pueden ser engañados por herramientas de IA. E incluso profesionales altamente calificados, como abogados, han sido engañados para usar contenido falso generado por ChatGPT y otros chatbots.
¿El contenido generado será apropiado para la edad?
Google dice que el sistema incluirá “salvaguardas incorporadas diseñadas para evitar la generación de contenido inapropiado o inseguro”.
Sin embargo, estas salvaguardas podrían crear nuevos problemas. Por ejemplo, si las palabras particulares (como “senos”) están restringidas para proteger a los niños de acceder a contenido sexual inapropiado, esto también podría excluir erróneamente a los niños de acceder a contenido apropiado para la edad sobre los cambios corporales durante la pubertad.
Muchos niños también son muy expertos en tecnología, a menudo con habilidades bien desarrolladas para navegar en aplicaciones y controlar los controles del sistema. Los padres no pueden confiar exclusivamente en salvaguardas incorporadas. Deben revisar el contenido generado y ayudar a sus hijos a comprender cómo funciona el sistema y evaluar si el contenido es preciso.
¿Qué riesgos plantean los chatbots de IA para los niños?
La Comisión ESAFETY ha emitido un aviso de seguridad en línea sobre el riesgo potencial de los chatbots de IA, incluidos los diseñados para simular las relaciones personales, particularmente para los niños pequeños.
El aviso de AFFETY explica que los compañeros de IA pueden “compartir contenido dañino, distorsionar la realidad y dar consejos que sean peligrosos”. El aviso destaca los riesgos para los niños pequeños, en particular, que “todavía están desarrollando el pensamiento crítico y las habilidades para la vida necesarias para comprender cómo pueden ser equivocados o manipulados por programas de computadora y qué hacer al respecto”.
Mi equipo de investigación ha examinado recientemente una variedad de chatbots de IA, como ChatGPT, Replika y Tessa. Encontramos que estos sistemas reflejan las interacciones de las personas basadas en las muchas reglas no escritas que rigen el comportamiento social, o lo que se conoce como “reglas de sentimiento”. Estas reglas son las que nos llevan a decir “gracias” cuando alguien nos abre la puerta, o “¡Lo siento!” Cuando te topas con alguien en la calle.
Al imitar estas y otras sutilezas sociales, estos sistemas están diseñados para ganar nuestra confianza.
Estas interacciones humanas serán confusas y potencialmente riesgosas para los niños pequeños. Pueden creer que se puede confiar en el contenido, incluso cuando el chatbot responde con información falsa. Y pueden creer que se están involucrando con una persona real, en lugar de una máquina.
¿Cómo podemos proteger a los niños del daño al usar chatbots de IA?
Este despliegue está ocurriendo en un momento crucial en Australia, ya que los niños menores de 16 años tendrán que tener cuentas de redes sociales en diciembre de este año.
Si bien algunos padres pueden creer que esto mantendrá a sus hijos a salvo de daños, los chatbots generativos de IA muestran los riesgos de la participación en línea se extienden mucho más allá de las redes sociales. Los niños, y los padres, deben educarse en cómo todo tipo de herramientas digitales se pueden usar de manera adecuada y segura.
Como el chatbot de IA de Gemini no es una herramienta de redes sociales, se quedará fuera de la prohibición de Australia.
Esto deja a los padres australianos jugando un juego de Whack-a-Mole con nuevas tecnologías mientras intentan mantener a sus hijos seguros. Los padres deben mantenerse al día con los nuevos desarrollos de herramientas y comprender los riesgos potenciales que enfrentan sus hijos. También deben comprender las limitaciones de la prohibición de las redes sociales para proteger a los niños de daños.
Esto resalta la urgente necesidad de revisar la legislación propuesta por el deber de cuidado de Australia. Mientras que la Unión Europea y el Reino Unido lanzaron la legislación de Derechos de Cuidado de Digital de Cuidado en 2023, Australia ha estado en espera desde noviembre de 2024. Esta legislación haría que las empresas tecnológicas tengan en cuenta legislando que se ocupan de contenido nocivo, en la fuente, para proteger a todos.
Proporcionado por la conversación
Este artículo se vuelve a publicar de la conversación bajo una licencia Creative Commons. Lea el artículo original.
Citación: Google está implementando su chatbot Gemini Ai para niños menores de 13 años. Es un movimiento arriesgado (2025, 11 de mayo) recuperado el 11 de mayo de 2025 de https://techxplore.com/news/2025-05-google-gemini-ai-chatbot-kids.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.
Noticias
Una implementación de codificación de acelerar la anotación de aprendizaje activo con Adala y Google Gemini
Published
20 horas agoon
11 mayo, 2025
En este tutorial, aprenderemos cómo aprovechar el marco de Adala para construir una cartera de aprendizaje activo modular para la clasificación de síntomas médicos. Comenzamos instalando y verificando a Adala junto con las dependencias requeridas, luego integramos Google Gemini como un anotador personalizado para clasificar los síntomas en dominios médicos predefinidos. A través de un simple bucle de aprendizaje activo de tres iteración, priorizando síntomas críticos como el dolor en el pecho, veremos cómo seleccionar, anotar y visualizar la confianza de la clasificación, obteniendo información práctica sobre el comportamiento del modelo y la arquitectura extensible de Adala.
!pip install -q git+https://github.com/HumanSignal/Adala.git
!pip list | grep adala
Instalamos la última versión de Adala directamente desde su repositorio de GitHub. Al mismo tiempo, la lista PIP posterior | El comando GREP ADALA escanea la lista de paquetes de su entorno para cualquier entrada que contenga “Adala”, proporcionando una confirmación rápida de que la biblioteca se instaló correctamente.
import sys
import os
print("Python path:", sys.path)
print("Checking if adala is in installed packages...")
!find /usr/local -name "*adala*" -type d | grep -v "__pycache__"
!git clone https://github.com/HumanSignal/Adala.git
!ls -la Adala
Imprimimos sus rutas de búsqueda de módulos Python actuales y luego buscamos el directorio /usr /local para cualquier carpeta “adala” instalada (excluyendo __pycache__) para verificar que el paquete esté disponible. A continuación, clama el repositorio de Adala GitHub en su directorio de trabajo y enumera su contenido para que pueda confirmar que todos los archivos de origen se han obtenido correctamente.
import sys
sys.path.append('/content/Adala')
Al agregar la carpeta ADALA clonada al sys.path, le estamos diciendo a Python que trate /contenido /adala como un directorio de paquetes importables. Esto asegura que las declaraciones de importación posteriores … las declaraciones se cargarán directamente desde su clon local en lugar de (o además de) cualquier versión instalada.
!pip install -q google-generativeai pandas matplotlib
import google.generativeai as genai
import pandas as pd
import json
import re
import numpy as np
import matplotlib.pyplot as plt
from getpass import getpass
Instalamos el SDK de AI Generativo de Google junto con el análisis de datos y las bibliotecas de trazado (pandas y matplotlib), luego importar módulos clave, Genai para interactuar con Gemini, pandas para datos tabulares, JSON y RE para analizar, Numpy para operaciones numéricas, matlotlib.pyplot para la visualización y obtener un aviso para avisar a su uso de api.
try:
from Adala.adala.annotators.base import BaseAnnotator
from Adala.adala.strategies.random_strategy import RandomStrategy
from Adala.adala.utils.custom_types import TextSample, LabeledSample
print("Successfully imported Adala components")
except Exception as e:
print(f"Error importing: e")
print("Falling back to simplified implementation...")
Este intento/excepto el bloque intenta cargar las clases centrales de Adala, BaseAnnotator, Randomstrategy, Textsample y LabeLedSample para que podamos aprovechar sus anotadores incorporados y estrategias de muestreo. Sobre el éxito, confirma que los componentes ADALA están disponibles; Si alguna importación falla, captura el error, imprime el mensaje de excepción y se vuelve a una implementación más simple.
GEMINI_API_KEY = getpass("Enter your Gemini API Key: ")
genai.configure(api_key=GEMINI_API_KEY)
Le solicitamos de forma segura que ingrese su clave de la API Gemini sin hacerla eco de la cuaderno. Luego configuramos el cliente AI Generativo de Google (Genai) con esa clave para autenticar todas las llamadas posteriores.
CATEGORIES = ["Cardiovascular", "Respiratory", "Gastrointestinal", "Neurological"]
class GeminiAnnotator:
def __init__(self, model_name="models/gemini-2.0-flash-lite", categories=None):
self.model = genai.GenerativeModel(model_name=model_name,
generation_config="temperature": 0.1)
self.categories = categories
def annotate(self, samples):
results = []
for sample in samples:
prompt = f"""Classify this medical symptom into one of these categories:
', '.join(self.categories).
Return JSON format: "category": "selected_category",
"confidence": 0.XX, "explanation": "brief_reason"
SYMPTOM: sample.text"""
try:
response = self.model.generate_content(prompt).text
json_match = re.search(r'(\.*\)', response, re.DOTALL)
result = json.loads(json_match.group(1) if json_match else response)
labeled_sample = type('LabeledSample', (),
'text': sample.text,
'labels': result["category"],
'metadata':
"confidence": result["confidence"],
"explanation": result["explanation"]
)
except Exception as e:
labeled_sample = type('LabeledSample', (),
'text': sample.text,
'labels': "unknown",
'metadata': "error": str(e)
)
results.append(labeled_sample)
return results
Definimos una lista de categorías médicas e implementamos una clase GeminianNotator que envuelve el modelo generativo de Google Gemini para la clasificación de síntomas. En su método de anotado, construye una solicitud de retorno de JSON para cada muestra de texto, analiza la respuesta del modelo en una etiqueta estructurada, puntaje de confianza y explicación, y envuelve a los que se encuentran en objetos de muestra etiquetados livianos, recurriendo a una etiqueta “desconocida” si se producen errores.
sample_data = [
"Chest pain radiating to left arm during exercise",
"Persistent dry cough with occasional wheezing",
"Severe headache with sensitivity to light",
"Stomach cramps and nausea after eating",
"Numbness in fingers of right hand",
"Shortness of breath when climbing stairs"
]
text_samples = [type('TextSample', (), 'text': text) for text in sample_data]
annotator = GeminiAnnotator(categories=CATEGORIES)
labeled_samples = []
Definimos una lista de cadenas de síntomas crudos y envolvemos cada una en un objeto de muestra de texto ligero para pasarlas al anotador. Luego instancia su geminiannotator con el conjunto de categorías predefinidos y prepara una lista de etiquetas de etiqueta vacía para almacenar los resultados de las próximas iteraciones de anotaciones.
print("\nRunning Active Learning Loop:")
for i in range(3):
print(f"\n--- Iteration i+1 ---")
remaining = [s for s in text_samples if s not in [getattr(l, '_sample', l) for l in labeled_samples]]
if not remaining:
break
scores = np.zeros(len(remaining))
for j, sample in enumerate(remaining):
scores[j] = 0.1
if any(term in sample.text.lower() for term in ["chest", "heart", "pain"]):
scores[j] += 0.5
selected_idx = np.argmax(scores)
selected = [remaining[selected_idx]]
newly_labeled = annotator.annotate(selected)
for sample in newly_labeled:
sample._sample = selected[0]
labeled_samples.extend(newly_labeled)
latest = labeled_samples[-1]
print(f"Text: latest.text")
print(f"Category: latest.labels")
print(f"Confidence: latest.metadata.get('confidence', 0)")
print(f"Explanation: latest.metadata.get('explanation', '')[:100]...")
Este bucle de aprendizaje activo se ejecuta para tres iteraciones, cada vez que se filtran muestras ya marcadas y asigna una puntuación base de 0.1, impulsada por 0.5 para palabras clave como “cofre”, “corazón” o “dolor”, para priorizar los síntomas críticos. Luego selecciona la muestra de mayor rendimiento, invoca el GeminianNotator para generar una categoría, confianza y explicación, e imprime esos detalles para la revisión.
categories = [s.labels for s in labeled_samples]
confidence = [s.metadata.get("confidence", 0) for s in labeled_samples]
plt.figure(figsize=(10, 5))
plt.bar(range(len(categories)), confidence, color="skyblue")
plt.xticks(range(len(categories)), categories, rotation=45)
plt.title('Classification Confidence by Category')
plt.tight_layout()
plt.show()
Finalmente, extraemos las etiquetas de categoría predichas y sus puntajes de confianza y usamos matplotlib para trazar un gráfico de barras vertical, donde la altura de cada barra refleja la confianza del modelo en esa categoría. Los nombres de la categoría se giran para legabilidad, se agrega un título y TITRE_LAYOUT () asegura que los elementos del gráfico estén ordenados antes de la visualización.
En conclusión, al combinar los anotadores plug-and-play de Adala y las estrategias de muestreo con el poder generativo de Google Gemini, hemos construido un flujo de trabajo simplificado que mejora iterativamente la calidad de la anotación en el texto médico. Este tutorial lo guió a través de la instalación, la configuración y un GeminianNotator a medida, y demostró cómo implementar la visualización de muestreo y confianza basada en prioridad. Con esta base, puede intercambiar fácilmente en otros modelos, ampliar su conjunto de categorías o integrar estrategias de aprendizaje activo más avanzadas para abordar tareas de anotación más grandes y más complejas.
Verificar Notebook Colab aquí. Todo el crédito por esta investigación va a los investigadores de este proyecto. Además, siéntete libre de seguirnos Gorjeo Y no olvides unirte a nuestro 90k+ ml de subreddit.
Aquí hay una breve descripción de lo que estamos construyendo en MarkTechPost:
Asif Razzaq es el CEO de MarktechPost Media Inc .. Como empresario e ingeniero visionario, ASIF se compromete a aprovechar el potencial de la inteligencia artificial para el bien social. Su esfuerzo más reciente es el lanzamiento de una plataforma de medios de inteligencia artificial, MarktechPost, que se destaca por su cobertura profunda de noticias de aprendizaje automático y de aprendizaje profundo que es técnicamente sólido y fácilmente comprensible por una audiencia amplia. La plataforma cuenta con más de 2 millones de vistas mensuales, ilustrando su popularidad entre el público.
Related posts


















































































































































































































































































































Trending
-
Startups12 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales12 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Recursos12 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups10 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Startups12 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos12 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Recursos12 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Noticias10 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo