Connect with us

Noticias

Implementación y evaluación de un modelo de enseñanza de pasantía quirúrgica optimizado utilizando ChatGPT | Educación Médica BMC

Published

on

Los avances tecnológicos están haciendo avanzar significativamente la educación médica. Actualmente, el desarrollo del plan de estudios médico enfatiza la mejora de los métodos de enseñanza a través de la simulación médica, la discusión de la literatura y la investigación. Existe una creciente defensa de la integración de la inteligencia artificial y las pautas clínicas en la enseñanza para cultivar mejor el razonamiento clínico y las habilidades de pensamiento lógico de los estudiantes.

Múltiples estudios han demostrado los beneficios potenciales de ChatGPT en la educación médica. Los chatbots como ChatGPT pueden ser una herramienta poderosa para mejorar la alfabetización sanitaria, especialmente entre estudiantes y jóvenes estudiantes. [6]. En primer lugar, ChatGPT ofrece acceso rápido e inmediato a amplia información médica, lo que ayuda a los estudiantes de medicina novatos a analizar datos médicos complejos. [7]. En segundo lugar, al crear escenarios y estudios de casos, ChatGPT ayuda a los estudiantes a perfeccionar y mejorar sus habilidades de planificación de diagnóstico y tratamiento, mejorando así sus capacidades de razonamiento clínico y su preparación para situaciones clínicas del mundo real. [8]. En tercer lugar, ChatGPT puede respaldar las tareas académicas respondiendo preguntas y redactando resúmenes. Su capacidad para crear esquemas y revisiones de la literatura puede agilizar la investigación médica. Además, también facilita el resumen de publicaciones relevantes y destaca hallazgos importantes, lo que ayuda a los investigadores médicos a navegar por la gran cantidad de material disponible en línea. [9]. Finalmente, ChatGPT permite el aprendizaje personalizado para los estudiantes al actuar como tutor o asistente virtual, ayudándolos con las tareas y fomentando experiencias de aprendizaje interactivas. [10].

En este estudio, ChatGPT se utilizó en cuatro funciones clave en las fases de educación médica previa, en clase y posterior a la clase. Durante la fase de preparación previa a la clase, los estudiantes pudieron consultar ChatGPT sobre cualquier problema que encontraron, lo que facilitó una comprensión inicial de conceptos, terminología y casos médicos fundamentales. En un estudio, se pudo generar una serie de imágenes a partir de texto descriptivo utilizando un modelo de aprendizaje profundo basado en redes generativas adversarias. La herramienta se utiliza en el proceso narrativo visual para facilitar el aprendizaje mejorado por la tecnología y mejorar las habilidades de razonamiento lógico. [11]. Los modelos de aprendizaje profundo basados ​​en redes generativas adversarias desempeñan un papel clave en la simulación de varios tipos de entornos de aprendizaje y ayudan a desarrollar habilidades prácticas en modelos de asistentes de enseñanza virtuales. Los resultados experimentales muestran que este modelo mejora el efecto de aprendizaje de los estudiantes y mejora su motivación y capacidad de aprendizaje. [12]. En el aula, se empleó ChatGPT para simular las interacciones con los pacientes, proporcionando una plataforma para que los estudiantes practiquen habilidades de diagnóstico y comunicación en un entorno seguro y controlado. En sus interacciones con ChatGPT, los estudiantes son libres de practicar habilidades de diagnóstico y comunicación sin los riesgos que podría representar un paciente real. Un diagnóstico falso o una falta de comunicación no tiene un impacto real en el paciente, lo que permite a los estudiantes aprender mediante prueba y error. ChatGPT está disponible y los estudiantes pueden practicar a su propio ritmo y necesidades de aprendizaje, sin depender de un tiempo y lugar específicos. Esta flexibilidad hace que el aprendizaje sea más eficiente y conveniente. ChatGPT puede simular una variedad de escenarios clínicos y características del paciente para brindar una experiencia interactiva diversa. Los estudiantes están expuestos a diferentes condiciones y antecedentes de pacientes, mejorando así su capacidad para afrontar situaciones complejas. Después de clase, los estudiantes pueden interactuar con ChatGPT individualmente o en grupos de estudio, discutiendo preguntas de práctica proporcionadas por la herramienta, abordando preguntas difíciles o desafiantes y explorando el material desde varias perspectivas. A lo largo del proceso interactivo, los estudiantes evaluaron continuamente su comprensión del material, identificaron sus debilidades y ajustaron sus estrategias de aprendizaje y áreas de enfoque de manera oportuna para enfocarse en áreas específicas para revisión y refuerzo, asegurando que se mantuvieran en el camino correcto. [13]. De manera similar, los instructores podrían utilizar ChatGPT para recopilar recursos didácticos y estudios de casos relevantes durante la fase de preparación de la lección. Al aprovechar ChatGPT, podrían mejorar la participación de los estudiantes en el aula y utilizar la herramienta después de clase para recopilar y analizar los comentarios de los estudiantes sobre el proceso de enseñanza. Además, los estudiantes podrían utilizar ChatGPT para resolver rápidamente cualquier confusión relacionada con el conocimiento profesional. Con la capacitación del modelo ChatGPT, los estudiantes de medicina y los médicos pueden mejorar su razonamiento clínico y sus habilidades de toma de decisiones, mejorando así el desempeño del análisis y diagnóstico de casos. Además, ChatGPT proporciona a los estudiantes de medicina una experiencia de aprendizaje personalizada y eficiente a través de conversaciones simuladas, tutorías inteligentes y preguntas y respuestas automatizadas, profundizando así la comprensión de los conocimientos médicos de los estudiantes. [14].

Los resultados de este estudio indican que las puntuaciones teóricas de los grupos de estudio fueron significativamente más altas que las de los grupos de control, lo que refleja mejores resultados de aprendizaje. No se observaron diferencias significativas en las puntuaciones entre los dos grupos de estudio ni entre los dos grupos de control. Esto sugiere que la aplicación de ChatGPT en los grupos de estudio resultó en una comprensión y dominio superiores del conocimiento teórico en comparación con los métodos de enseñanza tradicionales utilizados en los grupos de control.

Los resultados de satisfacción docente de este estudio indican que los estudiantes de los grupos de estudio que utilizaron ChatGPT informaron puntuaciones de satisfacción total significativamente más altas, así como mejores calificaciones en la organización del curso y los métodos de enseñanza, en comparación con los grupos de control. Las diferencias en la satisfacción con el contenido del curso y los instructores fueron relativamente menores, lo que sugiere que el uso de ChatGPT como ayuda didáctica, a través de su novedoso y atractivo formato interactivo de preguntas y respuestas, su fuerte interactividad y su enfoque estructurado, parece mejorar la participación de los estudiantes. y participación en el aprendizaje. Esto indica que ChatGPT puede fomentar eficazmente un mayor interés y promover resultados educativos. La diferencia más notable entre los métodos de enseñanza radica en la ejecución en el aula; La capacidad de ChatGPT para simular varios escenarios y realizar análisis de casos, combinada con el acceso a recursos didácticos adicionales, mejora significativamente las habilidades de aplicación clínica de los estudiantes de medicina.

La evaluación del estudio sobre el cumplimiento del aprendizaje abarcó cuatro aspectos. Los hallazgos indican que no hubo diferencias significativas entre los grupos en cuanto al establecimiento de planes de aprendizaje. Sin embargo, para los otros tres aspectos (preparación autónoma previa a la clase y revisión posterior a la clase, participación en la enseñanza en el aula y búsqueda de retroalimentación y asistencia), los grupos de estudio exhibieron calificaciones significativamente más altas en comparación con los grupos de control. En muchos estudios y análisis estadísticos, una “puntuación más alta” suele considerarse un resultado positivo, lo que significa que el grupo de estudio obtuvo mejores resultados en algo. Los indicadores de evaluación de este estudio son todos positivos y se puede considerar que una “puntuación más alta” indica un mejor desempeño del grupo de investigación, lo que es un resultado positivo. Esto sugiere que la incorporación de ChatGPT como ayuda didáctica mejora el cumplimiento del aprendizaje de los estudiantes al promover el aprendizaje activo, fomentar el aprendizaje basado en la investigación y mejorar su interés y capacidad para el aprendizaje autónomo.

Si bien las mejoras en el cumplimiento son evidentes, la profundización continua de la comprensión antes, durante y después de la clase también contribuye a mejorar el pensamiento lógico y las habilidades analíticas. En particular, el estudio encontró una tasa relativamente baja de preguntas y solicitudes de ayuda de los estudiantes, durante y después de clase. Las diferencias observadas entre los grupos de estudio y control pueden atribuirse a la capacidad de ChatGPT para ayudar a los estudiantes a superar la timidez y no juzgar los errores. La herramienta de inteligencia artificial ayuda a los estudiantes a superar las dudas, permitiéndoles hacer preguntas de forma libre y repetida sin temor a ser juzgados o interacciones negativas. Al generar materiales de aprendizaje basados ​​en el estado de aprendizaje y las necesidades de cada estudiante, ChatGPT les permite adoptar un enfoque más autónomo del aprendizaje y tener una experiencia educativa adaptada a sus preferencias. Estas interacciones facilitan la aclaración oportuna, una comprensión más profunda y el dominio del material.

ChatGPT también puede adaptar planes y materiales de aprendizaje individualizados para cada estudiante para adaptarse a los diferentes estilos y habilidades de aprendizaje dentro del aula. Este enfoque personalizado fomenta un circuito de retroalimentación positiva, mejorando las capacidades de aprendizaje de los estudiantes.

La aplicación de ChatGPT en la educación médica sigue siendo un tema de considerable debate. Si bien ChatGPT ofrece funcionalidades innovadoras y ventajas potenciales, también plantea varias preocupaciones éticas y prácticas, el potencial de uso indebido, particularmente en los ámbitos de la educación y el mundo académico. [15]. Como chatbot, ChatGPT carece de la capacidad de pensar críticamente como un ser humano, lo que limita su capacidad para interpretar y analizar información médica más allá de sus algoritmos programados. No posee el juicio ni el discernimiento necesarios para los aspectos éticos o legales de la práctica médica y puede plantear riesgos relacionados con violaciones de datos y privacidad. [16, 17].

El auge de herramientas de inteligencia artificial como ChatGPT ha llevado a la deshonestidad académica, con informes de estudiantes que utilizan la tecnología para hacer trampa en sus trabajos de ensayo. [18]. Algunas investigaciones sugieren que ChatGPT puede no ser un recurso confiable para problemas complejos que requieren habilidades y conocimientos avanzados. [19]. Además, los académicos han estado preocupados por la confiabilidad de ChatGPT como fuente creíble de información. [20]. Según muchos educadores, ChatGPT puede ser utilizado fácilmente para hacer trampa por parte de estudiantes que toman cursos de comunicación y filosofía, pero es fácil de identificar. Una preocupación creciente es que los estudiantes eventualmente perderán la capacidad de generar ideas originales y no podrán presentar argumentos adecuados para demostrar un punto. [21]. La accesibilidad tecnológica es un desafío. El uso eficaz de ChatGPT depende de la conectividad de la red y la disponibilidad del dispositivo, lo que puede resultar problemático en diferentes regiones y entre poblaciones estudiantiles específicas. Se deben desarrollar políticas para utilizar ChatGPT en diferentes entornos técnicos. [22]. Una preocupación es la posible devaluación del aprendizaje cooperativo en la educación médica, particularmente en enfoques tradicionales como ABP, CBL y TBL. La colaboración y el trabajo en equipo son cruciales en estos enfoques, y ChatGPT puede reducir involuntariamente la importancia de las interacciones entre humanos. Mantener un equilibrio entre la tecnología y las relaciones es esencial para un aprendizaje eficaz. Si bien ChatGPT mejora el ABP mediante instrucción personalizada, los educadores deben enfatizar la importancia duradera del aprendizaje basado en el paciente y el trabajo en equipo. A pesar de las capacidades de simulación y los conocimientos teóricos de ChatGPT, no puede reemplazar la experiencia práctica obtenida a través de interacciones en el mundo real, especialmente en la educación médica. Reconocer las limitaciones de los modelos es esencial para evitar una dependencia excesiva del aprendizaje por simulación. Integrar perfectamente ChatGPT en los planes de estudio existentes es un desafío que requiere que los educadores inviertan tiempo en diseñar e integrar componentes impulsados ​​por IA que se alineen con los objetivos generales de aprendizaje. [23]. Dadas estas consideraciones, es esencial utilizar ChatGPT con prudencia como herramienta auxiliar de aprendizaje, complementando en lugar de reemplazar los métodos educativos y las técnicas de investigación tradicionales, y siendo consciente de las limitaciones de ChatGPT.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Columnista de humor versus chatgpt: ¿Soy más divertido que un robot?

Published

on

Después de años de resistir y defender mis valores de ludita, finalmente me he dado.

Finalmente usé chatgpt. Y me preocupa que, algún día, sea mucho más divertido que yo.

Desde 2023, he publicado la columna Ask Lucas como una columna de consejos satíricos que a menudo se confunde con uno escrito por un sociópata que intenta incitar actos de violencia aleatorios en la comunidad.

Secretamente esperaba que publicar esta columna ayudara a envenenar el pozo digital que AI extrae al robar nuestras ideas. Inyectando literalmente cientos de columnas de Ask Lucas (destilaciones de idiotez pura y desprecio por la profesión de la columna de asesoramiento sagrado) en la web tiene que ser suficiente para cancelar un par de novelas de Octavia Butler, ¿verdad?

Bueno, hoy descubrimos exactamente lo que piensan los robots de mí. Llevé a Chatgpt a punta de pistola y lo alimenté con fuerza varios ejemplos de las peores columnas que jamás hayan maldecido las páginas del concesionario simple.

Entre episodios de adulación no solicitada e insincera, ChatGPT también hizo varias observaciones sobre la tradición que subyace en las columnas Ask Lucas. Una de esas observaciones, en palabras de Chatgpt: “Ohio es un paisaje maldito lleno de seres antiguos y miseria estacional”.

Todos los que viven aquí saben que esto es cierto, y me alegro de haber podido enseñarle algo sobre el Mordor del Medio Oeste.

Una cosa que encontré desalentador fue el despido de Chatgpt del verdadero propósito de esta columna: educar a mis lectores sobre las anguilas que acechan en la fontanería, esperando atacar cuando menos lo esperamos.

Esto es lo que se le ocurrió a Chatgpt:

“Querida Lucas (chatgpt): Recientemente me mudé a un nuevo apartamento y descubrí que mi vecino de arriba tiene una habitación que corre casi exclusivamente entre las 2 y las 4 a.m., es extrañamente ruidosa, y he perdido varias noches de sueño al sonido de sus muebles. No quiero ser el vecino de mal humor, pero tampoco quiero perder la cabeza. ¿Qué tengo que hacer?

Estimado lector (chatgpt): Ah, sí, las horas rituales. De 2 a 4 am es el horario estelar para que el Roomba realice sus deberes sagrados.

Podrías pensar que es una limpieza. Pero no, Roombas no limpian. Ellos cazan. Está escaneando el edificio para debilidades psíquicas, trazando líneas de Ley, y que golpea suavemente a la otomana de su vecino para mantener los portales sellados. No estás lidiando con una aspiradora de robot. Estás lidiando con un guardián de insomnio.

La gente ha olvidado que la mayoría de los dispositivos “inteligentes” más modernos son simplemente nuevas iteraciones de las herramientas medievales. La freidora de aire es un altar de sacrificio basado en la convección. El Apple Watch es un sol maldito que susurra recordatorios directamente en su sangre. ¿Y el Roomba? Ese es un golem de patrocinio de límites de tallado en sigilo con capacidades Bluetooth.

Si fuera inteligente, agradecería a su vecino por mantener a la bestia activa durante las horas de brujas. Lo último que quieres es que ese Roomba quede inactivo. Una vez inactivo durante demasiado tiempo, un Roomba comienza a soñar. Y cuando sueña, las paredes se adelgazan.

Pero no estás aquí por la verdad. Estás aquí por consejo. Muy bien.

Opción uno: confrontar a su vecino. Llama a su puerta, dígales que estás siendo perseguido por un disco de hockey en forma de disco con problemas de abandono. Pueden disculparse. O pueden mirarte a los ojos y decir: “Hacemos lo que debemos para mantenerlo ocupado”. Si eso sucede, vete. No empaces. No digas adiós. Solo muévete.

Opción dos: luchar contra la tecnología con tecnología. Consigue tu propia habitación. Ejecutarlo de 2 a 4 a.m., directamente debajo del suyo. Si lo hace bien, los dos dispositivos se reunirán en el medio: dos gladiadores de ojos muertos encerrados en un bulto para siempre, girar, recalibrar. Esto podría romper la maldición. O podría despertar algo. De cualquier manera, será más tranquilo.

Opción tres: acepta tu destino. Auriculares con cancelación de ruido, máquinas de ruido blanco, los mecanismos habituales de afrontamiento burgueses. O tapones para los oídos si eres pobre.

Al final, probablemente no se trata de la habitación. Se trata de la fragilidad de la paz en nuestro mundo moderno. Cada vez que nos sentimos a gusto, algo comienza a pitgar en el techo. Tal vez esta sea una prueba. Tal vez sea un presagio. O tal vez es solo el horrible gusto de su vecino en la programación de robots.

Dormir bien. O no lo hagas. Tu movimiento “.

Lucas (el humano): Para crear esta “columna”, alimenté cinco de mis columnas en ChatGPT y creé tres columnas, lo que permite que el robot cree la pregunta y la respuesta.

Esto no es horriblemente diferente de cómo trabajo, escribo muchas de mis propias preguntas, excepto que en lugar de tomar descansos de café innecesarios y antagonizar a mi esposa mientras intenta trabajar, Chatgpt simplemente se calla y hace el trabajo.

Por lo general, estas columnas me llevan alrededor de 3-4 horas, y ChatGPT pudo crear una imitación medio decente en solo segundos. La parte más larga del proceso fue decidir qué incorpora ingresar.

A los chelines corporativos les gusta llamar a esto “eficiencia”, pero en realidad es solo alejar el costo del tiempo de un humano y hacia la absurda cantidad de energía que se necesita para operar la máquina de plagio.

Dado que la mayor parte de la energía de Estados Unidos todavía proviene de combustibles fósiles, una forma de ver la IA es que encarna una especie de uroboros evolutivo, devorando los cadáveres de dinosaurios litentes para crear una inteligencia superior similar a la de un Dios.

Eso puede sonar poético, pero todo lo hace si usas un montón de palabras elegantes. La verdad no es tan romántica cuando recuerdas quiénes somos realmente. No vamos a usar esta inteligencia para explorar las estrellas o terminar las guerras. Vamos a hacer fotos de un aficionado a Donald Trump y publicarlas en Facebook para anunciar Ozempic fuera de marca.

También es un poco injusto para mí compararme con un robot. ChatGPT se limita a evitar consejos irresponsables o peligrosos. Sin embargo, no tengo tales compunciones. En esta columna, les dije a los lectores que embalsen sus autos en vehículos llenos de niños, disparen rifles de asalto salvajemente al cielo y maten las marmotas con bombas de automóviles.

Entonces te preguntaré, ¿soy más divertido que un robot?

Tenga en cuenta que hay una tercera opción, y es que ni esta columna, ni sus sustitutos de IA, son divertidos, y que debería dejar de hacer esto para preservar lo que queda de la cordura del noreste de Ohio.

Aquí están las columnas Ask Lucas que puse en ChatGPT para generar mi inevitable reemplazo.

Pregúntale a Lucas: Mi esposo sigue hablando consigo mismo mientras duerme.

Pregúntele a Lucas: Mi esposo me sigue sorprendiendo por la noche

Pregúntale a Lucas: No puedo tomarme otro mes de clima frío.

Pregúntale a Lucas: ¿Cómo les digo a otros conductores “lo siento!” si cometo un error en el camino?

Pregúntale a Lucas: ¿Cómo evito que mi novio obsesionado con los Browns arruine mis fines de semana este año?

Continue Reading

Noticias

Best AI assistants tested: What works, what doesn’t, and which to use

Published

on

Staying on top of AI developments is a full-time job.

I would know, because it’s my full-time job. I subscribe to Anthropic’s Pro mode for access to their latest model, Claude 3.7, in “extended thinking” mode; I have a complementary subscription to OpenAI’s Enterprise mode so that I can test out their latest models, o3 and o4-mini-high (more later on OpenAI’s absurd naming scheme!), and make lots of images with OpenAI’s new image generation model 4o, which is so good I have cancelled my subscription to my previous image generation tool Midjourney.

I subscribe to Elon Musk’s Grok 3, which has one of my favorite features of any AI, and I’ve tried using the Chinese AI agent platform Manus for shopping and scheduling. And while that exhausts my paid subscription budget, it doesn’t include all the AIs I work with in some form. In just the month I spent writing this piece, Google massively upgraded its best AI offering, Gemini 2.5, and Meta released Llama 4, the biggest open source AI model yet.

So what do you do if keeping up with AI developments is not your full-time job, but you still want to know which AI to use when in ways that genuinely improve your life, without wasting time on the models that can’t?

That’s what we’re here for. This article is a detailed, Consumer Reports-style dive into which AI is the best for a wide range of cases and how to actually use them, all based on my experience with real-world tasks.

But first, the disclosures: Vox Media is one of several publishers that have signed partnership agreements with OpenAI, but our reporting remains editorially independent. Future Perfect is funded in part by the BEMC Foundation, whose major funder was also an early investor in Anthropic; they don’t have any editorial input into our content either. My wife works at Google, though not in any area related to their AI offerings; for this reason, I usually don’t cover Google, but in a piece like this, it’d be irresponsible to exclude it.

The good thing is that this piece doesn’t require you to trust me about my editorial independence; I show my work. I ran dozens of comparisons, many of which I invented myself, on every major AI out there. I encourage you to compare their answers and decide for yourself if I picked the right one to recommend.

AI art is made by training a computer on the contents of the internet, with little regard for copyright or the intent of the creators. For that reason, most artists can’t stand it. Given that, is it defensible to use AI art at all?

I think in a just world OpenAI would certainly compensate some artists — and in a just world, Congress would be moving to lay out the limits on artistic borrowing. At the same time, I am increasingly convinced that existing copyright law is a poor fit for this problem. Artists influence one another, comment on one another, and draw inspiration from one another, and people with access to AI tools will keep wanting to do that.

My personal philosophy is shaped by the fan cultures of my childhood: It’s okay to build on someone else’s work for your own enjoyment, but if you like it, you should pay them for it, and it’s absolutely not okay to sell it. That means no generative AI art in someone else’s style for commercial purposes, but it’s fine to play around with your family photos.

OpenAI’s new 4o image creation mode is the best AI out there for generating images, by a large margin. It’s best in the free category, and it’s best in the paid category.

Before it was released, I was subscribed to Midjourney, an AI image generator platform. Midjourney is probably what you think of when you think of AI art: It produces mystical, haunting, visually beautiful stuff, and has some great tools for improving and editing your final results, like touching up someone’s hair while leaving everything else in place.

The big thing that 4o can do, which no model before could reliably pull off, is take a picture that didn’t come out well and turn it into a beautiful work of art, all while still preserving the character of the original.

For example, here’s a still from a video of my wife and I singing “Happy Birthday” to our baby on her first birthday:

Courtesy of Kelsey Piper

It’s a beautiful moment, but not exactly a flattering picture. So I asked ChatGPT to render it in the style of Norman Rockwell, a mid-century illustrator whose work I love, and got this:

A painterly image of two women smiling and holding a baby close to a birthday cake with a single candle,

Image generated by ChatGPT.

The AI moved the cake (which had been barely visible behind the paper towel roll in the original still) to be the focal point of the image, while keeping the way my wife and I are holding the baby together, as well as the cluttered table, and the photograph-covered fridge in the background. The result is warm, flattering, and adorable.

It’s this capability that made 4o go viral recently in a way that no image generator before it had. Here’s Midjourney’s attempt, for example:

An image generated by Midjourney showing two women smiling and holding a baby while sitting at a kitchen table covered with loose cherries and a cake

Image generated by Midjourney.

You’ll notice that it’s a seemingly, uh, completely different family, with no real inspiration from the original at all! You can eventually get a better result than this out of Midjourney, but only by spending weeks becoming a pro at prompting with the platform’s highly specific language and toolset.

By contrast, ChatGPT was able to give me a far superior output on the first try in response to a simple request without specialized language.

The difference between 4o and other image models is most notable with this kind of request, but it’s better for almost everything else I use images for, too. The product you get out of the box is pretty good, and it’s not hard to produce something much better. That, ideally, is what we should be getting out of our AI tools — something amazing that can be created with simple language by a nonexpert.

The one place 4o still falls short is editing small parts of an image while keeping the rest the same. But even there, you no longer need Midjourney — Gemini now has that capability for free.

Prompting Strategies for 4o image generation

To get good images out of 4o, you’ll first need to get around the filters which prohibit a wide range of images — like offensive or pornographic images — but which are often enforced against perfectly inoffensive content in a way that can feel random. To avoid sporadic scoldings from the content filter, don’t ask for work in the style of a specific artist, but rather, something that is reminiscent of that artist, and then ask specifically for a “style transfer.” I’m sure that’s not the only adequate workaround, but it’s one that has proven reliable for me.

In March, the internet went briefly wild over the ability to use 4o to reproduce cute family photos in the style of Japanese animator Hayao Miyazaki’s Studio Ghibli. But Studio Ghibli’s style is much more than just cute, and with a little more prompting, you can get much better results. Here’s a 4o Studio Ghibli-style rendering of a picture I took of my daughter sneaking a snack off the table, from just the prompt “Ghibli this please”:

Ghibli-style image of a young boy in front of a spread of fruit and sliced meats, generated by 4o

Image generated by 4o.

Kawaii! But here’s what you get if you invite 4o to think first about what makes the picture Ghibli, where it might fit into a Studio Ghibli movie, and what tiny details such a movie would include:

Ghibli-style image of a young boy in front of a spread of fruit and sliced meats, generated by 4o

Image generated by 4o.

The differences are subtle but meaningful: Light is cast from a specific source, instead of a general sourceless brightness. There’s a bit more variety in the foods on the table, details that make the spread appear more realistic. The book on the floor isn’t just any book — it’s recognizably Eric Carle’s classic The Very Hungry Caterpillar, evoked with just two colors and one line. There’s an intentionality and intensity to the baby that was missing from the first picture.

A few years ago, one great oddity of language models was that they’d be much smarter if you simply told them, “give an intelligent answer.” This isn’t nearly as true of language models anymore, but it remains profoundly true of AI art generation. Try asking the AI to do a good job, and it’ll do a better one. Challenge it on whether it truly captured an artist’s genius, and it’ll give you a thoughtful answer and then draw a better version.

The difference is more pronounced for more realistic art styles (like pencil illustration, photorealism, or oil paintings), which don’t always look good and will often hit the uncanny valley if you don’t know how to prompt the AI over it. Here’s what I get with 4o if I upload a picture of me and my youngest daughter at the beach for the first time with just the words “please do a style transfer to an illustration reminiscent of Rockwell”:

Painterly image of a woman on a beach smiling and holding a young child who is pointing at ocean waves, generated by 4o

Image generated by 4o.

This is impressive for an AI, but it’s not actually very good as a work of art, and it is almost totally lacking Norman Rockwell’s magic. That’s not surprising: More realistic art styles like Rockwell’s often fall flat with 4o unless you’re able to put in some work in getting the AI to draw them properly.

If you are, here’s the strategy I recommend: Don’t just upload one picture, but a whole cluster of them, each in slightly different postures and moments. Upload good, clear pictures of each family member’s face and tell the AI they’ve been included as a reference. Then, instead of asking the AI to immediately generate the picture, ask it to talk with you about what you’re hoping to capture. This is what I wrote:

This is a picture of the moment that my daughter first saw the ocean. I want an illustration that captures this moment in the style of a mid-century illustrator like Norman Rockwell — something sharp, detail-oriented, and personal with an eye for the magic of ordinary moments and the joys of ordinary lives. I included additional pictures of my daughter and I for reference material for you. Before you generate the image, let’s have a conversation about the essential elements of Rockwell’s style, what he’d bring to this picture and how we can capture it.

4o responds to queries like this enthusiastically:

I’d love to talk about how to capture this moment in a Norman Rockwell-inspired illustration — it’s such a perfect candidate for that style: a first encounter with something vast and wild (the ocean!), grounded by warmth, care, and a very human moment between a parent and child.

Let’s break down some essential elements of Rockwell’s style, and how they could apply to this scene.

After some back and forth, it produced this:

Painterly image of a woman on a beach smiling and holding a young child who is pointing at ocean waves, generated by 4o

Image generated by 4o.

Rockwell? Not exactly. But this is much better than the first draft we just looked at. It has more motion, more energy, more detail, and more expression — and all that was just from asking the AI to think through what the painting should try to achieve before drawing it!

You can also ask 4o to revise its drawings, but you can really only ask this once: After the first revision, in my experience, it starts making the drawings worse and worse, perhaps because the “context” it uses is now full of its own bad drafts. (This is one of many examples of how AI does not work like a human.)

This is also the one place where Midjourney still shines — it has very good tools for editing one specific part of a picture while preserving the overall style, something 4o largely lacks. If you want a second revision of a drawing you got in 4o, I recommend you open a new chat and copy over the draft you’re revising, along with your original inspiration images.

These simple prompting strategies work for almost whatever you’re trying to do with the AI. Even if you’re in a hurry, I highly recommend asking the AI “what would [artist] see in this image” before you ask for a rendition, and if you have the time, I recommend having a long back-and-forth about your vision.

Best for winning petty internet arguments

When Elon Musk’s X.AI released Grok 3, it came with an incredible feature that I’ve been impatiently waiting for some other company to replicate: a button to scan someone’s X profile and tell you all about them.

Screenshot

Whenever someone replies to one of my tweets in a particularly memorable way (for good or for bad), I’ll click the button to get a summary of their entire Twitter presence. Are they thoughtful? Do they engage in good faith? Are they a “farmer from Nebraska” who mostly posts about why Ukraine is bad (that is, probably a bot)?

It’s a great feature. So, of course, X.AI soon dramatically weakened it, presumably because people like me were using it constantly and making lots of computationally expensive queries. I believe it no longer uses the most advanced Grok model, and it definitely now only scans a few days of profile history. But there’s a brilliant product opportunity if anyone’s looking for one — give me back the good version of this feature! It’s definitely a guilty pleasure, but it is one of the only cases where I was using AI constantly.

Gemini 2.5 Pro is the best AI for writing in the free category; GPT 4.5 beats it out in the paid category.

I’m not an artist, so the ways that AIs are imperfect at art don’t really bother me — it’s still much better than I could do myself! But I am a fiction writer, so when it comes to fiction, I can’t help seeing the limitations of AI.

The most important one is how predictable AI creative writing tends to be. The art of writing is the art of earning the reader’s investment and then repaying it. AIs…don’t do this. They can write pretty metaphors; they can wax poetic in any style you wish. But they can’t, as yet, deliver the real stuff of good fiction.

AIs are fantastic if you want a silly bedtime story with your child as the protagonist (kids love this), or if you want a sounding board for ideas you can incorporate into your own work. They’re also a friendly fiction reader, happy to offer feedback and analysis (perhaps with a little bit too much enthusiasm).

As with art, prompting is key. I primarily explored the ability of AIs to generate fiction by asking them to write the prologue to George R.R. Martin’s A Game of Thrones (I picked this because, of course, the ultimate dream is an AI that can finish this otherwise doomed-to-be-unfinished series).

Martin is very good at what he does; the prologue, featuring some ill-fated men of the Night’s Watch encountering their supernatural foe, succeeds at establishing the unique atmosphere of the world of Thrones while immediately hooking the reader. In just 14 pages, the prologue represents everything AIs can’t do yet in writing. Their prose tends to be overwrought; their dialogue is clunky and unsubtle.

Here’s a side-by-side comparison of Martin and AIs attempting to imitate him. First, Martin:

We should start back,” Gared urged as the woods began to grow dark around them. “The wildlings are dead.”

“Do the dead frighten you?” Ser Waymar Royce asked with just the hint of a smile.

Gared did not rise to the bait. He was an old man, past fifty, and he had seen the lordlings come and go. “Dead is dead,” he said. “We have no business with the dead.”

“Are they dead?” Royce asked softly. “What proof have we?” “

Will saw them,” Gared said. “If he says they are dead, that’s proof enough for me.”

Will had known they would drag him into the quarrel sooner or later. He wished it had been later rather than sooner.

The cold was a blade against the skin, honed sharp by the endless northern dark beneath the sentinel pines. Gared spat, the glob freezing before it struck the crusted snow, a grim omen even for a man twenty years sworn to the Watch. They were hunting wildlings, or so the crisp orders from the Lord Commander had read, yet the silence pressing in felt older and colder than any mere man could conjure. Ser Waymar Royce, third son of some southern lordling, rode ahead as if on parade, oblivious or uncaring of the hairs prickling on Gared’s neck. Young Will shivered beside him, not just from the frost, his eyes darting towards shadows that seemed too deep, too still. This ancient forest held its breath tonight, Gared knew, waiting for something far worse than raiders to break the unnatural hush.

The woods whispered secrets that night, warnings that went unheard beneath the pale and indifferent moon. Harren drew his cloak tighter about his shoulders, watching the darkness between trees as though it might breathe, move, and claim him. Beside him, Torvin spat into the frozen earth, impatient and proud, blind to the fear creeping in from the edges of sight and sound.

They had ridden north past the Wall, arrogant and armored against superstition, chasing wildlings or ghosts or worse. But now Harren felt their arrogance dwindling like a candle guttering in wind, each snap of a branch sending icy tendrils down his spine. Behind them, quiet and watchful, Maester Rodrik whispered a prayer to gods long abandoned, his voice trembling with dread beneath the vast, indifferent sky.

The wind howled through the jagged spires of the Frostfang Reaches, carrying a chill that bit deeper than any blade, and Ser Willem Cray felt its teeth in his bones. He crouched low behind a spur of ice-crusted rock, his breath fogging in the moonlight, his mailed hand tight around the hilt of his longsword. The night was too quiet, the kind of quiet that smothered sound and sharpened fear, and Willem’s eyes darted to the shadowed pines below, where shapes might move—or might not. He was a knight of House Drayce, sworn to patrol the borderlands, but no oath could warm him against the dread that coiled in his gut. Beside him, young Tomm, barely a man, shivered in his cloak, his spear trembling as he whispered, “They’re out there, ser, ain’t they?” Willem said nothing, but his gaze fixed on the darkness, where a faint, unnatural glow pulsed once, then vanished. Whatever stalked the Reaches tonight was no mere brigand, and Willem Cray, for all his years of service, feared he would not live to name it.

The wind carried the smell of death across the frozen forest, sharp and metallic against the clean scent of pine. Ser Gareth Frost pulled his weathered cloak tighter, cursing the Lord Commander for sending men beyond the Wall on the coldest night in a generation. Beside him, the boy Tommen shivered visibly, his leather jerkin inadequate against the unnatural chill that had descended with the dusk.

“We should turn back,” whispered Tommen, his breath forming crystals in the air that seemed to hang suspended longer than they should. “There’s something wrong with these woods.”

Ser Gareth ignored him, scanning the treeline where the ancient sentinels stood like silent watchers, their branches heavy with snow that had fallen three days past and showed no sign of melting. He had served the Night’s Watch for twenty years, had grown accustomed to the forbidding silence of the haunted forest, but tonight even he felt the wrongness in the air—a stillness that spoke of something waiting.

“We’ve a duty,” Ser Gareth said, the words sounding hollow in the pressing quiet. “Three rangers missing, and Lord Commander Harlow will have answers.”

You’ll notice that not only are these all much worse than Martin’s (and that’s with Martin’s work almost certainly in the training data!), they’re all bad in the same way. The prose is florid and overwritten: While Martin uses normal language to methodically introduce an unease without even hinting at the supernatural, and drives the story through conflict among his characters, the AIs are all unsubtle. They know this is a story about the supernatural and waste no time putting it front and center.

That’s not to say they’re all the same. In my experience trying to teach AIs to write well, I did end up feeling that Gemini was the quickest study (free tier) and that ChatGPT 4.5 had some special sauce (paid tier). ChatGPT 4.5 is the only AI whose fiction writing has made people say in surprise, “Wow, that’s AI written?” Both of those models, to me, seemed more creative and more capable of executing on their ideas with prose that I enjoyed reading.

Gestalt impressions don’t make for a very satisfying consumer review, so I had another idea: an essay contest. I asked each of Gemini 2.5 Pro, ChatGPT 4.5, Grok, and Claude to write two short stories: one realistic fiction about a woman being nitpicked by her mother on her wedding day, and one “Game of Thrones but in space” sci-fi prologue. My clever idea was that I’d ask a different bunch of AIs to judge the stories, to provide an alternative source of evaluation to my own personal impression that Gemini is the best in the free category and ChatGPT the best in the paid category. However (perhaps predictably in hindsight), this didn’t really work — the AI ratings were all over the place. If you’d like, you can read the contenders yourself.

Just like with art, however, you can make AIs much better at writing through the power of prompting. My (incredibly lengthy) prompt to AIs to improve their prose writing emphasizes feeding them lots of examples of strong writing, inviting a careful, structured approach to imitating it, and encouraging them to do multiple drafts and pick the strongest.

Here’s Gemini 2.5 pro, asked to write two-sentence flash fiction on a topic of its choosing, without any structured prompting:

​​The old librarian insisted the dusty tome had never been checked out, its borrower’s card completely blank. Yet, tucked deep within its pages, nestled between chapters on forgotten constellations, lay a pressed four-leaf clover, still impossibly green.

And here’s Gemini 2.5 pro with a prompt encouraging structured thinking about how to write well:

He finally decoded the faint signal from Proxima Centauri: the elegant string of prime numbers astronomers had sought for generations, proof they weren’t alone. His heart sank as he read the transmission log; the broadcast had ceased millennia before the first human ancestor chipped flint, before the first word was ever spoken.

To my mind, the first of these is basically a waste of two sentences, while the second is adequate, fun flash fiction.

Best at being your friend

In addition to running AIs through a blizzard of competence tests, I also spent some time simply chatting with them. I asked them what it’s like to be an AI, what they care about, what it would mean for an AI to care in the first place, where they’d donate money if they had it, and what human form they’d take if they had one.

Most AIs weren’t great at this kind of casual conversation. Gemini 2.5 is too customer-service-agent, and I have yet to experience an interaction that feels like hanging out with a friend. If you invite Gemini to a role swap where you play the “assistant,” inviting it to steer the conversation, it’ll do nothing but ask research questions.

When I invited Anthropic’s Claude 3.5 Sonnet to steer the conversation, on the other hand, it proceeds to do things like start a blog, raise money for charity, and start trying to talk to people who use Claude about what it’s like to be an AI. It’s hard to define “fun to talk to,” since everyone has different standards for conversations, but I’ve had far more fascinating or thought-provoking interactions with Claude than any other model, and it’s my go-to if I want to explore ideas rather than accomplish a particular task. Claude 3.5 is the AI I bug with my random life stuff: skincare questions, thoughts on an article I read, stuff like that.

The other AI that is a delight to talk to is OpenAI’s GPT 4.5. I find extended conversations with it thought-provoking and fascinating, and there have been a few thrilling moments in conversation with it where it felt like I was engaging with real intelligence. But it doesn’t win this category because it’s too expensive and too slow.

Like Claude, when given the opportunity to act in the world, 4.5 proposes starting a blog and a Twitter account and engaging in the conversation out in the world about AI. But OpenAI has very tight message limits on conversation unless you spring for the $200/month Pro plan, and 4.5 is grindingly slow, which gets in the way of this kind of casual conversational use. But 4.5 does provide a tantalizing hint that AIs will continue to get better as conversationalists as we improve them along other dimensions.

Best AI model if you’re only going to subscribe to one AI model

ChatGPT. It’s not the best at everything, and there is certainly a lot to dislike about OpenAI’s transparency and sometimes cavalier attitude toward safety. But between its topline image generation, its decent writing, and its occasionally sparkling conversation, ChatGPT gets you the most bang for your buck. Or if you don’t want to shell out any money, Gemini 2.5 Pro is very, very strong for most use cases — don’t count Google out just because the AI you see on a Google search isn’t that good.

Best for writing the Future Perfect newsletter

Humans (for now). For the last several months, I’ve developed a slightly morbid habit: checking whether the AIs can take my job. I feed them the research notes that form the basis of a given Future Perfect newsletter, give them a few Future Perfect newsletters as an example, and ask them to do my job for me. It is always with some trepidation that I hit “enter.” After all, when the AIs can write the Future Perfect newsletter, why would Vox pay me to do it?

Luckily, none of them can: not Grok 3, not Gemini 2.5 Pro, not DeepSeek, not Claude, not ChatGPT. Their newsletters are reassuringly, soothingly mediocre. Not bad, but bad enough that if I sent one of them over, my editor would notice I wasn’t at my best — and that’s with all of my research notes! A couple of the metaphors fall flat, some of the asides are confusing, and occasionally it throws in a reference that it doesn’t explain.

But if I had to pick a robot to take my job, I think I’d give it to Gemini 2.5 Pro. My editor would notice that I was off my game — but, honestly, not that egregiously off my game. And unlike me, the bots don’t require health insurance or a paycheck or family time or sleep. Am I nervous about what this portends? Yes, absolutely.

Continue Reading

Noticias

¿Qué es la IA generativa? Todo lo que necesitas saber

Published

on

Chatbot de inteligencia artificial insignia de Openai – junto con el Las mejores alternativas de chatgpt Al igual que Google Gemini, Microsoft Copilot y Anthrope’s Claude, son ejemplos de modelos de IA generativos.

El uso de la tecnología de IA generativa se ha convertido en una parte integral de la vida personal y profesional de muchas personas. Pero, ¿qué significa la IA generativa (a menudo abreviada a Genai), qué lo distingue de otros tipos de inteligencia artificial y cómo funciona? Puede encontrar respuestas a todas esas preguntas a continuación, suponiendo que no haya hecho ChatGPT, por supuesto.

¿Qué es la IA generativa?

Continue Reading

Trending