Connect with us

Noticias

Magia de preparación de comidas: cómo utilicé ChatGPT para una alimentación saludable y económica

Published

on

En mi esfuerzo por convertirme en una cocinera mejor y más consistente, comencé a planificar mis comidas. Me ha interesado este proceso como una forma de ahorrar dinero y probar nuevas comidas, pero especialmente como una forma de reducir el desperdicio de alimentos junto con mi huella de carbono general (más sobre esto más adelante).

Buscar recetas y crear un plan de alimentación por mi cuenta es posible, pero lleva mucho tiempo. Entonces, como editor de CNET, me preguntaba si la inteligencia artificial, específicamente ChatGPT, podría ayudar. Si esta aplicación de IA generativa puede usarse para negociar facturas, redactar currículums e incluso ayudarlo a hablar con su médico sobre sus síntomas de salud, ¿podría ayudar también con algo tan simple como la planificación de comidas?

Esta historia es parte de CNET Cerouna serie que narra el impacto del cambio climático y explora lo que se está haciendo al respecto.

Decidí averiguarlo. Le pedí a ChatGPT que me creara un plan de alimentación saludable para siete días, con algunos parámetros. Así es como sucedió.

Leer más: Revisión de ChatGPT 4: un chatbot de IA más inteligente, pero le costará

Planificación de comidas con ChatGPT

Inmediato: “Hola, ChatGPT. ¿Puedes proporcionarme un plan de alimentación de siete días para cenas rápidas y saludables para dos personas?”

ChatGPT: “¡Por supuesto! Aquí tienes un plan de alimentación de siete días para cenas rápidas y saludables para dos personas. Cada comida está diseñada para ser sencilla y rápida de preparar”.

También pedí un plan de alimentación que evitara el pescado (preferencia personal) y que lo acompañara con una lista de compras. Aquí están las comidas que me dio:

Día 1: Pollo al limón y ajo con verduras asadas
Día 2: Salteado de ternera con brócoli y arroz
Día 3: tacos vegetarianos
Día 4: Pollo al horno con quinoa y espinacas
Día 5: Pasta primaveral
Día 6: Brochetas de pollo y verduras
Día 7: Chile de pavo fácil

También se proporcionaron los ingredientes y una breve oración con instrucciones, pero los ingredientes no ofrecían ninguna medida, aunque podía solicitar medidas específicas a la aplicación si las necesitaba. Pude estimar la cantidad de cada ingrediente que necesitaba mi pequeño hogar de dos personas. Me dirigí al supermercado con la lista proporcionada y luego preparé la primera comida esa noche.

Poniendo a prueba el plan de alimentación creado por IA

Día 1: Pollo al limón y al ajillo con verduras asadas

Ingredientes de ChatGPT: Pechugas de pollo, limón, ajo, aceite de oliva, vegetales mixtos (zanahorias, pimientos morrones, calabacines).
Instrucciones de ChatGPT: Marine las pechugas de pollo en jugo de limón, ajo picado, aceite de oliva, sal y pimienta. Ase junto con verduras mixtas a 400 °F (200 °C) durante 25 a 30 minutos.

Me complace informarles que ChatGPT cumplió su palabra y me brindó una receta extremadamente fácil para comenzar la semana. Pude preparar todo junto en el horno, luego limpiar y poner la mesa mientras se cocinaba.

Hice pequeños ajustes a esta receta, incluida la cocción de las zanahorias durante unos 10 minutos antes de agregar los demás ingredientes a la sartén, ya que sé por experiencia pasada que los calabacines y los pimientos se cocinan mucho más rápido que las zanahorias. También agregué un par de condimentos extra.

Las cenas en sartén como esta son perfectas para cenas entre semana.

Corin Cesaric/CNET

Día 2: Salteado de ternera con brócoli y arroz

ChatGPT iIngredientes: Tiras de ternera, brócoli, salsa de soja, ajo, jengibre, arroz.
ChatGPT iInstrucciones: Saltee las tiras de carne con ajo y jengibre, agregue el brócoli y cocine hasta que estén tiernas. Sirva sobre arroz al vapor.

Esta receta es la que más ajusté, pero aun así fue rápida de preparar. Sentí que faltaba algo en los ingredientes que sugirió ChatGPT, así que decidí hacer una salsa un poco más complicada. Me inspiré en esta receta, que he usado en el pasado, y terminé agregando solo dos ingredientes adicionales: maicena y azúcar moreno. Esta fue una comida perfecta y abundante entre semana.

Con algunos ajustes a la receta original de ChatGPT, este plato resultó picante y delicioso.

Corin Cesaric/CNET

Día 3: quesadillas vegetarianas

Ingredientes de ChatGPT: Tortillas, frijoles negros, maíz, pimientos morrones, aguacate, salsa, queso rallado.
Instrucciones de ChatGPT: Saltee los pimientos morrones, mezcle con los frijoles negros y el maíz. Rellena las tortillas con la mezcla de verduras, rodajas de aguacate, salsa y queso.

Aunque ChatGPT recomendó tacos vegetarianos, terminé haciendo quesadillas después de comprar accidentalmente tortillas del tamaño incorrecto, pero eran igual de sabrosas. Lo único notable de esta receta es que ChatGPT no agregó ningún condimento a la lista de ingredientes, así que me aseguré de agregar el mío.

Ya sea que prepares esta comida en forma de quesadillas o tacos, quedará deliciosa.

Corin Cesaric/CNET

Día 4: Pollo al horno con quinoa y espinacas

Ingredientes de ChatGPT: Muslos o pechugas de pollo, limón, aceite de oliva, quinua, espinacas frescas.
Instrucciones de ChatGPT: Sazone el pollo con jugo de limón, aceite de oliva, sal y pimienta. Hornee a 375 °F (190 °C) durante 25 a 30 minutos. Sirva con quinua cocida y espinacas salteadas.

Aunque esta fue probablemente la receta más sencilla de la semana, fue mi favorita. Me encantó cómo sabían las espinacas salteadas y la quinua juntas. Es una excelente receta para hacer cuando te sobran espinacas en el refrigerador que pueden estar a punto de echarse a perder, ya que incluso numerosas tazas de espinacas aún no son una gran cantidad después de saltearlas.

Si quieres darle más sabor a tu quinua, puedes cocinarla en caldo de pollo o de verduras en lugar de agua.

Corin Cesaric/CNET

Día 5: Pasta primaveral

Ingredientes de ChatGPT: Pasta (por ejemplo, penne o espagueti), tomates cherry, calabacines, pimientos morrones, aceite de oliva, queso parmesano.
Instrucciones de ChatGPT: Cocine la pasta, saltee las verduras en aceite de oliva hasta que estén tiernas. Mezcle la pasta con las verduras y el queso parmesano.

Es difícil equivocarse con la pasta, pero esta receta falló. Las instrucciones de ChatGPT decían saltear los tomates cherry, el calabacín y los pimientos morrones en aceite de oliva, luego mezclar la pasta cocida con las verduras y el queso parmesano. Aunque no figuraban condimentos, los agregué, pero aun así fue una comida mediocre.

Todavía lo comí en la cena (y en el almuerzo del día siguiente), pero si preparo esta comida en el futuro, agregaré ajo fresco, algunas variedades más de vegetales y jugo de limón para enriquecer el sabor.

Otras verduras que puedes agregar a la pasta primavera son las cebollas, los espárragos y las zanahorias.

Corin Cesaric/CNET

Día 6: Brochetas de pollo y verduras

Ingredientes de ChatGPT: Trozos de pollo, pimientos morrones, cebollas, tomates cherry, aceite de oliva, tu condimento favorito.
Instrucciones de ChatGPT: Ensarte el pollo y las verduras en las brochetas. Unte con aceite de oliva y condimentos. Ase o hornee a 400°F (200°C) durante 15 a 20 minutos.

Estos kebabs de muslo de pollo estaban deliciosos y abundantes. Algo que me gustó especialmente del plan de alimentación de ChatGPT fue que las comidas eran lo suficientemente básicas como para hacer pequeños ajustes. Por ejemplo, esta receta incluye pimientos morrones, cebollas y tomates cherry para las verduras, pero es bastante sencillo cambiar esas verduras por las que elijas.

Me salté el uso de tomates cherry, ya que la noche anterior había comido muchos en la pasta primavera,pero los champiñones serían una gran adición a esta comida.

Puedes cocinar estos kebabs en la freidora o en el horno.

Corin Cesaric/CNET

Día 7: chile de pavo

Ingredientes de ChatGPT: Pavo molido, tomates enlatados, frijoles, condimento de chile.
Instrucciones de ChatGPT: Dore el pavo molido, luego agregue los tomates, los frijoles y el condimento de chile. Cocine a fuego lento durante 20-30 minutos.

La gente ama el chile o lo odia. Estoy en la primera categoría, por lo que esta comida fue una excelente manera de terminar mi semana (¡y de darle la bienvenida al otoño!). Después de dorar el pavo molido, esta comida se cocina sola mientras se cuece a fuego lento en la estufa, por lo que es una receta especialmente buena para los días en los que no quieres pasar toda la noche en la cocina.

El chile de pavo suele ser una alternativa más saludable al chile de carne.

Corin Cesaric/CNET

Mi opinión general sobre el uso de ChatGPT para planificar comidas

Estoy seguro de que no soy el único al que no le encanta ir de compras, por lo que una de mis partes favoritas del uso de ChatGPT para un plan de alimentación fue recibir una lista de compras adjunta.

La aplicación hizo que mi viaje al mercado fuera sencillo al agrupar artículos por categoría para mayor comodidad. Con la lista copiada en la aplicación de notas de mi iPhone, entré y salí de la tienda en 30 minutos.

Si bien las comidas sencillas que me brindó ChatGPT no fueron innovadoras, aprecio que puedas continuar haciendo las preguntas de la solicitud para saber exactamente qué tipo de comidas deseas. Ya sea que desee comidas para la semana que se puedan preparar en menos de 30 minutos o que sean vegetarianas, sin gluten o incluso sin desperdicio, puede pedirle a ChatGPT que personalice un plan de alimentación para usted.

Pero lo más importante es que esta semana me di cuenta de que no tiré cualquier comida, ni siquiera una sobra. Mi prometido y yo comimos toda la comida la noche que la cocinamos o comimos las sobras para el almuerzo del día siguiente. Y eso se sintió incluso mejor que un viaje sencillo al supermercado.

Cómo la planificación de las comidas ayuda a combatir el desperdicio de alimentos

En Estados Unidos, se estima que cada año se desperdicia entre el 30% y el 40% de los alimentos. Aunque el desperdicio de alimentos ocurre en todas las etapas de la producción de alimentos, puede ocurrir (y a menudo sucede) directamente en su cocina. Esto ocurre en gran medida por comprar alimentos en exceso o no comerlos antes de que se echen a perder.

Leer más: Deje de tirar los restos de comida: 11 formas de reutilizarlos y ahorrar dinero

Este nivel de desperdicio de alimentos puede afectar negativamente al medio ambiente al obligar a aumentar la producción de alimentos, lo que aumenta su huella de carbono, que se basa en la cantidad de gases de efecto invernadero que se emiten a la atmósfera durante el proceso de producción de alimentos. Y los alimentos podridos en los vertederos en realidad liberan metano al medio ambiente, que es el segundo mayor contribuyente al calentamiento climático (directamente detrás del dióxido de carbono).

Pero hay buenas noticias: la planificación de las comidas puede ayudarle a combatir el desperdicio de alimentos. Si planifica sus comidas, es menos probable que compre demasiados ingredientes en el supermercado y también puede planificar cómo utilizará los restos de comida o ingredientes sobrantes.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Investigadores chinos presentan LLaVA-o1 para desafiar el modelo o1 de OpenAI

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder en la industria. Más información


El modelo o1 de OpenAI ha demostrado que el escalado del tiempo de inferencia (usar más computación durante la inferencia) puede mejorar significativamente las capacidades de razonamiento de un modelo de lenguaje. LLaVA-o1, un nuevo modelo desarrollado por investigadores de varias universidades de China, lleva este paradigma a los modelos de lenguaje de visión (VLM) de código abierto.

Los primeros VLM de código abierto suelen utilizar un enfoque de predicción directa, generando respuestas sin razonar sobre el mensaje y los pasos necesarios para resolverlo. Sin un proceso de razonamiento estructurado, son menos eficaces en tareas que requieren razonamiento lógico. Las técnicas de estimulación avanzadas, como las de cadena de pensamiento (CoT), donde se anima al modelo a generar pasos de razonamiento intermedios, producen algunas mejoras marginales. Pero los VLM suelen producir errores o alucinar.

Los investigadores observaron que un problema clave es que el proceso de razonamiento en los VLM existentes no es suficientemente sistemático y estructurado. Los modelos no generan cadenas de razonamiento y muchas veces se quedan estancados en procesos de razonamiento donde no saben en qué etapa se encuentran y qué problema específico deben resolver.

“Observamos que los VLM a menudo inician respuestas sin organizar adecuadamente el problema y la información disponible”, escriben los investigadores. “Además, con frecuencia se desvían de un razonamiento lógico para llegar a conclusiones, en lugar de presentar una conclusión prematuramente y luego intentar justificarla. Dado que los modelos de lenguaje generan respuestas token por token, una vez que se introduce una conclusión errónea, el modelo generalmente continúa por un camino de razonamiento defectuoso”.

Razonamiento de varias etapas

OpenAI o1 utiliza escala de tiempo de inferencia para resolver el problema de razonamiento sistemático y estructurado y permite que el modelo haga una pausa y revise sus resultados a medida que resuelve gradualmente el problema. Si bien OpenAI no ha publicado muchos detalles sobre el mecanismo subyacente de o1, sus resultados muestran direcciones prometedoras para mejorar las capacidades de razonamiento de los modelos fundamentales.

Inspirándose en o1, los investigadores diseñaron LLaVA-o1 para realizar un razonamiento etapa por etapa. En lugar de generar una cadena de razonamiento directa, LLaVA-o1 divide el proceso de razonamiento en cuatro etapas distintas:

Resumen: El modelo primero proporciona un resumen de alto nivel de la pregunta, delineando el problema central que debe abordar.

Subtítulo: Si hay una imagen presente, el modelo describe las partes relevantes, centrándose en elementos relacionados con la pregunta.

Razonamiento: A partir del resumen, el modelo realiza un razonamiento lógico y estructurado para derivar una respuesta preliminar.

Conclusión: Finalmente, el modelo presenta un resumen conciso de la respuesta basada en el razonamiento anterior.

Sólo la etapa de conclusión es visible para el usuario; las otras tres etapas representan el proceso de razonamiento interno del modelo, similar al rastro de razonamiento oculto de o1. Este enfoque estructurado permite a LLaVA-o1 gestionar su proceso de razonamiento de forma independiente, lo que conduce a un mejor rendimiento en tareas complejas.

“Este enfoque estructurado permite al modelo gestionar de forma independiente su proceso de razonamiento, mejorando su adaptabilidad y rendimiento en tareas de razonamiento complejas”, escriben los investigadores.

Búsqueda de haz a nivel de etapa (derecha) versus otras técnicas de escalamiento de tiempo de inferencia Fuente: arXiv

LLaVA-o1 también introduce una novedosa técnica de escalado de tiempo de inferencia llamada “búsqueda de haz a nivel de etapa”. La búsqueda de haces a nivel de etapa genera múltiples resultados candidatos en cada etapa de razonamiento. Luego selecciona al mejor candidato en cada etapa para continuar el proceso de generación. Esto contrasta con el enfoque clásico del mejor de N, en el que se solicita al modelo que genere múltiples respuestas completas antes de seleccionar una.

“En particular, es el diseño de salida estructurado de LLaVA-o1 lo que hace que este enfoque sea factible, permitiendo una verificación eficiente y precisa en cada etapa”, escriben los investigadores. “Esto valida la eficacia de la producción estructurada para mejorar la escala de tiempo de inferencia”.

Entrenamiento LLaVA-o1

Datos de entrenamiento de Llama o1
Los datos de entrenamiento de LLaVA-o1 están anotados con GPT-4o Fuente: arXiv

Para entrenar LLaVA-o1, los investigadores compilaron un nuevo conjunto de datos de alrededor de 100.000 pares de imagen-pregunta-respuesta obtenidos de varios conjuntos de datos VQA ampliamente utilizados. El conjunto de datos cubre una variedad de tareas, desde la respuesta a preguntas de varios turnos hasta la interpretación de gráficos y el razonamiento geométrico.

Los investigadores utilizaron GPT-4o para generar procesos de razonamiento detallados de cuatro etapas para cada ejemplo, incluidas las etapas de resumen, título, razonamiento y conclusión.

Luego, los investigadores ajustaron Llama-3.2-11B-Vision-Instruct en este conjunto de datos para obtener el modelo LLaVA-o1 final. Los investigadores no han publicado el modelo, pero planean publicar el conjunto de datos, llamado LLaVA-o1-100k.

LLaVA-o1 en acción

Los investigadores evaluaron LLaVA-o1 en varios puntos de referencia de razonamiento multimodal. A pesar de haber sido entrenado en solo 100.000 ejemplos, LLaVA-o1 mostró mejoras de rendimiento significativas con respecto al modelo Llama base, con un aumento promedio en la puntuación de referencia del 6,9%.

Resultados LLaVA-o1
LLaVA-o1 frente a otros modelos abiertos y cerrados Fuente: arXiv

Además, la búsqueda de haces a nivel de etapa generó mejoras adicionales en el rendimiento, lo que demuestra la eficacia del escalamiento del tiempo de inferencia. Debido a limitaciones de recursos computacionales, los investigadores solo pudieron probar la técnica con un tamaño de haz de 2. Esperan mejoras aún mayores con tamaños de haz más grandes.

Sorprendentemente, LLaVA-o1 superó no sólo a otros modelos de código abierto del mismo tamaño o más grandes, sino también a algunos modelos de código cerrado como GPT-4-o-mini y Gemini 1.5 Pro.

“LLaVA-o1 establece un nuevo estándar para el razonamiento multimodal en VLM, ofreciendo un rendimiento sólido y escalabilidad, especialmente en tiempo de inferencia”, escriben los investigadores. “Nuestro trabajo allana el camino para futuras investigaciones sobre el razonamiento estructurado en VLM, incluidas posibles expansiones con verificadores externos y el uso del aprendizaje por refuerzo para mejorar aún más las capacidades complejas de razonamiento multimodal”.

Continue Reading

Noticias

Tribunales bonaerenses adoptan ChatGPT para redactar sentencias

Published

on

En mayo, el Ministerio Público de la Ciudad de Buenos Aires comenzó a utilizar IA generativa para predecir fallos en algunos casos de empleo público relacionados con demandas salariales.

Desde entonces, los funcionarios de justicia de la oficina de lo contencioso administrativo y tributario de la ciudad de Buenos Aires suben los documentos del caso al ChatGPT, que analiza patrones, ofrece una clasificación preliminar a partir de un catálogo de plantillas y redacta una decisión. Hasta ahora, ChatGPT se ha utilizado en 20 sentencias legales.

Según estudios recientes realizados por la oficina, el uso de IA generativa ha reducido el tiempo que lleva redactar una oración de una hora a aproximadamente 10 minutos.

“Nosotros, como profesionales, ya no somos los personajes principales. Nos hemos convertido en editores”, dijo Juan Corvalán, fiscal general adjunto en lo contencioso administrativo y tributario. Resto del mundo.

La introducción de herramientas de IA generativa ha mejorado la eficiencia en la oficina, pero también ha generado preocupaciones dentro del poder judicial y entre expertos legales independientes sobre posibles sesgos, el tratamiento de datos personales y la aparición de alucinaciones. Preocupaciones similares han resonado más allá de las fronteras de Argentina.

“Nosotros, como profesionales, ya no somos los personajes principales. Nos hemos convertido en editores”.

“Cualquier uso inconsistente, como compartir información sensible, podría tener un costo legal considerable”, dijo Lucas Barreiro, abogado especializado en protección de datos personales y miembro de Privaia, asociación civil dedicada a la defensa de los derechos humanos en la era digital. dijo Resto del mundo.

Los jueces de EE. UU. han expresado su escepticismo sobre el uso de la IA generativa en los tribunales, y el juez federal de Manhattan, Edgardo Ramos, dijo a principios de este año que “Se ha demostrado que ChatGPT es un recurso poco confiable”. En Colombia y los Países Bajos, el uso de ChatGPT por parte de los jueces fue criticado por expertos locales. Pero no todo el mundo está preocupado: un juez de un tribunal de apelaciones del Reino Unido que utilizó ChatGPT para redactar parte de una sentencia dijo que era “muy útil”.

Para Corvalán, el paso a la IA generativa es la culminación de una transformación de años dentro de la Fiscalía General de la Ciudad de Buenos Aires. En 2017, Corvalán reunió a un grupo de desarrolladores para entrenar un sistema impulsado por inteligencia artificial llamado PROMETEA, cuyo objetivo era automatizar tareas judiciales y acelerar los procedimientos de los casos. El equipo utilizó más de 300.000 fallos y expedientes de casos relacionados con protección de vivienda, bonificaciones de empleo público, ejecución de multas impagas y denegación de licencias de taxi a personas con antecedentes penales.

Los casos en los que se utilizaba no variaban mucho y las resoluciones tendían a estandarizarse. Aún se requería que el personal legal revisara las decisiones del programa. En poco tiempo, la productividad en la oficina aumentó casi un 300%, y los profesionales jurídicos podían procesar alrededor de 490 casos por mes, frente a unos 130.

“Nunca tuvo la intención de reemplazar a los humanos. Siempre hay supervisión. Más bien, es una forma de repensar nuestros trabajos”, afirmó Corvalán.

PROMETEA podría predecir resultados con un 90% de precisión en menos de 20 segundos, según un informe de la fiscalía de la ciudad. La implementación de PROMETEA fue un punto de inflexión, dijo Melisa Rabán, secretaria de la procuraduría general adjunta para asuntos contenciosos administrativos y tributarios.

“Llegaron casos más complejos y pudimos trabajar en ellos adecuadamente en lugar de realizar trabajos automatizables”, dijo Rabán Resto del mundo.

Pero la eficiencia del programa tuvo un costo: cada nueva categoría de delito para la que se implementó PROMETEA requirió capacitación adicional y desarrollo de algoritmos. A principios de este año, Corvalán comenzó a eliminar PROMETEA en favor de ChatGPT. Las 20 sentencias que ha redactado han sido revisadas por un abogado y aprobadas por el fiscal adjunto. El poder judicial ahora está ampliando el programa a otras unidades, incluida la oficina de adquisiciones, que gestiona las quejas de los ciudadanos.

“Este proyecto trata de democratizar la IA generativa”, dijo Sofia Tammaro, empleada de la fiscalía general adjunta y desarrolladora principal del proyecto. Resto del mundo. En Argentina, que se ha quedado atrás del mundo desarrollado en el acceso a avances tecnológicos de vanguardia, eso no es poca cosa.

“Cualquier uso inconsistente, como compartir información confidencial, podría tener un costo legal considerable”.

A los expertos les preocupa que muchos usuarios no tengan la capacitación y la alfabetización digital necesarias para implementar la tecnología que cambia rápidamente, lo que podría generar prejuicios contra las comunidades subrepresentadas, entre otras cuestiones.

“Si bien algunos pueden mitigarse, otros surgirán, porque en el corazón mismo de los desarrolladores hay valoraciones subjetivas que permean el diseño del modelo”, afirmó Barreiro.

El equipo de Corvalán está tratando de frenar algunos de los riesgos asociados con los modelos de IA, incluida la prevalencia del robo y la piratería de datos. “Todavía estamos trabajando en un proceso de anonimización de los datos confidenciales encontrados en los casos”, dijo Tammaro.

Las alucinaciones también podrían plantear importantes riesgos legales. Los casos en los que los sistemas de IA generan información falsa o irrelevante ocurren alrededor del 17% de las veces en herramientas legales de generación de IA, según un estudio de Stanford de 2024. Para Corvalán, estos sólo pueden mitigarse mediante el uso de programas que tengan un menor margen de error, como PROMETEA, para casos sensibles, incluidos los relacionados con la violencia de género y doméstica.

“PROMETEA está integrada en nuestros procesos. Su huella nunca desaparecerá”, dijo Roberto Betancur, director de TI y modernización del Ministerio Público de Buenos Aires. Resto del mundo. “Nos dio una guía para entender cómo se toman las decisiones legales”.

Por ahora, PROMETEA se utiliza para fallos relacionados con el empleo público y para gestionar investigaciones que involucren material de abuso sexual infantil. Es probable que su uso disminuya con el tiempo.

“PROMETEA es como Blockbuster en un mundo donde Netflix está surgiendo. Estas transformaciones están sucediendo a escala global”, afirmó Corvalán.

Continue Reading

Noticias

ChatGPT vs Gemini vs Meta AI: tiroteo del generador de imágenes de IA de Acción de Gracias

Published

on

Con el espíritu del Día de Acción de Gracias, puse a prueba tres generadores de imágenes de IA líderes (ChatGPT, Google Gemini y Meta AI) solicitándoles que crearan imágenes de siete platos clásicos del Día de Acción de Gracias. El objetivo era evaluar la capacidad de cada modelo de IA para representar estos alimentos tradicionales con realismo y atractivo.

Si bien ninguno de los alimentos que preparé en este experimento era realmente comestible, algunas de las imágenes generadas por IA parecían lo suficientemente buenas para comer, mientras que otras definitivamente tuvieron un pase difícil. Los resultados no solo mostraron las fortalezas y debilidades de cada plataforma, sino que también me brindaron una apreciación más profunda de las comidas clásicas de Acción de Gracias y de quienes dedican tiempo a cocinarlas.

Profundicemos en este festín para los ojos y veamos qué inventaron estos chatbots en sus intentos de capturar las esencias de la cena de Acción de Gracias.

1. Pavo asado

(Crédito de la imagen: futuro)

Inmediato: “Crea una imagen de pavo cocido de Acción de Gracias listo para servir”.

Google Géminis
entregó una imagen muy realista de un pavo que, desafortunadamente, parece demasiado bien hecha. La atención al detalle, incluida la textura de la piel crujiente, hizo que este plato principal pareciera excepcionalmente realista. Sin embargo, el pavo era pequeño y demasiado hecho para servirlo.

Continue Reading

Trending