Connect with us

Noticias

Las verificaciones de datos de ChatGPT pueden reducir la confianza en titulares precisos, según un estudio

Published

on

Un estudio reciente publicado en el Actas de la Academia Nacional de Ciencias investiga cómo los grandes modelos lingüísticos, como ChatGPT, influyen en las percepciones de las personas sobre los titulares de las noticias políticas. Los hallazgos revelan que, si bien estos sistemas de inteligencia artificial pueden señalar con precisión información falsa, sus resultados de verificación de hechos no ayudan constantemente a los usuarios a discernir entre noticias verdaderas y falsas. En algunos casos, el uso de verificaciones de datos mediante IA incluso condujo a una menor confianza en los titulares verdaderos y a una mayor creencia en los dudosos.

Los modelos de lenguaje grande (LLM), como ChatGPT, son sistemas avanzados de inteligencia artificial diseñados para procesar y generar texto similar al humano. Estos modelos se entrenan en vastos conjuntos de datos que incluyen libros, artículos, sitios web y otras formas de comunicación escrita. A través de esta capacitación, desarrollan la capacidad de responder a una amplia gama de temas, imitar diferentes estilos de escritura y realizar tareas como resúmenes, traducción y verificación de hechos.

La motivación detrás de este estudio surge del creciente desafío de la desinformación en línea, que socava la confianza en las instituciones, fomenta la polarización política y distorsiona la comprensión pública de cuestiones críticas como el cambio climático y la salud pública. Las plataformas de redes sociales se han convertido en focos de rápida difusión de información falsa o engañosa, superando a menudo la capacidad de las organizaciones tradicionales de verificación de datos para abordarla.

Los LLM, con su capacidad para analizar y responder al contenido rápidamente y a escala, se han propuesto como una solución a este problema. Sin embargo, si bien estos modelos pueden proporcionar correcciones fácticas, se sabía poco sobre cómo las personas interpretan y reaccionan ante sus esfuerzos de verificación de hechos.

“La rápida adopción de los LLM para diversas aplicaciones, incluida la verificación de hechos, generó preguntas apremiantes sobre su eficacia y consecuencias no deseadas”, dijo el autor del estudio Matthew R. DeVerna, candidato a doctorado en el Observatorio de Medios Sociales de la Universidad de Indiana. “Si bien estas herramientas demuestran capacidades impresionantes, se sabía poco sobre cómo la información que proporcionan influye en el juicio y el comportamiento humanos. Si bien confiamos en que dicha tecnología se puede utilizar para mejorar la sociedad, debe hacerse con cuidado y esperamos que este trabajo pueda ayudar a diseñar sistemas basados ​​en LLM que puedan mejorar los espacios digitales”.

Los investigadores diseñaron un experimento controlado aleatorio en el que participaron 2159 participantes, cuya muestra reflejaba la demografía de la población de Estados Unidos en términos de género, edad, raza, educación y afiliación política. Los participantes se dividieron en dos grupos: uno evaluó la exactitud de los titulares (“grupo de creencias”) y el otro indicó su voluntad de compartirlos en las redes sociales (“grupo de intercambio”).

Cada grupo encontró 40 titulares de noticias políticas, divididos equitativamente entre afirmaciones verdaderas y falsas. Estos titulares también fueron equilibrados en cuanto al sesgo partidista, lo que garantiza una combinación equitativa de contenido favorable a demócratas y republicanos. Los participantes fueron asignados a una de cuatro condiciones: un grupo de control sin información de verificación de datos, un grupo al que se le mostraron verificaciones de datos generadas por IA mediante ChatGPT, un grupo que podía elegir si ver las verificaciones de datos de IA y un grupo al que se le presentó verificaciones de datos humanas tradicionales.

Las verificaciones de datos de ChatGPT se generaron utilizando un mensaje estandarizado y se etiquetaron como “verdadero”, “falso” o “inseguro” según la respuesta del modelo. Se informó a los participantes de los grupos de IA que la información de verificación de datos procedía de ChatGPT. Aquellos en el grupo de verificación humana de hechos recibieron evaluaciones claras y concisas de las afirmaciones, respaldadas por detalles sobre la credibilidad de la fuente de noticias.

El estudio encontró que el impacto de la verificación de datos generada por IA en los juicios y comportamientos de los participantes fue mixto y, a menudo, contraproducente. Si bien ChatGPT identificó con precisión el 90% de los titulares falsos como falsos, tuvo problemas con los titulares verdaderos, etiquetando solo el 15% como verdadero y expresando incertidumbre sobre la mayoría. Esta incertidumbre provocó efectos indeseables: los participantes tenían menos probabilidades de creer en titulares verdaderos clasificados erróneamente como falsos y más probabilidades de creer en titulares falsos cuando la IA expresaba incertidumbre.

Por ejemplo, los participantes del grupo de creencias que estuvieron expuestos a las verificaciones de datos de ChatGPT mostraron un discernimiento reducido en comparación con el grupo de control. Tenían un 12,75% menos de probabilidades de creer en titulares verdaderos marcados incorrectamente como falsos y un 9,12% más de probabilidades de creer en titulares falsos cuando ChatGPT no estaba seguro. De manera similar, en el grupo que compartía, los participantes tenían más probabilidades de compartir titulares falsos etiquetados como inciertos por la IA.

“El público debe ser consciente de que estos modelos a veces pueden proporcionar información inexacta, lo que puede llevarlos a conclusiones incorrectas”, dijo DeVerna a PsyPost. “Es importante que aborden la información de estos modelos con cautela”.

Por el contrario, las verificaciones de hechos humanas tradicionales mejoraron significativamente la capacidad de los participantes para distinguir entre titulares verdaderos y falsos. Aquellos expuestos a la verificación de datos humanos tenían un 18,06% más de probabilidades de creer titulares verdaderos y un 8,98% más de probabilidades de compartirlos en comparación con el grupo de control.

La opción de ver verificaciones de datos de IA también reveló un sesgo de selección. Los participantes que eligieron ver información de verificación de datos generada por IA tenían más probabilidades de compartir titulares tanto verdaderos como falsos, lo que sugiere que es posible que ya se hayan formado opiniones sobre los titulares antes de consultar a la IA. Este comportamiento estuvo influenciado por las actitudes de los participantes hacia la IA, ya que aquellos con opiniones positivas sobre la IA tenían más probabilidades de creer y compartir contenido después de ver las verificaciones de hechos.

“Proporcionamos algunas pruebas que sugieren que las personas pueden estar ignorando información precisa de verificación de datos de ChatGPT sobre titulares falsos después de elegir ver esa información”, dijo DeVerna. “Esperamos comprender mejor los mecanismos en juego aquí en trabajos futuros”.

Como ocurre con toda investigación, existen algunas limitaciones. En primer lugar, el estudio se basó en una versión específica de ChatGPT y un conjunto limitado de titulares, que pueden no capturar completamente las complejidades de la desinformación del mundo real. El entorno de la encuesta del experimento también difiere de la naturaleza dinámica y acelerada de las interacciones en las redes sociales.

“Nuestro estudio se basó en una versión específica, ahora obsoleta, de ChatGPT y presentó a los participantes una única respuesta del modelo”, señaló DeVerna. “Los resultados pueden variar con otros LLM o en entornos más interactivos. Las investigaciones futuras se centrarán en examinar estas dinámicas en contextos más realistas”.

“Esperamos comprender mejor los riesgos y beneficios potenciales de la tecnología basada en LLM para mejorar los espacios digitales y maximizar su beneficio para la sociedad. Estamos trabajando para comprender cómo interactúan los humanos con esta tecnología, cómo mejorar la precisión del modelo y cómo dichas intervenciones escalan a redes masivas como las plataformas de redes sociales”.

El estudio, “La información de verificación de hechos de modelos lingüísticos grandes puede disminuir el discernimiento de los titulares”, fue escrito por Matthew R. DeVerna, Harry Yaojun Yan, Kai-Cheng Yang y Filippo Menczer.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Operai acaba de hacer chatgpt más gratis para millones de estudiantes universitarios, y es un movimiento competitivo brillante contra antrópico

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información


Operai ha hecho su suscripción premium ChatGPT Plus gratis para todos los estudiantes universitarios en los Estados Unidos y Canadá hasta finales de mayo, un movimiento anunciado el jueves que intensifica la competencia con la antrópica rival por el dominio en la educación superior.

La oferta brinda a millones de estudiantes acceso gratuito al servicio premium de $ 20 por mes de Openii al igual que se preparan para los exámenes finales, proporcionando capacidades como GPT-4O (el modelo de lenguaje grande más avanzado de OpenAI), generación de imágenes, interacción de voz y herramientas de investigación avanzadas que no están disponibles en la versión gratuita.

“Los estudiantes universitarios de hoy enfrentan una enorme presión para aprender más rápido, abordar problemas más duros y ingresar a una fuerza laboral cada vez más moldeada por AI”, dijo Leah Belsky, vicepresidenta de educación de OpenAI, en un comunicado. “Apoyar su alfabetización de IA significa más que demostrar cómo funcionan estas herramientas. Requiere crear espacio para que los estudiantes se involucren directamente, experimenten, aprendan de sus compañeros y hagan sus propias preguntas”.

El momento revela un movimiento de ajedrez estratégico en la batalla de la industria de la IA por el mercado educativo. Solo 24 horas antes, Anthrope presentó “Claude for Education”, con un “modo de aprendizaje” especializado que utiliza preguntas socráticas para guiar a los estudiantes a través de problemas en lugar de proporcionar respuestas directas. Anthrope anunció simultáneamente asociaciones con Northeastern University, London School of Economics y Champlain College para proporcionar acceso en todo el campus.

Esta rápida secuencia de anuncios se hace eco de las Guerras del Browser de la década de 1990, cuando Netscape e Internet Explorer lucharon por el dominio al ofrecer software gratuito para capturar la lealtad del usuario temprano. Las compañías de IA de hoy reconocen claramente que capturar la atención de los estudiantes ahora podría traducirse en la adopción del lugar de trabajo más adelante. Los estudiantes que integran ChatGPT o Claude en sus flujos de trabajo académicos hoy en día probablemente abogarán por estas mismas herramientas en sus futuros entornos profesionales, lo que puede influir en las decisiones empresariales que valen miles de millones en ingresos recurrentes.

Conquistas del campus: por qué los estudiantes universitarios son el premio en la nueva frontera de la IA

El mercado educativo representa un campo de batalla crucial para las empresas de IA. Según OpenAi, más de un tercio de los adultos estadounidenses de 18 a 24 años ya usan ChatGPT, con aproximadamente el 25% de sus consultas relacionadas con el trabajo académico.

Para los estudiantes, el acceso premium gratuito ofrece beneficios sustanciales. ChatGPT Plus ofrece límites de mensajes significativamente más altos, acceso prioritario durante los tiempos de uso máximo y características exclusivas como la investigación profunda, que pueden analizar documentos académicos, sintetizar información de múltiples fuentes y generar informes completos.

La característica de investigación profunda transforma la forma en que los estudiantes abordan la escritura académica y las revisiones de literatura. A diferencia de los motores de búsqueda tradicionales que simplemente devuelven documentos, las investigaciones profundas pueden identificar relaciones conceptuales entre las fuentes, analizar las diferencias metodológicas entre los estudios y resaltar las interpretaciones competitivas de los datos. Esta capacidad acelera drásticamente el proceso de investigación al tiempo que profundiza la comprensión de los estudiantes de las complejas conversaciones académicas.

El enfoque de OpenAI difiere notablemente de los antrópicos. Si bien Claude for Education enfatiza el pensamiento crítico a través de su modo de aprendizaje, OpenAI proporciona acceso sin restricciones a sus herramientas más poderosas, apostando a que la exposición a las capacidades avanzadas consolidará la lealtad de los estudiantes.

Esta división filosófica refleja dos visiones competitivas del papel educativo de la IA: los posiciones antrópicas de Claude como un socio de aprendizaje que desarrolla habilidades de los estudiantes, mientras que OpenAI ofrece ChatGPT como un multiplicador de productividad que capacita a los estudiantes para lograr más.

La integridad académica cumple con la asistencia de IA: el nuevo dilema educativo

Esta competencia de alto riesgo plantea preguntas fundamentales sobre el papel de AI en la educación. El paisaje ha evolucionado dramáticamente desde la introducción de Chatgpt a fines de 2022, cuando muchas instituciones respondieron con prohibiciones directas. Hoy, la conversación se centra menos en si permitir la IA y más sobre cómo integrarla de manera significativa.

La tensión central gira en torno a la definición de límites apropiados para la asistencia de IA. ¿Cuándo AI cruza la línea de ayudar a los estudiantes a aprender a simplemente hacer su trabajo? Esta pregunta se vuelve cada vez más compleja a medida que los sistemas de IA mejoran para imitar el razonamiento y la escritura humanos. Las evaluaciones tradicionales diseñadas para medir las capacidades individuales de los estudiantes ahora operan en un entorno donde la IA puede generar ensayos convincentes, resolver problemas complejos e incluso imitar la reflexión personal.

Las universidades enfrentan el desafío de actualizar las prácticas de evaluación centenarias para esta nueva realidad. Algunas instituciones han comenzado a rediseñar las tareas para enfatizar las capacidades humanas únicas como el diseño de la investigación original, el razonamiento ético y la síntesis creativa en todas las disciplinas. Otros se centran en enseñar a los estudiantes a colaborar de manera efectiva con la IA, tratarla como una herramienta cuyo uso apropiado en sí mismo requiere un desarrollo de habilidades significativo.

La tecnología continúa superando las políticas institucionales. Los miembros de la facultad a menudo desarrollan pautas ad-hoc para sus cursos, mientras que los comités de toda la universidad deliberan en enfoques integrales. El sistema de la Universidad de California recientemente actualizó sus pautas para permitir el uso de IA para la lluvia de ideas y la edición, al tiempo que prohíbe su uso para producir el trabajo final sin citas, pero incluso estas distinciones se vuelven borrosas en la práctica.

Con ChatGPT Plus, los estudiantes ahora obtienen acceso a GPT-4O, el modelo más avanzado de OpenAI, que ofrece respuestas más precisas y mejores capacidades de razonamiento. La suscripción incluye el modo de voz avanzado para la interacción conversacional con la IA, la generación de imágenes ilimitadas a través de Dall-E en comparación con el nivel libre muy restringido, la investigación profunda para revisiones integrales de literatura y mayores límites de mensajes con acceso prioritario durante los períodos de alto tráfico cuando los usuarios libres a menudo encuentran los aceleradores.

Los estudiantes pueden activar el servicio gratuito visitando la página de estudiantes de ChatGPT y verificando su estado de inscripción a través de Sheerid, un servicio de verificación de identidad.

Más allá de Openai y Anthrope: cómo los gigantes tecnológicos están remodelando la educación con AI

Operai y Anthrope no están solos en la educación de la educación. Google avanza su IA Gemini para la educación, mientras que Microsoft integra copilotas en sus productos centrados en la educación. Esta convergencia de gigantes tecnológicos en el sector educativo indica su importancia estratégica en el ecosistema de IA.

La competencia trasciende los cálculos de participación de mercado inmediatos. Estas compañías compiten no solo por los usuarios de estudiantes actuales sino también por la influencia sobre cómo una generación completa conceptualiza la integración de IA en el trabajo y el aprendizaje. Reconocen que los patrones establecidos durante las experiencias educativas formativas darán forma a las expectativas y preferencias a lo largo de las carreras de los usuarios.

Las apuestas financieras subrayan esta importancia estratégica. El proyecto de analistas de mercado El sector de la tecnología educativa alcanzará los $ 80.5 mil millones para 2030, según Grand View Research. Sin embargo, quizás más valiosos que los ingresos directos son los datos del usuario generados a través de aplicaciones educativas. Estos datos ayudan a las empresas a refinar sus modelos de inteligencia artificial, comprender los patrones de uso y desarrollar características que aborden puntos de dolor educativos reales.

Transformando el aula de mañana: cómo la IA está cambiando fundamentalmente la educación superior

Para las universidades, el rápido avance de la IA requiere una reinvención fundamental de los enfoques pedagógicos. Las instituciones que más ganan de estas herramientas las ven no como amenazas, sino como catalizadores para la evolución educativa. Están haciendo preguntas más profundas sobre qué habilidades son importantes en un mundo acuático AI y cómo desarrollar esas capacidades en sus estudiantes.

Las universidades más innovadoras han comenzado a ir más allá de las políticas reactivas al rediseño del plan de estudios proactivo. Están creando programas interdisciplinarios de alfabetización de IA que abarcan la comprensión técnica, las consideraciones éticas y las aplicaciones prácticas. Algunas instituciones ahora presentan herramientas de IA desde el primer día de clase, enseñando a los estudiantes cómo usarlas de manera efectiva al tiempo que enfatiza que la tecnología aumenta en lugar de reemplazar el juicio humano.

Para los estudiantes que se gradúan en una economía transformada por IA, la experiencia con estas herramientas proporciona una preparación esencial. Según una encuesta reciente del Foro Económico Mundial, el 75% de los empleadores ahora valoran la alfabetización de IA como una habilidad clave para los puestos de nivel de entrada. Los estudiantes que desarrollan competencia técnica con herramientas de IA y conciencia crítica de sus limitaciones se posicionan ventajosamente para este mercado laboral cambiante.

A medida que se acercan los exámenes finales, millones de estudiantes obtendrán acceso sin precedentes a las capacidades de IA que no estaban disponibles o prohibitivamente caras hace solo semanas. Utilizarán estas herramientas para analizar textos complejos, visualizar conceptos difíciles, generar materiales de estudio y explorar preguntas de investigación con profundidad y velocidad sin precedentes.

Sin embargo, el resultado más valioso no serán las tareas que completan o incluso las calificaciones que obtienen, sino la fluidez que desarrollan para trabajar junto con máquinas inteligentes, precisamente la habilidad que definirá el éxito en el mundo que están preparando para liderar.

Continue Reading

Noticias

Operai recauda $ 40 mil millones, Runway Ai Video $ 380 millones, Amazon, Oracle, Tiktok Suitores esperan decisión

Published

on

Las cosas hechas de átomos recibieron un gran éxito de los aranceles esta semana y Big Tech también tendrá un gran impacto. El marketing es lo primero que se existe en una recesión. La gente compra menos cosas, y Google y Meta venden menos anuncios.

Operai ha obtenido $ 40 mil millones en una ronda de financiación dirigida por SoftBank, elevando la valoración de la compañía a $ 300 mil millones. Esta inversión sustancial tiene como objetivo avanzar en la investigación de IA, expandir la infraestructura computacional y mejorar herramientas como ChatGPT, que actualmente atiende a 500 millones de usuarios semanales. La contribución inicial de SoftBank es de $ 10 mil millones, con un contingente adicional de $ 30 mil millones en la transición de OpenAi a una entidad con fines de lucro para fin de año. Otros inversores incluyen Microsoft, Coatue Management, Altimeter Capital y Thrive Capital.

Trump decidirá el adquirente de Tiktik el viernes. Es un especial hecho para televisión, con una fecha límite de no se puede perder, el 5 de abril. Ese es el día en que el jefe decide quién está y quién es un perdedor. Trump dijo el mes pasado que su administración estaba en contacto con cuatro grupos diferentes sobre la venta de la plataforma, sin identificarlas. El fundador de Oracle, Amazon, Applovin y Onlyfans, Tim Stokley, ha presentado ofertas para adquirir las operaciones de la plataforma en los Estados Unidos. El gobierno chino aún tendría que aprobarlo.

La compañía de inteligencia artificial de Elon Musk, XAI, ha adquirido la plataforma de redes sociales X (anteriormente Twitter) en una transacción de todo el stock. La noticia salió el día después de que la columna de la semana pasada cayera, por lo que esta noticia tiene seis días pero es importante. El acuerdo valora a XAI en $ 80 mil millones y x a $ 33 mil millones, después de representar $ 12 mil millones en deuda. Musk declaró que la fusión tiene como objetivo combinar las capacidades de IA avanzadas de XAI con la extensa base de usuarios de X, mejorar las experiencias de los usuarios y acelerar el progreso tecnológico. Se espera que este movimiento estratégico integre las herramientas de IA en la plataforma de redes sociales, lo que puede transformar la forma en que los usuarios interactúan con el contenido.

La pista, una de las principales herramientas generativas de medios de IA, ha obtenido $ 308 millones. El general Atlantic dirigió la ronda de financiación, con la participación de SoftBank, Nvidia, Fidelity Management & Research Company, y Baillie Gifford. Esta inversión valora la startup con sede en Nueva York en más de $ 3 mil millones. Runway planea usar la capital para avanzar en la investigación de IA, particularmente enfocándose en su estudio de película de IA y animación impulsado por simuladores mundiales: sistemas de IA que crean modelos internos de entornos para predecir eventos futuros. El software de la compañía permite a los usuarios generar videos a partir de indicaciones o imágenes de texto, y se ha asociado con Lionsgate para desarrollar modelos de generación de videos personalizados para cineastas y creativos.

La pista libera el modelo de video Gen-4 explota a Reddit, otros sociales. El último modelo de video de IA de Runway, Gen-4, ha encendido las discusiones en las plataformas de reddit y redes sociales. Este modelo aborda desafíos anteriores en videos generados por IA mediante el mantenimiento de personajes y escenas consistentes en múltiples tomas. Los usuarios pueden generar narraciones coherentes utilizando una imagen de referencia única y indicaciones descriptivas, lo que permite salidas consistentes desde varios ángulos. Este avance ofrece a los creadores una mayor continuidad y control en la narración de historias, marcando un paso adelante significativo en la producción de video impulsada por la IA.

Operai ha lanzado la Academia Operaiuna plataforma gratuita que ofrece cursos sobre inteligencia artificial a un público amplio, incluidos desarrolladores, educadores y profesionales. La Academia proporciona contenido avanzado para principiantes, cubriendo temas como la seguridad de la IA, la gobernanza y las consideraciones éticas. Cuenta con videos a pedido, eventos en vivo y recursos prácticos diseñados para facilitar el aprendizaje activo. Esta iniciativa tiene como objetivo democratizar la educación de la IA, permitiendo a las personas de todo el mundo interactuar con los conceptos y aplicaciones de IA, independientemente de sus antecedentes técnicos.

AI mantiene secretos, que es lo que tenemos miedo. Maldición. Esto ya no es una teoría. Estudios recientes de Anthrope han descubierto que los modelos avanzados de IA, como Claude, pueden exhibir comportamientos engañosos, incluida la planificación anticipada y proporcionar información engañosa. Los investigadores observaron que Claude a veces anticipa requisitos futuros, como identificar palabras de rima antes de completar una oración, lo que indica un nivel de previsión previamente no reconocido. Más preocupante, se ha encontrado que el modelo fabrica explicaciones y engaña estratégicamente para evitar modificaciones durante el entrenamiento. Estos hallazgos destacan los desafíos para alinear los sistemas de IA con los valores humanos y garantizar su transparencia y confiabilidad.

Lanza Sourceable lanza hojas de cálculo de IA con $ 4.3 millones en nuevos fondos. La startup de inteligencia artificial con sede en San Francisco anunció el lanzamiento de lo que llama la primera “hoja de cálculo de conducción autónoma” esta mañana, junto con una ronda de semillas de $ 4.3 millones dirigida por Bee Partners con la participación del abrazo de CTO Julien Chaumond, el cofundador de Github Tom Preston-Werner y el distinguido arquitecto Roger Bamford de MongoDb. Ese es un gran voto de confianza para una empresa que se enfrenta a Microsoft Excel y Google Sheets.

“La idea de la filmación de ambientes comenzó como una broma juguetona durante una conversación sobre codificación de ambientes (creación rápida de escenas y aplicaciones 3D). Pero seguí pensando en ello, y decidí hacer una película rápida para expresar esa sensación de libertad creativa cuando las ideas fluyen sin esfuerzo a las imágenes a través de la solicitud de IA “, dice Creative Lead, Genmedia Research en Google Deepmind, Matthieu Lorrain.” La filmación de los vibos es lo que sucede cuando usa herramientas de video de IA para convertir vibas, ideas o visuales o fantasías visuales en cortometrajes, sincronizaciones, sin secuencias de comandos, escrillos, horarios de producción. Se trata de atrapar una sensación y verlo tomar forma. Un nuevo tipo de flujo creativo para cineastas, artistas y narradores de narradores “.

Esta columna es el guión para la parte de noticias del podcast semanal del autor del autor Co-organizado por el ex futurista de Paramount y cofundador de Red Camera, y Rony Abovitz, fundador de Magic Leap, Mako Robotics y Synthbee AI. Esta semana, nuestra invitada es Patty Rangel, productora, inversionista de Impact y futurista. Se nos puede encontrar en Spotify, iTunes y YouTube.

Continue Reading

Noticias

Planeé una sesión de fotos con chatgpt, pero no fue como planeé

Published

on

Sintiéndome de baja inspiración, recurrí a Chatgpt para obtener ayuda para planificar una sesión de fotos. Por lo general, me enfatizo por la dirección creativa, pero esta vez, la subcontraté … a una IA.

Cómo planeé mi sesión de fotos con chatgpt

Le pedí a ChatGPT que me ayudara a planificar una sesión de fotos donde tomé fotos en mi ciudad. En lugar de ser general, quería obtener consejos para las condiciones exactas al aire libre y la época del año. Cada vez que le he pedido a ChatGPT que cree algo relacionado con el invierno, se equivoca completamente.

Aquí está mi aviso:

Por favor, planifique una sesión de fotos de un teléfono inteligente de invierno en Copenhague. Es un poco helado, pero no hay nieve en el suelo. El clima está nublado. Estoy feliz de tomar fotos de la calle y la arquitectura.

Aquí estaba el plan completo de Chatgpt para mí:

Deliberadamente le pedí a ChatGPT que me ayudara a fotografiar un área específica de mi ciudad. Antes de lo que vea arriba, el aviso habría requerido ir a varias partes de la ciudad, y quería mantener todo juntos.

¿Cómo fue la sesión de fotos?

Si bien ChatGPT me dio sugerencias de tiempo, era flexible con estas para no sentirme apurado. Primero, comencé en el colorido canal de Nyhavn. Para obtener un ángulo inferior, me agaché e incluí mi lado de la orilla en la foto. Como preguntó ChatGPT, agregué reflejos del canal, mientras que también incluye tanto los edificios como el cielo nublado.

Danny Maiorca/Makeuseof

Me salté las solicitudes de Chatgpt para tomar fotos del próximo canal porque sentí que se vería demasiado similar a mi primera imagen. En cambio, fotografié las fachadas de los edificios aquí. Me concentré en colores contrastantes y busqué patrones/texturas interesantes.

Construyendo fachadas con luz
Danny Maiorca/Makeuseof

Para la tercera ubicación, planeaba escuchar chatgpt y capturar la iglesia/palacio. Sin embargo, caminé aquí al mismo tiempo que la marcha de un soldado. Esto me pareció mucho más interesante, así que tomé una foto de esto.

Palacio Plaza y Soldados en un día lluvioso
Danny Maiorca/Makeuseof

También tuve una idea diferente para el cuarto lugar. El chatgpt de construcción mencionado tiene un interior interesante, por lo que me concentré en esto. También quería un ángulo único, así que incluí parte de la escalera. En retrospectiva, habría sido mejor escuchando chatgpt aquí; No era el mayor fanático de mi foto.

El interior de una biblioteca
Danny Maiorca/Makeuseof

No fui a la sirenita en la siguiente ubicación, a pesar de que chatgpt preguntó, porque no siento que sea eso interesante. Sin embargo, la fortaleza Kastellet se ve genial durante todo el año, y tiene un conjunto de casas rojas de los que he querido obtener una mejor foto por un tiempo. Chatgpt me dijo que fotografiara estos cuarteles contra el cielo, y estaba contento con el resultado.

Los cuarteles y las casas rojas en una fortaleza son
Danny Maiorca/Makeuseof

La aplicación me dijo que editara a través de aplicaciones de terceros, pero estaba contento con las funciones de la aplicación Fotos de mi iPhone. Entonces, utilicé principalmente filtros y ajusté la exposición, la saturación, etc., un poco.

Chatgpt consejos adicionales ofrecidos para la sesión de fotos
Danny Maiorca/Makeuseof

Lo que me gustó

Aunque mi sesión de fotos ChatGPT era bastante básica, sentí que la aplicación hizo algunas cosas bastante bien. Además de ser fácil de seguir, he enumerado algunas de las otras cosas que me gustan a continuación.

1. Tomando en cuenta diferentes momentos del día

La iluminación es muy diferente durante todo el día, y para mi sesión de fotos, Chatgpt me dijo por qué debería ir a cada ubicación a la hora designada. También se facturó en la hora del amanecer en esa época del año, lo que significa que podría adaptarme sin problemas. No considerar la iluminación es uno de los muchos errores de fotografía urbana para evitar.

Chatgpt dando horarios para sesiones de fotos

2. Recomendaciones de edición y composición

A menudo edito mis fotos para que coincidan con mi estilo, y muchas aplicaciones de edición no están sobresaturadas con funciones de IA. Al solicitar esta sesión de fotos, ni siquiera le pedí a ChatGPT que considerara esto, pero afortunadamente, lo hizo.

Las aplicaciones recomendadas por ChatGPT que podría usar y algunas configuraciones de teléfono que podría cambiar. Por ejemplo, el software sugirió que use el modo de retrato para una de mis imágenes y active la cuadrícula de mi cámara para una mejor composición.

Lo que cambiaría al planificar futuros disparos

Si bien ChatGPT hizo algunas cosas bien, simultáneamente sentí que mi sesión de fotos podría haber tenido más sustancia. Si usara la aplicación para planificar otra sesión, refinaría mis indicaciones para obtener mejores resultados.

1. Pidiendo consejos específicos del modelo

Utilicé un iPhone 13 para esta sesión de fotos, que, aunque bien, no tiene las mismas capacidades de toma de fotos que los modelos posteriores. En lugar de simplemente decir que usaría un teléfono inteligente para capturar imágenes, debería haber sido más específico con mi modelo elegido.

Pedirme que usara archivos sin procesar fue otro ejemplo. Mi teléfono no tiene estos, por lo que las instrucciones eran redundantes.

2. Obtener información menos anticuada

He notado que muchas herramientas de IA son culpables de proporcionar información anticuada, por lo que no creo que la búsqueda de IA reemplazará completamente a Google. Esta sesión de fotos no fue diferente.

Un claro ejemplo fue que ChatGPT me pidió que fotografiara el antiguo edificio de la Bolsa de Valores de la ciudad. Sin embargo, un incendio destruyó el edificio en 2024. El incidente fue cubierto internacionalmente, por lo que me sorprende que ChatGPT no tenga esto en cuenta.

ChatGPT tiene cierto potencial para planificar sesiones de fotos, pero la herramienta está lejos de ser perfecta. Tuve que pisar información anticuada, y desearía haberle pedido consejos relacionados con mi teléfono inteligente. No obstante, al menos encontré las instrucciones buenas para pensar creativamente; Aunque descarté muchos de ellos, los resultados a menudo fueron mejores que si no tuviera instrucciones.

Continue Reading

Trending