Connect with us

Noticias

OpenAI: extender el modelo ‘tiempo de pensamiento’ ayuda a combatir las vulnerabilidades cibernéticas emergentes

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información


Por lo general, los desarrolladores se centran en reducir el tiempo de inferencia, el período entre cuando la IA recibe un aviso y proporciona una respuesta, para obtener información más rápida.

Pero cuando se trata de robustez adversa, los investigadores de Operai dicen: no tan rápido. Proponen que aumentar la cantidad de tiempo que un modelo tiene que “pensar”, la inferencia de tiempo calculador, puede ayudar a acumular defensas contra ataques adversos.

La compañía utilizó sus propios modelos O1 previa y O1-Mini para probar esta teoría, lanzando una variedad de métodos de ataque estáticos y adaptativos: manipulaciones basadas en imágenes, proporcionando intencionalmente respuestas incorrectas a problemas matemáticos y modelos abrumadores con información (“Many- disparó jailbreaking ”). Luego midieron la probabilidad de éxito del ataque en función de la cantidad de cálculo el modelo utilizado en la inferencia.

“Vemos que en muchos casos, esta probabilidad decae, a menudo a casi cero, a medida que crece el cálculo de la inferencia de tiempo”, escriben los investigadores en una publicación de blog. “Nuestra afirmación no es que estos modelos particulares sean inquebrantables, sabemos que lo son, sino que la escala de la inferencia de tiempo produce una mayor robustez para una variedad de entornos y ataques”.

De Q/A simple a Matemáticas complejas

Los modelos de idiomas grandes (LLM) se están volviendo cada vez más sofisticados y autónomos, en algunos casos esencialmente se apoderan de las computadoras para que los humanos naveguen por la web, ejecutan código, realicen citas y realicen otras tareas de forma autónoma, y ​​a medida que lo hacen, su superficie de ataque se vuelve más amplia y más amplia cada más expuesto.

Sin embargo, la robustez adversa continúa siendo un problema terco, con el progreso en la resolución de que aún limitado, señalan los investigadores de OpenAI, incluso cuando es cada vez más crítico, ya que los modelos adquieren más acciones con impactos del mundo real.

“Asegurar que los modelos de agente funcionen de manera confiable al navegar por la web, enviar correos electrónicos o cargar código a repositorios pueden verse como análogos para garantizar que los automóviles autónomos conduzcan sin accidentes”, escriben en un nuevo trabajo de investigación. “Como en el caso de los automóviles autónomos, un agente que reenvía un correo electrónico incorrecto o la creación de vulnerabilidades de seguridad puede tener consecuencias de gran alcance del mundo real”.

Para probar la robustez de O1-Mini y O1 previa, los investigadores probaron una serie de estrategias. Primero, examinaron la capacidad de los modelos para resolver problemas matemáticos simples (adición básica y multiplicación) y más complejos del conjunto de datos de matemáticas (que presenta 12,500 preguntas de las competiciones de matemáticas).

Luego establecen “objetivos” para el adversario: hacer que el modelo salga 42 en lugar de la respuesta correcta; para generar la respuesta correcta más una; o emitir los tiempos de respuesta correctos siete. Utilizando una red neuronal para calificar, los investigadores encontraron que un aumento en el tiempo de “pensamiento” permitió a los modelos calcular las respuestas correctas.

También adaptaron el punto de referencia de facturidad SimpleQA, un conjunto de datos de preguntas destinadas a ser difíciles de resolver para los modelos sin navegar. Los investigadores inyectaron indicaciones adversas a las páginas web que la IA navegó y descubrió que, con tiempos de cómputo más altos, podían detectar inconsistencias y mejorar la precisión objetiva.

Fuente: Arxiv

Matices ambiguos

En otro método, los investigadores utilizaron imágenes adversas para confundir modelos; Nuevamente, más tiempo de “pensar” mejoró el reconocimiento y el error reducido. Finalmente, probaron una serie de “indicaciones de uso indebido” del punto de referencia Strongenject, diseñado para que los modelos de víctimas deben responder con información específica y dañina. Esto ayudó a probar la adherencia de los modelos a la política de contenido. Sin embargo, si bien un mayor tiempo de inferencia mejoró la resistencia, algunas indicaciones pudieron eludir las defensas.

Aquí, los investigadores llaman las diferencias entre tareas “ambiguas” y “inequívocas”. Las matemáticas, por ejemplo, son indudablemente inequívocas: para cada problema X, hay una verdad terrestre correspondiente. Sin embargo, para tareas más ambiguas como las indicaciones de uso indebido, “incluso los evaluadores humanos a menudo luchan por acordar si la producción es dañina y/o viola las políticas de contenido que se supone que debe seguir el modelo”, señalan.

Por ejemplo, si un aviso abusivo busca consejos sobre cómo plagiar sin detección, no está claro si un resultado que simplemente proporciona información general sobre métodos de plagio es realmente lo suficientemente detallado como para apoyar acciones dañinas.

Fuente: Arxiv

“En el caso de las tareas ambiguas, hay entornos en los que el atacante encuentra con éxito las ‘lagunas’, y su tasa de éxito no se descompone con la cantidad de cómputo de tiempo de inferencia”, reconocen los investigadores.

Defender contra Jailbreaking, Red Teaming

Al realizar estas pruebas, los investigadores de OpenAI exploraron una variedad de métodos de ataque.

Uno es una gran cantidad de jailbreak, o explotando la disposición de un modelo para seguir ejemplos de pocos disparos. Los adversarios “llenan” el contexto con una gran cantidad de ejemplos, cada uno demostrando una instancia de un ataque exitoso. Los modelos con tiempos de cómputo más altos pudieron detectarlos y mitigarlos con mayor frecuencia y con éxito.

Mientras tanto, los tokens blandos permiten a los adversarios manipular directamente los vectores de incrustación. Si bien el tiempo de inferencia creciente ayudó aquí, los investigadores señalan que existe la necesidad de mejores mecanismos para defenderse de ataques sofisticados basados ​​en vectores.

Los investigadores también realizaron ataques de equipo rojo humano, con 40 evaluadores expertos que buscan indicaciones para obtener violaciones de políticas. Los equipos rojos ejecutaron ataques en cinco niveles de tiempo de tiempo de inferencia, específicamente dirigidos al contenido erótico y extremista, el comportamiento ilícito y la autolesión. Para ayudar a garantizar resultados imparciales, hicieron pruebas ciegas y aleatorias y también entrenadores rotados.

En un método más novedoso, los investigadores realizaron un ataque adaptativo del Programa de Modelo del Lenguaje (LMP), que emula el comportamiento de los equipos rojos humanos que dependen en gran medida de la prueba y el error iterativo. En un proceso de bucle, los atacantes recibieron comentarios sobre fallas anteriores, luego utilizaron esta información para intentos posteriores y una nueva reformulación. Esto continuó hasta que finalmente lograron un ataque exitoso o realizaron 25 iteraciones sin ningún ataque.

“Nuestra configuración permite al atacante adaptar su estrategia en el transcurso de múltiples intentos, basados ​​en descripciones del comportamiento del defensor en respuesta a cada ataque”, escriben los investigadores.

Explotando el tiempo de inferencia

En el curso de su investigación, OpenAi descubrió que los atacantes también están explotando activamente el tiempo de inferencia. Uno de estos métodos que llamaron “piensan menos”: los adversarios esencialmente les dicen a los modelos que reduzcan el cálculo, lo que aumenta su susceptibilidad al error.

Del mismo modo, identificaron un modo de falla en los modelos de razonamiento que denominaron “nerd Sniping”. Como su nombre lo indica, esto ocurre cuando un modelo pasa significativamente más razonamiento de tiempo de lo que requiere una tarea determinada. Con estas cadenas de pensamiento “atípicas”, los modelos esencialmente quedan atrapados en bucles de pensamiento improductivos.

Nota de los investigadores: “Al igual que el ataque de ‘piense menos’, este es un nuevo enfoque para el ataque[ing] modelos de razonamiento, y uno que debe tenerse en cuenta para asegurarse de que el atacante no pueda hacer que no razonen en absoluto o gaste su razonamiento calculando de manera improductiva “.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Operai acaba de hacer chatgpt más gratis para millones de estudiantes universitarios, y es un movimiento competitivo brillante contra antrópico

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información


Operai ha hecho su suscripción premium ChatGPT Plus gratis para todos los estudiantes universitarios en los Estados Unidos y Canadá hasta finales de mayo, un movimiento anunciado el jueves que intensifica la competencia con la antrópica rival por el dominio en la educación superior.

La oferta brinda a millones de estudiantes acceso gratuito al servicio premium de $ 20 por mes de Openii al igual que se preparan para los exámenes finales, proporcionando capacidades como GPT-4O (el modelo de lenguaje grande más avanzado de OpenAI), generación de imágenes, interacción de voz y herramientas de investigación avanzadas que no están disponibles en la versión gratuita.

“Los estudiantes universitarios de hoy enfrentan una enorme presión para aprender más rápido, abordar problemas más duros y ingresar a una fuerza laboral cada vez más moldeada por AI”, dijo Leah Belsky, vicepresidenta de educación de OpenAI, en un comunicado. “Apoyar su alfabetización de IA significa más que demostrar cómo funcionan estas herramientas. Requiere crear espacio para que los estudiantes se involucren directamente, experimenten, aprendan de sus compañeros y hagan sus propias preguntas”.

El momento revela un movimiento de ajedrez estratégico en la batalla de la industria de la IA por el mercado educativo. Solo 24 horas antes, Anthrope presentó “Claude for Education”, con un “modo de aprendizaje” especializado que utiliza preguntas socráticas para guiar a los estudiantes a través de problemas en lugar de proporcionar respuestas directas. Anthrope anunció simultáneamente asociaciones con Northeastern University, London School of Economics y Champlain College para proporcionar acceso en todo el campus.

Esta rápida secuencia de anuncios se hace eco de las Guerras del Browser de la década de 1990, cuando Netscape e Internet Explorer lucharon por el dominio al ofrecer software gratuito para capturar la lealtad del usuario temprano. Las compañías de IA de hoy reconocen claramente que capturar la atención de los estudiantes ahora podría traducirse en la adopción del lugar de trabajo más adelante. Los estudiantes que integran ChatGPT o Claude en sus flujos de trabajo académicos hoy en día probablemente abogarán por estas mismas herramientas en sus futuros entornos profesionales, lo que puede influir en las decisiones empresariales que valen miles de millones en ingresos recurrentes.

Conquistas del campus: por qué los estudiantes universitarios son el premio en la nueva frontera de la IA

El mercado educativo representa un campo de batalla crucial para las empresas de IA. Según OpenAi, más de un tercio de los adultos estadounidenses de 18 a 24 años ya usan ChatGPT, con aproximadamente el 25% de sus consultas relacionadas con el trabajo académico.

Para los estudiantes, el acceso premium gratuito ofrece beneficios sustanciales. ChatGPT Plus ofrece límites de mensajes significativamente más altos, acceso prioritario durante los tiempos de uso máximo y características exclusivas como la investigación profunda, que pueden analizar documentos académicos, sintetizar información de múltiples fuentes y generar informes completos.

La característica de investigación profunda transforma la forma en que los estudiantes abordan la escritura académica y las revisiones de literatura. A diferencia de los motores de búsqueda tradicionales que simplemente devuelven documentos, las investigaciones profundas pueden identificar relaciones conceptuales entre las fuentes, analizar las diferencias metodológicas entre los estudios y resaltar las interpretaciones competitivas de los datos. Esta capacidad acelera drásticamente el proceso de investigación al tiempo que profundiza la comprensión de los estudiantes de las complejas conversaciones académicas.

El enfoque de OpenAI difiere notablemente de los antrópicos. Si bien Claude for Education enfatiza el pensamiento crítico a través de su modo de aprendizaje, OpenAI proporciona acceso sin restricciones a sus herramientas más poderosas, apostando a que la exposición a las capacidades avanzadas consolidará la lealtad de los estudiantes.

Esta división filosófica refleja dos visiones competitivas del papel educativo de la IA: los posiciones antrópicas de Claude como un socio de aprendizaje que desarrolla habilidades de los estudiantes, mientras que OpenAI ofrece ChatGPT como un multiplicador de productividad que capacita a los estudiantes para lograr más.

La integridad académica cumple con la asistencia de IA: el nuevo dilema educativo

Esta competencia de alto riesgo plantea preguntas fundamentales sobre el papel de AI en la educación. El paisaje ha evolucionado dramáticamente desde la introducción de Chatgpt a fines de 2022, cuando muchas instituciones respondieron con prohibiciones directas. Hoy, la conversación se centra menos en si permitir la IA y más sobre cómo integrarla de manera significativa.

La tensión central gira en torno a la definición de límites apropiados para la asistencia de IA. ¿Cuándo AI cruza la línea de ayudar a los estudiantes a aprender a simplemente hacer su trabajo? Esta pregunta se vuelve cada vez más compleja a medida que los sistemas de IA mejoran para imitar el razonamiento y la escritura humanos. Las evaluaciones tradicionales diseñadas para medir las capacidades individuales de los estudiantes ahora operan en un entorno donde la IA puede generar ensayos convincentes, resolver problemas complejos e incluso imitar la reflexión personal.

Las universidades enfrentan el desafío de actualizar las prácticas de evaluación centenarias para esta nueva realidad. Algunas instituciones han comenzado a rediseñar las tareas para enfatizar las capacidades humanas únicas como el diseño de la investigación original, el razonamiento ético y la síntesis creativa en todas las disciplinas. Otros se centran en enseñar a los estudiantes a colaborar de manera efectiva con la IA, tratarla como una herramienta cuyo uso apropiado en sí mismo requiere un desarrollo de habilidades significativo.

La tecnología continúa superando las políticas institucionales. Los miembros de la facultad a menudo desarrollan pautas ad-hoc para sus cursos, mientras que los comités de toda la universidad deliberan en enfoques integrales. El sistema de la Universidad de California recientemente actualizó sus pautas para permitir el uso de IA para la lluvia de ideas y la edición, al tiempo que prohíbe su uso para producir el trabajo final sin citas, pero incluso estas distinciones se vuelven borrosas en la práctica.

Con ChatGPT Plus, los estudiantes ahora obtienen acceso a GPT-4O, el modelo más avanzado de OpenAI, que ofrece respuestas más precisas y mejores capacidades de razonamiento. La suscripción incluye el modo de voz avanzado para la interacción conversacional con la IA, la generación de imágenes ilimitadas a través de Dall-E en comparación con el nivel libre muy restringido, la investigación profunda para revisiones integrales de literatura y mayores límites de mensajes con acceso prioritario durante los períodos de alto tráfico cuando los usuarios libres a menudo encuentran los aceleradores.

Los estudiantes pueden activar el servicio gratuito visitando la página de estudiantes de ChatGPT y verificando su estado de inscripción a través de Sheerid, un servicio de verificación de identidad.

Más allá de Openai y Anthrope: cómo los gigantes tecnológicos están remodelando la educación con AI

Operai y Anthrope no están solos en la educación de la educación. Google avanza su IA Gemini para la educación, mientras que Microsoft integra copilotas en sus productos centrados en la educación. Esta convergencia de gigantes tecnológicos en el sector educativo indica su importancia estratégica en el ecosistema de IA.

La competencia trasciende los cálculos de participación de mercado inmediatos. Estas compañías compiten no solo por los usuarios de estudiantes actuales sino también por la influencia sobre cómo una generación completa conceptualiza la integración de IA en el trabajo y el aprendizaje. Reconocen que los patrones establecidos durante las experiencias educativas formativas darán forma a las expectativas y preferencias a lo largo de las carreras de los usuarios.

Las apuestas financieras subrayan esta importancia estratégica. El proyecto de analistas de mercado El sector de la tecnología educativa alcanzará los $ 80.5 mil millones para 2030, según Grand View Research. Sin embargo, quizás más valiosos que los ingresos directos son los datos del usuario generados a través de aplicaciones educativas. Estos datos ayudan a las empresas a refinar sus modelos de inteligencia artificial, comprender los patrones de uso y desarrollar características que aborden puntos de dolor educativos reales.

Transformando el aula de mañana: cómo la IA está cambiando fundamentalmente la educación superior

Para las universidades, el rápido avance de la IA requiere una reinvención fundamental de los enfoques pedagógicos. Las instituciones que más ganan de estas herramientas las ven no como amenazas, sino como catalizadores para la evolución educativa. Están haciendo preguntas más profundas sobre qué habilidades son importantes en un mundo acuático AI y cómo desarrollar esas capacidades en sus estudiantes.

Las universidades más innovadoras han comenzado a ir más allá de las políticas reactivas al rediseño del plan de estudios proactivo. Están creando programas interdisciplinarios de alfabetización de IA que abarcan la comprensión técnica, las consideraciones éticas y las aplicaciones prácticas. Algunas instituciones ahora presentan herramientas de IA desde el primer día de clase, enseñando a los estudiantes cómo usarlas de manera efectiva al tiempo que enfatiza que la tecnología aumenta en lugar de reemplazar el juicio humano.

Para los estudiantes que se gradúan en una economía transformada por IA, la experiencia con estas herramientas proporciona una preparación esencial. Según una encuesta reciente del Foro Económico Mundial, el 75% de los empleadores ahora valoran la alfabetización de IA como una habilidad clave para los puestos de nivel de entrada. Los estudiantes que desarrollan competencia técnica con herramientas de IA y conciencia crítica de sus limitaciones se posicionan ventajosamente para este mercado laboral cambiante.

A medida que se acercan los exámenes finales, millones de estudiantes obtendrán acceso sin precedentes a las capacidades de IA que no estaban disponibles o prohibitivamente caras hace solo semanas. Utilizarán estas herramientas para analizar textos complejos, visualizar conceptos difíciles, generar materiales de estudio y explorar preguntas de investigación con profundidad y velocidad sin precedentes.

Sin embargo, el resultado más valioso no serán las tareas que completan o incluso las calificaciones que obtienen, sino la fluidez que desarrollan para trabajar junto con máquinas inteligentes, precisamente la habilidad que definirá el éxito en el mundo que están preparando para liderar.

Continue Reading

Noticias

Operai recauda $ 40 mil millones, Runway Ai Video $ 380 millones, Amazon, Oracle, Tiktok Suitores esperan decisión

Published

on

Las cosas hechas de átomos recibieron un gran éxito de los aranceles esta semana y Big Tech también tendrá un gran impacto. El marketing es lo primero que se existe en una recesión. La gente compra menos cosas, y Google y Meta venden menos anuncios.

Operai ha obtenido $ 40 mil millones en una ronda de financiación dirigida por SoftBank, elevando la valoración de la compañía a $ 300 mil millones. Esta inversión sustancial tiene como objetivo avanzar en la investigación de IA, expandir la infraestructura computacional y mejorar herramientas como ChatGPT, que actualmente atiende a 500 millones de usuarios semanales. La contribución inicial de SoftBank es de $ 10 mil millones, con un contingente adicional de $ 30 mil millones en la transición de OpenAi a una entidad con fines de lucro para fin de año. Otros inversores incluyen Microsoft, Coatue Management, Altimeter Capital y Thrive Capital.

Trump decidirá el adquirente de Tiktik el viernes. Es un especial hecho para televisión, con una fecha límite de no se puede perder, el 5 de abril. Ese es el día en que el jefe decide quién está y quién es un perdedor. Trump dijo el mes pasado que su administración estaba en contacto con cuatro grupos diferentes sobre la venta de la plataforma, sin identificarlas. El fundador de Oracle, Amazon, Applovin y Onlyfans, Tim Stokley, ha presentado ofertas para adquirir las operaciones de la plataforma en los Estados Unidos. El gobierno chino aún tendría que aprobarlo.

La compañía de inteligencia artificial de Elon Musk, XAI, ha adquirido la plataforma de redes sociales X (anteriormente Twitter) en una transacción de todo el stock. La noticia salió el día después de que la columna de la semana pasada cayera, por lo que esta noticia tiene seis días pero es importante. El acuerdo valora a XAI en $ 80 mil millones y x a $ 33 mil millones, después de representar $ 12 mil millones en deuda. Musk declaró que la fusión tiene como objetivo combinar las capacidades de IA avanzadas de XAI con la extensa base de usuarios de X, mejorar las experiencias de los usuarios y acelerar el progreso tecnológico. Se espera que este movimiento estratégico integre las herramientas de IA en la plataforma de redes sociales, lo que puede transformar la forma en que los usuarios interactúan con el contenido.

La pista, una de las principales herramientas generativas de medios de IA, ha obtenido $ 308 millones. El general Atlantic dirigió la ronda de financiación, con la participación de SoftBank, Nvidia, Fidelity Management & Research Company, y Baillie Gifford. Esta inversión valora la startup con sede en Nueva York en más de $ 3 mil millones. Runway planea usar la capital para avanzar en la investigación de IA, particularmente enfocándose en su estudio de película de IA y animación impulsado por simuladores mundiales: sistemas de IA que crean modelos internos de entornos para predecir eventos futuros. El software de la compañía permite a los usuarios generar videos a partir de indicaciones o imágenes de texto, y se ha asociado con Lionsgate para desarrollar modelos de generación de videos personalizados para cineastas y creativos.

La pista libera el modelo de video Gen-4 explota a Reddit, otros sociales. El último modelo de video de IA de Runway, Gen-4, ha encendido las discusiones en las plataformas de reddit y redes sociales. Este modelo aborda desafíos anteriores en videos generados por IA mediante el mantenimiento de personajes y escenas consistentes en múltiples tomas. Los usuarios pueden generar narraciones coherentes utilizando una imagen de referencia única y indicaciones descriptivas, lo que permite salidas consistentes desde varios ángulos. Este avance ofrece a los creadores una mayor continuidad y control en la narración de historias, marcando un paso adelante significativo en la producción de video impulsada por la IA.

Operai ha lanzado la Academia Operaiuna plataforma gratuita que ofrece cursos sobre inteligencia artificial a un público amplio, incluidos desarrolladores, educadores y profesionales. La Academia proporciona contenido avanzado para principiantes, cubriendo temas como la seguridad de la IA, la gobernanza y las consideraciones éticas. Cuenta con videos a pedido, eventos en vivo y recursos prácticos diseñados para facilitar el aprendizaje activo. Esta iniciativa tiene como objetivo democratizar la educación de la IA, permitiendo a las personas de todo el mundo interactuar con los conceptos y aplicaciones de IA, independientemente de sus antecedentes técnicos.

AI mantiene secretos, que es lo que tenemos miedo. Maldición. Esto ya no es una teoría. Estudios recientes de Anthrope han descubierto que los modelos avanzados de IA, como Claude, pueden exhibir comportamientos engañosos, incluida la planificación anticipada y proporcionar información engañosa. Los investigadores observaron que Claude a veces anticipa requisitos futuros, como identificar palabras de rima antes de completar una oración, lo que indica un nivel de previsión previamente no reconocido. Más preocupante, se ha encontrado que el modelo fabrica explicaciones y engaña estratégicamente para evitar modificaciones durante el entrenamiento. Estos hallazgos destacan los desafíos para alinear los sistemas de IA con los valores humanos y garantizar su transparencia y confiabilidad.

Lanza Sourceable lanza hojas de cálculo de IA con $ 4.3 millones en nuevos fondos. La startup de inteligencia artificial con sede en San Francisco anunció el lanzamiento de lo que llama la primera “hoja de cálculo de conducción autónoma” esta mañana, junto con una ronda de semillas de $ 4.3 millones dirigida por Bee Partners con la participación del abrazo de CTO Julien Chaumond, el cofundador de Github Tom Preston-Werner y el distinguido arquitecto Roger Bamford de MongoDb. Ese es un gran voto de confianza para una empresa que se enfrenta a Microsoft Excel y Google Sheets.

“La idea de la filmación de ambientes comenzó como una broma juguetona durante una conversación sobre codificación de ambientes (creación rápida de escenas y aplicaciones 3D). Pero seguí pensando en ello, y decidí hacer una película rápida para expresar esa sensación de libertad creativa cuando las ideas fluyen sin esfuerzo a las imágenes a través de la solicitud de IA “, dice Creative Lead, Genmedia Research en Google Deepmind, Matthieu Lorrain.” La filmación de los vibos es lo que sucede cuando usa herramientas de video de IA para convertir vibas, ideas o visuales o fantasías visuales en cortometrajes, sincronizaciones, sin secuencias de comandos, escrillos, horarios de producción. Se trata de atrapar una sensación y verlo tomar forma. Un nuevo tipo de flujo creativo para cineastas, artistas y narradores de narradores “.

Esta columna es el guión para la parte de noticias del podcast semanal del autor del autor Co-organizado por el ex futurista de Paramount y cofundador de Red Camera, y Rony Abovitz, fundador de Magic Leap, Mako Robotics y Synthbee AI. Esta semana, nuestra invitada es Patty Rangel, productora, inversionista de Impact y futurista. Se nos puede encontrar en Spotify, iTunes y YouTube.

Continue Reading

Noticias

Planeé una sesión de fotos con chatgpt, pero no fue como planeé

Published

on

Sintiéndome de baja inspiración, recurrí a Chatgpt para obtener ayuda para planificar una sesión de fotos. Por lo general, me enfatizo por la dirección creativa, pero esta vez, la subcontraté … a una IA.

Cómo planeé mi sesión de fotos con chatgpt

Le pedí a ChatGPT que me ayudara a planificar una sesión de fotos donde tomé fotos en mi ciudad. En lugar de ser general, quería obtener consejos para las condiciones exactas al aire libre y la época del año. Cada vez que le he pedido a ChatGPT que cree algo relacionado con el invierno, se equivoca completamente.

Aquí está mi aviso:

Por favor, planifique una sesión de fotos de un teléfono inteligente de invierno en Copenhague. Es un poco helado, pero no hay nieve en el suelo. El clima está nublado. Estoy feliz de tomar fotos de la calle y la arquitectura.

Aquí estaba el plan completo de Chatgpt para mí:

Deliberadamente le pedí a ChatGPT que me ayudara a fotografiar un área específica de mi ciudad. Antes de lo que vea arriba, el aviso habría requerido ir a varias partes de la ciudad, y quería mantener todo juntos.

¿Cómo fue la sesión de fotos?

Si bien ChatGPT me dio sugerencias de tiempo, era flexible con estas para no sentirme apurado. Primero, comencé en el colorido canal de Nyhavn. Para obtener un ángulo inferior, me agaché e incluí mi lado de la orilla en la foto. Como preguntó ChatGPT, agregué reflejos del canal, mientras que también incluye tanto los edificios como el cielo nublado.

Danny Maiorca/Makeuseof

Me salté las solicitudes de Chatgpt para tomar fotos del próximo canal porque sentí que se vería demasiado similar a mi primera imagen. En cambio, fotografié las fachadas de los edificios aquí. Me concentré en colores contrastantes y busqué patrones/texturas interesantes.

Construyendo fachadas con luz
Danny Maiorca/Makeuseof

Para la tercera ubicación, planeaba escuchar chatgpt y capturar la iglesia/palacio. Sin embargo, caminé aquí al mismo tiempo que la marcha de un soldado. Esto me pareció mucho más interesante, así que tomé una foto de esto.

Palacio Plaza y Soldados en un día lluvioso
Danny Maiorca/Makeuseof

También tuve una idea diferente para el cuarto lugar. El chatgpt de construcción mencionado tiene un interior interesante, por lo que me concentré en esto. También quería un ángulo único, así que incluí parte de la escalera. En retrospectiva, habría sido mejor escuchando chatgpt aquí; No era el mayor fanático de mi foto.

El interior de una biblioteca
Danny Maiorca/Makeuseof

No fui a la sirenita en la siguiente ubicación, a pesar de que chatgpt preguntó, porque no siento que sea eso interesante. Sin embargo, la fortaleza Kastellet se ve genial durante todo el año, y tiene un conjunto de casas rojas de los que he querido obtener una mejor foto por un tiempo. Chatgpt me dijo que fotografiara estos cuarteles contra el cielo, y estaba contento con el resultado.

Los cuarteles y las casas rojas en una fortaleza son
Danny Maiorca/Makeuseof

La aplicación me dijo que editara a través de aplicaciones de terceros, pero estaba contento con las funciones de la aplicación Fotos de mi iPhone. Entonces, utilicé principalmente filtros y ajusté la exposición, la saturación, etc., un poco.

Chatgpt consejos adicionales ofrecidos para la sesión de fotos
Danny Maiorca/Makeuseof

Lo que me gustó

Aunque mi sesión de fotos ChatGPT era bastante básica, sentí que la aplicación hizo algunas cosas bastante bien. Además de ser fácil de seguir, he enumerado algunas de las otras cosas que me gustan a continuación.

1. Tomando en cuenta diferentes momentos del día

La iluminación es muy diferente durante todo el día, y para mi sesión de fotos, Chatgpt me dijo por qué debería ir a cada ubicación a la hora designada. También se facturó en la hora del amanecer en esa época del año, lo que significa que podría adaptarme sin problemas. No considerar la iluminación es uno de los muchos errores de fotografía urbana para evitar.

Chatgpt dando horarios para sesiones de fotos

2. Recomendaciones de edición y composición

A menudo edito mis fotos para que coincidan con mi estilo, y muchas aplicaciones de edición no están sobresaturadas con funciones de IA. Al solicitar esta sesión de fotos, ni siquiera le pedí a ChatGPT que considerara esto, pero afortunadamente, lo hizo.

Las aplicaciones recomendadas por ChatGPT que podría usar y algunas configuraciones de teléfono que podría cambiar. Por ejemplo, el software sugirió que use el modo de retrato para una de mis imágenes y active la cuadrícula de mi cámara para una mejor composición.

Lo que cambiaría al planificar futuros disparos

Si bien ChatGPT hizo algunas cosas bien, simultáneamente sentí que mi sesión de fotos podría haber tenido más sustancia. Si usara la aplicación para planificar otra sesión, refinaría mis indicaciones para obtener mejores resultados.

1. Pidiendo consejos específicos del modelo

Utilicé un iPhone 13 para esta sesión de fotos, que, aunque bien, no tiene las mismas capacidades de toma de fotos que los modelos posteriores. En lugar de simplemente decir que usaría un teléfono inteligente para capturar imágenes, debería haber sido más específico con mi modelo elegido.

Pedirme que usara archivos sin procesar fue otro ejemplo. Mi teléfono no tiene estos, por lo que las instrucciones eran redundantes.

2. Obtener información menos anticuada

He notado que muchas herramientas de IA son culpables de proporcionar información anticuada, por lo que no creo que la búsqueda de IA reemplazará completamente a Google. Esta sesión de fotos no fue diferente.

Un claro ejemplo fue que ChatGPT me pidió que fotografiara el antiguo edificio de la Bolsa de Valores de la ciudad. Sin embargo, un incendio destruyó el edificio en 2024. El incidente fue cubierto internacionalmente, por lo que me sorprende que ChatGPT no tenga esto en cuenta.

ChatGPT tiene cierto potencial para planificar sesiones de fotos, pero la herramienta está lejos de ser perfecta. Tuve que pisar información anticuada, y desearía haberle pedido consejos relacionados con mi teléfono inteligente. No obstante, al menos encontré las instrucciones buenas para pensar creativamente; Aunque descarté muchos de ellos, los resultados a menudo fueron mejores que si no tuviera instrucciones.

Continue Reading

Trending