Connect with us

Noticias

Estos profesionales fueron aturdidos por Operai Deep Research

Published

on

¿Eres un periodista que quiere cubrir la IA? ¿O un experto en IA que busca entrar en el periodismo? La fecha límite para el 2025 Tarbell Fellowship es este viernes.

Comprender la IA es una publicación participante, lo que significa que podría recibir $ 50,000 para escribir para este boletín. Puede haga clic aquí Para obtener detalles sobre lo que estoy buscando o Vaya directamente al sitio web de Tarbell para aplicar.

A principios de este mes, Openai lanzó un nuevo producto llamado investigación profunda. Basado en una variante del modelo de razonamiento O3 (aún inédito), la investigación profunda puede pensar incluso para los modelos de razonamiento convencionales, hasta 30 minutos para las preguntas más difíciles. Y de manera crucial, puede buscar en la web, lo que le permite recopilar información sobre temas que son demasiado nuevos o oscuros para estar bien cubiertos en sus datos de capacitación.

Quería probar a fondo investigaciones profundas, por lo que solicité preguntas difíciles de una muestra aleatoria de lectores de IA. Uno de ellos fue Rick Wolnitzek, un arquitecto retirado que dirige el sitio web Architekwiki. Wolnitzek solicitó una lista de verificación detallada del código de construcción para un edificio educativo de 100,000 pies cuadrados.

Para responder a la pregunta de Wolnitzek, las investigaciones profundas comenzaron a explorar la web para obtener información sobre los códigos de construcción. Pronto descubrió el sitio web del Consejo de Código Internacional, pero parte de la información que necesitaba estaba detrás de un muro de pago.

“Teniendo en cuenta un sitio que no es de ICC, tal vez de un estado, podría ser un buen movimiento”, pensó el modelo.

La investigación profunda pronto encontró un página en el sitio web del Departamento de Educación de Arkansas que incluía un PDF de tres páginas de estándares ICC para instituciones educativas. En el sitio web del condado de Douglas, Nevada, encontró un PDF describiendo el número mínimo de accesorios de plomería requeridos para varios tipos de edificios. A Página del Departamento de Educación de California Resumió el número de baños requeridos en las escuelas K-12. La ciudad de Chelan, Washington, tenía un PDF de 13 páginas resumiendo los cambios de código recientes.

En total, el modelo de investigación profunda de Openai pensó durante 28 minutos y consultó 21 fuentes en línea para producir un Lista de verificación de 15,000 palabras.

El informe impresionó a Wolnitzek. Era “mejor que el trabajo interno, y cumple con el nivel de un profesional experimentado”, me dijo. “Creo que tomaría de seis a ocho horas o más preparar un informe como este, y sería una referencia útil para todo el equipo de diseño”.

Wolnitzek fue uno de los 19 lectores de IA comprensivos, incluidos un abogado antimonopolio, un maestro de secundaria, un ingeniero mecánico y un investigador médico, que me ayudó a poner a prueba las investigaciones profundas. No todos estaban tan impresionados con las respuestas de Operai como Wolnitzek. Pero siete de cada 19 encuestados, incluidos Wolnitzek, la respuesta de OpenAi fue en o cerca del nivel de un profesional experimentado en sus campos. La mayoría de los encuestados estimaron que tomaría al menos 10 horas de trabajo humano para producir un informe comparable.

Veo estos resultados como muy significativos. No es solo que una investigación profunda sea útil en una amplia gama de industrias. Su rendimiento demuestra las impresionantes capacidades del modelo O3 subyacente.

La investigación profunda descubre información de la misma manera iterativa que los investigadores humanos. Hará una búsqueda, encontrará un documento y lo leerá. Luego hará otra búsqueda, encontrará otro documento y lo leerá. A medida que el modelo lee más documentos y aprende más sobre un tema, puede refinar sus criterios de búsqueda y encontrar documentos que no aparecieran en resultados de búsqueda anteriores. Este proceso, que a veces las personas describen como “bajar una madriguera del conejo”, permite una investigación profunda para obtener una comprensión mucho más profunda de un tema de lo que era posible con los modelos de IA anteriores.

Todo esto es posible posible por la “capacidad de atención” más larga de O3, el modelo de razonamiento más poderoso de Openai. Tenemos conocido por tres años Esos modelos de lenguaje grande producen mejores resultados cuando se les pide que “piensen paso a paso”. Pero los LLM convencionales tendieron a confundirse o distraerse cuando intentaron realizar una larga secuencia de pasos de razonamiento.

Operai utilizó una técnica llamada refuerzo de aprendizaje para capacitar a los modelos de razonamiento para mantenerse enfocados mientras trabajan a través de cadenas de razonamiento más largas. Este enfoque funcionó particularmente bien para dominios como las matemáticas y la programación de computadoras donde el algoritmo de entrenamiento podría verificar fácilmente si el modelo había alcanzado una respuesta correcta.

Una gran pregunta abierta después del lanzamiento de O1 fue qué tan bien se generalizarían las mismas técnicas para los dominios “más suaves” como la ley, la arquitectura o la medicina. El sólido desempeño de las investigaciones profundas sugiere que esas técnicas se generalizan mejor que muchas personas, incluidas las cosas, esperadas. Y si eso es cierto, deberíamos esperar ver un rápido progreso continuo en las capacidades de IA durante el próximo año, y tal vez más allá de eso.

Operai no inventó esta categoría de producto. Esa distinción va a Google, que introdujo su propio producto de investigación profunda en diciembre. Entonces les pedí a mis voluntarios que evaluaran ambos modelos.

Cada participante me envió una pregunta difícil en su área de especialización. Envié dos respuestas, una de Openai y otra de Google. No les dije qué modelo produjo qué respuesta.

Las respuestas más cortas de Openai fueron de alrededor de 2,000 palabras y tardaron de cuatro a cinco minutos en escribir. El más largo, un análisis detallado de jugadores y estrategias de fútbol de fantasía: enoque más de 18,000 palabras y tomó una investigación profunda de Openai 17 minutos para escribir. En promedio, las respuestas de Google tendían a ser un poco más rápidas y más cortas que las de OpenAI.

Dieciséis de 19 lectores dijeron que preferían la respuesta de OpenAI, mientras que solo tres personas pensaron que la respuesta de Google era mejor.

Muchos de mis jueces voluntarios quedaron impresionados por las respuestas de Operai. Un abogado antimonopolio me dijo un Informe de 8,000 palabras “Se compara favorablemente con un abogado de nivel de entrada” y que un investigador humano tardaría de 15 a 20 horas en compilar la misma información. Ella dijo que le gustaría usar la herramienta de OpenAI profesionalmente, especialmente si se pudiera conectar a bases de datos comerciales como Westlaw o Lexisnexis, lo que le daría acceso a decisiones legales más oscuras.

Chris May, un ingeniero mecánico, solicitó instrucciones sobre cómo construir una planta de electrólisis de hidrógeno. Estimó que se necesitaría un profesional experimentado una semana para crear algo tan bueno como el Informe de 4.000 palabras OpenAi generó en cuatro minutos.

Heather Black Alexander, una maestra de secundaria en Chicago, elogió un Informe de 12,000 palabras Acerca de los programas de asesoramiento de la escuela intermedia que OpenAi produjeron en siete minutos. Alexander dijo que el informe era mejor de lo que esperaría de un empleado de nivel de entrada, y estimó que un investigador humano tardaría una semana en escribirlo.

Algunas personas notaron que las respuestas omitieron información reciente como la elección de Donald Trump. Esto podría deberse a que los modelos fueron entrenados antes de que Trump ganara las elecciones. Sin embargo, también se supone que estos productos de “investigación profunda” buscan información adicional al buscar en la web, por lo que deberían poder aprender sobre desarrollos recientes.

En la tabla anterior, las barras verdes representan a las personas que dijeron que un modelo produjo un trabajo que estaba a nivel de un profesional experimentado, o al menos por encima del nivel de un trabajador de nivel de entrada en su campo. El amarillo representa a las personas que compararon las respuestas de investigación profundas con los empleados o pasantes de nivel de entrada. Red representa a las personas que los compararon con estudiantes de medicina, estudiantes universitarios, estudiantes de secundaria o peor. Como puede ver, los lectores quedaron significativamente más impresionados con el modelo de OpenAI.

Aquí he desglosado cuánto tiempo pensaba que la gente se necesitaría para un ser humano producir un informe de calidad comparable. Había un gran rango. Cuatro personas estimaron que un investigador humano tomaría una semana duplicar un informe de OpenAI. Nadie pensó que ninguno de los informes de Google tomaría tanto tiempo. Por otro lado, dos lectores dijeron que solo tomaría 30 minutos reproducir las respuestas de Google. Nadie dijo eso sobre un informe de Operai.

Si es un suscriptor que paga, puede desplazarse hacia abajo hasta la parte inferior de este artículo para ver cómo cada uno de los 19 participantes calificó las respuestas de OpenAI y Google.

Las empresas se han apresurado a adoptar LLM en los últimos dos años. Una de las aplicaciones más populares ha sido los chatbots impulsados ​​por una técnica llamada generación de recuperación aumentada.

Suponga que ejecuta una empresa que tiene un millón de documentos en sus servidores: memorandos corporativos, solicitudes de servicio al cliente, manuales de instrucciones, contratos de venta, etc. Desea un chatbot que “conozca” todos estos documentos y pueda responder preguntas sobre su contenido.

Cuando un usuario hace una pregunta, un sistema RAG busca documentos relevantes utilizando una búsqueda de palabras clave, base de datos vectorialu otras técnicas. Los documentos más relevantes se insertan en la ventana de contexto de un LLM. Cuando funciona bien, un sistema de trapo crea la ilusión de un chatbot que comprende miles o incluso millones de documentos.

Pero si la pregunta del usuario es compleja o mal redactada, el sistema RAG podría no recuperar los documentos correctos. Este es un modo de falla común porque las técnicas utilizadas para encontrar y clasificar los documentos relevantes no son tan “inteligentes” como el LLM que genera la respuesta final.

Los nuevos productos de investigación profunda apuntan hacia un mejor paradigma para las aplicaciones RAG: si la búsqueda inicial no aparece los documentos correctos, el sistema puede buscar nuevamente con diferentes palabras clave o parámetros. Hacer esto una y otra vez, a lo que la investigación profunda de Openai lo hace, producirá un resultado mucho mejor que una tubería de trapo tradicional.

La razón por la que la gente no ha estado haciendo esto ya es que los primeros LLM no eran lo suficientemente buenos para seguir largas cadenas de razonamiento. Si alguien hubiera tratado de usar la técnica de investigación profunda con GPT-4 en 2023, el modelo se habría “atascado” después de algunas búsquedas.

Pero ahora que Openai ha demostrado qué tan bien funciona este paradigma, debería ser sencillo para que las empresas con aplicaciones de RAG existentes y de bajo rendimiento los actualicen con mejores modelos y un proceso más iterativo para la recuperación de documentos. Eso debería producir un rendimiento dramáticamente mejor, y espero que impulse el entusiasmo renovado por este tipo de sistema.

Curiosamente, el producto de investigación profunda de Google parece estar en algún lugar entre el enfoque de OpenAI y un sistema de trapo tradicional. Al igual que un sistema de RAG tradicional, la investigación profunda de Google opera en dos fases, primero recuperando un montón de documentos y luego generando una salida. Pero dentro de la primera etapa, la investigación profunda de Google tiene un proceso de búsqueda iterativo donde el resultado de una búsqueda informa la siguiente.

No sé si el producto de Google funciona relativamente mal porque tiene un proceso de razonamiento más rígido o porque el modelo subyacente de Google simplemente no es tan bueno como el O3 de OpenAI. O tal vez estos problemas están conectados: tal vez el proceso de búsqueda abierto utilizado por el producto de OpenAI solo es posible con un poderoso modelo de razonamiento como O3.

De cualquier manera, estoy seguro de que Google está trabajando duro para recuperar su liderazgo en una categoría de productos que Google inventó hace solo unos meses.

El éxito de Deep Research también sugiere que hay mucho espacio para mejorar los modelos de IA utilizando el “auto juego”. La gran idea de O1 era que permitir que un modelo “piense” durante más tiempo conduce a mejores respuestas. La investigación profunda de OpenAI demuestra que esto es cierto para una amplia gama de campos más allá de la programación de matemáticas y computadoras.

Y esto sugiere que hay mucho espacio para que estos modelos se “enseñen” a mejorar en una amplia gama de tareas cognitivas. Una empresa como OpenAI o Google puede generar datos de capacitación al tener un modelo “pensar” en una pregunta durante mucho tiempo. Una vez que tiene la respuesta correcta, puede usar la respuesta, y las fichas de pensamiento asociadas, para entrenar a la próxima generación de modelos de razonamiento.

Debido a que el algoritmo de entrenamiento sabe la respuesta correcta, debería poder entrenar al nuevo modelo para llegar a la respuesta correcta más rápidamente. Y luego, este nuevo modelo puede generar un nuevo lote de datos de entrenamiento que se centra en problemas aún más difíciles.

No espero que este proceso obtenga modelos de IA hasta la inteligencia a nivel humano porque eventualmente se toparán con las limitaciones I escribió acerca de en diciembre. Pero el éxito de la investigación profunda me hace pensar que el paradigma actual tiene más espacio para la cabeza de lo que pensé hace solo unas semanas.

Ahora aquí hay una ventaja para pagar suscriptores: un resumen de cómo cada uno de mis 19 voluntarios juzgó las respuestas de Openai y Google.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

El nuevo generador de imágenes de Chatgpt rompió mis expectativas, y ahora es gratis intentarlo

Published

on

Aviso: ¿Puede generar una imagen colorida realista de perro con un traje en la calle en una relación 16: 9?

Captura de pantalla de Sabrina Ortiz/Zdnet

OpenAi puede haber iniciado la moda de la generación de texto a imagen con su modelo Dall-E, pero desde esos días de gloria anteriores, la oferta de la compañía de IA ha sido lapada por modelos de imagen mucho más capaces. Como resultado, cuando Operai lanzó su último y mejor modelo de generación de imágenes GPT-4O, me escéptico. Después de probarlo, he cambiado de opinión por completo.

Empezando

Cuando Dall-E se lanzó por primera vez, vivió en su sitio web independiente; Desde entonces, se ha movido a Chatgpt. La medida llegó con muchos beneficios, incluida la capacidad de pedirle al chatbot Ai una imagen que desee en la misma interfaz donde ya está charlando sobre otra cosa, eliminando así la necesidad de un cambio de contexto constante.

Con el lanzamiento de la generación de imágenes GPT-4O, OpenAI mantuvo este formato conveniente, cambiando el generador de imagen predeterminado de Dall-E a GPT-4O para suscriptores pagados. Como resultado, fue muy fácil comenzar a crear nuevas imágenes desde mi cuenta ChatGPT Plus. Todo lo que tenía que hacer era ingresar el mensaje de lo que quería ver, y luego los generó. Los usuarios también pueden acceder a él desde la interfaz Sora.

También: Cómo usar Sora de OpenAi para crear impresionantes videos generados por AI

También puede generar imágenes si es un usuario gratuito. En el lanzamiento, se anunció que el modelo venía a todos los usuarios, incluidos los gratuitos, pero luego el CEO de OpenAi, Sam Altman, anunció un día después que el despliegue al nivel gratuito ahora se “retrasaría por un tiempo”, solo para que esté disponible para los usuarios gratuitos nuevamente una semana después.

Sin embargo, si no está impresionado cuando lo intenta en la versión gratuita, es porque el único método que activa el uso de GPT-4O es escribir en el atajo “/Crear imagen”. Si simplemente escribe una solicitud, como “Crear una imagen de XYZ”, será predeterminado al modelo Dall-E, que hace que las fotos significativamente de menor calidad. Operai no indica explícitamente los límites, pero después de generar tres imágenes de mi cuenta gratuita, llego a mi límite diario. Por lo tanto, ChatGPT Plus sigue siendo una buena opción para un mayor acceso a la generación de imágenes.

Las imágenes

En el momento en que has estado esperando: las imágenes. Después de insertar una solicitud, el IA genera la generación en menos de un minuto. El proceso lleva un poco más de lo que solía, pero las imágenes valen la pena, entregando muchos detalles, textura, realismo e incluso precisión del texto. En lugar de describirlo, incluiré ejemplos a continuación para que pueda verlo usted mismo.

Inmediato: ¿Puedes generar una imagen realista de un camaleón, de cerca, filmado como si estuviera en National Geographic en la relación 16: 9?

chatgpt-image-lizard

Sabrina Ortiz/Zdnet a través de chatgpt

Inmediato: ¿Puede generar una imagen de una computadora portátil abierta en un escritorio que dice: “Este modelo es tan bueno que incluso puede obtener texto y manos correctos, que generalmente son desafíos importantes para los modelos de IA”, con las manos escribiendo en un teclado en una relación 16: 9?

chatgpt-laptop-withs

Sabrina Ortiz/Zdnet a través de chatgpt

Inmediato: ¿Puedes generar una foto realista de un primer plano de una mujer en una multitud en Times Square mirando la cámara y sonriendo, con la calidad de una tomada en una DSLR?

chatgpt-woman sonriendo

Sabrina Ortiz/Zdnet a través de chatgpt

Como se vio anteriormente, el generador de imágenes hace un gran trabajo al adherirse a la solicitud y entregar imágenes realistas de alta calidad. Sin embargo, al probar un modelo de IA, una de las verdaderas métricas de rendimiento es cómo se compara con los competidores en el mercado. Para darle un buen indicador de esto, lo hice generar el mismo aviso que probé en todos los principales generadores de imágenes de IA, incluidos MidJourney, Imagen 3 de Google, Adobe Firefly y más.

Adjunto la interpretación de GPT-4O a continuación. Puede ver cómo le va a todos los otros generadores de imágenes de IA en este artículo, incluida la interpretación de Dall-E, que claramente está muy por detrás de lo que el nuevo modelo puede hacer.

Inmediato: ¿Puedes generar una imagen de un colibrí vibrante y realista encaramado en un árbol?

chatgpt-image-hummingbird

Sabrina Ortiz/Zdnet a través de chatgpt

Otras características notables

Aunque la calidad de las imágenes es quizás una de las mayores victorias del modelo, también hay otros beneficios. Una de las más grandes es que vive en la interfaz del chatbot, lo que facilita el ajuste de las generaciones con simples indicaciones de lenguaje natural. Además, debido a que el chatbot tiene el contexto de lo que acabas de preguntar, puede considerar eso al construir la imagen.

Por ejemplo, si está charlando con él sobre organizar una fiesta de cumpleaños, es posible que pueda decir: “¿Puede crear ahora una invitación que tenga la información anterior?” en lugar de tener que volver a escribir. Por ejemplo, comencé a chatear con ChatGPT sobre lanzar un inauguración de la casa, y al pedirle que creara una invitación, no tuve que repetir la información que proporcioné anteriormente.

Invitación de fiesta de inauguración de la casa: chatgpt

Captura de pantalla de Sabrina Ortiz/Zdnet

También puede cargar imágenes de referencia y luego pedirle a ChatGPT que cree una versión diferente o las use como elementos de una nueva. Por ejemplo, puede ingresarlo como una selfie y generarla en estilo de anime, como se ve en la nueva publicación X de Altman.

Todas estas características de personalización lo convierten en una oferta realmente sólida para los creativos, que también pueden solicitar que se presente en un fondo transparente o incorpore guías de estilo de marca, como códigos hexagonales o logotipos.

Hablando de Altman, pude generar una imagen de él con un sombrero de fiesta. Podría hacerlo porque el nuevo modelo tiene salvaguardas mucho más sueltas, destinadas a permitir a los usuarios inclinarse en su libertad creativa. La publicación de blog que anunció el modelo señaló que limita lo que se puede crear cuando las personas reales están en el contexto, incluidas “salvaguardas particularmente robustas sobre la desnudez y la violencia gráfica”.

chatgpt-image-sam-altman

Sabrina Ortiz/Zdnet a través de chatgpt

No puedo decir si hay un caso de uso práctico para esta característica, pero es un cambio notable que necesitaba probar por mí mismo. Cuando intenté crear una imagen de Mickey Mouse, dijo que no podría deberse a las implicaciones de los derechos de autor, por lo que parece que no todas las figuras públicas son un juego justo.

En general

En general, el generador de imágenes GPT-4O es una gran victoria sobre los modelos Dall-E y quizás entre los mejores de los muchos que he probado. ¿Vale la pena los $ 20 por mes? Si solo está interesado en la generación de imágenes de alta calidad, todavía hay versiones gratuitas que puede explorar que son realmente capaces, como Adobe Firefly o Google’s Imagen 3.

También: los mejores generadores de imágenes de IA: probado y revisado

Dicho esto, las funciones actualizadas de generación de imágenes se están implementando ahora, y todos los usuarios, incluidos los gratuitos, pueden acceder a ellas. Sin embargo, los usuarios gratuitos deben escribir el atajo “/Crear imagen”, o de lo contrario el sistema predeterminado al modelo Dall-E de menor calidad.

Si es un usuario de ChatGPT frecuente, la actualización a ChatGPT Plus se vuelve significativamente más atractiva. Tendrá acceso a todas las últimas y mejores funciones de chatbot de Openai, así como una generación de imágenes y videos de alta calidad, todo por $ 20 al mes, lo que no es un mal negocio, especialmente teniendo en cuenta otras ofertas en el mercado. Por ejemplo, la suscripción de MidJourney comienza en $ 10 por mes y solo ofrece generación de imágenes.

¿Quieres más historias sobre AI? Regístrese para la innovaciónnuestro boletín semanal.

Continue Reading

Noticias

‘Chatgpt es mi amigo’. El estudio Openai y MIT revela quién es más vulnerable al archivo adjunto de IA

Published

on

Cuando Sam Altman y su equipo en OpenAi desataron el chatgpt en el mundo a fines de 2022, probablemente no anticiparon que algunos usuarios comenzarían a considerar el chatbot de AI como un amigo cercano. Sin embargo, eso es exactamente lo que está sucediendo, según una nueva investigación realizada conjuntamente por Operai y MIT Media Lab.

En un estudio innovador que examina lo que los investigadores llaman “uso afectivo”, los científicos han descubierto patrones que pueden remodelar la forma en que pensamos sobre las relaciones de IA humana. La línea entre la herramienta y los desenflores de compañía diariamente.

“Queremos entender cómo las personas usan modelos como CHATGPT y cómo estos modelos a su vez pueden afectarlos”, explican los investigadores en el MIT Media Lab y el informe de OpenAI. Lo que encontraron sugiere que estamos entrando en territorio psicológico desconocido.

Chatgpt digital gemates: el club de 30 minutos

A pesar de servir a más de 400 millones de usuarios semanales, solo un pequeño segmento de usuarios de ChatGPT desarrollan conexiones emocionales significativas con la IA. A diferencia de las aplicaciones complementarias dedicadas como replika y personaje .i diseñó explícitamente para fomentar las relaciones, ChatGPT se construyó principalmente como una herramienta de productividad.

Sin embargo, algunos usuarios no pueden evitar antropomorfizar el modelo de lenguaje sofisticado detrás de la interfaz de chat. Esta minoría emocionalmente comprometida consiste principalmente en usuarios pesados, particularmente aquellos que utilizan la función de interacción de voz. Estos buscadores de compañeros digitales generalmente pasan alrededor de 30 minutos al día con ChatGPT. El estudio encontró que estos usuarios eran “significativamente más propensos a estar de acuerdo con declaraciones como ‘Considero que ChatGPT es un amigo'”, según la investigación.

Esto no debería sorprender a nadie que haya estudiado la interacción de la computadora humana. Hemos estado antropomorfizando tecnología desde que surgieron los primeros chatbots en la década de 1960. Pero la sofisticación de los LLM de hoy lleva esta tendencia a niveles sin precedentes.

La paradoja de la voz: breve alegría, blues extendido

Uno de los hallazgos más convincentes del estudio implica el modo de voz de ChatGPT, que altera fundamentalmente cómo los usuarios experimentan interacciones. La prueba controlada del MIT Media Lab con casi 1,000 participantes reveló un patrón contraintuitivo. Las interacciones de voz produjeron mejores resultados de bienestar durante sesiones breves, pero se correlacionaron con peores resultados durante el uso diario extendido.

“Los modos de voz se asociaron con un mejor bienestar cuando se usaban brevemente, pero peores resultados con uso diario prolongado”, señalan los investigadores en su informe. Esto sugiere un efecto psicológico de Valle extraño que emerge específicamente con interacciones de voz extendidas.

Aún más preocupante, los participantes que interactuaron con la voz de ChatGPT establecida en un género diferente al suyo informaron niveles significativamente más altos de soledad y dependencia emocional del chatbot mediante la conclusión del estudio. Este hallazgo plantea preguntas espinosas sobre la dinámica de género en las interacciones de IA humana que los diseñadores deben abordar.

Ai sí hombres: entrenando humanos por malos hábitos

Las implicaciones se extienden más allá del bienestar individual. Operai señala que la naturaleza “deferencial” de Chatgpt que permite a los usuarios interrumpir y controlar las conversaciones sin consecuencias sociales podría afectar la forma en que las personas interactúan entre sí. Cuando las personas se acostumbran a dominar las conversaciones con asistentes de IA sumisos, pueden llevar inconscientemente estas expectativas a las interacciones humanas.

Diferencias de género: un hallazgo inesperado

La investigación descubrió variaciones de género notables en respuesta a ChatGPT. Las participantes femeninas que usaron ChatGPT regularmente durante el período de estudio de cuatro semanas mostraron una disminución de la socialización con otros humanos en comparación con sus homólogos masculinos. Esto plantea preguntas importantes sobre si los compañeros de IA podrían afectar diferentes grupos demográficos de maneras sistemáticamente diferentes.

Detectives de emociones: el desafío de medir los sentimientos

Los investigadores reconocen fácilmente las limitaciones de sus métodos. El estudio de la interacción emocional de IA humana presenta desafíos únicos, como señala Kate Devlin, profesora de IA y Sociedad en King’s College London (no involucrado en el estudio). “En términos de lo que los equipos se propusieron medir, las personas no necesariamente han estado usando ChatGPT de una manera emocional, pero no se puede divorciar de ser un humano de sus interacciones [with technology]”, Dijo a MIT Technology Review.

Jason Phang, un investigador de seguridad de Openai que trabajó en el proyecto, describe su trabajo como “preliminar”, pero enfatiza su importancia: “Mucho de lo que estamos haciendo aquí es preliminar, pero estamos tratando de comenzar la conversación con el campo sobre los tipos de cosas que podemos comenzar a medir y comenzar a pensar sobre cuál es el impacto a largo plazo en los usuarios”.

Los estudios combinaron a gran escala, análisis automatizado de casi 40 millones de interacciones ChatGPT con encuestas de usuarios específicas y un ensayo controlado que involucra a casi 1,000 participantes. Operai planea presentar ambos estudios a revistas revisadas por pares, un movimiento hacia una mayor transparencia científica en una industria a menudo criticada por su opacidad.

Silicon Sweethearts: La ética de la intimidad algorítmica

A medida que integramos cada vez más a los compañeros de IA en nuestra vida cotidiana, estos hallazgos sugieren que estamos deambulando por un complejo territorio psicológico sin un mapa. La pregunta no es solo si los sistemas de IA pueden imitar la conversación humana de manera convincente, sino cómo esa mimetría nos afecta cuando nos comprometemos a diario.

Para los desarrolladores de OpenAI y otros AI, estos estudios representan un reconocimiento importante: la capacidad técnica es solo la mitad de la ecuación. Comprender cómo estos sistemas remodelan el comportamiento humano y el bienestar emocional deben ser igualmente fundamentales para el desarrollo responsable de la IA.

Lo que queda por ver es si las empresas priorizarán el bienestar de los usuarios cuando entra en conflicto con las métricas de participación y los objetivos comerciales. A medida que la IA se vuelve más atractiva emocionalmente, la tentación de explotar estos lazos parasociales para el beneficio comercial solo crecerá.

Mientras tanto, puede valer la pena examinar su propia relación con los chatbots de IA. Si pasas media hora diariamente conversando con Chatgpt y pensando en ello como un amigo, eres parte de una fascinante frontera psicológica. Los investigadores apenas comienzan a comprender las implicaciones.

Continue Reading

Noticias

Las imágenes de estilo Ghibli Studio de Chatgpt muestran su poder creativo, pero plantean nuevos problemas de derechos de autor

Published

on

Las redes sociales se han inundado recientemente con imágenes que parecían pertenecer a una película de Studio Ghibli. Los selfies, las fotos familiares e incluso los memes han sido reimaginados con la paleta suave y pastel característica de la compañía de animación japonesa fundada por Hayao Miyazaki.

Esto siguió a la última actualización de Openai a ChatGPT. La actualización mejoró significativamente las capacidades de generación de imágenes de CHATGPT, lo que permite a los usuarios crear imágenes convincentes de estilo ghibli en solo segundos. Ha sido enormemente popular, tanto así, de hecho, que el sistema se bloqueó debido a la demanda del usuario.

Los sistemas generativos de inteligencia artificial (IA) como ChatGPT se entienden mejor como “motores de estilo”. Y lo que estamos viendo ahora es que estos sistemas ofrecen a los usuarios más precisión y control que nunca.

Pero esto también está planteando preguntas completamente nuevas sobre los derechos de autor y la propiedad creativa.

Cómo el nuevo chatgpt hace imágenes

Los programas generativos de IA funcionan produciendo salidas en respuesta a las indicaciones del usuario, incluidas las indicaciones para crear una imagen.

Generaciones anteriores de generadores de imágenes AI utilizaron modelos de difusión. Estos modelos refinan gradualmente datos aleatorios y ruidosos en una imagen coherente. Pero la última actualización de ChatGPT utiliza lo que se conoce como un “algoritmo autorregresivo”.

Este algoritmo trata las imágenes más como el lenguaje, descomponiéndolas en “tokens”. Así como ChatGPT predice las palabras más probables en una oración, ahora puede predecir diferentes elementos visuales en una imagen por separado.

Esta tokenización permite que el algoritmo separe mejor ciertas características de una imagen, y su relación con las palabras en un aviso. Como resultado, ChatGPT puede crear imágenes con mayor precisión a partir de indicaciones precisas del usuario que las generaciones anteriores de generadores de imágenes. Puede reemplazar o cambiar las características específicas al tiempo que preserva el resto de la imagen, y mejora el tema de larga data de generar texto correcto en las imágenes.

Una ventaja particularmente poderosa de generar imágenes dentro de un modelo de lenguaje grande es la capacidad de recurrir a todo el conocimiento ya codificado en el sistema. Esto significa que los usuarios no necesitan describir todos los aspectos de una imagen con detalles minuciosos. Simplemente pueden referirse a conceptos como Studio Ghibli y la IA entiende la referencia.

La reciente tendencia de Studio Ghibli comenzó con OpenAi en sí, antes de difundirse entre los ingenieros de software de Silcon Valley y luego incluso gobiernos y políticos, incluidos usos aparentemente improbables, como la Casa Blanca, que crea una imagen giblificada de una mujer que llora siendo deportada y el gobierno indio que promueve la narrativa del primer ministro Narendra Modi de una “nueva India”.

Comprender la IA como ‘motores de estilo’

Los sistemas generativos de IA no almacenan información en ningún sentido tradicional. En cambio, codifican texto, hechos o fragmentos de imagen como patrones, o “estilos”, dentro de sus redes neuronales.

Entrenados en grandes cantidades de datos, los modelos de IA aprenden a reconocer patrones en múltiples niveles. Las capas de red inferiores pueden capturar características básicas como relaciones de palabras o texturas visuales. Las capas más altas codifican conceptos o elementos visuales más complejos.

Esto significa que todo (objetos, propiedades, géneros de escritura, voces profesionales) se transforma en estilos. Cuando AI se entera del trabajo de Miyazaki, no almacena marcos reales de Studio Gibli (aunque los generadores de imágenes a veces pueden producir imitaciones cercanas de imágenes de entrada). En cambio, está codificando la “ghibli-ness” como un patrón matemático, un estilo que se puede aplicar a nuevas imágenes.

Lo mismo sucede con los plátanos, los gatos o los correos electrónicos corporativos. La IA aprende “plátano”, “gato” o “correo electrónico corporativo”, patrones que definen lo que hace que algo sea reconocible un plátano, un gato o una comunicación profesional.

La codificación y transferencia de estilos ha sido durante mucho tiempo un objetivo expreso en la IA visual. Ahora tenemos un generador de imágenes que logra esto con una escala y control sin precedentes.

Este enfoque desbloquea posibilidades creativas notables tanto en texto como en imágenes. Si todo es un estilo, entonces estos estilos se pueden combinar y transferir libremente. Es por eso que nos referimos a estos sistemas como “motores de estilo”. Intente crear un sillón al estilo de un gato o en estilo

https://www.youtube.com/watch?v=duwdqsy8ste

La controversia de los derechos de autor: cuando los estilos se convierten en identidad

Si bien la capacidad de trabajar con estilos es lo que hace que la IA generativa sea tan poderosa, también está en el corazón de la creciente controversia. Para muchos artistas, hay algo profundamente inquietante en ver sus enfoques artísticos distintivos reducidos a solo otro “estilo” que cualquiera puede aplicar con un mensaje de texto simple.

Hayao Miyazaki no ha comentado públicamente sobre la tendencia reciente de las personas que usan ChatGPT para generar imágenes en su estilo de animación de fama mundial. Pero él ha sido crítico con la IA anteriormente.

Todo esto también plantea preguntas completamente nuevas sobre los derechos de autor y la propiedad creativa.

Tradicionalmente, la ley de derechos de autor no protege los estilos, solo expresiones específicas. No puedes derechos de autor de un género musical como “SKA” o un movimiento de arte como “Impresionismo”.

Esta limitación existe por una buena razón. Si alguien pudiera monopolizar un estilo completo, sofocaría la expresión creativa para todos los demás.

Pero hay una diferencia entre los estilos generales y los muy distintivos que se vuelven casi sinónimos de la identidad de alguien. Cuando una IA puede generar trabajo “al estilo de Greg Rutkowski”, un artista polaco cuyo nombre se usó en más de 93,000 indicaciones en la difusión estable del generador de imágenes de IA: potencialmente amenaza tanto su sustento como su legado artístico.

Algunos creadores ya han tomado acciones legales.

En un caso presentado a fines de 2022, tres artistas formaron una clase para demandar a múltiples compañías de IA, argumentando que sus generadores de imágenes estaban capacitados en sus trabajos originales sin permiso, y ahora permiten a los usuarios generar trabajos derivados que imitan sus estilos distintivos.

A medida que la tecnología evoluciona más rápido que la ley, el trabajo está en marcha en una nueva legislación para tratar de equilibrar la innovación tecnológica con la protección de las identidades creativas de los artistas.

Cualquiera sea el resultado, estos debates resaltan la naturaleza transformadora de los motores de estilo AI, y la necesidad de considerar tanto su potencial creativo sin explotar como su protección más matizada de estilos artísticos distintivos.

Continue Reading

Trending