Connect with us

Noticias

El soneto de Claude 3.7 de Anthrope apunta a Operai y Deepseek en la próxima gran batalla de AI

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información


Anthrope acaba de disparar un disparo de advertencia a Openai, Deepseek y toda la industria de la IA con el lanzamiento de Claude 3.7 Sonnet, un modelo que brinda a los usuarios un control sin precedentes sobre cuánto tiempo pasa una IA “pensando” antes de generar una respuesta. El lanzamiento, junto con el debut de Claude Code, un agente de codificación de AI de línea de comandos, señala el impulso agresivo de Anthrope en el mercado empresarial de IA, una que podría remodelar cómo las empresas construyen software y automatizan el trabajo.

Las apuestas no podrían ser más altas. El mes pasado, Deepseek sorprendió al mundo tecnológico con un modelo de IA que coincidía con los sistemas estadounidenses a una fracción del costo, enviando las acciones de Nvidia a un 17% y generando alarmas sobre el liderazgo de IA de Estados Unidos. Ahora Anthrope está apostando a que el control preciso sobre el razonamiento de la IA, no solo la velocidad cruda o el ahorro de costos, le dará una ventaja.

Claude 3.7 Sonnet presenta una alternancia de ‘modo de pensamiento’, lo que permite a los usuarios optimizar el tiempo de respuesta de la IA en función de la complejidad de la tarea. (Crédito: antrópico)

“Simplemente creemos que el razonamiento es una parte central y un componente central de una IA, en lugar de una cosa separada a la que tiene que pagar por separado para acceder”, dijo Dianne Penn, quien dirige la gestión de productos para la investigación en Anthrope, en una entrevista con VentureBeat . “Al igual que los humanos, la IA debe manejar respuestas rápidas y un pensamiento complejo. Para una pregunta simple como ‘¿Qué hora es?’, Debería responder al instante. Pero para tareas complejas, como planificar un viaje de dos semanas en Italia al tiempo que acomoda las necesidades dietéticas sin gluten, necesita un tiempo de procesamiento más extenso “.

“No vemos razonamiento, planificación y autocorrección como capacidades separadas”, agregó. “Por lo tanto, esta es esencialmente nuestra forma de expresar esa diferencia filosófica … idealmente, el modelo en sí debería reconocer cuándo un problema requiere un pensamiento y ajuste más intensivo, en lugar de exigir a los usuarios que seleccionen explícitamente diferentes modos de razonamiento”.

Una comparación de los modelos AI muestra el rendimiento del soneto de Claude 3.7 en varias tareas, con ganancias notables en capacidades de pensamiento extendido en comparación con su predecesor. (Crédito: antrópico)

Los datos de referencia respaldan la ambiciosa visión de Anthrope. En el modo de pensamiento extendido, Claude 3.7 Sonnet logra una precisión del 78.2% en las tareas de razonamiento de nivel de posgrado, desafiando los últimos modelos de OpenAI y superan a Deepseek R1.

Pero las métricas más reveladoras provienen de aplicaciones del mundo real: el modelo obtiene un 81.2% en el uso de la herramienta centrada en el comercio minorista y muestra mejoras marcadas en el seguimiento de las instrucciones (93.2%), áreas donde los competidores han tenido problemas o no han publicado resultados.

Mientras que Deepseek y Operai lideran en puntos de referencia de matemáticas tradicionales, el enfoque unificado de Claude 3.7 demuestra que un solo modelo puede cambiar efectivamente entre respuestas rápidas y análisis profundos, eliminando potencialmente la necesidad de que las empresas mantengan sistemas de IA separados para diferentes tipos de tareas.

Cómo la IA híbrida de Anthrope podría remodelar la computación empresarial

El momento de la liberación es crucial. El surgimiento de Deepseek el mes pasado envió ondas de choque a través de Silicon Valley, lo que demuestra que se podría lograr un razonamiento sofisticado de IA con mucho menos poder informático de lo que se pensaba anteriormente. Esto desafió los supuestos fundamentales sobre los costos de desarrollo de IA y los requisitos de infraestructura. Cuando Deepseek publicó sus resultados, las acciones de Nvidia cayeron un 17% en un solo día, los inversores de repente cuestionaron si los chips caros eran realmente esenciales para la IA avanzada.

Para las empresas, las apuestas no podrían ser más altas. Las empresas están gastando millones integrando IA en sus operaciones, apostando a qué enfoque dominará. El modelo híbrido de Anthrope ofrece una ruta media convincente: la capacidad de ajustar el rendimiento de la IA en función de la tarea en cuestión, desde respuestas instantáneas del servicio al cliente hasta un análisis financiero complejo. El sistema mantiene el precio previo de Anthrope de $ 3 por millón de tokens de entrada y $ 15 por millón de tokens de salida, incluso con características de razonamiento adicionales.

Claude 3.7 Sonnet presenta una alternancia de ‘modo de pensamiento’, lo que permite a los usuarios optimizar el tiempo de respuesta de la IA en función de la complejidad de la tarea. (Crédito: antrópico)

“Nuestros clientes están tratando de lograr resultados para sus clientes”, explicó Michael Gerstenhaber, jefe de plataforma de Anthrope. “Usar el mismo modelo y provocar el mismo modelo de diferentes maneras permite a alguien como Thompson Reuters hacer investigación legal, permite que nuestros socios de codificación como Cursor o Github puedan desarrollar aplicaciones y cumplir con esos objetivos”.

El enfoque híbrido de Anthrope representa tanto una evolución técnica como un gambito estratégico. Mientras que OpenAI mantiene modelos separados para diferentes capacidades y Deepseek se centra en la eficiencia de rentabilidad, Anthrope está buscando sistemas unificados que pueden manejar tareas rutinarias y razonamiento complejo. Es una filosofía que podría remodelar cómo las empresas implementan IA, eliminando la necesidad de hacer malabarismos con múltiples modelos especializados.

Conozca el código Claude: el nuevo asistente de desarrollador de AI

Anthrope hoy también presentó Claude Code, una herramienta de línea de comandos que permite a los desarrolladores delegar tareas de ingeniería complejas directamente a la IA. El sistema requiere la aprobación humana antes de cometer cambios en el código, lo que refleja el enfoque creciente de la industria en el desarrollo responsable de la IA.

La interfaz terminal de Claude Code, parte de la nueva suite de herramientas de desarrollador de Anthrope, enfatiza la simplicidad y la interacción directa. (Crédito: antrópico)

“En realidad, todavía tienes que aceptar los cambios que hace Claude. Eres un revisor con la rueda práctica ”, señaló Penn. “Hay esencialmente una especie de lista de verificación que debe aceptar esencialmente para que el modelo tome ciertas acciones”.

Los anuncios vienen en medio de una intensa competencia en el desarrollo de la IA. Los investigadores de Stanford recientemente crearon un modelo de razonamiento de código abierto por menos de $ 50, mientras que Microsoft solo integró el modelo O3-Mini de OpenAI en Azure. El éxito de Deepseek también ha estimulado nuevos enfoques para el desarrollo de la IA, y algunas compañías exploran técnicas de destilación modelo que podrían reducir aún más los costos.

La interfaz de línea de comandos del código Claude permite a los desarrolladores delegar tareas de ingeniería complejas mientras mantienen la supervisión humana. (Crédito: antrópico)

De Pokémon a Enterprise: Probar la nueva inteligencia de AI

Penn ilustró el dramático progreso en las capacidades de IA con un ejemplo inesperado: “Hemos estado pidiendo diferentes versiones de Claude para jugar Pokémon … Esta versión ha llegado a Vermilion City, capturado múltiples Pokémon e incluso se mueve para subir de nivel. Tiene el Pokémon correcto para luchar contra los rivales “.

“Creo que nos verá continuar innovando y impulsando la calidad del razonamiento, empuje hacia cosas como el razonamiento dinámico”, explicó Penn. “Siempre hemos pensado en ello como una parte central de la inteligencia, en lugar de algo separado”.

La prueba real del enfoque de Anthrope vendrá de la adopción empresarial. Si bien jugar Pokémon puede parecer trivial, demuestra el tipo de inteligencia adaptativa que las empresas necesitan: AI que puede manejar las operaciones de rutina y las decisiones estratégicas complejas sin cambiar entre modelos especializados. Las versiones anteriores de Claude no podían navegar más allá de la ciudad inicial de un juego. La última versión construye estrategias, administra recursos y toma decisiones tácticas, capacidades que reflejan la complejidad de los desafíos comerciales del mundo real.

Para los clientes empresariales, esto podría significar la diferencia entre mantener múltiples sistemas de IA para diferentes tareas e implementar una solución única y más capaz. Los próximos meses revelarán si la apuesta de Anthrope sobre el razonamiento de AI unificado remodelará el mercado empresarial o se convertirá en otro experimento en la rápida evolución de la industria.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

El nuevo generador de imágenes de Chatgpt rompió mis expectativas, y ahora es gratis intentarlo

Published

on

Aviso: ¿Puede generar una imagen colorida realista de perro con un traje en la calle en una relación 16: 9?

Captura de pantalla de Sabrina Ortiz/Zdnet

OpenAi puede haber iniciado la moda de la generación de texto a imagen con su modelo Dall-E, pero desde esos días de gloria anteriores, la oferta de la compañía de IA ha sido lapada por modelos de imagen mucho más capaces. Como resultado, cuando Operai lanzó su último y mejor modelo de generación de imágenes GPT-4O, me escéptico. Después de probarlo, he cambiado de opinión por completo.

Empezando

Cuando Dall-E se lanzó por primera vez, vivió en su sitio web independiente; Desde entonces, se ha movido a Chatgpt. La medida llegó con muchos beneficios, incluida la capacidad de pedirle al chatbot Ai una imagen que desee en la misma interfaz donde ya está charlando sobre otra cosa, eliminando así la necesidad de un cambio de contexto constante.

Con el lanzamiento de la generación de imágenes GPT-4O, OpenAI mantuvo este formato conveniente, cambiando el generador de imagen predeterminado de Dall-E a GPT-4O para suscriptores pagados. Como resultado, fue muy fácil comenzar a crear nuevas imágenes desde mi cuenta ChatGPT Plus. Todo lo que tenía que hacer era ingresar el mensaje de lo que quería ver, y luego los generó. Los usuarios también pueden acceder a él desde la interfaz Sora.

También: Cómo usar Sora de OpenAi para crear impresionantes videos generados por AI

También puede generar imágenes si es un usuario gratuito. En el lanzamiento, se anunció que el modelo venía a todos los usuarios, incluidos los gratuitos, pero luego el CEO de OpenAi, Sam Altman, anunció un día después que el despliegue al nivel gratuito ahora se “retrasaría por un tiempo”, solo para que esté disponible para los usuarios gratuitos nuevamente una semana después.

Sin embargo, si no está impresionado cuando lo intenta en la versión gratuita, es porque el único método que activa el uso de GPT-4O es escribir en el atajo “/Crear imagen”. Si simplemente escribe una solicitud, como “Crear una imagen de XYZ”, será predeterminado al modelo Dall-E, que hace que las fotos significativamente de menor calidad. Operai no indica explícitamente los límites, pero después de generar tres imágenes de mi cuenta gratuita, llego a mi límite diario. Por lo tanto, ChatGPT Plus sigue siendo una buena opción para un mayor acceso a la generación de imágenes.

Las imágenes

En el momento en que has estado esperando: las imágenes. Después de insertar una solicitud, el IA genera la generación en menos de un minuto. El proceso lleva un poco más de lo que solía, pero las imágenes valen la pena, entregando muchos detalles, textura, realismo e incluso precisión del texto. En lugar de describirlo, incluiré ejemplos a continuación para que pueda verlo usted mismo.

Inmediato: ¿Puedes generar una imagen realista de un camaleón, de cerca, filmado como si estuviera en National Geographic en la relación 16: 9?

chatgpt-image-lizard

Sabrina Ortiz/Zdnet a través de chatgpt

Inmediato: ¿Puede generar una imagen de una computadora portátil abierta en un escritorio que dice: “Este modelo es tan bueno que incluso puede obtener texto y manos correctos, que generalmente son desafíos importantes para los modelos de IA”, con las manos escribiendo en un teclado en una relación 16: 9?

chatgpt-laptop-withs

Sabrina Ortiz/Zdnet a través de chatgpt

Inmediato: ¿Puedes generar una foto realista de un primer plano de una mujer en una multitud en Times Square mirando la cámara y sonriendo, con la calidad de una tomada en una DSLR?

chatgpt-woman sonriendo

Sabrina Ortiz/Zdnet a través de chatgpt

Como se vio anteriormente, el generador de imágenes hace un gran trabajo al adherirse a la solicitud y entregar imágenes realistas de alta calidad. Sin embargo, al probar un modelo de IA, una de las verdaderas métricas de rendimiento es cómo se compara con los competidores en el mercado. Para darle un buen indicador de esto, lo hice generar el mismo aviso que probé en todos los principales generadores de imágenes de IA, incluidos MidJourney, Imagen 3 de Google, Adobe Firefly y más.

Adjunto la interpretación de GPT-4O a continuación. Puede ver cómo le va a todos los otros generadores de imágenes de IA en este artículo, incluida la interpretación de Dall-E, que claramente está muy por detrás de lo que el nuevo modelo puede hacer.

Inmediato: ¿Puedes generar una imagen de un colibrí vibrante y realista encaramado en un árbol?

chatgpt-image-hummingbird

Sabrina Ortiz/Zdnet a través de chatgpt

Otras características notables

Aunque la calidad de las imágenes es quizás una de las mayores victorias del modelo, también hay otros beneficios. Una de las más grandes es que vive en la interfaz del chatbot, lo que facilita el ajuste de las generaciones con simples indicaciones de lenguaje natural. Además, debido a que el chatbot tiene el contexto de lo que acabas de preguntar, puede considerar eso al construir la imagen.

Por ejemplo, si está charlando con él sobre organizar una fiesta de cumpleaños, es posible que pueda decir: “¿Puede crear ahora una invitación que tenga la información anterior?” en lugar de tener que volver a escribir. Por ejemplo, comencé a chatear con ChatGPT sobre lanzar un inauguración de la casa, y al pedirle que creara una invitación, no tuve que repetir la información que proporcioné anteriormente.

Invitación de fiesta de inauguración de la casa: chatgpt

Captura de pantalla de Sabrina Ortiz/Zdnet

También puede cargar imágenes de referencia y luego pedirle a ChatGPT que cree una versión diferente o las use como elementos de una nueva. Por ejemplo, puede ingresarlo como una selfie y generarla en estilo de anime, como se ve en la nueva publicación X de Altman.

Todas estas características de personalización lo convierten en una oferta realmente sólida para los creativos, que también pueden solicitar que se presente en un fondo transparente o incorpore guías de estilo de marca, como códigos hexagonales o logotipos.

Hablando de Altman, pude generar una imagen de él con un sombrero de fiesta. Podría hacerlo porque el nuevo modelo tiene salvaguardas mucho más sueltas, destinadas a permitir a los usuarios inclinarse en su libertad creativa. La publicación de blog que anunció el modelo señaló que limita lo que se puede crear cuando las personas reales están en el contexto, incluidas “salvaguardas particularmente robustas sobre la desnudez y la violencia gráfica”.

chatgpt-image-sam-altman

Sabrina Ortiz/Zdnet a través de chatgpt

No puedo decir si hay un caso de uso práctico para esta característica, pero es un cambio notable que necesitaba probar por mí mismo. Cuando intenté crear una imagen de Mickey Mouse, dijo que no podría deberse a las implicaciones de los derechos de autor, por lo que parece que no todas las figuras públicas son un juego justo.

En general

En general, el generador de imágenes GPT-4O es una gran victoria sobre los modelos Dall-E y quizás entre los mejores de los muchos que he probado. ¿Vale la pena los $ 20 por mes? Si solo está interesado en la generación de imágenes de alta calidad, todavía hay versiones gratuitas que puede explorar que son realmente capaces, como Adobe Firefly o Google’s Imagen 3.

También: los mejores generadores de imágenes de IA: probado y revisado

Dicho esto, las funciones actualizadas de generación de imágenes se están implementando ahora, y todos los usuarios, incluidos los gratuitos, pueden acceder a ellas. Sin embargo, los usuarios gratuitos deben escribir el atajo “/Crear imagen”, o de lo contrario el sistema predeterminado al modelo Dall-E de menor calidad.

Si es un usuario de ChatGPT frecuente, la actualización a ChatGPT Plus se vuelve significativamente más atractiva. Tendrá acceso a todas las últimas y mejores funciones de chatbot de Openai, así como una generación de imágenes y videos de alta calidad, todo por $ 20 al mes, lo que no es un mal negocio, especialmente teniendo en cuenta otras ofertas en el mercado. Por ejemplo, la suscripción de MidJourney comienza en $ 10 por mes y solo ofrece generación de imágenes.

¿Quieres más historias sobre AI? Regístrese para la innovaciónnuestro boletín semanal.

Continue Reading

Noticias

‘Chatgpt es mi amigo’. El estudio Openai y MIT revela quién es más vulnerable al archivo adjunto de IA

Published

on

Cuando Sam Altman y su equipo en OpenAi desataron el chatgpt en el mundo a fines de 2022, probablemente no anticiparon que algunos usuarios comenzarían a considerar el chatbot de AI como un amigo cercano. Sin embargo, eso es exactamente lo que está sucediendo, según una nueva investigación realizada conjuntamente por Operai y MIT Media Lab.

En un estudio innovador que examina lo que los investigadores llaman “uso afectivo”, los científicos han descubierto patrones que pueden remodelar la forma en que pensamos sobre las relaciones de IA humana. La línea entre la herramienta y los desenflores de compañía diariamente.

“Queremos entender cómo las personas usan modelos como CHATGPT y cómo estos modelos a su vez pueden afectarlos”, explican los investigadores en el MIT Media Lab y el informe de OpenAI. Lo que encontraron sugiere que estamos entrando en territorio psicológico desconocido.

Chatgpt digital gemates: el club de 30 minutos

A pesar de servir a más de 400 millones de usuarios semanales, solo un pequeño segmento de usuarios de ChatGPT desarrollan conexiones emocionales significativas con la IA. A diferencia de las aplicaciones complementarias dedicadas como replika y personaje .i diseñó explícitamente para fomentar las relaciones, ChatGPT se construyó principalmente como una herramienta de productividad.

Sin embargo, algunos usuarios no pueden evitar antropomorfizar el modelo de lenguaje sofisticado detrás de la interfaz de chat. Esta minoría emocionalmente comprometida consiste principalmente en usuarios pesados, particularmente aquellos que utilizan la función de interacción de voz. Estos buscadores de compañeros digitales generalmente pasan alrededor de 30 minutos al día con ChatGPT. El estudio encontró que estos usuarios eran “significativamente más propensos a estar de acuerdo con declaraciones como ‘Considero que ChatGPT es un amigo'”, según la investigación.

Esto no debería sorprender a nadie que haya estudiado la interacción de la computadora humana. Hemos estado antropomorfizando tecnología desde que surgieron los primeros chatbots en la década de 1960. Pero la sofisticación de los LLM de hoy lleva esta tendencia a niveles sin precedentes.

La paradoja de la voz: breve alegría, blues extendido

Uno de los hallazgos más convincentes del estudio implica el modo de voz de ChatGPT, que altera fundamentalmente cómo los usuarios experimentan interacciones. La prueba controlada del MIT Media Lab con casi 1,000 participantes reveló un patrón contraintuitivo. Las interacciones de voz produjeron mejores resultados de bienestar durante sesiones breves, pero se correlacionaron con peores resultados durante el uso diario extendido.

“Los modos de voz se asociaron con un mejor bienestar cuando se usaban brevemente, pero peores resultados con uso diario prolongado”, señalan los investigadores en su informe. Esto sugiere un efecto psicológico de Valle extraño que emerge específicamente con interacciones de voz extendidas.

Aún más preocupante, los participantes que interactuaron con la voz de ChatGPT establecida en un género diferente al suyo informaron niveles significativamente más altos de soledad y dependencia emocional del chatbot mediante la conclusión del estudio. Este hallazgo plantea preguntas espinosas sobre la dinámica de género en las interacciones de IA humana que los diseñadores deben abordar.

Ai sí hombres: entrenando humanos por malos hábitos

Las implicaciones se extienden más allá del bienestar individual. Operai señala que la naturaleza “deferencial” de Chatgpt que permite a los usuarios interrumpir y controlar las conversaciones sin consecuencias sociales podría afectar la forma en que las personas interactúan entre sí. Cuando las personas se acostumbran a dominar las conversaciones con asistentes de IA sumisos, pueden llevar inconscientemente estas expectativas a las interacciones humanas.

Diferencias de género: un hallazgo inesperado

La investigación descubrió variaciones de género notables en respuesta a ChatGPT. Las participantes femeninas que usaron ChatGPT regularmente durante el período de estudio de cuatro semanas mostraron una disminución de la socialización con otros humanos en comparación con sus homólogos masculinos. Esto plantea preguntas importantes sobre si los compañeros de IA podrían afectar diferentes grupos demográficos de maneras sistemáticamente diferentes.

Detectives de emociones: el desafío de medir los sentimientos

Los investigadores reconocen fácilmente las limitaciones de sus métodos. El estudio de la interacción emocional de IA humana presenta desafíos únicos, como señala Kate Devlin, profesora de IA y Sociedad en King’s College London (no involucrado en el estudio). “En términos de lo que los equipos se propusieron medir, las personas no necesariamente han estado usando ChatGPT de una manera emocional, pero no se puede divorciar de ser un humano de sus interacciones [with technology]”, Dijo a MIT Technology Review.

Jason Phang, un investigador de seguridad de Openai que trabajó en el proyecto, describe su trabajo como “preliminar”, pero enfatiza su importancia: “Mucho de lo que estamos haciendo aquí es preliminar, pero estamos tratando de comenzar la conversación con el campo sobre los tipos de cosas que podemos comenzar a medir y comenzar a pensar sobre cuál es el impacto a largo plazo en los usuarios”.

Los estudios combinaron a gran escala, análisis automatizado de casi 40 millones de interacciones ChatGPT con encuestas de usuarios específicas y un ensayo controlado que involucra a casi 1,000 participantes. Operai planea presentar ambos estudios a revistas revisadas por pares, un movimiento hacia una mayor transparencia científica en una industria a menudo criticada por su opacidad.

Silicon Sweethearts: La ética de la intimidad algorítmica

A medida que integramos cada vez más a los compañeros de IA en nuestra vida cotidiana, estos hallazgos sugieren que estamos deambulando por un complejo territorio psicológico sin un mapa. La pregunta no es solo si los sistemas de IA pueden imitar la conversación humana de manera convincente, sino cómo esa mimetría nos afecta cuando nos comprometemos a diario.

Para los desarrolladores de OpenAI y otros AI, estos estudios representan un reconocimiento importante: la capacidad técnica es solo la mitad de la ecuación. Comprender cómo estos sistemas remodelan el comportamiento humano y el bienestar emocional deben ser igualmente fundamentales para el desarrollo responsable de la IA.

Lo que queda por ver es si las empresas priorizarán el bienestar de los usuarios cuando entra en conflicto con las métricas de participación y los objetivos comerciales. A medida que la IA se vuelve más atractiva emocionalmente, la tentación de explotar estos lazos parasociales para el beneficio comercial solo crecerá.

Mientras tanto, puede valer la pena examinar su propia relación con los chatbots de IA. Si pasas media hora diariamente conversando con Chatgpt y pensando en ello como un amigo, eres parte de una fascinante frontera psicológica. Los investigadores apenas comienzan a comprender las implicaciones.

Continue Reading

Noticias

Las imágenes de estilo Ghibli Studio de Chatgpt muestran su poder creativo, pero plantean nuevos problemas de derechos de autor

Published

on

Las redes sociales se han inundado recientemente con imágenes que parecían pertenecer a una película de Studio Ghibli. Los selfies, las fotos familiares e incluso los memes han sido reimaginados con la paleta suave y pastel característica de la compañía de animación japonesa fundada por Hayao Miyazaki.

Esto siguió a la última actualización de Openai a ChatGPT. La actualización mejoró significativamente las capacidades de generación de imágenes de CHATGPT, lo que permite a los usuarios crear imágenes convincentes de estilo ghibli en solo segundos. Ha sido enormemente popular, tanto así, de hecho, que el sistema se bloqueó debido a la demanda del usuario.

Los sistemas generativos de inteligencia artificial (IA) como ChatGPT se entienden mejor como “motores de estilo”. Y lo que estamos viendo ahora es que estos sistemas ofrecen a los usuarios más precisión y control que nunca.

Pero esto también está planteando preguntas completamente nuevas sobre los derechos de autor y la propiedad creativa.

Cómo el nuevo chatgpt hace imágenes

Los programas generativos de IA funcionan produciendo salidas en respuesta a las indicaciones del usuario, incluidas las indicaciones para crear una imagen.

Generaciones anteriores de generadores de imágenes AI utilizaron modelos de difusión. Estos modelos refinan gradualmente datos aleatorios y ruidosos en una imagen coherente. Pero la última actualización de ChatGPT utiliza lo que se conoce como un “algoritmo autorregresivo”.

Este algoritmo trata las imágenes más como el lenguaje, descomponiéndolas en “tokens”. Así como ChatGPT predice las palabras más probables en una oración, ahora puede predecir diferentes elementos visuales en una imagen por separado.

Esta tokenización permite que el algoritmo separe mejor ciertas características de una imagen, y su relación con las palabras en un aviso. Como resultado, ChatGPT puede crear imágenes con mayor precisión a partir de indicaciones precisas del usuario que las generaciones anteriores de generadores de imágenes. Puede reemplazar o cambiar las características específicas al tiempo que preserva el resto de la imagen, y mejora el tema de larga data de generar texto correcto en las imágenes.

Una ventaja particularmente poderosa de generar imágenes dentro de un modelo de lenguaje grande es la capacidad de recurrir a todo el conocimiento ya codificado en el sistema. Esto significa que los usuarios no necesitan describir todos los aspectos de una imagen con detalles minuciosos. Simplemente pueden referirse a conceptos como Studio Ghibli y la IA entiende la referencia.

La reciente tendencia de Studio Ghibli comenzó con OpenAi en sí, antes de difundirse entre los ingenieros de software de Silcon Valley y luego incluso gobiernos y políticos, incluidos usos aparentemente improbables, como la Casa Blanca, que crea una imagen giblificada de una mujer que llora siendo deportada y el gobierno indio que promueve la narrativa del primer ministro Narendra Modi de una “nueva India”.

Comprender la IA como ‘motores de estilo’

Los sistemas generativos de IA no almacenan información en ningún sentido tradicional. En cambio, codifican texto, hechos o fragmentos de imagen como patrones, o “estilos”, dentro de sus redes neuronales.

Entrenados en grandes cantidades de datos, los modelos de IA aprenden a reconocer patrones en múltiples niveles. Las capas de red inferiores pueden capturar características básicas como relaciones de palabras o texturas visuales. Las capas más altas codifican conceptos o elementos visuales más complejos.

Esto significa que todo (objetos, propiedades, géneros de escritura, voces profesionales) se transforma en estilos. Cuando AI se entera del trabajo de Miyazaki, no almacena marcos reales de Studio Gibli (aunque los generadores de imágenes a veces pueden producir imitaciones cercanas de imágenes de entrada). En cambio, está codificando la “ghibli-ness” como un patrón matemático, un estilo que se puede aplicar a nuevas imágenes.

Lo mismo sucede con los plátanos, los gatos o los correos electrónicos corporativos. La IA aprende “plátano”, “gato” o “correo electrónico corporativo”, patrones que definen lo que hace que algo sea reconocible un plátano, un gato o una comunicación profesional.

La codificación y transferencia de estilos ha sido durante mucho tiempo un objetivo expreso en la IA visual. Ahora tenemos un generador de imágenes que logra esto con una escala y control sin precedentes.

Este enfoque desbloquea posibilidades creativas notables tanto en texto como en imágenes. Si todo es un estilo, entonces estos estilos se pueden combinar y transferir libremente. Es por eso que nos referimos a estos sistemas como “motores de estilo”. Intente crear un sillón al estilo de un gato o en estilo

https://www.youtube.com/watch?v=duwdqsy8ste

La controversia de los derechos de autor: cuando los estilos se convierten en identidad

Si bien la capacidad de trabajar con estilos es lo que hace que la IA generativa sea tan poderosa, también está en el corazón de la creciente controversia. Para muchos artistas, hay algo profundamente inquietante en ver sus enfoques artísticos distintivos reducidos a solo otro “estilo” que cualquiera puede aplicar con un mensaje de texto simple.

Hayao Miyazaki no ha comentado públicamente sobre la tendencia reciente de las personas que usan ChatGPT para generar imágenes en su estilo de animación de fama mundial. Pero él ha sido crítico con la IA anteriormente.

Todo esto también plantea preguntas completamente nuevas sobre los derechos de autor y la propiedad creativa.

Tradicionalmente, la ley de derechos de autor no protege los estilos, solo expresiones específicas. No puedes derechos de autor de un género musical como “SKA” o un movimiento de arte como “Impresionismo”.

Esta limitación existe por una buena razón. Si alguien pudiera monopolizar un estilo completo, sofocaría la expresión creativa para todos los demás.

Pero hay una diferencia entre los estilos generales y los muy distintivos que se vuelven casi sinónimos de la identidad de alguien. Cuando una IA puede generar trabajo “al estilo de Greg Rutkowski”, un artista polaco cuyo nombre se usó en más de 93,000 indicaciones en la difusión estable del generador de imágenes de IA: potencialmente amenaza tanto su sustento como su legado artístico.

Algunos creadores ya han tomado acciones legales.

En un caso presentado a fines de 2022, tres artistas formaron una clase para demandar a múltiples compañías de IA, argumentando que sus generadores de imágenes estaban capacitados en sus trabajos originales sin permiso, y ahora permiten a los usuarios generar trabajos derivados que imitan sus estilos distintivos.

A medida que la tecnología evoluciona más rápido que la ley, el trabajo está en marcha en una nueva legislación para tratar de equilibrar la innovación tecnológica con la protección de las identidades creativas de los artistas.

Cualquiera sea el resultado, estos debates resaltan la naturaleza transformadora de los motores de estilo AI, y la necesidad de considerar tanto su potencial creativo sin explotar como su protección más matizada de estilos artísticos distintivos.

Continue Reading

Trending