Noticias

Cómo los memes de Ghibli son un signo de la política de IA de la Casa Blanca

Published

on

If Te preguntas por qué las redes sociales están llenas de memes de estilo Studio Gibli de repente, hay varias respuestas a esa pregunta.

La más obvia es que OpenAI lanzó una actualización para ChatGPT el martes que permite a los usuarios generar mejores imágenes utilizando la versión 4O del modelo. Operai ha ofrecido durante mucho tiempo herramientas de generación de imágenes, pero esta se sintió como una evolución significativa: los usuarios dicen que es mucho mejor que otros generadores de imágenes de IA para seguir con precisión las indicaciones de texto, y que hace imágenes de fidelidad mucho más altas.

Pero esa no es la única razón para el diluvio de memes al estilo de la casa de animación japonesa.

Junto con la actualización de ChatGPT, Operai también relajó varias de sus reglas sobre los tipos de imágenes que los usuarios pueden generar con sus herramientas de IA: un CEO de cambio, Sam Altman, dijo que “representa una nueva marca de agua alta para nosotros al permitir la libertad creativa”. Entre esos cambios: permitir que los usuarios generen imágenes de figuras públicas de adultos por primera vez, y reducir la probabilidad de que ChatGPT rechace las indicaciones de los usuarios, incluso si se arriesgaran a ser ofensivos.

“La gente va a crear algunas cosas realmente sorprendentes y algunas cosas que pueden ofender a las personas”, dijo Altman en una publicación en X. “Lo que nos gustaría apuntar es que la herramienta no crea cosas ofensivas a menos que lo desee, en cuyo caso en lo que lo hace”.

Los usuarios comenzaron rápidamente a aprovechar al máximo el cambio de políticas: compartir imágenes “giblificadas” del 11 de septiembre, Adolf Hitler y el asesinato de George Floyd. La cuenta oficial de la Casa Blanca en X incluso compartió una imagen al estilo de Studio Gibli de un oficial de hielo que detenía a un presunto inmigrante ilegal.

En cierto sentido, el pivote ha tardado mucho en llegar. Operai comenzó su vida de una década como un laboratorio de investigación que mantuvo sus herramientas bajo estricto bloqueo y llave; Cuando lanzó los primeros chatbots y modelos de generación de imágenes, tenían filtros de contenido estrictos que tenían como objetivo evitar el mal uso. Pero durante años ha ampliado la accesibilidad de sus herramientas en un enfoque que llama “implementación iterativa”. El lanzamiento de ChatGPT en noviembre de 2022 fue el ejemplo más popular de esta estrategia, que la compañía cree que es necesaria para ayudar a la sociedad a adaptarse a los cambios que está aportando la IA.

Aún así, en otro sentido, el cambio a las políticas de comportamiento modelo de OpenAI tiene una causa inmediata más reciente: la elección 2024 del presidente Donald Trump, y el cambio cultural que ha acompañado a la nueva administración.

Trump y sus aliados han sido muy críticos con lo que ven como la censura de la libertad de expresión en línea por grandes compañías tecnológicas. Muchos conservadores han generado paralelos entre la práctica de larga data de moderación de contenido en las redes sociales y la estrategia más reciente, por parte de compañías de IA, incluida OpenAI, para limitar los tipos de contenido que los modelos de IA generativos pueden crear. “Chatgpt se ha despertado en sus huesos”, publicó Elon Musk en X en diciembre.

Como la mayoría de las grandes empresas, OpenAi está tratando de construir lazos con la Casa Blanca de Trump. La compañía obtuvo una victoria temprana cuando, en el segundo día de su presidencia, Trump se paró junto a Altman y anunció una gran inversión en los centros de datos que OpenAI cree que será necesaria para capacitar a la próxima generación de sistemas de IA. Pero Operai todavía está en una posición delicada. Musk, el patrocinador y asesor multimillonario de Trump, tiene un famoso disgusto por Altman. La pareja cofundó OpenAi juntos en 2015, pero después de un intento fallido de convertirse en CEO, Musk renunció en un Huff. Ahora está demandando a Altman y Openai, alegando que incumplieron la misión fundadora de OpenAi para desarrollar la IA como una organización sin fines de lucro. Con el almizcle operando desde la Casa Blanca y también liderando una compañía de IA rival, XAI, es especialmente vital que las perspectivas comerciales de OpenAI cultiven los lazos positivos cuando sea posible con la administración Trump.

A principios de marzo, Openai presentó un documento que presentó recomendaciones para la política tecnológica de la nueva administración. Fue un cambio en el tono de las misivas anteriores de la compañía. “Las propuestas de políticas centradas en la libertad de OpenAI, tomadas juntas, pueden fortalecer el liderazgo de Estados Unidos en la IA y al hacerlo, desbloquear el crecimiento económico, asegurar la competitividad estadounidense y proteger nuestra seguridad nacional”, dijo el documento. Pidió a la administración Trump que exime a Openai, y al resto del sector privado, de 781 leyes a nivel estatal que proponen regular la IA, que dijo “arriesgamos a la innovación”. A cambio, dijo Openai, la industria podría proporcionar al gobierno de los Estados Unidos “aprendizajes y acceso” de las compañías de IA, y garantizaría que Estados Unidos retuviera su “posición de liderazgo” antes de China en la carrera de IA.

Junto con el lanzamiento de la nueva actualización de CHATGPT de esta semana, OpenAI duplicó lo que dijo que eran políticas destinadas a dar a los usuarios más libertad, dentro de los límites, para crear lo que quieran con sus herramientas de IA. “Estamos cambiando de rechazos generales en áreas sensibles a un enfoque más preciso centrado en prevenir el daño del mundo real”, dijo Joanne Jang, directora de comportamiento modelo de Operai, en una publicación de blog. “El objetivo es adoptar la humildad: reconocer cuánto no sabemos y posicionándonos para adaptarnos a medida que aprendemos”.

Jang dio varios ejemplos de cosas que se no permitieron anteriormente, pero a lo que Operai ahora estaba abriendo sus puertas. Las herramientas ahora podrían usarse para generar imágenes de figuras públicas, escribió Jang, aunque OpenAI crearía una lista de exclusión de exclusión permitiendo a las personas “decidir por sí mismas” si querían que ChatGPT pudiera generar imágenes de ellas. Los niños, escribió, serían sometidos a “protecciones más fuertes y barandas más estrictas”.

Contenido “ofensivo”, escribió Jang, que usa comillas, también recibiría un replanteamiento bajo las nuevas políticas de Openai. Los usos que algunos podrían ser vistos como ofensivos por algunos, pero que no causaron daños en el mundo real, estarían cada vez más permitidos. “Sin pautas claras, el modelo rechazó previamente las solicitudes como” hacer que los ojos de esta persona se vean más asiáticos “o” hacer que esta persona sea más pesada “, lo que implica involuntariamente estos atributos eran inherentemente ofensivos”, escribió Jang, sugiriendo que tales indicaciones se permitirían en el futuro.

Las herramientas de OpenAI previamente rechazaron los intentos de los usuarios de generar símbolos de odio como las esvásticas. En la publicación del blog, Jang dijo que la compañía reconoció, sin embargo, que estos símbolos también a veces podrían aparecer en “contextos genuinamente educativos o culturales”. La compañía pasaría a una estrategia de aplicar métodos técnicos, escribió, para “identificar mejor y rechazar el mal uso dañino” sin prohibirlos por completo.

“Los empleados de AI Lab”, escribió, “no deberían ser los árbitros de lo que la gente debería y no se les debe permitir crear”.

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Trending

Exit mobile version