Connect with us

Noticias

Por qué un periodista podría obtener las indicaciones de ChatGPT de un ministro, y lo que significa para la transparencia

Published

on

Cuando el nuevo científico reveló que había obtenido las indicaciones de ChatGPT de un ministro del Gobierno del Reino Unido a través de una solicitud de Libertad de Información (FOI), muchos en periodismo y política hicieron una doble toma. El ministro de Ciencia y Tecnología, Peter Kyle, aparentemente le había pedido al AI Chatbot que redactara un discurso, explique una política compleja y, más memorablemente, le diga en qué podcasts aparecer.

Lo que una vez parecía reflexiones privadas o uso experimental de IA ahora está firmemente en el dominio público, porque se realizó en un dispositivo gubernamental.

Es un ejemplo sorprendente de cómo se estiran las leyes de FOI en la era de la inteligencia artificial. Pero también plantea una pregunta más grande y más incómoda: ¿qué más en nuestras vidas digitales cuenta como un registro público? Si se pueden publicar indicaciones de IA, ¿deberían las búsquedas de Google las siguientes?

La Ley de Libertad de Información de Gran Bretaña se aprobó en 2000 y entró en vigor en 2005. Desde entonces, han surgido dos usos distintos de FOI. El primero, y posiblemente el más exitoso, se aplica a los registros personales. Esto le ha dado a las personas el derecho de acceder a la información que se mantiene sobre ellos, desde archivos de vivienda hasta registros de bienestar social. Es una historia de éxito tranquila que ha empoderado a los ciudadanos en sus tratos con el estado.

El segundo es lo que los periodistas usan para interrogar el funcionamiento del gobierno. Aquí, los resultados han sido irregulares en el mejor de los casos. Si bien FOI ha producido cucharadas y escándalos, también ha sido socavado por exenciones radicales, retrasos crónicos y una cultura de Whitehall que considera que la transparencia es opcional en lugar de esencial.

Tony Blair, quien presentó el acto como primer ministro, lo describió como el mayor error de su tiempo en el gobierno. Más tarde argumentó que FOI convirtió la política en “una conversación realizada con los medios de comunicación”.

Los sucesivos gobiernos se han roto contra FOI. Pocos casos ilustran esto mejor que la batalla sobre los notas de las arañas negras: cartas escritas por el entonces Príncipe (ahora Rey) Carlos a los ministros, presionando sobre temas, desde la agricultura hasta la arquitectura. El gobierno luchó durante una década para mantenerlos en secreto, citando el derecho del príncipe a los consejos confidenciales.



Leer más: contenido aburrido, pero el lanzamiento de Prince Charles Letters es un momento histórico


Cuando finalmente fueron liberados en 2015 después de un fallo de la Corte Suprema, el resultado fue ligeramente vergonzoso pero políticamente explosivo. Probó que lo que los ministros consideran la correspondencia “privada” pueden estar sujetas a escrutinio público.

El caso ChatGPT se siente como una versión moderna de ese debate. Si un político redacta ideas a través de AI, ¿es un pensamiento privado o un registro público? Si esos indican que la política de forma, seguramente el público tiene derecho a saber.

¿Las búsquedas de Google son las siguientes?

La ley de FOI es clara en el documento: cualquier información en poder de un organismo público está sujeta a liberación a menos que esté exenta. A lo largo de los años, los tribunales han dictaminado que la plataforma es irrelevante. Correo electrónico, whatsapp o notas escritas a mano: si el contenido se relaciona con los negocios oficiales y está en manos de un organismo público, es potencialmente divulgable.

El precedente se estableció en Dublín en 2017 cuando la Oficina del Primer Ministro irlandés publicó mensajes de WhatsApp al emisor de servicio público RTÉ. La Oficina del Comisionado de Información del Reino Unido también ha publicado una guía detallada que confirma que la información oficial mantenida en canales no corporativos, como correo electrónico privado, WhatsApp o Signal, está sujeta a solicitudes de FOI si se relaciona con los negocios de la autoridad pública.

La consulta en curso Covid-19 ha demostrado cómo los grupos de WhatsApp, una vez considerados backannels informales, se convirtieron en ámbitos de toma de decisiones clave en el gobierno, con mensajes de Boris Johnson, Matt Hancock y asesores principales como Dominic Cummings ahora revelados como registros oficiales.

En Australia, los mensajes de WhatsApp entre los ministros fueron examinados durante el escándalo de RobodeBT, una búsqueda ilegal de bienestar que se extendió entre 2016 y 19, mientras que la investigación de Canadá sobre las protestas del “convoy de libertad” en 2022 reveló textos y chats privados entre altos funcionarios como evidencia crucial de cómo se tomaron las decisiones.

El principio es simple: si se está haciendo el trabajo del gobierno, el público tiene derecho a verlo.

Los registros de chat de IA ahora caen en esta misma área gris. Si un funcionario o ministro usa ChatGPT para explorar las opciones de política o redactar un discurso en un dispositivo gubernamental, ese registro puede ser un registro, como lo demostraron las indicaciones de Peter Kyle.

Gobierno de WhatsApp.
Andy Rain/Epa-Efe

Esto abre un precedente fascinante (y ligeramente desconcertante). Si las indicaciones de AI son fáciles, ¿qué pasa con las búsquedas de Google? Si un funcionario civil tipos “cómo privatizar el NHS” en Chrome en una computadora portátil gubernamental, ¿es una consulta privada o un registro oficial?

La respuesta honesta es: no lo sabemos (todavía). FOI no ha alcanzado por completo la era digital. Las búsquedas de Google suelen ser efímeras y no se almacenan de manera rutinaria. Pero si las búsquedas se registran o se capturan en pantalla como parte del trabajo oficial, entonces podrían solicitarse.

Del mismo modo, ¿qué pasa con los borradores escritos en el asistente de escritura de IA gramatal o ideas de lluvia de ideas con Siri? Si esas herramientas se usan en dispositivos oficiales y existen registros, podrían revelarse.

Por supuesto, no hay nada que evite que este o cualquier gobierno futuro cambie la ley o apriete las reglas de FOI para excluir material como este.

Foi, periodismo y democracia

Si bien este tipo de revelaciones son fascinantes, corren el riesgo de distraer de un problema más profundo: FOI está cada vez más politizado. Las negativas ahora a menudo se basan en consideraciones políticas en lugar de la carta de la ley, con solicitudes rutinariamente retrasadas o rechazadas para evitar vergüenza. En muchos casos, el uso de los grupos de WhatsApp por parte de los ministros fue un intento deliberado de evitar el escrutinio en primer lugar.

Existe una cultura creciente de evitación de transparencia entre el gobierno y los servicios públicos, una que se extiende más allá de los ministros. Las empresas privadas que entregan contratos públicos a menudo están protegidos de FOI por completo. Mientras tanto, algunos gobiernos, incluidos Irlanda y Australia, han debilitado la ley misma.

Las herramientas de IA ya no son experimentos, se están convirtiendo en parte de cómo se desarrolla la política y se toman decisiones. Sin una supervisión adecuada, corren el riesgo de convertirse en el próximo punto ciego en la responsabilidad democrática.

Para los periodistas, este es un posible cambio de juego. Los sistemas como ChatGPT pronto pueden integrarse en los flujos de trabajo del gobierno, redactar discursos, resumir informes e incluso una estrategia de lluvia de ideas. Si las decisiones están cada vez más formadas por sugerencias algorítmicas, el público merece saber cómo y por qué.

Pero también revive un viejo dilema. La democracia depende de la transparencia, sin embargo, los funcionarios deben tener espacio para pensar, experimentar y explorar ideas sin temor a que cada consulta o borrador de IA termine en la portada. No todos los solicitantes de búsqueda o chatbot son una posición de política final.

Blair puede haber llamado a Foi un error, pero en verdad, obligó al poder a enfrentar la realidad de la responsabilidad. El verdadero desafío ahora es actualizar FOI para la era digital.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Los fanáticos de Miyazaki condenan Memes Ghibli Ghibli generados por IA

Published

on

En una ironía amarga, las personas de todo el mundo están utilizando el modelo GPT -4O de OpenAI para generar imágenes al estilo del legendario animador y cineasta japonés Hayao Miyazaki, quien durante toda su carrera tiene valores preciados de humanismo, arte minucioso y la santidad de la naturaleza versus los horrores de la industria explotadora. Y aunque ni él ni el estudio Ghibli, el estudio de animación de Tokio que fundó, ha comentado públicamente sobre la tendencia del meme (la compañía no devolvió de inmediato una solicitud de comentarios de Piedra rodanteya sea), los fanáticos están en un alboroto.

“Han pasado 24 horas desde que Operai sacudió inesperadamente el mundo de las imágenes de IA con la generación de imágenes 4O”, escribió un columnista de boletín tecnológico en una publicación X el miércoles, refiriéndose al nuevo modelo de texto a imagen pagado de la compañía de Silicon Valley, disponible solo a través de la versión pagada de ChatGPT, que cuesta $ 20 mensualmente. Entre los ejemplos de lo que 4o podía hacer, compartió lo que llamó “memes de estilo Studio Ghibli”, es decir, memes reconocibles como “novio distraído” y “desastral niña” representadas como ilustraciones similares a un anime que recuerdan a Miyazaki para clásicos queridos como tanto Enérgico y Howl’s Moving Castle.

Mientras que algunos quedaron impresionados, muchas de las respuestas fueron brutales. “Vi la hermosa versión 4K IMAX de Princesa Mononoke Anoche … luego salió y vi esta mierda “, escribió un crítico, nombrando una película de Miyazaki de 1997 que actualmente disfruta de una carrera teatral limitada (y ciertamente tiene puntos que hacer sobre la destrucción ambiental forjada por la tecnología).” ¿Valoran realmente tan poco el arte que es solo un filtro para su foto de perfil para su foto de perfil? Paga a un maldito artista y haz algo real, gremlins “. Otro se quejó: “La gente actúa como si fuera algo bueno, pero todo el alma ha sido absorbida de la sociedad, realmente estamos en la cima, ya nada importa”. Un tercer detractor simplemente respondió: “Hope Studio Ghibli demanda a todos los involucrados”.

De hecho, la pregunta de derechos de autor se convirtió en una preocupación apremiante tan pronto como los suscriptores de ChatGPT comenzaron a producir el contenido inspirado en Ghibli y filtrar sus propias fotos a través de la estética. Aunque el propio CEO de Operai, Sam Altman, alentó la locura cambiando su foto de perfil X a una versión giblificada de sí mismo, y bromeó sobre recibir cientos de mensajes de personas que le habían enviado imágenes similares: la compañía había implementado el miércoles por la noche una barandilla que dificultaba generar tal contenido. “Agregamos un rechazo que se desencadena cuando un usuario intenta generar una imagen al estilo de un artista vivo”, dijo Openii en un comunicado, aunque un portavoz dijo a Interno de negocios que 4O aún podría imitar los “estilos de estudio más amplios”. Por supuesto, no fue difícil para los entusiastas de ChatGPT descubrir las indicaciones que produjeron memes de Gibli sin usar el nombre del estudio. Otro problema es que los usuarios pudieron generar imágenes de Ghibli-ish que representan el 11 de septiembre, el asesinato del presidente John F. Kennedy, y el terrorista doméstico Ted Kaczynski, el “Unabomber”.

Miyazaki, de 84 años, es ciertamente un artista vivo, y no es difícil adivinar lo que haría de 4o. Conocido por su trabajo intensivo y perfeccionista sobre los marcos dibujados a mano, ya es una figura de los memes existentes. En un documental de 2016 sobre su carrera, visita un equipo que le muestra una demostración de su animación informática generada por IA de un personaje zombie desfigurado. Miyazaki expresó con calma su desprecio fulminante: “Quien crea esto no tiene idea de qué dolor es nada”, dijo. “Estoy completamente disgustado. Si realmente quieres hacer cosas espeluznantes, puedes seguir adelante y hacerlo. Nunca desearía incorporar esta tecnología en mi trabajo. Siento que esto es un insulto a la vida misma”. También observó: “Los humanos estamos perdiendo fe en nosotros mismos”. Las capturas de pantalla del intercambio devastador y el veredicto final de Miyazaki han circulado en las redes sociales desde entonces.

Un indicador revelador de exactamente quién está interesado en bombear AI Slop con ChatGPT: el jueves, la cuenta del gobierno de la Casa Blanca se burló de la deportación de un presunto distribuidor de fentanilo por parte de la inmigración y la aplicación de la aduana a principios de mes al representarla como un carácter de Ghibli que llora por un agente. Mientras tanto, Nayib Bukele, el presidente de El Salvador y autoproclamado “el mejor dictador del mundo”, quien en el segundo mandato del presidente Donald Trump ha aceptado a los migrantes deportados de los Estados Unidos para ser celebrados en el notorio “mega prisbil”, ha compartido una versión de Ghibli de sí mismo sobre el escritor de X. y los críticos, entre otros, han argumentado que Ai, entre otros, ha argumentado que Ai, que es convincente, es convincente “, es convincente que es convincente”. Estética del fascismo “, con extremistas de derecha ansiosos por aprovecharlo por la propaganda de rayo.

Pero la reacción violenta esta vez, incluso al contenido apolítico, ha sido intensa. “Mira, llámame a la divertida policía o lo que sea, pero Hayao Miyazaki no pasó toda su vida cultivando una identidad artística distinta para que la IA pudiera reducir décadas de su disciplina e integridad a Fodder de memes”, escribió un usuario de One X. “Es una pena la facilidad con la que todos abandonan el principio solo para sentirse incluido”. Alguien más fue más puntiagudo sobre el tema, respondiendo a una persona que había generado una famosa foto de Trump en 2018 de Trump, la ex canciller alemana Angela Merkel y otros líderes del G7 en ese momento en el estilo Gibli: “Hayao Miyazaki debería comenzar a matar a la gente. Creo”. La publicación tiene más de 270,000 me gusta.

Historias de tendencia

El jueves, Altman reconoció que la locura de 4O estaba presionando los recursos de OpenAi, señalando en X: “Es muy divertido ver a la gente amar las imágenes en ChatGPT. Pero nuestras GPU se están derritiendo. Vamos a introducir temporalmente algunos límites de tarifas mientras trabajamos para hacerlo más eficiente. ¡Ojalá no sea larga!” También anunció que la versión gratuita de ChatGPT pronto permitiría hasta tres generaciones de imágenes al día. El día anterior, parecía defender el uso de la tecnología de IA para este propósito, publicando: “La descendencia de un hombre es el tesoro de otro hombre”.

“Dice el CEO de Big Slop”, respondió un artista de cine e ilustrador.

Continue Reading

Noticias

Cómo los memes de Ghibli son un signo de la política de IA de la Casa Blanca

Published

on

If Te preguntas por qué las redes sociales están llenas de memes de estilo Studio Gibli de repente, hay varias respuestas a esa pregunta.

La más obvia es que OpenAI lanzó una actualización para ChatGPT el martes que permite a los usuarios generar mejores imágenes utilizando la versión 4O del modelo. Operai ha ofrecido durante mucho tiempo herramientas de generación de imágenes, pero esta se sintió como una evolución significativa: los usuarios dicen que es mucho mejor que otros generadores de imágenes de IA para seguir con precisión las indicaciones de texto, y que hace imágenes de fidelidad mucho más altas.

Pero esa no es la única razón para el diluvio de memes al estilo de la casa de animación japonesa.

Junto con la actualización de ChatGPT, Operai también relajó varias de sus reglas sobre los tipos de imágenes que los usuarios pueden generar con sus herramientas de IA: un CEO de cambio, Sam Altman, dijo que “representa una nueva marca de agua alta para nosotros al permitir la libertad creativa”. Entre esos cambios: permitir que los usuarios generen imágenes de figuras públicas de adultos por primera vez, y reducir la probabilidad de que ChatGPT rechace las indicaciones de los usuarios, incluso si se arriesgaran a ser ofensivos.

“La gente va a crear algunas cosas realmente sorprendentes y algunas cosas que pueden ofender a las personas”, dijo Altman en una publicación en X. “Lo que nos gustaría apuntar es que la herramienta no crea cosas ofensivas a menos que lo desee, en cuyo caso en lo que lo hace”.

Los usuarios comenzaron rápidamente a aprovechar al máximo el cambio de políticas: compartir imágenes “giblificadas” del 11 de septiembre, Adolf Hitler y el asesinato de George Floyd. La cuenta oficial de la Casa Blanca en X incluso compartió una imagen al estilo de Studio Gibli de un oficial de hielo que detenía a un presunto inmigrante ilegal.

En cierto sentido, el pivote ha tardado mucho en llegar. Operai comenzó su vida de una década como un laboratorio de investigación que mantuvo sus herramientas bajo estricto bloqueo y llave; Cuando lanzó los primeros chatbots y modelos de generación de imágenes, tenían filtros de contenido estrictos que tenían como objetivo evitar el mal uso. Pero durante años ha ampliado la accesibilidad de sus herramientas en un enfoque que llama “implementación iterativa”. El lanzamiento de ChatGPT en noviembre de 2022 fue el ejemplo más popular de esta estrategia, que la compañía cree que es necesaria para ayudar a la sociedad a adaptarse a los cambios que está aportando la IA.

Aún así, en otro sentido, el cambio a las políticas de comportamiento modelo de OpenAI tiene una causa inmediata más reciente: la elección 2024 del presidente Donald Trump, y el cambio cultural que ha acompañado a la nueva administración.

Trump y sus aliados han sido muy críticos con lo que ven como la censura de la libertad de expresión en línea por grandes compañías tecnológicas. Muchos conservadores han generado paralelos entre la práctica de larga data de moderación de contenido en las redes sociales y la estrategia más reciente, por parte de compañías de IA, incluida OpenAI, para limitar los tipos de contenido que los modelos de IA generativos pueden crear. “Chatgpt se ha despertado en sus huesos”, publicó Elon Musk en X en diciembre.

Como la mayoría de las grandes empresas, OpenAi está tratando de construir lazos con la Casa Blanca de Trump. La compañía obtuvo una victoria temprana cuando, en el segundo día de su presidencia, Trump se paró junto a Altman y anunció una gran inversión en los centros de datos que OpenAI cree que será necesaria para capacitar a la próxima generación de sistemas de IA. Pero Operai todavía está en una posición delicada. Musk, el patrocinador y asesor multimillonario de Trump, tiene un famoso disgusto por Altman. La pareja cofundó OpenAi juntos en 2015, pero después de un intento fallido de convertirse en CEO, Musk renunció en un Huff. Ahora está demandando a Altman y Openai, alegando que incumplieron la misión fundadora de OpenAi para desarrollar la IA como una organización sin fines de lucro. Con el almizcle operando desde la Casa Blanca y también liderando una compañía de IA rival, XAI, es especialmente vital que las perspectivas comerciales de OpenAI cultiven los lazos positivos cuando sea posible con la administración Trump.

A principios de marzo, Openai presentó un documento que presentó recomendaciones para la política tecnológica de la nueva administración. Fue un cambio en el tono de las misivas anteriores de la compañía. “Las propuestas de políticas centradas en la libertad de OpenAI, tomadas juntas, pueden fortalecer el liderazgo de Estados Unidos en la IA y al hacerlo, desbloquear el crecimiento económico, asegurar la competitividad estadounidense y proteger nuestra seguridad nacional”, dijo el documento. Pidió a la administración Trump que exime a Openai, y al resto del sector privado, de 781 leyes a nivel estatal que proponen regular la IA, que dijo “arriesgamos a la innovación”. A cambio, dijo Openai, la industria podría proporcionar al gobierno de los Estados Unidos “aprendizajes y acceso” de las compañías de IA, y garantizaría que Estados Unidos retuviera su “posición de liderazgo” antes de China en la carrera de IA.

Junto con el lanzamiento de la nueva actualización de CHATGPT de esta semana, OpenAI duplicó lo que dijo que eran políticas destinadas a dar a los usuarios más libertad, dentro de los límites, para crear lo que quieran con sus herramientas de IA. “Estamos cambiando de rechazos generales en áreas sensibles a un enfoque más preciso centrado en prevenir el daño del mundo real”, dijo Joanne Jang, directora de comportamiento modelo de Operai, en una publicación de blog. “El objetivo es adoptar la humildad: reconocer cuánto no sabemos y posicionándonos para adaptarnos a medida que aprendemos”.

Jang dio varios ejemplos de cosas que se no permitieron anteriormente, pero a lo que Operai ahora estaba abriendo sus puertas. Las herramientas ahora podrían usarse para generar imágenes de figuras públicas, escribió Jang, aunque OpenAI crearía una lista de exclusión de exclusión permitiendo a las personas “decidir por sí mismas” si querían que ChatGPT pudiera generar imágenes de ellas. Los niños, escribió, serían sometidos a “protecciones más fuertes y barandas más estrictas”.

Contenido “ofensivo”, escribió Jang, que usa comillas, también recibiría un replanteamiento bajo las nuevas políticas de Openai. Los usos que algunos podrían ser vistos como ofensivos por algunos, pero que no causaron daños en el mundo real, estarían cada vez más permitidos. “Sin pautas claras, el modelo rechazó previamente las solicitudes como” hacer que los ojos de esta persona se vean más asiáticos “o” hacer que esta persona sea más pesada “, lo que implica involuntariamente estos atributos eran inherentemente ofensivos”, escribió Jang, sugiriendo que tales indicaciones se permitirían en el futuro.

Las herramientas de OpenAI previamente rechazaron los intentos de los usuarios de generar símbolos de odio como las esvásticas. En la publicación del blog, Jang dijo que la compañía reconoció, sin embargo, que estos símbolos también a veces podrían aparecer en “contextos genuinamente educativos o culturales”. La compañía pasaría a una estrategia de aplicar métodos técnicos, escribió, para “identificar mejor y rechazar el mal uso dañino” sin prohibirlos por completo.

“Los empleados de AI Lab”, escribió, “no deberían ser los árbitros de lo que la gente debería y no se les debe permitir crear”.

Continue Reading

Noticias

El filtro Ghibli de Chatgpt es político ahora, pero siempre fue

Published

on

Cuando vi la historia de mi colega Kylie Robison sobre el nuevo generador de imágenes de Openai el martes, pensé que esta semana podría ser divertida. Las imágenes generativas de IA plantean todo tipo de problemas éticos, pero las encuentro muy entretenidas, y pasé grandes trozos de ese día viendo a otros Borde El personal prueba chatgpt de manera que cubrió todo el espectro, desde lindo hasta maldito.

Pero el jueves por la tarde, la Casa Blanca decidió estropearlo. Su cuenta X publicó una fotografía de un detenido de llanto que se jactó era un traficante de fentanilo arrestado e inmigrante indocumentado. Luego agregó una caricatura generada por AI de un oficial que esposó a la mujer sollozada, no atribuida a ninguna herramienta en particular, pero en el estilo inconfundible de las imitaciones súper populares de Ghibli Studio Gibli de Chatgpt, que han inundado Internet durante la última semana.

Un uso feo de una herramienta de software no debe acusar necesariamente a esa herramienta. Pero cuando la imagen se unió al anfitrión de otros en mis feeds sociales, el adorable filtro de Ghibli y el bombardeo de las redes sociales de la Casa Blanca comenzaron a sentirse de alguna manera hechos el uno por el otro. Ambos son, tan contraintuitivos como pueden parecer, el producto de una mentalidad que trata la decencia básica como debilidad e insensibilidad como la prerrogativa del poder.

Nos comunicamos con OpenAi y la Casa Blanca para obtener más detalles, pero la medida ascendió a un extraño anuncio de productos de la compañía que el propio presidente Donald Trump tiene vínculos estrechos. Los jefes de estado han estado subiendo a los memes de las redes sociales durante años, y no técnicamente Sepa si ChatGPT u otro generador de IA produjo la imagen. (En las posibilidades del 1 por ciento, la Casa Blanca encargó a un artista y están leyendo esto, me encantaría saber de ellos). Pero el CEO de OpenAi, Sam Altman, ha estado promoviendo las imágenes generadas por el estilo de Ghibli como una característica genial actualmente exclusiva de los niveles pagos de Chatgpt. Y Trump es un refuerzo muy público del proyecto Stargate de OpenAI, anunciándolo en una conferencia de prensa con Altman.

En la superficie, Ai Ghibli y Trump encajan extrañamente. El objetivo claro de la Casa Blanca era un tipo familiar de sadismo performativo extremadamente en línea; Esta es la misma cuenta que publicó un video de “ASMR: vuelo ilegal de deportación alienígena” de las cadenas de tintineo de los prisioneros. Es asqueroso y juvenil, incluso si asumimos que toda su información es precisa, en lugar de, por ejemplo, el resultado de algo como agentes que leen un tatuaje de conciencia del autismo como símbolo de pandillas. Ninguna persona razonable defiende la humillación pública nacional de lo que parece ser un detenido de inmigración de nivel bastante bajo como buen gobierno, mensajes públicos efectivos o un bien moral.

La estética de Ghibli es tan saludable que socava esto. Incluso un prominente conservador de Silicon Valley ha señalado que representar a una mujer de anime sollozada arrestada por un agente con cara de piedra no pone la simpatía de la mayoría de las personas con el agente.

Sin embargo, AI Media en general es la estética principal del movimiento MAGA, que produce muchos otros trabajos extraños e insípidos. Es una consecuencia natural de su amor de larga data por las fotos de Photoshop y los dibujos animados que representan a Trump como un musculoso exagerado. También es el producto de los vínculos entre Trump y la industria de la IA, la mayoría de los “primer amigo” y el fundador de Xai, Elon Musk, pero también cosas como Stargate y la colocación de David Sacks como “Ai Czar”.

Hace ocho años, una compañía de tecnología podría haberse distanciado de alguien que salta sobre sus memes para promover la deportación masiva

No sé cómo se sienten Openai y Altman acerca de la Casa Blanca que promueve un anuncio conjunto para ChatGPT y un intento brutal y probablemente parcialmente ilegal de expulsar a los inmigrantes de Estados Unidos. (Altman era un conocido patrocinador de causas progresivas hasta esta administración). Antes de la publicación de esta imagen, el equipo de OpenAI enfatizó que se supone que el generador de imágenes de ChatGPT ofrece una barandilla altamente flexible, por lo que pueden sostener que esto no es diferente del uso de Photoshop ofensivamente. Y esto podría ser evidente, pero no estoy claro que Operai debería o podría Bloquee la mera producción de algo como esta imagen: si no hubiera sido publicado por la Casa Blanca, incluso podría leerla como una protesta de estos arrestos.

Al mismo tiempo, hace 8 años, cuando Silicon Valley y Trump estaban en oposición, una importante compañía tecnológica podría haberse distanciado. Una declaración como “OpenAI cree en la máxima libertad artística y capacidad de respuesta a las solicitudes de los usuarios, pero la publicación de esta administración no refleja los valores de nuestra empresa” no es una aguja difícil de enhebrar.

La presión social y política para evitar hacerlo ahora es abrumadora. Cualesquiera que sean las opiniones internas del personal de OpenAI, es un mal negocio ser agotado por un presidente vengativo y luego darse la vuelta para criticar sus políticas, particularmente en medio de un giro a la derecha más grande de Silicon Valley.

Pero también hay algo más profundo en el juego, porque el filtro de Ghibli en sí tiene un regusto agrio: en esencia, es un eco menor del total desprecio de la era de Trump por otros seres humanos.

No soy remotamente inmune al atractivo de las imágenes giblificadoras. En serio. Algunos de ellos son realmente adorables. La gente ha amado los filtros de anime durante años, y no creo que la mayoría de estas imágenes se hayan creado con mala intención. Pero el cineasta Hayao Miyazaki, cuyo nombre es sinónimo del estudio de animación, es uno de los artistas más famosos del mundo. Es ampliamente citado por llamar a una versión anterior de AI Animation “Un insulto a la vida en sí misma”, y no hay señal de que apruebe de que Chatgpt se use para imitar su estilo característico probablemente gracias a la capacitación en su arte, y mucho menos que sean OpenAi vendiendo suscripciones desde el fondo. Utilizando el trabajo de Ghibli específicamente para la publicidad, como Sangre en la máquina El autor Brian Merchant explica, es un movimiento de poder. Le dice en voz alta a los artistas cuyas creaciones hacen que Chatgpt funcione, Tomaremos lo que queremos y le diremos a todos que lo estamos haciendo. ¿Te das consentimiento? No nos importa.

Operai podría haberse acercado a los artistas como socios, no a productores obsoletos de datos de capacitación en bruto

La tecnología y la política contemporánea están unidas en una ideología de dominación: el principio de que la fuerza, el dinero y la autoridad se manejan mejor obligando a otros a hacer lo que quieran. Con Trump, esto probablemente se explique por sí mismo. Con la tecnología, se manifiesta en cada característica de IA inútil que reemplaza algo útil, en la insistencia de que una tecnología sucederá porque es inevitable, no porque haya persuadido a las personas, hace algo bueno. La crítica es un desgarro sin sentido de los grandes hombres. La empatía, la autoexaminación y el compromiso son afeminados y débiles.

La ironía es que en medio de un mar de casos de uso de IA inútil o disfuncional, el filtro Gibli es muy popular. Pero hay un mundo en el que OpenAi capturó su atractivo sin una falta de respeto descarada por las personas en cuyo trabajo se está basando. Las compañías de IA podrían (si no tan barato) haber construido sus productos mientras se acercan a los artistas como socios en lugar de productores obsoletos de datos de capacitación en bruto. Incluso si alguien como Miyazaki nunca acepte la imitación automatizada, OpenAi podría haber encontrado otro animador o dibujante y chatgpt sintonizado para trabajar bien con su estilo, promoviendo a un artista menos conocido en el proceso. Pero eso requeriría creer que las personas que no son grandes hombres valen la pena trabajar y aprender, no simplemente abrumadoras.

Una vez más, ¿creo que pagar por ChatGPT te convierte en una mala persona? En algún momento, pagar por casi cualquier cosa financia algo inhumano y dañino, a menudo de maneras mucho más destructivas. Todos dibujamos estas líneas para nosotros mismos, y no estoy seguro de dónde caen el mío.

Sin embargo, las protestas de derribo de Tesla demuestran cómo atar su negocio a la política tóxica puede ser contraproducente. Innumerables personas están usando Chatgpt para hacer fotos lindas de sus seres queridos; Hay algo muy triste en Operai que en silencio, dejando que la Casa Blanca muestre el meme como una forma de intimidar a los impotentes. ¿Los investigadores de OpenAI piensan que esto avanza la causa de “AI para el bien”? Y a medida que todas las empresas en Silicon Valley comproban sus sistemas de IA, dónde dibujarán su ¿pauta?

Continue Reading

Trending