Ayer por la mañana, inicié sesión en Facebook y vi una imagen del Coliseo convertido en un parque acuático. En LinkedIn, todos estaban ocupados transformando sus disparos en la cabeza en los personajes de Studio Ghibli, cortesía de la última actualización de Chatgpt. Threads me mostró un video reinventando el elenco de Ruptura Gatiéndose alrededor de Lumon como bebés. Y X amablemente sirvió una imagen generada por Grok de Elon Musk y Donald Trump en una pose que desearía no ver.
No soy solo yo, ¿verdad? Las redes sociales se han convertido en un desastre de contenido sintético. Hemos escrito sobre el surgimiento de AI Slop antes, parte de la galería de arte inductor de estrangulamiento, parte de un malvado sueño del valle. Y claro, el algoritmo me está alimentando con cosas que cree que me importa – Ruptura Bebés, Travel Apoh, una dosis saludable de burla de almizcle. Eso se compara.
Pero sigo pensando: ¿AI ha arruinado oficialmente las redes sociales? ¿Y es solo un caos inofensivo o está volviendo a cablear en silencio cómo vemos la verdad, la confianza y la realidad?
Los cuatro jinetes del AI Slopocalypse
Uno de los mayores problemas con el contenido de IA es el volumen del gran volumen, y proviene de todos los lados. Evangelistas de IA. Tus compañeros de trabajo. Tus amigos. Tu abuela (que probablemente ni siquiera se da cuenta de lo que está volviendo a publicar). Y marcas que absolutamente deberían saber mejor.
Para darle sentido al desastre, hablé con Joe Goulcher, director creativo y experto en redes sociales. Trabaja con marcas en estas cosas a diario y tiene un asiento de primera fila para la inundación de AI Slop. Según Joe, el contenido de IA tiende a caer en cuatro “cepas” distintas, “como un virus”, me dice.
Slop funcional AI
“Cosas crudamente hechas que son básicamente imágenes de stock que se usan para llenar un agujero donde debería estar una imagen”, explica Goulcher. “Es la parte inferior del cañón, y apenas se ha convertido el pensamiento consciente de por qué o qué es”. Este es el nivel de mayor esfuerzo. Las imágenes suaves se abofetearon en las publicaciones solo para tener algo allí. Contenido de marcador de posición que de alguna manera se convirtió en el contenido.
Clickbait slop
“Cosas que nos hace dejar de desplazarnos y pensar ‘Dios, esto es asqueroso y malo’, pero es por diseño generar una conversación”, dice Goulcher. Este es el más insidioso. No está tratando de ser bueno, está tratando de ser lo suficientemente malo como para volverse viral.
El ‘Mira lo que hice!’ correo
“Aquí es donde la gente usa la IA para crear algo que se parece a LOTR, Star Wars u otra IP gigante porque está entrenada en ella”, me dice Goulcher. “Dicen cosas como ‘¡Mira lo que hice en diez minutos! Esto va a cambiar la industria y deberías estar asustado y usarla ahora en lugar de gastar miles con artistas’. Por lo general, cae como un saco de ladrillos “. Este es el teatro de contenido generativo alimentado con exageración. El tono siempre está sin aliento, y los resultados siempre son decepcionantes.
Las cosas genuinamente buenas
“En realidad, hay buenas campañas de IA, con propósito, permiso y con una increíble VFX, hecha a mano donde la IA no pudo hacer el trabajo”, dice Goulcher. Sí, algunas marcas lo están haciendo bien, con pensamiento, cuidado y arte real. Pero es raro. Y generalmente enterrado debajo de una pila de basura humeante.
Romperlo como este puede sentirse sombrío, como hemos sido epidemiología completa en el contenido más maldito, pero en realidad es útil. La categorización del caos ayuda a explicar por qué el contenido de IA se siente ineludible, y por qué golpea tantos tonos diferentes de distópico.
Ai por el bien de la ai
Estamos en una era de contenido de IA que se está haciendo simplemente porque puede serlo. Las personas, las marcas, las empresas enteras lo están produciendo. No necesariamente porque tienen algo que decir, y no porque sea mejor que las alternativas, sino porque las herramientas existen, son fáciles de usar, y la presión para usarlas es enorme.
Esto habla de un problema más profundo en tecnología. Solo mira los recientes pasos en falso de la IA de Apple. A pesar de todo el bombo, la IA no está entregando la magia en la que se vendió. Se está metiendo en productos no porque los usuarios lo necesiten, sino porque los accionistas quieren escuchar “IA” en las llamadas de ganancias.
¿Y ahora mismo? No está revolucionando mucho de nada. De hecho, en la mayoría de las aplicaciones, está empezando a parecer un truco muy caro.
“Me recuerda a los primeros días de la transmisión o la transmisión de música, un poco de un salvaje oeste”, explica Goulcher. “A pesar de que las marcas les dieron un logotipo, no lo hizo éticamente bueno de ninguna manera. Solo intentaban montar las olas de legalidad y dosh hasta que la legislación se puso en marcha demasiado tarde”.
Al igual que cripto o NFT, vemos que hay innovación, exageración, uso excesivo y luego fatiga. “Creo que podemos aplicar el mismo gráfico de exageración tecnológica al contenido de IA”, dice Goulcher. “Siempre hay algo en mi instinto que es como, ‘esta burbuja estallará’. Y todavía creo que eso sucederá.
Y está haciendo la pregunta más de nosotros probablemente debería ser: “¿Cómo se está aclarando alguna de estas herramientas de mil millones de dólares? Debido a que la novedad se está desgastando, la ética (o la falta de ellas) se está volviendo más clara y el valor de choque está comenzando a disminuir”.
No es que las redes sociales fueran perfectas antes de esto. Ai no comenzó la podredumbre, las cosas ya se estaban deslizando. Pero esta última ola de contenido generativo lo ha empujado directamente al caos extraño, derivado y de fusión cerebral.
Y si AI está inundando nuestros alimentos con una pendiente sin sentido, también está haciendo algo más peligroso: armarse. Es fácil reírse de bebés famosos generados por la IA o encogerse de un anuncio de la marca que salió del Valle extraño. Pero esa reacción pierde la imagen más grande y aterradora.
Porque la IA puede alimentar la información errónea a escala. Por ejemplo, en toda Europa, los grupos de extrema derecha están utilizando imágenes generadas por IA para provocar indignación, difundir teorías de conspiración y División Stoke. Y estos no son solo trolls marginales: son campañas coordinadas, diseñadas para manipular la opinión pública.
Ese es solo un ejemplo. Información errónea electoral. Porno de defake profundo. Imágenes de guerra falsas. Sí, es el tipo de contenido que siempre ha existido en línea. Solo ahora, las reglas han cambiado. No necesitas habilidades. No necesitas un equipo. Ni siquiera necesitas un presupuesto. Solo una narración y una voluntad de abandonar la realidad. Y en las redes sociales, el resto se cuida solo.
Esa es la verdadera historia de terror. No solo que nos estamos ahogando en basura, o que las marcas piensan que queremos anuncios generados por IA, sino que nos estamos deslizando a un mundo donde lo que es falso se mueve más rápido de lo que es cierto. Y al algoritmo no le importa si es real, solo que está recibiendo sus clics, sus gustos, su atención.