Famosos deformados, ‘strippers’ hechas de huevo frito y vídeos sin sentido que revientan los algoritmos
‘Brain rot’: nuestro estado mental en 2024 es también la palabra del año para el Diccionario de Oxford
Cientos de Hello Kitty la lían en Ikea saltando sobre colchones empapados de leche con chocolate ante decenas de cámaras de turistas japoneses. Dos strippers, una hecha enteramente de sirope de arce y la otra de huevo frito, bailan sobre un escenario hecho de tortitas. Stephen Curry y LeBron James participan en una orgía carcelaria organizada por Sean Diddy Combs.
Imágenes aleatorias y surrealistas como estas, mezcladas con iconos pop, están inundando las redes. Se trata de vídeos generados por inteligencia artificial, aunque extremadamente realistas, que se están viralizando porque nos atrapan mediante la repulsión.
No tienen nada que ver con una parodia, resultan confusos y grotescos, pero están generando mucho dinero para sus creadores. Se trata de uno de los tipos de contenido que hoy en día consigue más reproducciones en Instagram, la red social de Meta, sin apenas límite ni moderación.
Hablamos del fenómeno “brain rot” —literalmente, “cerebro podrido”—, un término que se acuñó como una broma en diversos foros de Internet para describir fotos o vídeos que no tienen sentido, que rozan lo absurdo o que simplemente parecen creados por alguien con el cerebro frito.
Este fenómeno forma parte de una corriente más amplia conocida como IA slop: una avalancha de imágenes generadas por inteligencia artificial sin filtro ni propósito claro más allá de saturar la red. Plataformas como X, YouTube o Reddit están llenas de contenidos parecidos, producto de una maquinaria automatizada que escupe millones de imágenes y vídeos cada día.
Como explicaba Carlos del Castillo en este diario, no se trata solo de estética absurda, sino de un nuevo tipo de spam visual, donde el caos y la repetición importan más que el contenido en sí.
Lejos de ser una simple gamberrada, detrás de la producción de estos contenidos ya no hay una legión de usuarios aburridos en su dormitorio. Una red de creadores organizados en Discord está monetizando estos contenidos, los más enfermizos que uno (o, más bien, que una inteligencia artificial) pueda imaginar, y lo está logrando aprovechando vacíos legales, éticos y algorítmicos de las redes sociales y de la IA generativa.
Una palabra de moda que se ha convertido en negocio
Aunque el término brain rot existe más o menos desde inicios de este siglo (e incluso antes) para designar el contenido malo o alienante, ha ido ganando importancia a lo largo de las décadas de 2010 y 2020, aplicado al mundo de Internet y, especialmente, a los memes e incluso un poco más allá.
Brain rot ya no define solo un tipo de contenido, sino también un estado mental colectivo que se refleja, por ejemplo, en la forma en que hablamos —con frases cada vez más cortas, caóticas o inconexas— y nuestra tolerancia creciente hacia lo absurdo, lo enfermo o lo molesto como parte del paisaje digital cotidiano.
Los vídeos ‘brain rot’ no buscan gustarte: solo quieren que no puedas dejar de mirarlos. Suelen ser ‘reels’, la mayoría duran entre siete y 15 segundos, y parecen pesadillas generadas por una IA sin supervisión
En 2024, brain rot fue elegida como la palabra del año por la Oxford University Press, destacando su relevancia en la conversación sobre el impacto del contenido digital en la salud mental y la cultura contemporánea. Esa elección no fue por casualidad, durante ese mismo año, el brain rot, impulsado por la rápida evolución de las herramientas de inteligencia artificial, mutó en un género viral propio, pulido al milímetro para atrapar la atención de millones de usuarios en redes como Instagram, donde el tiempo de visionado y las reacciones extremas (ya sean estas asombro, rechazo o risa nerviosa) son oro puro para el algoritmo.
Los vídeos brain rot no buscan gustarte: solo quieren que no puedas dejar de mirarlos. Suelen ser reels, la mayoría duran entre siete y 15 segundos y parecen pesadillas generadas por una IA sin supervisión. Están llenas de imágenes distorsionadas, personajes reconocibles (famosos, deportistas, dibujos animados, políticos) en situaciones sexuales, escatológicas o simplemente grotescas, atravesadas a veces también por otras cuestiones como el racismo, que consiguen una tarea que parece imposible: sorprender a nuestros cerebros, los más saturados visualmente de la historia.
Un reel puede mostrar a Taylor Swift vomitando arcoíris sobre un retrete con la forma de la cabeza de Donald Trump, o a Sonic junto a Shrek en una boda de temática sadomasoquista entre Messi y Cristiano Ronaldo. No hay contexto ni narrativa (aunque a veces sí), sino estímulos visuales muy agresivos que desafían los límites de la decencia y de la lógica.
La clave está en que estos vídeos ‘funcionan’. El algoritmo de Instagram detecta que un alto porcentaje de los usuarios se detiene a mirar y repite el visionado para entender qué acaba de ver, lo comparte o comenta con un “¿qué c*ño es esto?”.
Eso es exactamente lo que buscan sus creadores: enganchar a través del desconcierto. El resultado es una paradoja incómoda: cuanto más enfermizo o extraño es el vídeo, más probable es que se viralice. Un fenómeno que ocurre especialmente en Instagram, ya que la moderación de contenidos de TikTok suele ser más estricta. Instagram no solo los tolera, sino que permite ganar dinero con ellos.
Una factoría de reels perturbadores
Este último dato que acabamos de señalar es capital en todo este tema porque ha provocado que detrás de este torrente estético, caótico y delirante, no haya unos aficionados con mucho tiempo libre, sino que la producción de este tipo de vídeos se ha convertido en un negocio muy rentable.
Según explicó Jason Koebler en un artículo para la web 404Media, hoy en día existen comunidades enteras, reunidas en torno a lugares como el servidor de Discord Interlink AI, que enseñan paso a paso cómo crear este tipo de vídeos, viralizarlos y sacar dinero con ellos.
Tras pagar 30 dólares, cualquiera puede acceder a guías, plantillas, bases de prompts (las instrucciones que se le dan a la IA para que formule un contenido determinado), foros de dudas técnicas y canales donde los miembros comparten sus hazañas (que llaman en su jerga “wins”): reels con millones de reproducciones que se han traducido en ingresos por parte de Instagram.
Cuando un vídeo se hace viral, también se comparte o se vende la plantilla del mismo, que permite crear nuevos hits simplemente sustituyendo a sus protagonistas. Donde antes estaba Lebron, pueden estar Shrek o Peppa Pig. Si todo pasaba en una playa tropical, ahora puede tener lugar en la Plaza de la Cibeles.
Se ha creado un círculo enfermizo, ya que cuanto más llamativo es el contenido, más se ve y más dinero se gana con él
Como explica el periodista Jason Koebler, para crear este contenido se utilizan diversas herramientas en cadena. Primero, ChatGPT proporciona los prompts ultradetallados necesarios para hacer que otras herramientas de generación visual como, por ejemplo, Krea generen las imágenes deseadas. Posteriormente, estas se convierten en vídeos utilizando un modelo de IA chino llamado Kling que permite animar rostros, cuerpos y escenarios con una fluidez inquietante. Aparte de que este sistema ha probado sus buenos resultados, otra de sus ventajas es que al encadenar varios modelos de IA es más fácil esquivar los controles que tienen cada uno de ellos. ChatGPT nunca generará contenido sexual, pero puede contarnos cómo hacerlo en otro modelo y cómo animar esa imagen en otro modelo diferente.
Lejos de acabar con estos vídeos, hoy en día Instagram está fomentando su difusión y, gracias a su programa de bonificaciones, premia a los creadores por tener a más y más usuarios enganchados a su app. Así se ha creado un círculo enfermizo, ya que cuanto más llamativo es el contenido, más se ve y más dinero se gana con él.
¿Qué hace Instagram?
A estas alturas, resulta difícil no preguntarse cómo es posible que este contenido esté proliferando con tanta facilidad en una red como Instagram, propiedad de Meta, una de las empresas tecnológicas más poderosas del mundo.
La respuesta corta: porque funciona. La respuesta larga: estas piezas cumplen con las community standards, las normas que dicen lo que está permitido y lo que no en esa red y, por tanto, las tratan como cualquier otro contenido y, lejos de frenar el fenómeno, lo alimentan con su propio sistema de incentivos.
Mientras no se infrinjan las normas de forma explícita —y la generación por capas mediante IA permite esquivar las normas con una precisión quirúrgica—, los vídeos pueden seguir circulando.
Esto tampoco es un fallo puntual, es un síntoma de algo más profundo. La lógica del engagement prima sobre cualquier otra cosa. Al igual que el plagio en las redes es algo común y tolerado, no importa si un vídeo genera rechazo, vergüenza ajena o indignación; si lo ves hasta el final, si lo comentas, si lo compartes con un “mira esta locura”, el sistema interpreta que es contenido relevante y lo potencia. Lo perturbador vende. Y si se monetiza, mejor aún.
No es la primera vez que Meta permite este tipo de prácticas a pesar de sus implicaciones. Según reveló una investigación realizada por el periodista Jeff Horwitz, la empresa ya ha tolerado durante años actividades mucho más graves, como la compraventa de personas con fines de esclavitud o la difusión de pornografía infantil, incluso después de ser advertida internamente. Mientras públicamente insiste en que trabaja por mejorar la moderación, en la práctica prioriza el beneficio por encima del control.
Por otro lado, al trocear su creación, los creadores han aprendido a explotar los límites de cada herramienta de IA generativa sin que ninguna de ellas asuma la culpa del resultado final.
¿Solo una moda o el principio de algo peor?
El vacío legal y ético es enorme y, hoy en día, nadie parece estar muy interesado en acabar con él. El nuevo spam visual de los vídeos brainrot es el hijo bastardo, deforme y embrutecido de años de búsqueda de la viralidad, sobrealimentado y dopado por los avances tecnológicos.
Hace unos días, en la inauguración de Dibujar es pensar, la exposición del Centre de Cultura Contemporánea de Barcelona dedicado al autor de cómic Chris Ware, él mismo reflexionaba sobre el impacto de la inteligencia artificial en su trabajo.
El vacío legal y ético es enorme, y nadie parece estar muy interesado en acabar con él
Él, que ha empujado los límites de su medio mucho más lejos que cualquier otro autor en la historia, afirmaba con total humildad que estamos muy lejos de comprender las consecuencias que la llegada de esta nueva tecnología acabará teniendo en nuestras vidas.
Centrándonos en la generación de imágenes perturbadoras, ¿dónde está el límite? ¿Llegará el día en que normalicemos este tipo de contenidos y perdamos el interés en ellos? ¿Se irán haciendo cada vez más fuertes hasta que se acaben prohibiendo? ¿Qué efectos tendrán en las mentes de quienes los vean (especialmente de los más jóvenes)? ¿Conseguirán cambiar nuestro imaginario visual? ¿Incluso marcar nuevos caminos al arte?
Afirmar una cosa u otra sería precipitado y no tendría fundamento. Lo que está claro es que este tipo de contenido existe, circula y se monetiza con facilidad en las principales plataformas digitales. Y aunque muchos lo vean como una simple rareza o una moda pasajera, apunta a una transformación más profunda en la forma en que se produce y se consume lo viral.
Quizá no podamos saber todavía si el brain rot es una anomalía o un adelanto de lo que viene. Pero sí podemos intuir que estamos solo viendo el principio de una nueva forma de entender (y aprovechar) el caos algorítmico que quizá deberíamos vigilar.