YouTube inicia una limpieza masiva de contenido generado por IA

Última actualización: 31 enero, 2026
  • YouTube ha eliminado o vaciado canales de "AI slop" que acumulaban 4.720 millones de visualizaciones.
  • En total, 16 canales han sido afectados, con unos 35 millones de suscriptores y millones en ingresos estimados.
  • La plataforma reutiliza sus sistemas contra spam y clickbait para detectar redes automatizadas de contenido de baja calidad.
  • Mientras purga basura generada por IA, YouTube impulsa nuevas herramientas y funciones basadas en inteligencia artificial.

YouTube limpieza masiva de contenido IA

A simple vista, YouTube sigue funcionando como siempre: recomendaciones infinitas, shorts que se encadenan sin parar y creadores peleando por cada clic. Pero, bajo esa apariencia de normalidad, la plataforma ha puesto en marcha una de las operaciones más agresivas de su historia reciente contra el contenido generado automáticamente con inteligencia artificial que inunda el sitio.

Durante buena parte de 2025 proliferó el llamado “AI slop”, vídeos creados o montados de forma masiva por IA, repetitivos, poco trabajados y orientados casi exclusivamente a exprimir el algoritmo. Muchos usuarios empezaron a notar que su feed se llenaba de este tipo de piezas, mientras que algunos canales crecían a un ritmo difícilmente alcanzable por la creación humana tradicional, acumulando millones de reproducciones en cuestión de semanas.

Con el cambio de año, la compañía ha decidido pisar el freno. Y lo ha hecho con una limpieza coordinada a gran escala que está dejando un mensaje claro para quienes basan su estrategia en contenido automatizado de baja calidad.

Una purga histórica: canales eliminados y miles de millones de visualizaciones borradas

Los primeros datos sólidos sobre esta ofensiva han llegado a través de un informe de Kapwing, una plataforma de edición de vídeo muy popular entre creadores de contenido. Su investigación señala que YouTube ha eliminado contenido equivalente a más de 4.700 millones de visualizaciones vinculado a canales catalogados como “AI slop”.

Kapwing llevaba tiempo siguiendo este fenómeno: en noviembre de 2025 publicó un listado con los 100 canales de IA de baja calidad más grandes de la plataforma. Apenas unos meses después, el mapa ha cambiado por completo. De ese centenar de canales analizados, 16 han sido alcanzados por la purga: 11 habrían desaparecido de la plataforma y otros 5 habrían visto todo su historial de vídeos completamente vaciado.

En conjunto, estos canales concentraban alrededor de 35 millones de suscriptores y 4.720 millones de visualizaciones, con ingresos estimados de unos 10 millones de dólares anuales, según los cálculos del informe. No se trata, por tanto, de pequeños proyectos experimentales, sino de redes que habían conseguido un peso considerable en el ecosistema de YouTube.

Entre los casos más comentados se encuentra CuentosFacianantes, un canal conocido por vídeos inspirados en el universo de Dragon Ball, generados de forma masiva y con una calidad muy cuestionada. Este canal habría superado los 5,9 millones de visualizaciones y habría logrado ingresos aproximados de 2,6 millones de dólares antes de ser fulminado en la limpieza.

También han sido señalados Imperiodejesus (Empire of Jesus), segundo canal de AI slop por número de suscriptores, y Super Cat League, que ocupaba la séptima posición en el ranking elaborado por Kapwing. Otros proyectos como brainrotjourney, con más de 1,6 millones de suscriptores, figuran igualmente entre los afectados por las medidas.

Criterios de actuación: canales borrados y catálogos vacíos

La respuesta de YouTube no ha sido idéntica en todos los casos. Algunos canales han sido directamente eliminados, desapareciendo de los buscadores y de las suscripciones de los usuarios. En otros, la plataforma ha optado por una estrategia más discreta: mantener el canal visible, pero borrando por completo su biblioteca de vídeos, dejando perfiles que, aparentemente activos, están en realidad vacíos.

Todo apunta a que la compañía está reutilizando y adaptando sus sistemas de detección de spam, clickbait y contenido repetitivo para localizar y tumbar estas redes de IA generativa. Esos sistemas, que ya se utilizaban para frenar prácticas abusivas tradicionales, se estarían aplicando ahora a los patrones que dejan los vídeos producidos de forma automática y masiva.

Desde un punto de vista operativo, esta forma de actuar encaja con la estrategia habitual de YouTube: no ha anunciado un nuevo paquete de normas específicas para el “AI slop”, sino que está interpretando el contenido de IA de baja calidad como una extensión de problemas ya conocidos, como el relleno de vídeos con material repetido, los títulos engañosos o la creación industrial de clips casi idénticos.

Para los espectadores, el efecto más visible se está dejando notar en las recomendaciones: en las últimas semanas, muchos usuarios comentan en redes sociales que ven menos vídeos claramente automatizados en sus portadas y se encuentran con propuestas algo más variadas, aunque todavía es pronto para medir el impacto real a medio plazo.

La postura oficial de YouTube: menos «basura», más control

Esta ofensiva no ha pillado del todo por sorpresa a quienes siguen de cerca la evolución de la plataforma. A comienzos de enero, el director ejecutivo de YouTube, Neal Mohan, publicó un texto extenso donde dejaba clara la hoja de ruta para 2026: frenar la expansión del contenido generado por IA de baja calidad, al tiempo que se refuerza el uso de la inteligencia artificial dentro del propio ecosistema de la empresa.

En ese mensaje, Mohan detallaba que la compañía estaba “construyendo activamente sobre sus sistemas ya establecidos”, los mismos que se han usado con éxito contra el spam y el clickbait, para reducir la propagación de vídeos repetitivos sin valor añadido para el usuario. La reciente oleada de eliminaciones, en la práctica, ha sido la primera gran demostración de que esas palabras no se iban a quedar en un simple aviso.

Desde Kapwing, el investigador Liam Curtis ha interpretado este movimiento como un posible punto de inflexión en la forma en que YouTube afronta el contenido generado por IA. Según sus declaraciones, esta purga podría ser “solo el principio” y el verdadero reto para la compañía será mantener el ritmo y atacar los problemas estructurales que permitieron que estos canales triunfaran en primer lugar.

No faltan, sin embargo, voces críticas. Algunos creadores conocidos han mostrado su escepticismo respecto a la capacidad real de la plataforma para moderar de forma coherente el volumen de contenido producido con IA. El popular youtuber MoistCr1TiKaL, por ejemplo, llegó a calificar la confianza de Mohan en estos sistemas como “delirante”, reflejando un clima de desconfianza hacia los algoritmos internos de revisión.

Por ahora, YouTube y Kapwing siguen analizando el alcance de la operación, y no se conocen detalles concretos sobre procesos de apelación o posibles restauraciones de canales que sostengan haber sido eliminados de forma injusta. Esta falta de transparencia alimenta parte de la tensión entre la plataforma y una comunidad que vive pendiente de cualquier cambio en las reglas del juego.

Impacto en creadores, audiencia y ecosistema digital

La oleada de “AI slop” no era solo un asunto de estética o de gustos personales. Para muchos creadores, especialmente los más pequeños o independientes en España y el resto de Europa, se había convertido en un obstáculo directo para crecer: sus vídeos competían en igualdad de condiciones con clips producidos casi en cadena por herramientas de IA, optimizados para ser largos, abundantes y altamente clicables.

Del lado de los espectadores, el problema era similar. Quien abría YouTube en busca de contenido original o de nicho terminaba topándose con recomendaciones cargadas de vídeos repetitivos, de poco valor informativo o creativo, que aprovechaban personajes populares, tendencias de anime, historias religiosas o montajes llamativos generados automáticamente. En Europa, donde las autoridades vigilan de cerca la calidad y procedencia de los contenidos digitales, este tipo de prácticas no pasa precisamente desapercibido.

Con este movimiento, la plataforma pretende recuperar parte de la confianza de usuarios y anunciantes, mostrando que no todo vale cuando se trata de aprovechar la IA para generar tráfico. Aun así, persisten dudas sobre cómo distinguirá YouTube entre creadores legítimos que usan herramientas de IA de forma responsable y redes que se apoyan casi exclusivamente en automatismos para llenar el sitio de vídeos similares entre sí.

La clave estará en refinar los sistemas de moderación para que no se produzca un efecto colateral indeseado: castigar a quienes emplean la IA como apoyo creativo (para subtítulos, mejoras de audio, guiones o edición) mientras se intenta atajar la verdadera “basura generada por IA”. En entornos tan competitivos como el europeo, donde cada recomendación cuenta, cualquier error en ese filtrado puede suponer la diferencia entre crecer o desaparecer.

Mientras tanto, la comunidad de creadores observa con lupa estas acciones. Muchos esperan que, con menos contenido automatizado de baja calidad copando las portadas, se abra una ventana de oportunidad para vídeos más trabajados y propuestas originales, tanto en España como en el resto del continente. Otros, en cambio, temen que nuevos ajustes del algoritmo vuelvan a cambiar las reglas sin previo aviso.

Más inteligencia artificial dentro de YouTube, pero con límites

La paradoja de toda esta situación es evidente: al mismo tiempo que elimina trabajo generado por IA por considerarlo pobre y repetitivo, YouTube está reforzando su apuesta por integrar más herramientas de inteligencia artificial en la propia plataforma. Es decir, menos “basura” automatizada, pero más IA al servicio de la creación y del propio sistema.

Entre las funciones que la compañía está impulsando se encuentran herramientas de inteligencia artificial, generación automática de shorts a partir de vídeos largos, herramientas que permiten convertir diálogos hablados en canciones y otras utilidades orientadas a facilitar el trabajo de los creadores y a multiplicar los formatos disponibles. La idea oficial es que la IA sea una ayuda y no un atajo para inundar la plataforma con contenidos clónicos.

Este enfoque encaja con la estrategia más amplia de Google, que sigue apostando fuerte por Gemini como núcleo de su ecosistema de inteligencia artificial. La tecnología de Gemini no solo se está integrando en productos propios, sino que incluso se perfila como base para funciones avanzadas en otros entornos, como la futura evolución de asistentes de voz en dispositivos de terceras empresas.

En el contexto europeo, donde se está avanzando en regulaciones específicas sobre el uso de IA generativa, el movimiento de YouTube puede leerse también como una forma de adelantarse a posibles exigencias normativas. Mostrar que se actúa contra contenidos automatizados de baja calidad puede servir para rebajar la presión regulatoria y, al mismo tiempo, justificar la introducción de más IA en aspectos internos de la plataforma.

El reto, a corto y medio plazo, será mantener un equilibrio creíble: permitir que la inteligencia artificial ayude a crear y gestionar contenidos sin que eso derive en una nueva oleada de vídeos de relleno que saturen las recomendaciones y erosionen la experiencia de uso. Con la cantidad de dinero, audiencia y reputación en juego, YouTube se la juega en cómo gestione este delicado punto medio.

Con esta purga masiva de canales de AI slop, YouTube envía una señal de que la etapa del “todo vale” con la inteligencia artificial puede estar tocando techo. La eliminación de miles de millones de visualizaciones, la caída de proyectos que vivían del contenido automatizado y la apuesta paralela por herramientas de IA más controladas apuntan a un nuevo escenario donde la calidad, al menos en teoría, vuelve a situarse en el centro. Ahora queda por ver si la plataforma será capaz de mantener el impulso, afinando sus sistemas lo suficiente como para proteger a los creadores legítimos y ofrecer a los usuarios una experiencia menos saturada de ruido generado por máquinas.

X libera su algoritmo de recomendación para reforzar la transparencia de la plataforma
Related article:
X libera su algoritmo de recomendación y abre la puerta a una mayor transparencia