
Un amplio frente de expertos en desarrollo infantil, psiquiatras, educadores y organizaciones de defensa de la infancia ha abierto una nueva batalla contra Google: reclaman que YouTube y YouTube Kids dejen de mostrar y recomendar vídeos generados por inteligencia artificial a los menores. En el centro del debate, una categoría de contenidos conocida como “AI Slop” o “basura de IA”, producciones de baja calidad que se empaquetan como educativas o inocuas, pero que podrían estar dañando el desarrollo de los niños.
La polémica llega en un momento especialmente delicado para las grandes plataformas, tras veredictos históricos en Estados Unidos que señalan a Google y Meta por diseñar servicios adictivos para adolescentes. Sobre ese contexto de creciente escrutinio público y regulatorio, la irrupción masiva de vídeos de IA dirigidos a bebés, preescolares y niños pequeños ha encendido todas las alarmas en la comunidad científica y en los grupos de protección de la infancia, también con implicaciones para Europa y España, donde YouTube es uno de los canales más usados entre los menores.
Una carta masiva que pide cortar en seco los vídeos de IA para niños
Más de 200 expertos, organizaciones y centros educativos han remitido una carta conjunta a Sundar Pichai, CEO de Google, y a Neal Mohan, máximo responsable de YouTube. La misiva, impulsada por la organización Fairplay, especializada en derechos de la infancia en el entorno digital, denuncia la expansión de los vídeos generados por IA tanto en YouTube como en YouTube Kids y reclama un giro radical en la política de contenidos de la compañía.
Entre los firmantes aparecen figuras muy influyentes en el debate sobre tecnología y menores, como el psicólogo social Jonathan Haidt, autor de “La generación ansiosa”, la Federación Estadounidense de Maestros, la Asociación Estadounidense de Consejería y otras entidades dedicadas al desarrollo infantil y la salud mental adolescente. El mensaje común es que, ante la falta de evidencias de seguridad, YouTube no debería experimentar con los niños usando vídeos creados por IA.
En la carta, los firmantes sostienen que hay “mucho que desconocemos sobre las consecuencias del contenido generado por IA para los niños” y acusan a YouTube de participar en un “experimento sin control” al impulsar este tipo de producciones sin estudios que respalden beneficios claros ni tener en cuenta los principios básicos del desarrollo infantil. Aseguran que, a la luz de los conocimientos actuales, lo más probable es que estos contenidos sean en buena medida perjudiciales.
La petición no se queda en advertencias genéricas, sino que reclama medidas concretas: vetar la presencia de vídeos generados por IA en YouTube Kids, prohibir que se recomienden mediante el algoritmo a menores de 18 años y detener cualquier inversión de Google y YouTube en la creación de contenido de IA específicamente dirigido a la infancia.
Qué es la “basura de IA” y por qué preocupa tanto
Los grupos de defensa se refieren a buena parte de este fenómeno como “AI Slop” o “basura de IA”: vídeos producidos de forma industrial mediante herramientas generativas, con animaciones hipnóticas, ritmos veloces, colores estridentes, música machacona y títulos pensados como puro reclamo de clics. A menudo se presentan como educativos o aptos para niños, pero su valor pedagógico real es más que dudoso.
Según los expertos, este tipo de contenidos puede distorsionar el sentido de la realidad de los menores, saturar sus procesos de aprendizaje y secuestrar su atención durante largos periodos, desplazando actividades del mundo real que son esenciales para su maduración emocional y social: el juego libre, el contacto con otros niños, el descanso o la interacción con la familia.
Las críticas se agravan cuando se trata de bebés y niños en edad preescolar, un público que, según los firmantes, está recibiendo un volumen creciente de vídeos de IA a través de YouTube y YouTube Kids. Al no saber leer, estos menores no entienden etiquetas o advertencias, de modo que cualquier intento de “transparencia” mediante rótulos sobre la naturaleza sintética del contenido apenas tiene efecto en ellos.
Los defensores de la infancia apuntan también al modelo de negocio que se ha creado alrededor de esta tendencia. Cada vez más creadores recurren a sistemas de IA para producir de manera barata y rápida vídeos dirigidos a bebés y niños pequeños, y circulan incluso tutoriales donde se enseña a montar un negocio rentable basándose en estas piezas de animación generativa de baja calidad.
Reclamaciones clave: del veto en YouTube Kids al fin de las inversiones en IA infantil
La coalición encabezada por Fairplay ha detallado un conjunto de demandas muy específicas dirigidas a Google y YouTube, que podrían suponer un cambio profundo en la experiencia de los menores si se aplicaran. Entre las medidas propuestas, se encuentran varias que apuntan directamente a prohibir o desincentivar los vídeos generados con IA cuando están orientados a niños.
Por un lado, la carta pide etiquetar de forma clara todo el contenido generado por IA en la plataforma principal de YouTube y, al mismo tiempo, excluir por completo estos vídeos de YouTube Kids, la app pensada para el público infantil. La intención es que en el entorno específicamente diseñado para menores no exista ninguna pieza creada por sistemas generativos.
Además, el colectivo reclama que se prohíban los vídeos “hechos para niños” en YouTube que estén generados por IA, incluso fuera de YouTube Kids, y que el algoritmo deje de recomendar cualquier contenido de IA a usuarios menores de 18 años. Para reforzar el control parental, proponen la implantación de un interruptor en los ajustes de la cuenta que permita a las familias bloquear por completo este tipo de contenidos, aunque el menor los busque de forma explícita. Control parental
Otra exigencia de peso es que Google ponga fin a sus inversiones en estudios de animación con IA orientados a la infancia, como el caso de Animaj (o iniciativas similares) que producen vídeos infantiles generados con inteligencia artificial y acumulan audiencias millonarias en todo el mundo. Para los activistas, estos movimientos refuerzan un modelo en el que bebés y niños pequeños se convierten en un público cautivo de una avalancha de clips automatizados. Estas inversiones en IA por parte de grandes empresas apuntan justamente a ese tipo de expansión.
La respuesta de YouTube: altos estándares, etiquetas y controles parentales
Desde YouTube, la reacción oficial ha sido defender que la empresa ya aplica políticas estrictas en YouTube Kids y que el contenido generado con IA se mantiene limitado a un pequeño conjunto de canales que consideran de alta calidad. Portavoces como Boot Bullwinkle insisten en que la plataforma cuenta con mecanismos para que los padres bloqueen canales concretos y en que la transparencia en torno a la inteligencia artificial es una prioridad. Según la compañía, en YouTube se etiqueta el contenido producido con sus propias herramientas de IA y se exige a los creadores que revelen cuando un vídeo “realista” ha sido generado o alterado mediante medios sintéticos. La empresa sostiene que sus sistemas de monetización y detección de spam penalizan el contenido repetitivo, de baja calidad o claramente diseñado solo para atraer clics.
En los últimos meses, Neal Mohan ha llegado a situar la gestión de la “basura de IA” como una prioridad estratégica de la compañía, asegurando en varios comunicados que YouTube está reforzando sus sistemas para reducir la expansión de vídeos de mala calidad y limitar el impacto del clickbait en la experiencia de los usuarios, incluidos los menores.
Sin embargo, los grupos de defensa de la infancia cuestionan con dureza esa narrativa. Argumentan que la definición actual de “contenido alterado o sintético” usada por YouTube es demasiado estrecha y que solo obliga a señalar ciertos vídeos “realistas”, dejando fuera un enorme volumen de animaciones generadas por IA que siguen sin etiquetarse y que, en muchos casos, llegan a los niños a través del algoritmo de recomendación. Organizaciones que trabajan para vigilar el contenido consideran que las plataformas deben mejorar la transparencia y las herramientas de moderación.
Un debate que trasciende fronteras y afecta también a Europa
Aunque gran parte de la presión actual procede de organizaciones y tribunales estadounidenses, el foco sobre los vídeos de IA dirigidos a niños en YouTube tiene un claro impacto internacional, incluida España y el resto de Europa. La plataforma es una de las más usadas por los menores europeos, y muchos de los canales señalados por expertos y medios operan a escala global.
En la Unión Europea ya están entrando en vigor marcos como la Ley de Servicios Digitales (DSA) y el Reglamento de IA, que plantean nuevas obligaciones de transparencia, protección reforzada a los menores y límites al uso de sistemas algorítmicos potencialmente dañinos. El uso intensivo de IA para producir y recomendar vídeos infantiles encaja de lleno en ese debate regulatorio.
Para las familias españolas y europeas, el núcleo del problema es similar: resulta muy difícil distinguir qué contenido es de calidad y cuál es “basura de IA” cuando se presenta como inocente entretenimiento o como material educativo. A ello se suma que muchas de estas producciones no tienen supervisión editorial clara, se repiten hasta el infinito y se adaptan al comportamiento de visionado de los menores mediante algoritmos que maximizan el tiempo de pantalla.
Distintos defensores de la infancia subrayan que, sin cambios profundos en el diseño de las plataformas, la responsabilidad recae en exceso en padres y madres, obligados a vigilar vídeo por vídeo lo que consumen sus hijos. En la práctica, eso es casi imposible cuando el contenido se genera y distribuye a escala masiva con ayuda de la IA.
El choque entre Google, YouTube y los defensores de la infancia por los vídeos de IA dirigidos a niños se ha convertido en un nuevo frente en la discusión global sobre redes sociales, salud mental y protección de menores. Mientras la plataforma defiende que ya limita y etiqueta estos contenidos y mejora sus sistemas contra el spam y el clickbait, la comunidad de expertos considera que las medidas son insuficientes y reclama ir mucho más lejos: prohibir la “basura de IA” en YouTube Kids, frenar las recomendaciones algorítmicas a menores y cortar las inversiones en estudios de animación generativa. En un escenario donde Europa avanza en regulaciones más estrictas sobre IA y servicios digitales, el desenlace de esta presión podría marcar cómo se diseña, se ofrece y se controla el contenido infantil en las grandes plataformas durante los próximos años.
