TikTok endurecerá los controles de edad en Europa

Última actualización: 17 enero, 2026
  • TikTok despliega en Europa una tecnología avanzada de predicción de edad para detectar y retirar cuentas de menores de 13 años.
  • El sistema analiza perfil, vídeos y comportamiento, y las cuentas sospechosas pasan siempre por revisión de moderadores especializados.
  • La plataforma ofrece vías de apelación con verificación mediante Yoti, tarjeta de crédito o documento oficial, en coordinación con reguladores europeos.
  • Las nuevas medidas se suman a controles ya existentes y a experiencias diferenciadas para adolescentes, en un contexto de creciente presión regulatoria en la UE.

Controles de edad TikTok en Europa

La red social TikTok ha dado un paso más en su estrategia de protección a menores en el viejo continente con el despliegue de una nueva tecnología de detección y predicción de edad en toda Europa. El objetivo principal es localizar con mayor precisión las cuentas que pertenecen a niños menores de 13 años, la edad mínima establecida para usar el servicio, y proceder a su cierre.

Este movimiento llega en un momento en el que las autoridades europeas intensifican el escrutinio sobre cómo las plataformas verifican la edad de sus usuarios y aplican las normas de protección de datos. El debate público y regulatorio pone en cuestión si los sistemas actuales son realmente eficaces o, por el contrario, resultan demasiado intrusivos para la privacidad.

Una tecnología de predicción de edad diseñada para Europa

Sistema de verificación de edad en TikTok

El nuevo sistema de TikTok se basa en una tecnología avanzada de predicción de edad desarrollada específicamente para el mercado europeo. La compañía, propiedad de ByteDance, explica que esta herramienta forma parte de la evolución de un programa piloto que se probó durante un año en varios países de Europa, incluyendo Reino Unido, y que permitió eliminar miles de cuentas adicionales de usuarios por debajo de los 13 años.

La tecnología combina diferentes fuentes de información para estimar la posible edad del titular de una cuenta. Entre otros elementos, analiza los datos introducidos en el perfil, el tipo de vídeos que se publican y determinadas señales de comportamiento dentro de la aplicación. Con esa combinación de indicadores, el sistema genera una predicción sobre si la cuenta podría estar siendo utilizada por un menor de la edad mínima requerida.

Cuando la herramienta detecta que una cuenta puede pertenecer a un niño, no se bloquea de forma automática. En su lugar, la plataforma deriva el caso a un equipo de moderadores humanos especializados en control de edad, que revisa manualmente el contenido y la actividad para decidir si la cuenta debe eliminarse o no.

Según ha explicado TikTok, los usuarios europeos recibirán una notificación cuando este sistema se vaya activando en sus países. El despliegue alcanza a todo el Espacio Económico Europeo, Suiza y Reino Unido, que se convierten en el banco de pruebas principal para esta nueva capa de seguridad.

La empresa subraya que el desarrollo del sistema se ha realizado en estrecha colaboración con su principal regulador de privacidad en la Unión Europea, la Comisión de Protección de Datos de Irlanda (DPC, por sus siglas en inglés). La intención declarada es asegurarse de que la tecnología de predicción de edad respeta los estándares europeos de protección de datos y solo se utiliza para decidir si una cuenta debe ser evaluada por moderadores.

Un reto global sin respuesta única

Regulación de menores en redes sociales

La propia plataforma reconoce que la verificación de edad en Internet sigue siendo un «desafío complicado» para toda la industria. TikTok insiste en que, a día de hoy, no existe un método aceptado de forma unánime a nivel mundial que permita comprobar cuántos años tiene una persona sin poner en riesgo su privacidad o su anonimato.

Este debate se produce en paralelo a un auge de propuestas legislativas en distintos países europeos para limitar el acceso de los menores a las redes sociales. Australia abrió camino al aprobar la primera prohibición general de uso de redes a menores de 16 años. En Europa, el Parlamento Europeo discute límites de edad y obligaciones reforzadas para las plataformas, mientras que gobiernos como los de Dinamarca o Italia se plantean vetos parciales para menores de 15 años.

En el caso de España, se tramitan iniciativas que endurecen el acceso de los menores a redes sociales, plataformas de mensajería y servicios digitales con inteligencia artificial generativa. Sobre la mesa está la idea de exigir el consentimiento expreso de padres o tutores para que los menores de 16 años puedan usar ciertas plataformas, con umbrales algo más bajos en contextos específicos.

Aun con estas diferencias nacionales, el hilo común es la preocupación por el impacto psicológico, social y educativo del uso intensivo de redes en la infancia y la adolescencia. La presión política y social ha empujado a compañías como TikTok a reforzar sus mecanismos de control de edad y a diseñar experiencias diferenciadas para los más jóvenes.

En paralelo, crece también el número de litigios y reclamaciones judiciales vinculados a contenidos potencialmente peligrosos y retos virales que afectan a menores. Aunque estas demandas no se centran directamente en la nueva tecnología de detección de edad, sí contribuyen a que los reguladores exijan a las plataformas sistemas más robustos para evitar la presencia de niños por debajo de la edad mínima.

Cómo funciona el nuevo control de edad en TikTok

La compañía explica que el nuevo enfoque no sustituye, sino que refuerza las barreras de edad que ya existían en la red social. El primer filtro sigue siendo el momento de alta: cuando una persona crea una cuenta, debe introducir su fecha de nacimiento. Si los datos indican que no cumple la edad mínima, se impide el registro y se bloquea la posibilidad de crear otra cuenta con una fecha distinta, al menos de forma inmediata.

Más allá de esta barrera inicial, TikTok asegura que forma a sus equipos de moderación para detectar indicios de que una cuenta podría estar siendo usada por un menor de 13 años, incluso cuando estén revisando el contenido por otros motivos (por ejemplo, denuncias de usuarios o posibles infracciones de las normas de la comunidad). En esos casos, la cuenta se envía a un equipo especializado en verificación de edad que decide si procede la eliminación.

La gran novedad es que la nueva tecnología automatiza y amplía la capacidad de detectar perfiles potencialmente gestionados por menores. El sistema examina la información básica del perfil, observa los vídeos que se suben a la plataforma y tiene en cuenta comportamientos y patrones de uso —como el estilo de contenidos, la interacción con otros usuarios o la forma de comunicarse— para obtener una estimación de edad.

Si la estimación sugiere que el usuario está por debajo de los 13 años, la cuenta pasa a revisión humana en lugar de ser cerrada al instante por un algoritmo. La empresa defiende este modelo mixto como una forma de reducir errores y dar un margen de comprobación antes de tomar una decisión definitiva, especialmente en un terreno tan sensible como es el acceso de menores a la plataforma.

De acuerdo con los datos facilitados por TikTok, la combinación de estas medidas —barreras de registro, moderación activa y sistemas automatizados de predicción— ha permitido que la compañía elimine alrededor de seis millones de cuentas de menores al mes en todo el mundo. Una parte significativa de esas retiradas se produce gracias a sistemas más sofisticados de detección, como el que ahora se extiende en Europa.

Opciones de apelación y uso de Yoti para verificar la edad

Consciente de que cualquier sistema de detección puede fallar, la plataforma recalca que existen mecanismos para recuperar una cuenta en caso de error. Si un perfil se ha eliminado o restringido al considerar que pertenece a un menor de 13 años y el usuario sostiene que sí cumple la edad mínima, puede presentar una apelación y aportar pruebas de su edad real.

Para estas apelaciones, TikTok recurre a varios métodos. Uno de los más relevantes es la estimación de edad facial proporcionada por la empresa de verificación Yoti. Este sistema funciona a través de la cámara del dispositivo móvil: el usuario graba un breve vídeo o realiza un escaneo de su rostro y, mediante algoritmos específicos, se genera una estimación de su edad aproximada sin necesidad de guardar una imagen identificable a largo plazo.

Además, la compañía ofrece vías alternativas para quienes prefieren no utilizar la estimación facial. Entre ellas se encuentran la verificación mediante tarjeta de crédito o el envío de una identificación oficial emitida por una administración pública. Con estos métodos se busca ofrecer un abanico de opciones para confirmar la edad de manera fiable.

Este enfoque de apelación no es exclusivo de TikTok: otras grandes plataformas, como Meta, también colaboran con Yoti para verificar la edad de los usuarios en servicios como Facebook. La convergencia en el uso de proveedores especializados apunta a un intento del sector de homogeneizar, al menos parcialmente, los estándares de verificación de edad sin recurrir a prácticas todavía más invasivas.

Al mismo tiempo, la compañía insiste en que la predicción de edad que realiza el sistema no se destina a otros fines distintos al control de acceso y la asignación de experiencias apropiadas. TikTok asegura haber incorporado principios de privacidad desde la fase de diseño, de modo que los datos utilizados para estimar la edad no se aprovechen para personalizar anuncios ni para otras funciones comerciales.

Experiencias diferenciadas y seguridad para adolescentes

La estrategia de TikTok en Europa no se limita a sacar de la plataforma a los menores de 13 años. La compañía también se ha centrado en ofrecer entornos adaptados a los adolescentes que sí superan esa edad mínima. Para este grupo, la red social ha configurado cuentas de adolescentes con más de 50 funciones y parámetros de seguridad, privacidad y protección activados por defecto.

Entre estas medidas se encuentran, por ejemplo, límites de tiempo de pantalla diarios predeterminados, la restricción de notificaciones en franjas horarias asociadas al descanso nocturno, el modo hora de dormir y ajustes de privacidad más estrictos para la interacción con desconocidos. El diseño pretende que, incluso aunque el usuario adolescente no modifique la configuración, parta de un nivel de protección elevado.

La nueva tecnología de predicción de edad también se utilizará para detectar si un usuario adolescente se encuentra en un rango de edad concreto, como el grupo de 13 a 15 años. Si la estimación del sistema no coincide con la fecha de nacimiento que figura en el perfil, el caso se envía de nuevo a moderadores humanos para revisar la situación y, si procede, ajustar la experiencia para hacerla coherente con la edad real.

Este enfoque por rangos de edad busca que los jóvenes reciban configuraciones de seguridad y contenidos acordes a su etapa vital, algo que las autoridades europeas llevan tiempo reclamando a las plataformas de redes sociales. La combinación de controles técnicos y decisión humana pretende reforzar la protección sin caer en automatismos irreversibles.

En paralelo, TikTok recuerda que cualquier persona puede denunciar una cuenta que parezca perteneciente a un menor de 13 años, incluso sin disponer de una cuenta propia en la plataforma. Estas denuncias se suman a los mecanismos automáticos de detección y permiten que familias, educadores u otros usuarios colaboren en la identificación de posibles casos en los que un niño esté usando la red social antes de la edad permitida.

Contexto regulatorio en España y en el resto de Europa

Las nuevas medidas de TikTok se enmarcan en un contexto europeo donde varios países están replanteando las reglas de acceso de los menores a redes sociales y servicios digitales. En Dinamarca, por ejemplo, el gobierno ha alcanzado acuerdos políticos para restringir el acceso de los menores de 15 años a determinadas plataformas, con la intención declarada de protegerles frente a contenidos o dinámicas que puedan resultar perjudiciales.

Francia también se mueve en esa línea. Su Ministerio de Asuntos Digitales trabaja en proyectos de ley que plantean limitar el uso de redes sociales a menores de 15 años y estudiar fórmulas como el «toque de queda digital» hasta los 18 años. Estas iniciativas se impulsan tras varios informes parlamentarios y casos judiciales que han puesto el foco en los riesgos asociados a determinados contenidos, incluidos aquellos que han llevado a familias francesas a demandar a TikTok.

En España, el debate político y social gira en torno a subir la edad mínima de acceso y reforzar los requisitos de consentimiento paterno. Algunas de las propuestas plantean que los menores de 16 años no puedan usar redes, foros o plataformas que integren inteligencia artificial generativa sin la autorización expresa de sus progenitores, con excepciones limitadas que rebajarían el umbral a 14 años en ciertos supuestos.

Italia y Grecia discuten también prohibiciones parciales y regulaciones específicas para figuras como los «kidfluencers», mientras que en Alemania se ha encargado a un comité de expertos un informe sobre las posibles consecuencias de una restricción general del uso de redes por parte de menores, aunque sin medidas definitivas todavía en vigor.

En este escenario, las plataformas que operan en la UE, como TikTok, se ven presionadas para demostrar que sus propios sistemas de control de edad son suficientes para responder a las inquietudes de legisladores y autoridades. El despliegue de tecnologías como la que ahora da el salto a toda Europa se interpreta, en parte, como un intento de adelantarse a normativas aún más estrictas que podrían llegar en los próximos años.

El conjunto de cambios que TikTok está poniendo en marcha en Europa refleja un giro claro hacia un mayor control sobre quién puede estar en la plataforma y bajo qué condiciones. Entre la nueva tecnología de predicción de edad, la revisión por moderadores especializados, las opciones de apelación, la colaboración con organismos como la Comisión de Protección de Datos de Irlanda y la creación de experiencias diferenciadas para adolescentes, la compañía trata de reforzar su posición ante reguladores y opinión pública, a la vez que mantiene el discurso de respeto a la privacidad y de limitación del uso de estos datos exclusivamente a fines de seguridad y control de edad.

YouTube IA control edad
Related article:
YouTube refuerza el control de edad usando inteligencia artificial