- Michael Smith ideó un esquema de streaming falso con música generada por IA en Spotify, Apple Music, Amazon Music y YouTube Music.
- Creó cientos de miles de pistas sintéticas y una red masiva de bots que simulaban oyentes reales las 24 horas del día.
- El fraude superó los 8 millones de dólares en regalías desviadas de artistas legítimos y se convirtió en la primera gran condena penal de este tipo.
- El caso acelera la reacción de la industria musical y de la justicia, especialmente en Estados Unidos y Europa, ante el auge de la música generada por IA y el fraude por streaming.
La irrupción de la inteligencia artificial en la música no solo ha cambiado la forma de crear canciones, también ha abierto la puerta a nuevas formas de estafa. Un músico estadounidense, Michael Smith, aprovechó este escenario para montar durante años un fraude millonario basado en temas generados por IA y escuchas falsas en plataformas como Spotify, Apple Music, Amazon Music y YouTube Music, desviando ingresos que deberían haber cobrado artistas reales.
Su caso, juzgado en un tribunal federal de Nueva York, se ha convertido en un precedente clave en la lucha contra el fraude por streaming. Los fiscales lo señalan como el primer gran proceso penal en el que la inteligencia artificial y los bots están en el centro de un esquema de estafa masiva en la industria musical, un aviso para el sector también en Europa, donde crecen las sospechas y se endurecen las medidas contra las granjas de clics y las reproducciones manipuladas.
Del fracaso musical al negocio ilícito con pistas sintéticas
Michael Smith, músico de Cornelius, en Carolina del Norte, llevaba años intentando ganarse la vida con sus propias composiciones sin demasiado éxito, hasta que decidió apostar por algo muy distinto: usar inteligencia artificial para fabricar música en serie. En lugar de centrarse en crear una base de oyentes, su objetivo fue explotar al máximo el sistema de pago por reproducciones de las grandes plataformas.
Con la ayuda de herramientas de música generativa y el apoyo de un director de una empresa especializada en creación musical por software, Smith empezó a producir a gran escala cientos de miles de pistas atribuidas a supuestos artistas que, en realidad, no existían. Los nombres de los autores eran aleatorios, los proyectos ficticios y el catálogo, prácticamente infinito.
Estas canciones se subieron a catálogos de servicios de streaming como Spotify, Apple Music, Amazon Music o YouTube Music. No buscaban conquistar listas de éxitos reales ni aparecer en playlists humanas, sino convertirse en materia prima para un sistema automatizado de escuchas masivas que solo tenía una finalidad: generar regalías.
El paso a la IA fue el punto de inflexión. Gracias a la producción automática, Smith dejó atrás el límite humano de componer y grabar y pasó a inundar los servidores con contenido sintético, preparado para ser reproducido una y otra vez por una red de bots.
En los documentos judiciales se detalla que el esquema comenzó alrededor de 2017 y se prolongó durante varios años, hasta 2024 en algunos relatos de la investigación, tiempo suficiente para consolidar uno de los fraudes más extensos detectados en la música digital.
Una red de bots escuchando 24/7 en Spotify, Apple Music y YouTube Music
La música generada era solo la mitad del plan. La otra mitad consistía en levantar una infraestructura técnica capaz de simular millones de oyentes repartidos por el mundo. Para ello, Smith compró miles de direcciones de correo y creó, según las pesquisas, hasta 10.000 cuentas de usuario activas a la vez en distintas plataformas.
Estas cuentas no estaban pensadas para que las manejara una persona de carne y hueso, sino para que las controlaran bots. Los programas automatizados se encargaban de reproducir sin descanso las pistas creadas con IA, rotando entre canciones y servicios de streaming para imitar comportamientos humanos. En su momento de máxima actividad, la red consiguió alcanzar unas 661.440 reproducciones diarias.
La magnitud del montaje era tal que el sistema funcionaba de manera ininterrumpida, las 24 horas del día y los siete días de la semana. Ningún humano podría escuchar música a ese ritmo, pero las plataformas, durante un tiempo, tomaron estos datos como tráfico legítimo, abonando las regalías correspondientes.
Gracias a esta combinación de contenido generado por IA y granjas de bots, las cifras anuales de Smith se dispararon. En el pico del esquema, las autoridades calculan que llegó a ingresar más de 1,2 millones de dólares al año solo en pagos por streaming. Las estimaciones globales hablan de un fraude que superó los 8 millones de dólares en regalías desviadas.
El impacto económico: regalías robadas a artistas reales
El daño no se mide solo en la cifra millonaria. En el modelo actual de las plataformas, los ingresos por suscripciones y publicidad se agrupan en un fondo común que después se reparte en función del porcentaje de escuchas de cada artista. Si alguien infla artificialmente sus reproducciones, está quitando directamente dinero al resto.
En este caso, las pistas de Smith y sus supuestos artistas fantasma se llevaron una porción desproporcionada del pastel. Ese dinero pertenecía, en realidad, a músicos, compositores y titulares de derechos con audiencias humanas auténticas. Las autoridades lo han calificado como un perjuicio de dimensiones inéditas en el ámbito del contenido automatizado.
El fiscal estadounidense Damian Williams subrayó que millones de dólares en regalías fueron desviados de creadores que sí contaban con oyentes reales. A su juicio, este tipo de esquemas rompe la base de la economía musical en streaming, ya de por sí tensionada por la piratería, los bajos pagos por reproducción y la saturación de catálogos.
Medios especializados como Billboard y Music Business Worldwide han destacado que los grandes servicios afectados incluían a Spotify, Apple Music, Amazon Music y YouTube Music, entre otros. Es decir, prácticamente todo el ecosistema dominante del audio digital se vio expuesto a este fraude, lo que explica la alarma que ha generado en el sector.
La repercusión también se nota en la percepción pública: analistas y observadores del mercado han rescatado cifras como la de más de un millón de dólares al año en regalías por música que, según la acusación, nadie llegó a escuchar de forma voluntaria. Una frase que resume bien hasta qué punto los números de las plataformas pueden ser manipulables si no se vigilan estos comportamientos.
Cómo se destapó la estafa y la primera gran condena penal
Durante años, el plan funcionó sin grandes sobresaltos. Pero el volumen de contenido artificial y el patrón de uso empezaron a levantar sospechas. Organismos como el Mechanical Licensing Collective, entidad oficial de gestión de derechos en Estados Unidos, detectaron anomalías en las métricas de escucha: millones de reproducciones concentradas en pistas desconocidas, con usuarios que permanentemente se conectaban desde múltiples ubicaciones.
Tras analizar estos datos, el MLC dio la voz de alarma y trasladó la información a las autoridades federales. La investigación posterior fue reconstruyendo la red: las cuentas falsas, los vínculos entre direcciones IP, la relación con los servicios de IA y la falsedad de la autoría de las canciones.
El caso llegó finalmente al Distrito Sur de Nueva York, donde Smith, de entre 52 y 54 años según distintas fuentes del procedimiento, se declaró culpable de conspiración para cometer fraude electrónico. La acusación inicial incluía también cargos de blanqueo de capitales y otros delitos relacionados con el uso de sistemas informáticos.
La justicia estadounidense ha considerado este proceso como el primer juicio penal de gran relieve vinculado a un fraude de streaming apoyado en inteligencia artificial. Más allá de la pena concreta, el simbolismo del caso es enorme para una industria en plena transformación tecnológica.
La sentencia definitiva se fijará en los próximos meses, con una pena máxima que puede alcanzar los 5 años de prisión efectiva. Además, el acusado ha aceptado el decomiso de más de 8 millones de dólares, la cantidad que las autoridades calculan que obtuvo gracias al esquema.
La reacción de la industria del streaming y el foco en Europa
El golpe de realidad que supone el caso Smith llega en un momento en el que las plataformas ya estaban bajo presión para mejorar sus filtros. Spotify, por ejemplo, eliminó en 2023 decenas de miles de pistas creadas con IA procedentes de servicios como Boomy, tras detectar patrones sospechosos de escuchas automatizadas que buscaban inflar estadísticas.
Otros incidentes, como el de la organización Syntax Error, que subió temas generados por software imitando a artistas fallecidos, han incendiado el debate sobre la suplantación de identidad artística. La posibilidad de “resucitar” voces sin consentimiento plantea dilemas éticos y legales que afectan tanto a Estados Unidos como a la Unión Europea.
En Europa, varios países han empezado a vigilar más de cerca las llamadas granjas de clics y los servicios que prometen subir de forma artificial las cifras de reproducciones. Un tribunal de París llegó a dictaminar que el fraude por streaming es una actividad ilícita y ordenó bloquear sitios web dedicados a vender este tipo de servicios, poniendo de manifiesto que la preocupación es global.
Las estadísticas internas de algunas plataformas apuntan a que cada año se eliminan millones de pistas sospechosas de vulnerar las normas de autenticidad, ya sea por spam, contenido duplicado o posible manipulación. En un caso reciente, se habló de decenas de millones de archivos retirados por no cumplir los requisitos de originalidad y buena fe.
Todo este contexto refuerza el mensaje que envía la condena a Smith: la era de la impunidad para las trampas masivas en el streaming podría estar tocando a su fin. Las empresas tecnológicas, presionadas también por sellos europeos y organizaciones de gestión de derechos, están afinando cada vez más sus algoritmos de detección.
Explosión de la música generada por IA: oportunidad y amenaza
El trasfondo de este caso es un ecosistema en el que la creación musical con IA se ha democratizado de forma radical. Plataformas como Suno y servicios similares permiten que cualquier usuario, sin conocimientos técnicos, genere canciones enteras en cuestión de segundos, algo impensable hace apenas unos años.
Algunas estimaciones internas de la industria señalan que herramientas de este tipo pueden llegar a producir millones de temas al día, lo que equivaldría a llenar el catálogo completo de un servicio de streaming estándar en unas pocas semanas. Esta avalancha alimenta catálogos ya saturados, donde encontrar música original de calidad se vuelve cada vez más complejo.
Datos de plataformas como Deezer apuntan a que diariamente se suben decenas de miles de pistas exclusivamente creadas por IA. Para los equipos de moderación, separar lo legítimo de lo fraudulento es una tarea titánica, más aún cuando el 97 % de los usuarios, según algunos estudios, no distingue si una canción ha sido compuesta por una persona o por un algoritmo.
Incluso dentro de las propias empresas tecnológicas hay dudas sobre el rumbo de esta revolución. Directivos de compañías de IA musical han admitido que se mueven en una especie de zona gris, intentando conjugar innovación y ética. La preocupación principal es que la creación automática acabe desplazando económicamente al talento humano, especialmente a los artistas independientes que viven casi exclusivamente de las regalías.
Instituciones académicas como el Berklee College of Music o la Universidad de Nueva York han empezado a estudiar el impacto de este fenómeno en la sostenibilidad del sector. Sus análisis apuntan a que el modelo actual, basado en un fondo de pagos finito que se reparte según reproducciones, se resiente en cuanto entran en juego millones de pistas sintéticas que compiten por los mismos recursos.
Desafíos regulatorios para Estados Unidos y Europa
El caso de Michael Smith sirve de laboratorio para diseñar las normas de los próximos años. En Estados Unidos ya se habla de reforzar la legislación sobre fraude digital y uso malicioso de IA, mientras que en Europa el debate se entrecruza con el desarrollo del Reglamento de Inteligencia Artificial y la actualización de las directivas de derechos de autor.
Para los reguladores europeos, el reto es doble: por un lado, proteger la propiedad intelectual y la competencia leal; por otro, no ahogar la innovación en un terreno donde también surgen proyectos creativos muy valiosos que aprovechan la IA como herramienta y no como sustituto total del artista.
Organismos de gestión colectiva y asociaciones de autores en varios países de la UE ya han pedido que se exijan marcas de agua o identificadores obligatorios en las pistas creadas por IA, de forma que sea más sencillo rastrear su origen y detectar patrones anómalos de escucha que puedan delatar un uso fraudulento.
En paralelo, las plataformas de streaming están incorporando que analizan comportamientos como escuchas continuas las 24 horas, cambios constantes de ubicación o concentraciones anómalas de reproducciones en catálogos desconocidos. El objetivo es cortar los esquemas tipo Smith antes de que alcancen cifras millonarias.
Más allá de lo técnico, también se abre un debate cultural: hasta qué punto la sociedad está dispuesta a aceptar que una proporción creciente de la música que suena en las plataformas no ha pasado por manos humanas. En Europa, donde hay una larga tradición de apoyo institucional al sector cultural, este debate se percibe con especial intensidad.
Todo lo ocurrido en torno a Michael Smith deja claro que la combinación de inteligencia artificial, modelos de pago por streaming y falta de controles robustos puede convertirse en el caldo de cultivo perfecto para fraudes millonarios. La respuesta coordinada de justicia, plataformas y reguladores, tanto en Estados Unidos como en Europa, marcará si este episodio queda como una excepción sonada o como el primer capítulo de una larga lista de escándalos en la era de la música automatizada.