Busqueda Menú
Home Últimas noticias Menú
News

​Sony Music elimina 135.000 canciones deepfake generadas con IA de plataformas de streaming

La compañía alerta del impacto directo sobre campañas de lanzamiento y reputación de artistas en pleno auge del contenido fraudulento

  • Borja Comino
  • 25 March 2026
​Sony Music elimina 135.000 canciones deepfake generadas con IA de plataformas de streaming

Sony Music ha retirado alrededor de 135.000 temas generados con inteligencia artificial que imitaban a artistas de su catálogo en servicios de streaming. Según recoge la BBC, estas grabaciones utilizaban modelos generativos para replicar voces y estilos de nombres como Beyoncé, Queen o Harry Styles, tres de los activos más relevantes del sello.

La cifra se dio a conocer el pasado 18 de marzo durante la presentación del Global Music Report de la IFPI. Allí, Dennis Kooker, presidente del área digital global de Sony Music, señaló que en los casos más problemáticos estos contenidos pueden interferir directamente en campañas oficiales o afectar a la percepción pública de los artistas.

Kooker también apuntó al carácter oportunista del fenómeno: los deepfakes tienden a aparecer cuando hay mayor exposición mediática, aprovechando la demanda generada por lanzamientos o giras para posicionarse y desviar tráfico.

Aun así, los 135.000 tracks eliminados representan solo una parte del problema. Desde marzo del año pasado, Sony ha identificado cerca de 60.000 canciones adicionales que afirmaban falsamente contar con artistas de su roster. Entre los nombres potencialmente afectados también figuran Bad Bunny, Miley Cyrus o Mark Ronson.

El contexto refuerza una tendencia más amplia dentro de la industria. A principios de año, Deezer informó de que hasta el 85% de la música generada con IA detectada en su plataforma había sido etiquetada como fraudulenta y desmonetizada. Apple, por su parte, aseguró haber bloqueado dos mil millones de reproducciones fraudulentas en 2025, mientras que Bandcamp anunció en enero la prohibición de contenidos generados con IA.

En paralelo, el Gobierno británico ha dado marcha atrás recientemente en su propuesta de permitir el entrenamiento de modelos de IA con material protegido sin compensación, tras la presión de distintos sectores creativos.

El volumen de contenido detectado y las medidas adoptadas por plataformas y majors apuntan a un escenario cada vez más regulado, en el que la verificación de autoría y el control sobre el uso de voces y catálogos se convierten en un frente central para la industria.

Cargando siguiente articulo
Cargando...
Cargando...