Necromanzia Digitale: l'AI clona artisti morti su Spotify
La musica è eterna, ma l'artista no. O forse sì? Una controversa scoperta sta scuotendo Spotify: brani inediti di musicisti deceduti, generati dall'intelligenza artificiale, sono apparsi sulle loro pagine ufficiali, aprendo un vaso di Pandora etico e legale.
Fantasmi nella Playlist
La musica è eterna, ma l'artista no. O forse, grazie all'intelligenza artificiale, anche l'artista può diventarlo? Una controversa scoperta sta scuotendo Spotify e l'intera industria musicale: sulla piattaforma sono apparse canzoni inedite attribuite a musicisti deceduti, generate dall'AI e pubblicate sulle loro pagine ufficiali, apparentemente senza alcuna approvazione da parte di eredi o etichette discografiche.
Questo fenomeno, che potremmo definire 'necromanzia digitale', non è un esperimento isolato, ma una pratica strisciante che solleva interrogativi inquietanti sul futuro dell'arte e del diritto d'autore. È un omaggio o uno sfruttamento post-mortem? E chi ha il diritto di parlare per un artista che non può più farlo?
Il caso che ha scoperchiato il vaso di Pandora
Tutto è partito da un'inchiesta del sito 404 Media, che ha portato alla luce casi emblematici. Il più toccante è forse quello di Blake Foley, un cantante country assassinato brutalmente nel 1989. Sulla sua pagina Spotify ufficiale è comparsa dal nulla una traccia intitolata 'Together'. Lo stile vocale ricorda vagamente quello di Foley, ma qualcosa non torna. La copertina, ad esempio, mostra il volto di un giovane biondo che non ha alcuna somiglianza con lui.
Le indagini hanno rintracciato l'origine di questa e altre operazioni simili a un misterioso account aziendale chiamato 'Syntax Error'. Un nome che suona quasi come una beffa. Tra le loro 'produzioni' figura anche 'Happened To You', un brano falsamente attribuito a Guy Clark, cantautore country vincitore di un Grammy e scomparso nel 2016. Dopo la pubblicazione del report, Spotify si è affrettata a rimuovere le tracce, ma il danno era fatto e la questione, ormai, è di dominio pubblico.
La posizione ambigua di Spotify
Questo non è il primo scandalo legato all'AI per il colosso svedese dello streaming. La politica della piattaforma, guidata dal CEO Daniel Ek, è sempre stata piuttosto permissiva. In passato, Ek ha dichiarato che i brani creati con l'AI sono i benvenuti, a patto che non imitino artisti reali. Il problema, come dimostra il caso Foley, è che la piattaforma sembra incapace, o forse poco interessata, a far rispettare questa stessa regola.
La rimozione dei brani solo dopo una segnalazione esterna suggerisce un approccio reattivo, non preventivo. Questo lascia campo libero a chiunque voglia sfruttare le zone grigie della tecnologia e della legge per generare contenuti che ingannano gli ascoltatori e, cosa più grave, profanano la memoria artistica di chi non c'è più.
Un campo minato di etica e copyright
La vicenda apre un vaso di Pandora di dilemmi. A chi appartiene lo stile di un artista dopo la sua morte? Può un'intelligenza artificiale imitarlo per creare opere 'postume'? Il confine tra omaggio e sfruttamento commerciale diventa pericolosamente labile.
Il nocciolo del problema risiede nel training dei modelli AI come Suno o Udio, che generano intere canzoni da un semplice input testuale. Le aziende dietro queste tecnologie sostengono di operare nel cosiddetto 'fair use', ma artisti e detentori dei diritti la vedono diversamente: lo considerano una palese violazione del copyright. Sophie Jones, della British Phonographic Industry (BPI), ha espresso una forte preoccupazione, affermando che "le aziende tech hanno addestrato modelli AI usando opere creative — in gran parte senza autorizzazione o pagamento ai creatori — per competere direttamente con l'arte umana".
Il rischio è duplice. Da un lato, si inonda il mercato di musica sintetica che compete per gli ascolti e, di conseguenza, per le royalties, riducendo la quota destinata agli artisti umani. Dall'altro, si ingannano i fan e si rischia di macchiare l'eredità di un musicista con prodotti di bassa qualità o stilisticamente inappropriati.
Trasparenza: una prima, necessaria risposta
Di fronte a questo scenario, la richiesta di maggiore trasparenza si fa sempre più forte. Piattaforme rivali come Deezer hanno già iniziato a muoversi in questa direzione, sviluppando algoritmi per identificare ed etichettare chiaramente i contenuti generati artificialmente.
La vicenda di 'Syntax Error' non è solo un bug nel sistema, ma il sintomo di una trasformazione radicale. La tecnologia ci offre strumenti potentissimi per preservare la memoria, ma il rischio è di trasformare l'eredità artistica in un prodotto vuoto, un'eco digitale senz'anima. La domanda non è più 'se' l'AI cambierà la musica, ma 'come' permetteremo che lo faccia, e chi traccerà il confine invalicabile tra innovazione e profanazione.