Un accordo per evitare il disastro Un sospiro di sollievo che risuona in tutta la Silicon Valley. Anthropic, uno dei principali rivali di OpenAI, ha appena schivato un proiettile legale che avrebbe potuto non solo affondare l'azienda, ma anche mettere in ginocchio l'intero settore dell'intelligenza artificiale generativa. La startup ha raggiunto un accordo preliminare in una class action monumentale, intentata da un gruppo di autori che l'accusavano di aver saccheggiato le loro opere per addestrare i suoi modelli AI, Claude su tutti. La posta in gioco era a dir poco terrificante. Con milioni di libri presumibilmente utilizzati senza permesso, molti dei quali provenienti da "biblioteche ombra" come LibGen, il potenziale risarcimento era da capogiro. La legge statunitense sul copyright prevede sanzioni fino a 150.000 dollari per ogni singola opera violata intenzionalmente. Fate due calcoli: la cifra teorica avrebbe potuto superare il trilione di dollari, un colpo insostenibile per chiunque. Di fronte a questo baratro finanziario, Anthropic ha scelto la via della diplomazia, cercando un'intesa prima del processo previsto per dicembre. Come riportato da AI4Business Italia, l'intesa è stata definita "storica" dai legali degli autori e dovrebbe essere finalizzata entro i primi di settembre. Non è una vittoria, ma una tregua strategica in una guerra che sta appena iniziando. Il cuore del dibattito: cos'è davvero "Fair Use"? Tutta la vicenda ruota attorno a due parole magiche: fair use. Si tratta di un principio del diritto americano che consente un uso limitato di materiale protetto da copyright per scopi come la critica, la ricerca o l'insegnamento. Le aziende tech hanno sempre sostenuto che l'addestramento dei modelli AI rientri in questa categoria, argomentando che i sistemi non "copiano" le opere, ma ne "apprendono" gli schemi linguistici e stilistici. Tuttavia, i tribunali stanno iniziando a fare delle distinzioni cruciali. Una cosa è usare testi per scopi trasformativi e di ricerca; un'altra è creare deliberatamente enormi archivi di contenuti piratati per alimentare i propri algoritmi. Il caso Anthropic ha messo in luce proprio questo: il giudice aveva suggerito che, sebbene l'addestramento potesse essere considerato fair use, la creazione di una "biblioteca centrale" con materiali piratati era una palese violazione del copyright. Questa sottile ma fondamentale differenza ha aperto una crepa nella difesa delle aziende AI. L'accordo di Anthropic suggerisce che, piuttosto che rischiare una sentenza sfavorevole su questo punto, è più conveniente pagare e andare avanti. Un segnale che il "selvaggio west" della raccolta dati per l'AI sta volgendo al termine. Un effetto domino su tutto il settore Non pensate che questa sia solo una storia su Anthropic. L'intero gotha dell'intelligenza artificiale è seduto sul banco degli imputati. Le accuse sono praticamente identiche per tutti: aver costruito imperi digitali sulle spalle dei creatori di contenuti, senza chiedere permesso né offrire un compenso. Qualche esempio? OpenAI è in causa con il New York Times e altri editori per l'uso di milioni di articoli nell'addestramento di ChatGPT. Meta è finita nel mirino per aver usato il controverso dataset Books3. Persino Google e Microsoft non sono immuni, con cause legali relative ai dati usati per i loro modelli e per strumenti come GitHub Copilot. L'accordo di Anthropic, pur non essendo legalmente vincolante per gli altri, crea un potente precedente commerciale. Dimostra che la minaccia legale è reale e che negoziare potrebbe essere l'opzione migliore. È probabile che vedremo altre aziende seguire questa strada, cercando accordi preventivi per evitare battaglie legali lunghe, costose e dall'esito incerto. Verso un futuro di licenze e trasparenza Cosa ci aspetta, quindi? Il futuro dell'addestramento AI sarà probabilmente molto diverso. Stiamo entrando in un'era in cui le aziende dovranno essere molto più trasparenti riguardo alle fonti dei loro dati. L'approccio "prendi tutto quello che trovi online" non è più sostenibile. Si sta aprendo la strada a un nuovo mercato di licenze collettive, simile a quello che esiste da decenni per la musica in radio o nei locali pubblici. Le aziende AI potrebbero dover pagare delle "royalty" a consorzi di autori ed editori per poter utilizzare legalmente i loro contenuti. Per i creatori, questa è una notizia epocale: finalmente si intravede un percorso per essere compensati per il ruolo fondamentale che le loro opere giocano nello sviluppo di queste tecnologie. Questo cambiamento non sarà guidato solo dai tribunali, ma anche dalla regolamentazione. In Europa, l'AI Act impone già obblighi di trasparenza sui dataset di addestramento. Negli Stati Uniti, il Congresso sta discutendo nuove norme. La direzione è chiara: il rapporto tra intelligenza artificiale e diritto d'autore deve essere riscritto, e l'accordo di Anthropic è solo il primo capitolo di questa nuova storia.