Un risarcimento da record scuote il mondo dell’intelligenza artificiale nella faida per i diritti d’autore. Anthropic, la società madre del chatbot Claude, ha accettato di pagare 1,5 miliardi di dollari per chiudere una class action intentata da oltre 500.000 autori che l’accusavano di aver utilizzato opere protette dal diritto d’autore senza permesso.

Si tratta del più grande accordo economico mai raggiunto in un caso di copyright negli Stati Uniti e segna un precedente che potrebbe influenzare profondamente il futuro sviluppo dei modelli linguistici. Scopriamone i dettagli.

La distribuzione del risarcimento

Secondo quanto riportato dal New York Times, ciascun autore coinvolto riceverà 3.000 dollari per opera. Una cifra che, pur variando molto a seconda della quantità di libri e testi utilizzati, rappresenta un riconoscimento tangibile per gli scrittori, che da mesi chiedevano maggiore tutela contro l’uso improprio dei propri lavori nelle fasi di addestramento dei sistemi AI; una tematica che negli ultimi anni ha assunto dimensioni rilevanti e che si è fatta sempre più imperante al crescere dei chatbot di intelligenza artificiale.

Questo accordo senza precedenti va ben oltre qualunque altra compensazione mai vista in casi di violazione del copyright”, ha dichiarato Justin A. Nelson, l’avvocato che ha rappresentato gli autori. “Non solo assicura un risarcimento significativo, ma manda anche un messaggio chiaro alle aziende tecnologiche: prendere opere protette da siti pirata è sbagliato e comporta conseguenze”.

Un caso simbolo dell’era dell’AI, il primo vero precedente

La vicenda è stata seguita con grande attenzione dall’industria tecnologica e dall’opinione pubblica, poiché rappresenta uno dei primi casi in cui gli autori sono riusciti a ottenere una vittoria significativa contro un colosso dell’intelligenza artificiale il quale è sempre più al centro di scrutini legali e regolamentazione attenta.

Il nodo centrale della causa riguardava il modo in cui Anthropic aveva raccolto i dati per addestrare i propri modelli linguistici. In particolare, gli scrittori sostenevano che l’azienda avesse scaricato illegalmente libri da piattaforme di pirateria come Library Genesis (LibGen), utilizzandoli per alimentare il proprio sistema.

A giugno, però, il tribunale aveva emesso una sentenza che aveva fatto discutere, ovvero il giudice stabilì che l’uso di materiale protetto da copyright per addestrare i modelli poteva rientrare nel fair use, rappresentando una vittoria importante per Anthropic e, più in generale, per l’intero settore dell’AI.

Allo stesso tempo, però, il tribunale riconobbe che le accuse di pirateria relative al download illegale dei testi restavano valide e potevano essere perseguite.

Le condizioni del patteggiamento

Oltre al maxi-risarcimento, Anthropic ha accettato di eliminare dai propri archivi tutti i materiali ottenuti illegalmente. In una dichiarazione al New York Times, l’azienda ha ribadito che nessuna delle opere scaricate da siti pirata è stata utilizzata per addestrare i modelli poi rilasciati pubblicamente.

L’accordo, se approvato, permetterà di risolvere definitivamente le vecchie rivendicazioni degli autori”, ha dichiarato Aparna Sridhar, Deputy General Counsel di Anthropic. “Restiamo impegnati a sviluppare sistemi di intelligenza artificiale sicuri, che aiutino persone e organizzazioni a estendere le proprie capacità, a favorire la scoperta scientifica e a risolvere problemi complessi”.

Un segnale forte all’industria AI e le possibili ripercussioni future

L’accordo potrebbe rappresentare un punto di svolta per l’intero ecosistema dell’AI. Fino a oggi, infatti, la maggior parte delle aziende che sviluppano modelli linguistici si è basata su dataset immensi, spesso contenenti materiale protetto da copyright senza una chiara autorizzazione.

Il caso Anthropic stabilisce un precedente: sebbene i tribunali abbiano confermato la validità del fair use per l’addestramento, l’origine dei dati rimane fondamentale, pertanto usare contenuti ottenuti da fonti illegali non è accettabile e può costare miliardi. Peraltro, se è illegale farlo per un privato cittadino, a maggior ragione dovrebbe esserlo per un’azienda enorme che punta a utilizzare quei dati per addestrare un servizio a scopo di lucro.

Gli autori e gli editori vedono in questo accordo una vittoria che potrebbe spingere altre aziende a negoziare licenze e compensi per l’utilizzo delle opere. Non a caso, negli ultimi mesi anche altri big della tecnologia sono stati trascinati in tribunale per questioni simili, da OpenAI a Meta fino al più recente caso di Google in merito ai dati.

Il patteggiamento di Anthropic non risolve definitivamente la questione dell’utilizzo improprio dei dati protetti da diritto d’autore, ma stabilisce un precedente concreto: i creatori non possono essere esclusi dall’equazione e il loro lavoro ha un valore che va riconosciuto.

In conclusione, provando a guardare avanti, è probabile che sempre più aziende scelgano di stipulare accordi con autori ed editori, piuttosto che rischiare cause milionarie.

Per Anthropic, il pagamento di 1,5 miliardi rappresenta un costo enorme, ma anche un modo per chiudere rapidamente una vicenda che avrebbe potuto minare la sua reputazione e rallentare lo sviluppo di Claude. Per gli autori, invece, è la dimostrazione che è possibile far valere i propri diritti anche di fronte a colossi tecnologici; un segnale di speranza per tutto il settore in cui i creatori di contenuti non saranno più spettatori passivi, ma parte attiva del processo di negoziazione dei dati.