L’azienda statunitense di intelligenza artificiale Anthropic non ha violato le regole sulla tutela del diritto d’autore per addestrare i modelli di intelligenza artificiale alla base di Claude, poiché questi ultimi “non hanno riprodotto gli elementi creativi di una determinata opera, né tantomeno lo stile espressivo identificabile di un autore”.
È quanto ha stabilito il giudice federale statunitense William Alsup, una decisione isolata ma che rappresenta un precedente importante in un settore in cui i limiti legali e le opportunità future sono ancora da definire e in cui sono molte le battaglie legali sull’uso di opere protette da copyright nello sviluppo degli LLM .
Ora c’è un precedente potenzialmente importante per le future cause legali
Perché è la prima volta che un tribunale dà credito alle tesi delle aziende di intelligenza artificiale, le quali si professano assolte da ogni responsabilità nell’utilizzo di materiali protetti dal diritto d’autore, in ottemperanza alla disposizione legislativa dell’ordinamento giuridico degli Stati Uniti del fair use. In sostanza, la dottrina del fair use tiene conto dello scopo per cui viene utilizzata l’opera (parodia e istruzione sono legittimi), se viene riprodotta o meno a scopo di lucro (sì alla riproduzione ma no alla vendita) e quanto un’opera derivata sia trasformativa rispetto all’originale. Qui ci sono maggiori informazioni.
D’altra parte è un duro colpo per autori, artisti, giornalisti ed editori, che negli ultimi mesi e anni hanno intentato diverse cause legali contro le varie società e colossi del settore tech che si occupano o hanno a che fare con strumenti di intelligenza artificiale, come appunto Anthropic e OpenAI, ma anche Google, Meta o Amazon.
“Lo scopo e la natura dell’utilizzo di opere protette dal diritto d’autore per addestrare gli LLM a generare nuovi testi sono stati essenzialmente trasformativi. Come ogni lettore che aspira a diventare scrittore” ha scritto Alsup, il quale ha tuttavia anche aggiunto che il fatto di aver copiato e archiviato oltre 7 milioni di libri pirata resta di fatto una violazione cui Anthropic dovrà far fronte.
Depositata presso la Corte Distrettuale degli Stati Uniti per il Distretto Settentrionale della California, la causa è stata intentata dagli autori Andrea Bartz, Charles Graeber e Kirk Wallace Johnson lo scorso agosto, i quali sostengono che Anthropic abbia costruito un “business multimiliardario rubando centinaia di migliaia di libri protetti dal diritto d’autore”. Un enorme dataset noto come “The Pile” (in italiano: il mucchio, la pila, l’ammasso) che l’azienda avrebbe usato per addestrare i modelli linguistici che fanno funzionare il chatbot AI Claude, una raccolta con dentro anche Books3, un’enorme libreria di ebook piratati con dentro opere di Stephen King, Michael Pollan e migliaia di altri autori.
Si tratta di una decisione cruciale che, sebbene non garantisca che anche altri giudici prendano in considerazione la dottrina del fair use, potrebbe avere delle ripercussioni nelle cause in corso e nelle future decisioni dei giudici che si troveranno a rispondere a simili casi di violazione del diritto d’autore nell’ambito dell’addestramento sia testuale che visuale dei sistemi di intelligenza artificiale.
I nostri contenuti da non perdere:
- 🔝 Importante: Recensione Octopus Energy dopo 2 anni: pro e contro
- 💻 Scegli bene e punta al sodo: ecco le migliori offerte MSI notebook business Black Friday 2025
- 💰 Risparmia sulla tecnologia: segui Prezzi.Tech su Telegram, il miglior canale di offerte
- 🏡 Seguici anche sul canale Telegram Offerte.Casa per sconti su prodotti di largo consumo

