La battaglia legale tra Getty Images e Stability AI, creatrice del celebre modello di intelligenza artificiale Stable Diffusion, si chiude con un verdetto che ha lasciato più domande che risposte. La High Court britannica, attesa come teatro della prima grande decisione sui diritti d’autore nell’era dell’AI generativa, ha stabilito infatti che Stability non ha violato il copyright di Getty. Tuttavia, la sentenza evita di affrontare il vero punto critico che divide da due anni il mondo tecnologico e quello creativo: le aziende di intelligenza artificiale hanno bisogno del permesso per addestrare i propri modelli su opere protette da diritto d’autore?
Indice:
Una vittoria a metà che scuote il settore
Stability AI esce vincitrice, ma la sensazione è che questa decisione non stabilisca alcun precedente solido. Getty, che nel 2023 aveva accusato la società di aver “illecitamente” utilizzato milioni di immagini del suo archivio per alimentare i modelli di Stable Diffusion, ha infatti abbandonato la parte più sostanziale della propria causa durante il processo per mancanza di prove convincenti. Così facendo, ha lasciato il campo a un verdetto parziale che tocca solo margini del problema.
La giudice Joanna Smith ha riconosciuto a Getty una minima vittoria simbolica: Stability AI è colpevole di aver violato il marchio dell’agenzia fotografica riproducendo, in alcuni casi, immagini generate che mostravano il celebre watermark Getty. Tuttavia, la High Court ha respinto le accuse più gravi di violazione del copyright, dichiarando che il modello Stable Diffusion non conserva né riproduce direttamente opere protette, limitandosi a generare nuovi contenuti basati su rappresentazioni statistiche dei dati di addestramento.

È una decisione che, dal punto di vista tecnico e legale, conferma quanto emerso in casi analoghi in altri Paesi: i modelli generativi non conservano contenuti “copiati”, ma apprendono schemi e correlazioni. Tuttavia, per chi lavora nel settore creativo, il sospetto rimane forte: se il risultato finale deriva comunque da un patrimonio di opere artistiche reali, fino a che punto l’AI può operare liberamente senza erodere il valore di quel patrimonio?
Un precedente mancato, ma dal grande peso politico
L’attesa attorno a questo processo era altissima. Gli osservatori speravano in una decisione che potesse finalmente fare chiarezza nel caos normativo che circonda l’intelligenza artificiale generativa, tra diritti degli autori, uso responsabile dei dati e trasparenza negli algoritmi. Invece, la sentenza della High Court si è rivelata un’occasione mancata: un verdetto tecnico, prudente e fortemente limitato ai casi specifici.
Un esito che riflette le profonde difficoltà che i tribunali stanno incontrando a livello globale nell’applicare i principi tradizionali del diritto d’autore a sistemi di apprendimento automatico che non funzionano come un archivio, ma come un’interprete di pattern matematici. Mentre le leggi restano ancorate alla logica della “riproduzione” e della “copia”, l’AI opera su livelli troppo astratti perché possano essere facilmente incasellati in queste categorie giuridiche.
Da tempo anche le istituzioni europee si interrogano su come regolamentare l’utilizzo dei dati protetti nei sistemi di intelligenza artificiale. Nel contesto del nuovo AI Act, approvato a Bruxelles, resta aperta la questione della trasparenza dei dataset di addestramento: un nodo che Stability AI, OpenAI, Google e le altre big tech dovranno inevitabilmente affrontare.
Getty rilancia negli Stati Uniti
Sebbene la causa britannica si sia conclusa, Getty non sembra intenzionata a cedere terreno. La società statunitense ha avviato nel 2023 un procedimento parallelo negli Stati Uniti, inizialmente in Delaware e poi rifilato in California lo scorso agosto, con l’obiettivo di ottenere un pronunciamento più favorevole sotto la lente del diritto americano. Un sistema legislativo dove il concetto di “fair use” potrebbe rivelarsi la chiave di volta del contenzioso.

Negli USA, infatti, il dibattito è ancora più acceso. Da un lato ci sono le aziende tecnologiche che difendono la necessità di accedere a grandi quantità di dati — anche protetti da copyright — per sviluppare modelli sempre più performanti. Dall’altro gli editori, i fotografi, i musicisti e gli scrittori che denunciano una massiccia “appropriazione” delle proprie opere, spesso senza alcun riconoscimento economico.
Le cause in corso, come quella di Getty, si affiancano ad altri casi emblematici: da un lato l’accordo firmato recentemente da Anthropic, che ha scelto di pagare 1,5 miliardi di dollari per chiudere una disputa con un gruppo di autori e case discografiche; dall’altro il patto tra Universal Music e la startup Udio, che ha portato a un inedito compromesso tra l’industria musicale tradizionale e le nuove piattaforme di generazione sonora basate su intelligenza artificiale.
Un’industria in cerca di regole comuni
Il verdetto britannico non chiarisce, quindi, se e quando l’uso di contenuti protetti per addestrare un modello di AI possa essere considerato lecito. Ma mette in evidenza la crescente spaccatura tra due mondi che fino a pochi anni fa correvano su binari paralleli: la creatività umana e la creatività algoritmica.
Dietro ai tecnicismi legali, infatti, si nasconde un tema culturale enorme. Le immagini di Getty, come i testi degli scrittori o i brani dei musicisti, rappresentano il risultato di un lavoro creativo spesso riconosciuto e retribuito. I modelli di intelligenza artificiale, invece, apprendono implicitamente da milioni di questi contributi, senza chiedere consenso né offrire compensi diretti. In un certo senso, costruiscono nuova conoscenza a partire da quella esistente, ridisegnando i confini di cosa significhi “proprietà intellettuale” nel XXI secolo.
Per il mondo tech, la decisione rappresenta un segnale positivo: nessuna condanna per violazione del copyright significa che la strada dello sviluppo dei modelli può proseguire, almeno per ora, senza il rischio di un precedente giuridico vincolante. Per le industrie creative, invece, è un campanello d’allarme che spinge a chiedere nuove forme di tutela e licenze dedicate al training dell’AI.

Le prossime mosse
Molti analisti prevedono che il futuro del diritto d’autore nell’era dell’AI si giocherà su due fronti: da un lato il tribunale californiano, dove Getty spera di ottenere un pronunciamento più incisivo; dall’altro la regolamentazione europea, che con l’AI Act introdurrà obblighi di trasparenza sui dataset utilizzati.
Nel frattempo, Stability AI può festeggiare una vittoria strategica. Ma anche per lei la partita è tutt’altro che chiusa. La società è consapevole che un eventuale cambio di interpretazione legale, in futuro, potrebbe ribaltare completamente lo scenario e costringerla — come già avvenuto per Anthropic — a patti economici miliardari per pacificare il fronte dei detentori di copyright.
Per ora, la vera lezione è che il diritto d’autore, nella sua forma attuale, non è più sufficiente per descrivere la complessità dei modelli generativi. Serviranno nuove regole, costruite su una comprensione profonda del funzionamento dell’intelligenza artificiale e delle sue implicazioni creative. Fino ad allora, ogni vittoria — o sconfitta — in tribunale non farà che alimentare l’incertezza.
I nostri contenuti da non perdere:
- 🔝 Importante: Garmin aggiorna in beta tutti gli Instinct 3, i Forerunner 970/570 e la gamma Fenix 7
- 💻 Scegli bene e punta al sodo: ecco le migliori offerte MSI notebook business Black Friday 2025
- 💰 Risparmia sulla tecnologia: segui Prezzi.Tech su Telegram, il miglior canale di offerte
- 🏡 Seguici anche sul canale Telegram Offerte.Casa per sconti su prodotti di largo consumo

