L’intelligenza artificiale torna “sul banco degli imputati” a seguito di 11 reclami presentati da altrettanti Paesi dell’Unione Europea (Italia compresa). Questa volta è Meta (la società proprietaria di Facebook, Instagram e WhatsApp) a essere oggetto dell’azione legale condotta dall’ONG Noyb (None of your business). L’ONG Nyon denuncia che l’uso che Meta fa dei post degli utenti per addestrare i propri modelli di AI è in contrasto con il GDPR.

Offerta
-42%

HillMiles MileCity 1 e-bike

Coupon: TUTTOA60

407€ invece di 699€
Offerta
-31%

Insta360 X4 Air Action Camera

Coupon: TUTTOA30 + sconto a carrello selezionando pagamento PayPal

274€ invece di 399€
Offerta
-30%

Apple AirPods Pro 3, ANC

Coupon: TUTTOA30 + sconto a carrello selezionando pagamento PayPal

187€ invece di 269€
Offerta
-39%

AMD RYZEN 7 7800X3D

Coupon: TUTTOA30

218€ invece di 359€
Offerta
-39%

Nintendo Switch OLED

Coupon: TUTTOA30 + sconto a carrello selezionando pagamento PayPal

194€ invece di 319€
Offerta
-38%

OnePlus Buds 4

Coupon: ITAS07

49€ invece di 79€
Offerta
-32%

Xiaomi Pad Mini

Coupon: TUTTOA45

341€ invece di 499€

L’oggetto del contendere

Nyon nel denunciare il fenomeno ha chiesto agli organi di vigilanza sulla privacy dei vari Paesi UE di bloccare l’uso dei dati da parte di Meta. Questo perché le modifiche alle politiche sulla privacy che Meta attuerà a partire dal prossimo 26 giugno consentirebbero all’azienda di usare i dati personali degli utenti (post e foto) per addestrare la sua intelligenza artificiale.

Come ormai abbiamo imparato a conoscere bene i sistemi di AI, in modo particolare quelli generativi, hanno bisogno di enormi quantità di dati per allenarsi e perfezionarsi. È facile intuire quale sia il tesoro di cui è in possesso Meta con l’archivio di tutti i post e i contenuti dei milioni di utenti che ogni giorno da circa vent’anni utilizzano social come Facebook e Instagram e l’app di messaggistica istantanea WhatsApp. Infatti Meta ha già iniziato a usare questi contenuti scatenando l’attenzione (e le relative azioni) di Nyon.

La complessità della questione

Secondo Nyon Meta ha violato il Regolamento generale sulla protezione dei dati personali (GDPR), mentre un portavoce dell’azienda statunitense ha rilasciato una dichiarazione per cui il gruppo è certo che il proprio operato è in linea con le normative europee in materia.

La questione è nuova ma neanche tanto riemergendo spesso il problema di quanto le piattaforme social possano liberamente disporre dei dati degli utenti. Se è vero che quando ci si iscrive a una piattaforma se ne accettano i termini di utilizzo (informazioni che praticamente nessuno legge anche perché il non sottoscriverle implicherebbe il non utilizzo del servizio) è altrettanto vero che in Europa il GDPR prevede la facoltà degli utenti di opporsi all’utilizzo dei propri dati personali.

Tanto che da giorni sui social si condividono video e guide che spiegano come chiedere a Meta, sia su Facebook che su Instagram, di non utilizzare i propri post per addestrare la sua intelligenza artificiale. Questa opzione (che è comunque una richiesta non vi è nulla di automatico tanto che Meta potrebbe ignorare o non accogliere tali domande) è disponibile infatti solamente in Europa (e nel Regno Unito) dove vige sia il GDPR che il Digital Services Act di recente approvazione. Gli utenti di altri Paesi devono seguire una procedura a parte per inviare la medesima richiesta.

La vicenda non è del tutto nuova. Qualcuno ricorderà come sul finire dello scorso anno fece clamore l’iniziativa del New York Times che ha citato in giudizio Open AI e Microsoft per l’uso che Chat GPT ha fatto degli articoli dei giornalisti della testata statunitense.

Ora un nuovo problema in Europa questa volta nei confronti di Meta. Non sappiamo come andranno le cose e sarà interessante seguire l’evoluzione delle vicende (che avranno ripercussioni enormi in un senso o nell’altro), ciò che appare evidente è come l’intelligenza artificiale debba essere in qualche modo normata per consentirle un utilizzo etico e legale e impedire violazioni che per molti aspetti potrebbero risultare anche molto gravi.