Negli ultimi tempi, uno dei grandi nodi da sciogliere nel campo dell’intelligenza artificiale è quello dell’addestramento dei modelli linguistici senza violare la privacy degli utenti; una sfida particolarmente sentita da Apple, che ha fatto della protezione dei dati uno dei propri marchi di fabbrica, soprattutto a livello marketing. Proprio nelle ultime ore, l’azienda di Cupertino è tornata sull’argomento annunciando un approccio che, se manterrà le promesse, potrebbe rappresentare un cambio di paradigma.

Secondo quanto illustrato in un post tecnico pubblicato da Apple, l’azienda ha trovato un modo per migliorare i propri modelli di IA generativa senza dover accedere direttamente ai dati personali degli utenti, né tantomeno copiarli o trasferirli dai dispositivi, iPhone, iPad o Mac che siano, ai propri server.

Apple addestrerà l’IA senza violare la privacy degli utenti

Il funzionamento del sistema, per quanto sofisticato, è spiegato in modo relativamente semplice: Apple farà in modo che i suoi dispositivi, a partire da quelli aggiornati alle future versioni beta di iOS 18.5, iPadOS 18.5 e macOS 15.5, confrontino una serie di dati sintetici (cioè generati artificialmente) con campioni reali, provenienti da email o messaggi recenti, ma solo nel caso in cui l’utente abbia aderito volontariamente al programma Device Analytics.

L’obiettivo non è quello di “leggere” i dati dell’utente, ma piuttosto di identificare quale dei set sintetici si avvicini di più alla realtà; in altre parole, il dispositivo confronta internamente i dati e invia ad Apple solo un “segnale di preferenza”, indicando quale set sintetico è più simile a ciò che ha trovato localmente. Nessun dato testuale effettivo viene trasmesso e i dati reali, quindi, non lasciano mai il dispositivo.

Grazie a questo sistema, Apple potrà selezionare su scala globale i dati sintetici più realistici e utilizzarli per affinare le risposte IA, in scenari come la scrittura di riepiloghi automatici delle email o altre funzioni simili.

Chi segue da tempo le politiche di Apple in fatto di sicurezza e riservatezza, avrà notato come questo approccio sia un’estensione più avanzata di una tecnica già nota, la cosiddetta privacy differenziale: introdotta con iOS 10 nel 2016, questa tecnologia consente ad Apple di raccogliere dati utili in forma randomizzata e aggregata, impedendo che possano essere ricondotti a un singolo individuo.

Il principio alla base è simile, inserire “rumore” nei dati raccolti per proteggere l’identità del singolo utente, pur continuando a estrarre tendenze generali utili all’ottimizzazione dei servizi; Apple ha già utilizzato questo approccio, ad esempio, per migliorare la funzione Genmoji, ovvero la generazione di emoji personalizzate tramite IA.

Con il nuovo sistema, il concetto viene esteso a tutto l’ambito dell’addestramento IA, con un’attenzione ancora più marcata alla sicurezza lato device.

Come evidenziato da Mark Gurman, il ritardo di Apple nell’integrare un’intelligenza artificiale realmente competitiva rispetto ai rivali del settore (Google e OpenAI in primis) è ormai evidente; la funzione Apple Intelligence, più volte anticipata, ha faticato a trovare una direzione chiara, con continui rinvii e persino il cambio alla guida del team Siri.

La necessità di addestrare i modelli con dati più rappresentativi è dunque evidente ma, coerentemente con la filosofia dell’azienda, non a scapito della privacy. Questo nuovo sistema ibrido, che sfrutta la combinazione tra dati sintetici e segnali statistici provenienti dal dispositivo, sembra puntare esattamente in quella direzione.

Nel breve periodo, gli utenti finali non noteranno cambiamenti radicali, se non magari un progressivo miglioramento nella qualità delle risposte IA in app specifiche (come Mail o Messaggi); tuttavia, sul medio-lungo termine, questo approccio potrebbe permettere ad Apple di colmare il gap con i concorrenti, offrendo soluzioni di intelligenza artificiale personalizzate, efficienti e soprattutto progettate per funzionare in locale, sul dispositivo.

Gli utenti più attenti alla tutela dei propri dati potranno dunque continuare a dormire sonni tranquilli, nessuna email verrà letta, nessun messaggio verrà copiato, ma l’IA continuerà a imparare.