Gli smart glasses sono spesso presentati come il futuro dell’informatica indossabile: leggeri, sempre connessi, capaci di catturare ciò che vediamo e di analizzarlo in tempo reale grazie all’intelligenza artificiale. Tuttavia, un nuovo report solleva interrogativi importanti su come vengano gestiti i dati raccolti dagli occhiali intelligenti Ray-Ban Meta, in particolare quando si attivano le funzioni IA.

Secondo quanto emerso, alcuni video registrati con gli occhiali verrebbero inviati ad annotatori di dati umani in Kenya per la revisione manuale, e tra questi contenuti figurerebbero anche clip considerate estremamente sensibili.

Offerta

Xiaomi 17 Ultra, 512GB + TV A Pro 50''

1500.9€ invece di 1898.9€
-21%

Contenuti sensibili registrati da Ray-Ban Meta visionati da terzi

Gli occhiali smart sviluppati da Meta in collaborazione con Ray-Ban possono registrare video in due modalità principali:

  • registrazione manuale -> attivata dall’utente per catturare filmati in soggettiva (per esempio durante attività sportive o situazioni particolari)
  • funzione IA -> che consente di porre domande su ciò che si sta guardando (ad esempio chiedere di identificare un oggetto o ottenere informazioni contestuali)

È noto che l’elaborazione IA avviene sui server Meta e che, di conseguenza, i filmati possono essere inviati al cloud per l’analisi; il punto critico però, riguarda cosa accade dopo.

Un’inchiesta del sito svedese SVD sostiene che alcuni di questi video sarebbero sottoposti a revisione manuale da parte di lavoratori di aziende terze con sede in Kenya, incaricati di annotare gli oggetti presenti nelle clip per migliorare i sistemi di riconoscimento automatico.

Secondo testimonianze raccolte, tra i filmati analizzati figurerebbero anche scene estremamente private, incluse situazioni intime all’interno di abitazioni. I lavoratori avrebbero riferito di visionare contenuti che includono momenti personali e delicati, che teoricamente dovrebbero essere esclusi dalla revisione umana.

Un aspetto non del tutto chiaro riguarda le circostanze in cui questi video vengono effettivamente inviati per l’annotazione, solo quando si utilizza la funzione IA? Anche durante registrazioni manuali? Per quanto tempo vengono trasmessi i flussi ai server Meta dopo una richiesta vocale? Il report solleva interrogativi proprio sulla mancanza di trasparenza di questi meccanismi.

Nei propri termini, Meta specifica che in alcuni casi può esaminare le interazioni con l’IA, inclusi contenuti di conversazioni o messaggi, e che questa revisione può essere automatizzata o manuale (umana).

Tuttavia, secondo quanto riportato, quando sono stati chiesti maggiori dettagli all’azienda, la risposta sarebbe stata un rimando ai Termini di servizio e all’Informativa sulla privacy, senza chiarimenti tecnici aggiuntivi.

Il report menziona anche un’analisi del traffico di rete dell’app collegata agli occhiali, che mostrerebbe contatti frequenti con server Meta situati tra Luleå (Svezia) e la Danimarca, ma non fornisce ulteriori dettagli sui contenuti trasmessi.

Ex dipendenti Meta avrebbero affermato che i contenuti sensibili non dovrebbero essere oggetto di revisione umana, tuttavia, l’esclusione si baserebbe sui sistemi algoritmici capaci di individuare automaticamente tali contenuti, sistemi che, come noto, non sono affidabili.

È proprio qui che si gioca la partita più delicata: quando dispositivi indossabili registrano ciò che accade nella vita quotidiana, anche pochi secondi di video possono includere informazioni estremamente personali; e se questi contenuti finiscono in processi di annotazione manuale, la questione privacy diventa centrale.

Gli occhiali intelligenti rappresentano una delle evoluzioni più ambiziose dell’ecosistema wearable, ma il loro successo dipende in larga parte dalla fiducia degli utenti. Sapere con precisione quali dati vengono inviati ai server, per quanto tempo vengono conservati e in quali casi possono essere visionati da esseri umani è fondamentale.

Al momento, la mancanza di dettagli tecnici pubblici alimenta dubbi e polemiche, resta da vedere se Meta fornirà chiarimenti più approfonditi o se introdurrà strumenti di controllo più granulari per gli utenti.

Nel frattempo, la vicenda riporta al centro del dibattito un tema ormai ricorrente: quando l’IA incontra dispositivi sempre attivi e sempre indossati, la trasparenza non è un’opzione, ma una necessità.