Meta ha recentemente annunciato l’introduzione di nuove ed avanzate funzionalità di intelligenza artificiale multimodale per i suoi occhiali smart Ray-Ban, realizzati in collaborazione con Luxottica. Si tratta di caratteristiche che sfruttano l’intelligenza artificiale e la realtà aumentata per offrire agli utenti nuove e interessanti esperienze d’uso e interazioni vocali.

Offerta
-8%

MacBook Air 15'', M4 (2025)

Display Liquid Retina 15,3'', 16GB / 256GB, Touch ID

1199€ invece di 1309€
Offerta
-40%

Amazon Fire TV Stick HD

26.99€ invece di 44.99€
Offerta
-25%

Apple AirPods 4

Cancellazione attiva del rumore, Audio adattivo, Trasparenza, Audio spaziale, Ricarica wireless

149€ invece di 199€
Offerta
-38%

ECOVACS X11 OMNICYCLONE

BLAST e 19.500 Pa, Boost di Potenza Ultrarapido, OZMO ROLLER 2.0

799€ invece di 1299€
Offerta
-0%

Apple Macbook Neo

Chip A18 Pro, Apple Intelligence, display Liquid Retina, 256GB SSD, FaceTime HD a 1080p

699€ invece di 699€
Offerta
-20%

Tineco Floor ONE S7 Stretch Ultra

329€ invece di 409€
Offerta
-55%

ECOVACS DEEBOT T80 OMNI

499€ invece di 1099€
Offerta
-30%

Novità! DREAME L10s Ultra Gen 3

Kit Robot Aspirapolvere e Lavapavimenti, Aspirazione da 25.000 Pa, Spazzola

421.62€ invece di 599€

Gli occhiali smart di Ray-Ban e Meta si arricchiscono di nuove funzionalità basate su IA

Inizialmente queste nuove feature saranno disponibili solo per un numero limitato di utenti negli Stati Uniti, come test iniziale. Le persone selezionate potranno provare le capacità dell’assistente virtuale integrato negli occhiali, in grado di vedere e ascoltare ciò che accade intorno all’utente tramite telecamere e microfoni presenti nel dispositivo.

Un video condiviso sui social da Mark Zuckerberg (che trovate a questo indirizzo) mostra l’assistente vocale in azione: l’IA è in grado di descrivere una maglietta mostrata dal CEO di Meta e suggerire dei pantaloni abbinati, oppure tradurre del testo identificato dalla videocamera. Si tratta di funzionalità di computer vision, elaborazione linguaggio naturale e multimodalità che portano l’esperienza con gli occhiali intelligenti di Ray-Ban (e Meta) ad un livello successivo.

Secondo quanto dichiarato in passato da Zuckerberg, gli utenti potranno interagire con l’assistente IA durante tutto l’arco della giornata, ponendogli domande su ciò che stanno guardando o sul luogo in cui si trovano. Un video pubblicato su Instagram da Andrew Bosworth, CTO di Meta, mostra l’assistente descrivere accuratamente una scultura a forma di California illuminata.

Oltre a questo, l’IA è in grado di generare didascalie per foto scattate, tradurre o riassumere testi: funzioni di intelligenza artificiale che stiamo vedendo integrate sempre più spesso in vari prodotti tecnologici. Siamo quindi di fronte ad un nuovo passo in avanti nello sviluppo di occhiali smart dotati di assistente personale virtuale.

Per il momento, data la fase iniziale di test, le funzionalità IA saranno disponibili solo negli Stati Uniti e per un numero ristretto di persone che decideranno di partecipare volontariamente al programma early access. Le istruzioni per aderire sono disponibili sul sito di Meta a questo indirizzo.

Non è ancora chiaro quando le funzionalità multimodali basate su IA saranno rese disponibili al grande pubblico. Per ora Meta procederà con cautela, limitando l’accesso ad un numero ristretto di utenti che potranno testare e fornire feedback sulla nuova esperienza d’uso potenziata dall’intelligenza artificiale.

Potrebbero interessarti anche: Dall-E, Midjourney e gli altri generatori di immagini AI a confrontoL’UE ha raggiunto un accordo provvisorio per la regolamentazione dell’IA