Dopo mesi di aggiornamenti graduali che avevano già introdotto, tra le altre cose, la traduzione live tra italiano, inglese, spagnolo e francese, da oggi in Italia arriva una delle funzionalità più rivoluzionarie dei Ray-Ban Meta: la capacità di “vedere” e rispondere in tempo reale a ciò che l’utente sta osservando. Un arrivo che si è fatto attendere più che altrove, probabilmente anche a causa delle più stringenti normative europee sull’intelligenza artificiale, che hanno rallentato il rilascio completo delle funzioni IA nel nostro continente.

Offerta

Google Pixel Watch 4 (45 mm)

379€ invece di 449€
-16%

Gli smart glass di Meta ora “vedono” e rispondono in tempo reale

Disponibile da oggi anche per gli utenti italiani, la nuova funzione “Look and Ask” (Guarda e Chiedi), permette agli occhiali smart di analizzare visivamente ciò che li circonda e fornire risposte contestuali, sfruttando l’intelligenza artificiale di Meta. Basta pronunciare “Hey Meta, cosa sto guardando?” e l’assistente IA integrato sarà in grado di identificare monumenti, oggetti, opere d’arte, paesaggi o persino piante, offrendo informazioni dettagliate direttamente tramite audio.

Questa tecnologia, già attiva in altri Paesi, trasforma l’esperienza quotidiana dell’utente, rendendo gli occhiali non solo un accessorio hi-tech, ma una vera guida interattiva. Immaginate di passeggiare per Roma e ricevere in tempo reale spiegazioni sulla storia del Colosseo o dei Fori Imperiali, semplicemente guardandoli. Ma l’utilità non si ferma al turismo: può essere impiegata anche per scoprire dettagli su prodotti, segnali stradali o opere in un museo, aumentando significativamente il potenziale educativo e informativo dell’esperienza visiva.

Secondo quanto riportato sull’app Meta AI, con la nuova funzione “Guarda e Chiedi” si possono fare domande in modo del tutto naturale mentre si osserva qualcosa con gli occhiali. È sufficiente dire, ad esempio, “Fai un riassunto”, “Cosa significa questa parola?”, oppure “Parlami di questo edificio” per ricevere spiegazioni in tempo reale.

La funzione permette anche richieste più specifiche o curiose, come “Qual è la storia di questa statua?” o “Cosa posso fare con questo frutto?”. Non mancano le opzioni creative, infatti si può chiedere “Scrivi una poesia su questo dipinto” o informazioni pratiche come “Quanto crescerà questa pianta?”. L’IA di Meta risponde subito, direttamente tramite l’audio degli occhiali, rendendo ogni interazione immediata e sorprendentemente semplice.

Per attivare la funzionalità è sufficiente aggiornare l’app Meta View, da qualche settimana rinominata in Meta AI, accedere alle impostazioni e abilitare Meta AI.

Ray-Ban Meta: quali sorprese ci riserverà l’IA indossabile?

Meta ha annunciato che questa è solo una delle prime tappe nella sua roadmap sull’IA indossabile. L’obiettivo dichiarato è rendere sempre più naturale il rapporto tra esseri umani e tecnologia, riducendo al minimo l’attrito tra curiosità e informazione. E con l’arrivo della funzione “Guarda e Chiedi” in Italia, gli occhiali Ray-Ban Meta compiono un passo concreto in quella direzione.

Dopo aver visto queste funzioni attive all’estero per mesi, finalmente anche in Italia possiamo provare davvero cosa significhi avere degli occhiali che “vedono” e rispondono. Non è solo una novità tecnologica, è un piccolo cambio di prospettiva. E alla fine, è proprio questo che ci si aspetta dalla tecnologia fatta bene: che sia utile, immediata, e quasi invisibile.

I nostri contenuti da non perdere: