Meta ha presentato i suoi occhiali intelligenti Ray-Ban di seconda generazione a settembre come un dispositivo indossabile focalizzato sull’intelligenza artificiale.

Recentemente Mark Zuckerberg ha annunciato che il prodotto in sperimentazione negli Stati Uniti ha  ricevuto importanti aggiornamenti e oggi ha fornito qualche esempio di cosa sono in grado di fare grazie alla tecnologia AI multimodale che consente al dispositivo sia di vedere che di sentire.

Mark Zuckerberg mostra i Ray-Ban Meta Smart Glasses in azione

Pronunciando “Hey Meta, guarda e dimmi”, utenti selezionati negli Stati Uniti ora possono attivare l’assistente virtuale di Meta che utilizzerà la fotocamera e i microfoni degli occhiali per valutare e commentare gli oggetti nel campo visivo dell’utente.

Grazie a questa funzione l’utente può ad esempio farsi suggerire quali pantaloni abbinare alla camicia che sta osservando, tradurre in tempo reale quello che vede, scrivere didascalie per le foto scattate, riconoscere un frutto, ottenere informazioni sull’ambiente circostante, come mostrato dallo stesso Zuckerberg su Instagram.

Ray-Ban Meta Smart Glasses esempio

Meta afferma che sta implementando anche la possibilità di chiedere informazioni in tempo reale a Meta AI a tutti i dispositivi Ray-Ban Meta negli Stati Uniti. La funzionalità è in parte alimentata da Microsoft Bing.

Nei negozi online Meta i modelli Wayfarer e Headliner di questi nuovi occhiali sono offerti al prezzo di 299 dollari con sette opzioni di colore per entrambi i modelli e cinque per le lenti. L’opzione lente trasparente è disponibile con o senza filtro per la luce blu.

Per ora la società sta lanciando la versione di anteprima degli occhiali intelligenti Ray-Ban Meta Smart Glasses con funzionalità AI per utenti selezionati negli Stati Uniti, prima di un probabile lancio in altri mercati.

Forse ti sei perso: Google presenta Gemini, un nuovo modello avanzato di IA in arrivo anche su Pixel 8 Pro