Che per gli occhiali smart Ray-Ban di Meta fossero in arrivo delle nuove funzionalità basate sull’intelligenza artificiale non è un mistero. Lo scorso dicembre la stessa azienda di Mark Zuckerberg ne parlò, mostrando diversi esempi e applicazioni di una sorta di assistente virtuale integrato negli occhiali.

Ma è ormai tempo di qualcosa di più concreto. Secondo il New York Times, Meta porterà queste nuove funzioni di intelligenza artificiali sui suoi occhiali smart già a partire dal mese prossimo, come parte di un aggiornamento che dovrebbe renderli molto più versatili e smart.

Le funzioni IA degli occhiali smart Ray-Ban di Meta

Presentati lo scorso settembre, i Ray-Ban Meta Smart Glasses sono degli occhiali intelligenti che hanno varie particolarità, fra cui quella di avere degli altoparlanti e un pulsante di acquisizione per scattare foto e registrare video tramite la fotocamera grandangolare da 12 megapixel e i 5 microfoni che catturano l’audio.

Questi microfoni anche a captare il parlato, considerando che molte funzioni si possono gestire con i comandi vocali, funzioni a cui se ne aggiungeranno a breve delle altre, secondo quanto anticipato dal New York Times oggi, 28 marzo. Sono delle novità basate sull’intelligenza artificiale multimodale, cioè su quel tipo di modelli capaci di combinare più linguaggi assieme: immagini, audio e parlato.

Pronunciando un “Ehi Meta”, gli occhiali smart Ray-Ban potranno infatti eseguire richieste di vario tipo: identificare cose, fornire suggerimenti basati su contesti diversi o tradurre. Lo scorso dicembre le anticipazioni mostravano come fossero in grado di dare dei consigli per abbinare i vestiti che Mark Zuckerberg aveva in mano, di tradurre il testo di alcune didascalie, o ancora, di descrivere una scultura.

Che si tratti ancora di un sistema ancora acerbo lo si evince da quanto riporta il New York Times, secondo cui gli occhiali faticano a identificare animali, frutti esotici e, più in generale, in molti casi danno problemi e inesattezze nel riconoscere diverse cose. Da sottolineare anche il fatto che, fra le lingue supportate per le traduzioni, c’è anche l’italiano, oltre a inglese, spagnolo, francese e tedesco.

È probabile che prima di rilasciare queste nuove funzioni basate sull’intelligenza artificiale multimodale, Meta aggiusti qualcosina per renderle più efficaci e utili, funzioni che, come anticipato, potrebbero arrivare già ad aprile, a partire dal mercato USA, considerando che la lista d’attesa per provarle in anteprima è riservata agli utenti statunitensi.

Leggi anche: Apple e Meta finiscono nel mirino dell’Antitrust europeo e Cosa dice la legge europea sull’intelligenza artificiale approvata dal Parlamento