L’intelligenza artificiale non è solo quella generativa di ChatGPT e Google Gemini (solo per citare gli strumenti più popolari), ma una realtà molto più articolata e dalle innumerevoli implicazioni e applicazioni. Un’applicazione molto interessante è quella proposta da un gruppo di ricercatori dell’Università di Washington. Hanno infatti realizzato delle cuffie che utilizzano algoritmi di intelligenza artificiale per creare una “bolla sonora” e per riconoscere, quando si è tra tante persone, l’interlocutore con il quale si vuole dialogare e riuscire ad ascoltare solamente la sua voce.

L’intelligenza artificiale al servizio delle bolle sonore

Su Nature Electronics sono stati pubblicati i risultati del lavoro condotto dai ricercatori dell’Università di Washington per questo prototipo di cuffia. Il dispositivo utilizza algoritmi di intelligenza artificiale in modo da permettere a chi indossa quelle cuffie di sentire solo le persone che parlano all’interno di una bolla. Una bolla il cui raggio può essere programmato e personalizzato con un range da 3 a 6 piedi (circa 1-2 metri). I suoni e le voci al di fuori di questa bolla vengono attenuati a circa 49 dB, valore corrispondente al fruscio delle foglie. Questo avviene anche se i suoni all’esterno della bolla sono più forti di quelli all’interno di essa.

Chi lavora in un ufficio o studia in biblioteca, può indossare queste cuffie e isolarsi dai rumori di sottofondo ma allo stesso tempo poter interloquire con chi gli è seduto accanto.

Shyam Gollakota, professore dell’Università di Washington e tra gli autori di questa ricerca, ha spiegato che il sistema AI alla base di queste cuffie consente di calcolare la distanza per ogni fonte sonora presente in una stanza ed elaborarla in tempo reale (entro 8 millisecondi) sul dispositivo.

Cuffie AI-2

Il prototipo realizzato ha utilizzato una normale cuffia antirumore sulla cui fascia sono stati fissati sei piccoli microfoni. Un piccolo computer incorporato esegue la rete neurale sviluppata dal team di ricercatori che traccia i suoni provenienti da ogni microfono isolando quelli provenienti dall’esterno della bolla ma riproducendo e amplificando quelli all’interno della stessa.

Secondo i ricercatori questo sistema funziona per almeno due motivi. Innanzitutto perché la testa di chi indossa queste cuffie riflette i suoni, il che aiuta la rete neurale a distinguere i suoni da varie distanze. Il secondo motivo è che i suoni (come il linguaggio umano) hanno frequenze multiple, ciascuna delle quali attraversa fasi diverse mentre viaggia dalla sua fonte. L’algoritmo AI è in grado di confrontare le fasi di ciascuna di queste frequenze per determinare la distanza di qualsiasi fonte sonora.

Offerta

Motorola edge 50 neo

8/256GB, 50+13+10MP, Display 6.36'' pOLED 120Hz, IP68, batteria 4310mAh, ricarica 68W, Android 14, ricarica wireless, eSIM

284€ invece di 348€
-18%

Il sistema Target Speech Hearing che modifica la percezione uditiva

Il sistema di cui abbiamo appena parlato è stato addestrato per funzionare solamente in ambienti chiusi, perché ottenere un audio di addestramento pulito è più difficile all’esterno. Parallelamente pochi mesi fa gli stessi ricercatori dell’Università di Washington hanno presentato un altro sistema, chiamato Target Speech Hearing, che annulla tutti i suoni in un ambiente esterno riproducendo solamente la voce della persona con cui si vuole parlare.

I risultati di questo lavoro sono stati presentati il 14 maggio alla ACM CHI Conference on Human Factors in Computing Systems. Il progetto, spiegano i ricercatori, utilizza l’intelligenza artificiale per modificare la percezione uditiva di una persona che indossa queste cuffie in base alle sue preferenze ed esigenze.

Con questo sistema la persona che indossa le cuffie preme un pulsante mentre muove la testa verso la persona che sta parlando. Le onde sonore di quell’interlocutore raggiungono simultaneamente i microfoni su entrambi i lati delle cuffie che inviano un segnale al computer incorporato. Il software sviluppato dai ricercatori consente di riconoscere il pattern vocale dell’interlocutore e continua a riprodurla anche mentre si è in movimento. La capacità del sistema migliora man mano che l’interlocutore continua a parlare, apprendendo più dati.

Per entrambe le tecnologie i ricercatori stanno lavorando a un’integrazione anche sugli apparecchi acustici e sugli auricolari.