Quando si parla di interazione con i dispositivi tecnologici, l’attenzione si concentra spesso su touchscreen, comandi vocali o controller dedicati; tuttavia, negli ultimi anni le grandi aziende del settore, Apple inclusa, stanno esplorando con crescente interesse approcci alternativi che possono rendere l’interazione uomo-macchina ancora più naturale. In questo contesto si inserisce un nuovo studio pubblicato da Apple sul proprio blog dedicato alla ricerca sull’apprendimento automatico.

Il lavoro di ricerca, intitolato “EMBridge: Enhancing Gesture Generalization from EMG Signals through Cross-Modal Representation Learning” sarà presentato alla conferenza International Conference on Learning Representations 2026 (ICLR 2026) ad aprile e descrive un sistema di intelligenza artificiale in grado di riconoscere gesti delle mani anche quando questi non fanno parte del dataset di addestramento originale.

Si tratta di un passo interessante, soprattutto in prospettiva futura, perché potrebbe aprire la strada a nuovi metodi di controllo per dispositivi indossabili e piattaforme di realtà aumentata o virtuale.

Che cos’è l’EMG e perché è importante per i dispositivi indossabili

Per comprendere meglio lo studio è necessario partire dalla tecnologia utilizzata: l’EMG, ovvero l’elettromiografia. L’EMG misura l’attività elettrica generata dai muscoli quando si contraggono, questa tecnologia è utilizzata da tempo in ambito medico, per esempio nella diagnosi di disturbi neuromuscolari, nella fisioterapia e nel controllo delle protesi robotiche.

Negli ultimi anni tuttavia, l’elettromiografia ha iniziato a trovare applicazione anche nel mondo dei dispositivi consumer, in particolare nel settore dei wearable e dei sistemi di realtà aumentata e virtuale. Un esempio recente è rappresentato dagli occhiali intelligenti Ray-Ban Meta Smart Glasses, che sfruttano una fascia da polso (chiamata Neural Band) capace di interpretare i segnali muscolari per navigare tra le funzioni degli occhiali.

Proprio questo tipo di interazione basata sui segnali muscolari rappresenta uno dei campi di ricerca più promettenti per il futuro dei dispositivi indossabili.

Segui APPLE Italia su Telegram, ricevi news e offerte per primo

Offerta

Apple AirPods 4

149€ invece di 199€
-25%

Come funziona EMBridge

Il cuore dello studio è EMBridge, un framework progettato per colmare il divario tra due tipi di dati differenti: i segnali EMG provenienti dai muscoli e i dati sulla posizione e sulla postura delle mani. In altre parole, l’obbiettivo dei ricercatori è insegnare al sistema a comprendere quali movimenti della mano corrispondano a determinati segnali muscolari.

Per farlo, il modello è stato addestrato utilizzando un approccio multimodale:

  • pre-addestramento separato su dati EMG e dati di posa delle mani
  • allineamento delle due rappresentazioni, in modo che il codificatore EMG potesse apprendere dal codificatore di posa
  • ricostruzione della posa mascherata, tecnica con cui alcune parti dei dati della posa vengono nascoste e il modello deve ricostruirle basandosi solo sui segnali EMG

Questo processo consente al sistema di imparare a riconoscere i pattern dei movimenti della mano a partire dai segnali muscolari, migliorando la capacità di interpretare i gesti anche quando non sono stati esplicitamente inclusi nel dataset di addestramento.

Segui APPLE Italia su Telegram, ricevi news e offerte per primo

I dataset utilizzati per l’addestramento

Per l’addestramento e la valutazione del modello i ricercatori hanno utilizzato due importanti dataset EMG. Il primo è emg2pose, un dataset open source su larga scala che include circa 370 ore di dati EMG superficiali (sEMG), 193 partecipanti, 29 gruppi di comportamenti gestuali (tra cui stringere il pugno o contare con le dita), oltre 80 milioni di etichette sulla postura della mano. Le registrazioni sono state effettuate utilizzando sistemi di motion capture ad alta risoluzione e bande EMG posizionate sull’avambraccio.

Il secondo dataset utilizzato è NinaPro, in particolare le versioni DB2 e DB7. Qui i segnali sono stati registrati tramite 12 elettrodi sull’avambraccio con una frequenza di campionamento di 2 kHz, mentre la posizione della mano è stata acquisita tramite un guanto sensorizzato.

Il sistema riconosce anche gesti mai visti

Secondo i ricercatori, EMBridge è riuscito a ottenere risultati particolarmente interessanti, il sistema è stato testato su due benchmark e ha superato costantemente i metodi esistenti, soprattutto nella cosiddetta classificazione zero-shot, ovvero la capacità di riconoscere gesti che non erano mai stati visti durante l’addestramento.

Un dato particolarmente significativo è che il modello ha raggiunto queste prestazioni utilizzando soltanto il 40% dei dati di training, dimostrando quindi una notevole capacità di generalizzazione.

Segui APPLE Italia su Telegram, ricevi news e offerte per primo

Le possibili applicazioni future

Come spesso accade con gli studi accademici, la ricerca non menziona direttamente prodotti specifici in arrivo; tuttavia, le possibili applicazioni pratiche sono abbastanza facili da immaginare. Un sistema di questo tipo potrebbe essere utilizzato per controllare dispositivi AR e VR tramite gesti delle mani, migliorare i sistemi di accessibilità, pilotare avatar virtuali o protesi robotiche, o ancora gestire dispositivi indossabili senza toccarli.

Guardando all’ecosistema dell’azienda, è naturale pensare a integrazioni con dispositivi come Apple Watch, Apple Vision Pro, iPhone o Mac, oltre ai possibili occhiali intelligenti su cui Apple starebbe lavorando da tempo.

Limiti da considerare e sguardo al futuro

Non mancano però alcune limitazioni, gli autori dello studio sottolineano infatti che il modello richiede dataset che includano sia segnali EMG sia dati sincronizzati sulla posizione della mano, un tipo di dataset piuttosto complesso da raccogliere. Ciò significa che l’addestramento del sistema dipende ancora da dataset specializzati e difficili da ottenere su larga scala.

Nel complesso, lo studio rappresenta un ulteriore esempio di come Apple stia esplorando nuove forme di interazione tra esseri umani e tecnologia. Se queste ricerche dovessero tradursi in prodotti concreti, potremmo assistere a un’evoluzione significativa nel modo in cui controlliamo i dispositivi: non più solo touch o voce, ma anche gesti rilevati direttamente dai segnali muscolari.

Naturalmente è ancora presto per capire se e quando queste tecnologie arriveranno su prodotti commerciali, tuttavia, considerando l’interesse crescente per la realtà aumentata e i dispositivi indossabili, non è difficile immaginare che soluzioni basate sull’EMG possano diventare sempre più rilevanti nei prossimi anni.