Alla IEEE International Solid-State Circuits Conference (ISSCC) 2026, alcuni ricercatori NVIDIA hanno presentato ALPhA-Vision, un nuovo acceleratore a basso consumo energetico progettato per operare ininterrottamente svolgendo compiti di “visione artificiale”, come il rilevamento dei volti, senza gravare sulla batteria dei dispositivi.

Si tratta di una soluzione super interessante in un periodo storico in cui l’intelligenza artificiale integrata nei dispositivi d’uso quotidiano richiede sempre più capacità di elaborazione visiva continua. A differenza dei sistemi tradizionali in cui questi compiti vengono affidati alla GPU (che consuma molto di più e costituisce un limite in scenari che richiedono un monitoraggio costante), il nuovo processore opera con un consumo energetico medio di 4,6 mW a 60 fps, risultando rapido e preciso con un’accuratezza del 99,3%, e apre la strada a una nuova generazione di dispositivi intelligenti che sono in grado di “osservare” l’ambiente in tempo reale senza consumare quantità spropositate di energia.

Cosa è e come funziona ALPhA-Vision di NVIDIA

ALPhA-Vision non è un chip indipendente ma un sottosistema flessibile e programmabile, progettato per essere integrato all’interno di un più ampio e performante System-on-Chip (SoC) per consentire ad esso di entrare in modalità di risparmio energetico durante le fasi in cui il sottosistema opera.

Il suo ruolo è quello di gestire in completa autonomia le reti neurali “profonde” (DNN), supportando sia le architetture CNN (reti neurali convoluzionali) che i ViT (Vision Transformer) per l’elaborazione delle immagini.

Pubblicazioni IEEE ISSCC 2026 - NVIDIA AlphaVision - Figura 1

Panoramica del sottosistema ALPhA-Vision

La struttura del sottosistema

La sua struttura prevede la divisione dei compiti tra quattro componenti specializzati. Il primo è un acceleratore per il deep learning (DLA), il motore matematico del sistema che si dedica ai calcoli complessi e che elabora i dati a precisione ridotta (INT8 e INT4) per massimizzare l’efficienza.

Poi abbiamo un processore “near-memory” (NMP), un motore vettoriale a larga banda (128 Byte per ciclo) che gestisce i calcoli a bassa intensità e la riorganizzazione dei dati, con l’obiettivo di snellire la coda dalle operazioni “minori” che rischiano di fare da collo di bottiglia.

Proseguendo, abbiamo un processore RISC-V a 32-bit che funge da coordinatore delle varie operazioni. Infine abbiamo una memoria globale statica (SRAM) da 2,125 MB divisa in due aree: la Global Weight Memory fa da archivio per i “pesi” della rete neurale; il Global Scratchpad fa da banco di lavoro (ospita l’immagine in ingresso e i calcoli temporanei).

L’aspetto rivoluzionario di questa architettura proposta dai ricercatori NVIDIA è che il sottosistema possiede la capacità di acquisire ed elaborare i dati visivi internamente, senza mai dovere accedere alla memoria esterna del dispositivo.

Tale approccio consente al resto del SoC (incluse CPU, GPU e sistema di memoria) di rimanere completamente dormienti (in modalità sleep) mentre il sottosistema ALPhA-Vision lavora.

NVIDIA svela ALPhA-Vision, il rilevatore di volti sempre attivo dai consumi ultra-ridotti 8

Diagramma a blocchi dell’architettura di ALPhA-Vision

Il sottosistema applica una strategia “Race-to-Sleep”

Per ottenere un’efficienza così elevata, pur utilizzando un processo produttivo standard a 16 nm, gli ingegneri di NVIDIA hanno dovuto affrontare il problema della dispersione di energia delle memorie.

Per ovviare, il team ha adottato una strategia definita “race-to-sleep” (letteralmente “corsa verso il riposo”) che si basa su un principio molto semplice: completare l’elaborazione di un frame nel minor tempo possibile, per massimizzare il tempo in cui il chip può essere disattivato.

L’elaborazione del frame viene completata con una latenza inferiore al millisecondo. Operando a 60 fps, il sistema riesce a trascorrere il 95,3% del tempo di necessario per ogni singolo frame in modalità di riposo (quindi passa circa 0,0159 secondi in riposo e appena 783 microsecondi in stato attivo).

A ciò si aggiunge anche una gestione “chirurgica” dell’alimentazione: il software può spegnere in modo dinamico e indipendente i singoli banchi di memoria (in modalità di ritenzione o di sonno profondo), a seconda delle necessità istantanee.

Infine, il sistema è in grado di applicare il clock gating, bloccando le frequenze di interi blocchi, potendo addirittura arrivare a “congelare” l’intera distribuzione del clock e mantenendo in vita un minuscolo contatore a 31 bit che ha il solo compito di risvegliare il sistema.

Offerta

Nintendo Switch OLED

Coupon: TUTTOA30 + sconto a carrello selezionando pagamento PayPal

194€ invece di 319€
-39%

Scenari futuri e applicazioni pratiche

Le applicazioni di questo sistema di visione sempre attivo a bassissimo consumo messo a punto da NVIDIA sono molteplici: può tornare utile per sistemi di rilevamento della presenza umana o del voltomonitoraggio della sicurezza e persino interazione con i dispositivi tramite comandi gestuali.

Secondo i ricercatori, i sistemi di visione sempre attivi diventeranno una componente ancor più rilevante (quasi cruciale) con l’ingresso nel mercato della così chiamata Embodied AI (intelligenza artificiale incarnata), ovvero quella integrazione dell’IA all’interno di robot fisici che si muovono nel mondo reale.

Per quanto concerne i dispositivi di consumo disponibili attualmente, una delle applicazioni più vantaggiose potrebbe concretizzarsi sui notebookALPhA-Vision potrebbe abilitare una sorta di rilevamento del volto “opportunistico”: il notebook sarebbe in grado di mettere istantaneamente in stand-by lo schermo non appena si accorge che l’utente ha distolto lo sguardo o si è allontanato.

Potendo operare in locale, senza dover risvegliare CPU o GPU, questo approccio garantirebbe un enorme risparmio energetico a livello dell’intero sistema, prolungando la batteria in modo sensibile per l’utente.

Ci sono anche altri ambiti in cui potrebbe far comodo questo sistema messo a punto da NVIDIA: monitoraggio dell’ambiente in modo continuo su veicoli autonomi e droni, fungere da cuore per i sistemi di riconoscimento (magari per distinguere persone, animali e oggetti) per i dispositivi della smart home.

Qualora siate interessati a maggiori informazioni su ALPhA-Vision, vi rimandiamo alla pagina dedicata a questa pubblicazione sul portale NVIDIA e al portale IEEE dove è disponibile il paper integrale.