Il calcolo quantistico è ancora lontano dall’essere una tecnologia mainstream, ma i segnali che arrivano dal team di Google Quantum AI (e più in generale dall’intera comunità scientifica) non lasciano spazio a dubbi: la crittografia tradizionale è destinata a diventare obsoleta, prima di quanto si possa pensare.

Lo spettro di computer quantistici in grado di violare gli attuali sistemi di sicurezza informatica, basati su algoritmi come RSA o Diffie-Hellman, è sempre più concreto, tanto che il passaggio alla crittografia post quantistica (PQC) non è più una raccomandazione ma un imperativo.

A lanciare l’ennesimo campanello d’allarme ci pensa proprio Google che in un recente preprint ha mostrato come la crittografia RSA a 2048 bit, oggi considerata uno standard robusto, potrebbe essere decifrata da un computer quantistico con 1 milione di qubit rumorosi (un qubit è l’unità fondamentale di informazione quantistica, che è stato alterato da interferenze esterne chiamate “rumore”) in una sola settimana; una previsione che riduce di 20 volte le risorse stimate nel 2019 e che mette in discussione l’affidabilità a lungo termine degli attuali sistemi di crittografia.

Offerta

Google Pixel Watch 4 (45 mm)

379€ invece di 449€
-16%

Cosa significano le nuove scoperte per la crittografia tradizionale

I computer quantistici utilizzano l’algoritmo di Shor per fattorizzare i numeri interi, un processo alla base della vulnerabilità degli algoritmi RSA; dal 1994, anno della sua pubblicazione, il numero stimato di qubit fisici necessari per eseguire con successo l’algoritmo è andato via via diminuendo: un miliardo nel 2012, 20 milioni nel 2019, appena 1 milione oggi.

Questo trend evidenzia quanto rapidamente stia progredendo la ricerca nel settore, grazie sia a miglioramenti algoritmici sia a nuove tecniche di correzione degli errori; nel dettaglio, due sono le innovazioni chiave:

  • un nuovo algoritmo scoperto nel 2024 da Chevignard, Fouque e Schrottenloher, che sfrutta un’approssimazione dell’esponenziale modulare, riducendo la complessità spaziale anche se inizialmente più oneroso dal punto di vista computazionale
  • una nuova architettura per la correzione degli errori, sviluppata da Google Quantum AI, che consente di triplicare la densità di archiviazione dei qubit logici inattivi e di ridurre sensibilmente l’overhead computazionale, anche grazie alla tecnica della coltivazione dello stato magico

Questi miglioramenti non sono limitati alla crittografia, anche simulazioni chimiche e calcoli sui materiali potrebbero beneficiarne, ma il loro impatto più immediato e potenzialmente critico resta legato alla sicurezza delle informazioni.

Il problema non è teorico né ipotetico, i computer quantistici (quando arriveranno a maturità) saranno in grado di decifrare dati oggi ritenuti sicuri; gli algoritmi più a rischio sono RSA e Diffie-Hellman a curva ellittica, impiegati per proteggere dati in transito (come nei servizi di messaggistica o nelle connessioni HTTPS) e per la verifica dell’identità digitale tramite firme elettroniche.

Google sottolinea inoltre un rischio specifico noto come store now, decrypt later: un attaccante potrebbe intercettare e conservare dati cifrati oggi, in attesa che domani un computer quantistico li renda leggibili; per questo motivo il colosso di Mountain View ha già adottato l’algoritmo ML-KEM, uno standard post-quantum del NIST, sia nel traffico cifrato interno sia in quello di Google Chrome.

Ma il panorama è ancora più complesso sul fronte delle firme digitali, specialmente quando le chiavi pubbliche sono integrate nell’hardware o utilizzate in scenari a lungo termine; in questi casi sostituire le chiavi è più difficile e richiede una pianificazione anticipata, anche per questo Google ha introdotto schemi di firma PQC (crittografia post quantistica) in anteprima pubblica all’interno dei Cloud KMS.

Il National Institute of Standards and Technology (NIST) ha già tracciato la rotta, entro il 2030 i sistemi vulnerabili dovranno essere dismessi, e dal 2035 non saranno più accettabili in alcun contesto operativo. La pubblicazione di Google non fa che rafforzare la necessità di rispettare queste scadenze, per evitare che la transizione alla sicurezza post quantistica arrivi troppo tardi.

Insomma, la corsa contro il tempo è già iniziata, non si tratta più di chiedersi se i computer quantistici saranno in grado di decifrare la crittografia RSA, ma quando lo saranno; e in un contesto in cui i dati digitali sono spesso destinati a vivere più a lungo delle tecnologie che li proteggono, anticipare le mosse diventa una questione di sopravvivenza infrastrutturale.

Google con il suo ultimo lavoro non ci sta solo dicendo che il futuro è quantistico, ci sta ricordando che l’inerzia in questo caso è un rischio; la buona notizia è che gli strumenti per prepararci esistono già, gli algoritmi post-quantum sono realtà, gli standard sono pronti, e i colossi tecnologici stanno già tracciando la via.

I nostri contenuti da non perdere: