Anche ai Premi Nobel 2024 di cui si stanno annunciando i vincitori da lunedì, l’intelligenza artificiale ha giocato un ruolo significativo. È stata centrale per due dei campi dello scibile umano premiati: soprattutto nel Nobel per la Fisica di martedì 8 ottobre, ma anche in quello per la Chimica assegnato ieri, mercoledì 9.

Il Premio Nobel per la Fisica è stato assegnato a John J. Hopfield e Geoffrey E. Hinton, pionieri dei sistemi di apprendimento automatico che fanno funzionare la gran parte delle intelligenze artificiali attuali; il Nobel per la Chimica assegnato ieri è andato invece a David Baker, Demis Hassabis e a John M. Jumper i quali, anche grazie a dei sistemi di intelligenza artificiale, sono riusciti a innovare il settore delle proteine.

Le invenzioni valse il Premio Nobel per la Fisica 2024

È qui che l’intelligenza artificiale ha giocato il ruolo più determinante, protagonista degli studi di John J. Hopfield e Geoffrey E. Hinton, premiati col Nobel per la Fisica “per le scoperte e le invenzioni fondamentali che consentono l’apprendimento automatico (machine learning, ndr) con reti neurali artificiali“, si legge sul sito dei Nobel.

I sistemi di intelligenza artificiale si sono evoluti molto negli ultimi anni anche grazie al loro lavoro, che ha permesso di trovare andamenti e modelli da cui derivare le informazioni che permettono a tali soluzioni di funzionare. Hopfield ha creato una struttura in grado di memorizzare e ricostruire le informazioni (rete di Hopfield); Hinton ha inventato invece un sistema capace di scoprire in modo indipendente le proprietà dei dati, sistema diventato la chiave delle grandi reti neurali attualmente in uso. Per farlo hanno usato strumenti propri alla fisica, con cui hanno creato dei metodi poi divenuti le fondamenta dell’apprendimento automatico basato sulle reti neurali artificiali, quei sistemi che imitano le capacità umane di apprendimento e memoria.

L’apprendimento automatico o machine learning (noto in sigla anche come ML) è importante perché, se alcuni decenni fa le informazioni con cui i sistemi di calcolo avevano a che fare erano poche e quindi gestibili con un numero limitato di algoritmi, in seguito i volumi e le complessità sono aumentate in maniera esponenziale richiedendo un cambiamento profondo per poterle governare. Nell’informatica il semplice “se questo allora quello” non bastava più e, per gestire la grande quantità di istruzioni, dati, variabili ed eccezioni, è subentrato proprio l’apprendimento automatico, un sistema che, semplificando molto, insegna alle macchine come eseguire un’attività specifica identificandone i pattern, trovandone cioè andamenti e ripetizioni grazie ai quali può fare previsioni e quindi operare anche autonomamente.

Per funzionare un sistema di machine learning deve basarsi su una rete neurale artificiale, un modello matematico di elaborazione di dati come la rete di Hopfield, presentata nel 1982, e rivelatasi rivoluzionaria perché capace di simulare le abilità del cervello umano di ricordare cose e di ricostruire immagini. Risale invece al 1986 la macchina di Boltzmann, il sistema su cui lavorò invece Hinton e per il quale è stato anche lui premiato ai Nobel 2024, un tipo di rete neurale usato per riconoscere schemi nei dati, fondamentali per la creazione di reti neurali profonde e nell’analisi di dati complessi.

machine learning timeline

Hopfield e Hinton hanno vinto il Nobel per la Fisica proprio perché con i loro studi e lavori hanno contribuito a trasformare le modalità con cui i computer affrontano i problemi, con un approccio che è alla base della rapida evoluzione dei sistemi di intelligenza artificiale, di cui l’immagine sopra di ai4business.it mostra le tre fasi principali.

L’intelligenza artificiale per la ricerca sulle proteine

Come anticipato, l’intelligenza artificiale è stata inoltre la chiave per portare avanti gli studi e i lavori di David Baker per la progettazione computazionale delle proteine e di Demis Hassabis e John M. Jumper per i sistemi di predizione delle proteine. Sono stati premiati con il Nobel per la Chimica perché sia i modelli di intelligenza artificiale sviluppati da Hassabis e Jumper, che le scoperte di Baker, si sono rivelati preziosi per la ricerca sulle proteine.

Dietro i primi c’è DeepMind, l’azienda inglese di intelligenza artificiale cofondata da Hassabis nel 2010, acquistata da Google quattro anni dopo, azienda nota prima per il progetto AlphaGo, che aveva l’obiettivo di applicare le reti neurali profonde nel gioco da tavolo Go, poi per AlphaFold. Questo è un progetto volto a studiare e a predire la struttura delle proteine, progetto di cui faceva parte anche Jumper, ricercatore che contribuì a rendere più efficace e preciso il relativo sistema usando le più recenti reti neurali artificiali. Di qui nacque AlphaFold2, un nuovo modello di intelligenza artificiale a cui lavorò lo stesso Hassabis e che, nel 2020, ottenne un punteggio di accuratezza considerato paragonabile a quello delle tecniche di laboratorio dal 14° CASP (Critical Assesment of protein Structure Prediction, un’iniziativa in cui i centri di ricerca competono con nuove soluzioni per la previsione delle proteine).

Dell’accuratezza e della straordinarietà di questo sistema venne a conoscenza anche Baker, che penso di utilizzarlo per migliorare Rosetta, un suo software realizzato quasi trenta anni prima per prevedere la struttura delle proteine, poi tuttavia usato per progettarne di nuove. Quest’ultima idea gli valse la parte di Nobel condiviso coi due, sia per Top7, una proteina da lui creata che non esisteva in natura e per gli altri tipi di proteine che Baker realizzò negli anni seguenti, utili per applicazioni mediche di vario tipo, come la produzione di nuove tipologie di vaccini.

Opportunità, e rischi

Torniamo a Geoffrey E. Hinton perché quelle che sono seguite all’assegnazione del suo Nobel per la Fisica sono state ore in cui si è tornato a parlare dei rischi legati alle intelligenze artificiali. Le posizioni di Hinton erano già abbastanza note alle persone che si occupano di tecnologia e intelligenza artificiale, ma ora lo sono diventate anche per un pubblico decisamente più vasto in seguito alla pubblicazione dell’intervista telefonica registrata pochi minuti dopo l’annuncio del premio, in cui Hinton ha ribadito il proprio punto di vista sui rischi che potrebbero nascere dai futuri sviluppi delle intelligenze artificiali, sottolineando l’urgente necessità di interventi volti a regolare e a garantire sicurezza.

“Abbiamo a che fare con qualcosa per cui abbiamo un’idea molto limitata di ciò che accadrà e di cosa fare […] Per quanto riguarda la minaccia esistenziale che deriva da queste cose che potrebbero sfuggire al controllo e prendere il sopravvento, penso che ci troviamo in una sorta di punto di biforcazione nella Storia, in cui nei prossimi anni dovremo capire se c’è un modo per affrontare questa minaccia. Ritengo che sia molto importante in questo momento lavorare su come mantenere il controllo. Dobbiamo impegnarci molto nella ricerca. Credo che una cosa che i governi possano fare sia costringere le grandi aziende a destinare molte più risorse alla ricerca sulla sicurezza. In modo che, ad esempio, aziende come OpenAI non possano metterla in secondo piano”.

Sono timori per nulla isolati nella comunità scientifica, in cui Hinton è ormai una delle personalità più di spicco il quale, come riporta la rivista di tecnologia MIT Technology Review, ritiene che esista un rischio concreto che l’intelligenza artificiale nel futuro prossimo possa provocare eventi catastrofici, perfino l’estinzione umana.

Già poche settimane dopo il lancio di GPT-4 di OpenAI, rilasciato pubblicamente a marzo 2023, Hinton si diceva sbalordito dalle potenzialità dei nuovi modelli linguistici: “Ho improvvisamente cambiato idea sul fatto che queste cose siano più intelligenti di noi”. Sono opinioni poi diventate preoccupazioni comuni, anche per via del tam-tam mediatico che ne è conseguito e per l’adesione di centinaia di scienziati e personalità di spicco del settore della tecnologia, che hanno chiesto l’intervento di aziende e soprattutto dei governi.

Lo scorso maggio l’Europa ha approvato una legge sull’intelligenza artificiale; circa un mese fa due delle aziende più importanti del settore come Anthropic e OpenAI hanno deciso di dare al governo statunitense accesso ai nuovi modelli che svilupperanno. Due approcci che, in maniera diversa, possono garantire maggior sicurezza.