Nel mondo dell’intelligenza artificiale (AI), la sicurezza è diventata una questione centrale, soprattutto in relazione allo sviluppo di sistemi sempre più sofisticati come il modello linguistico GPT-4 di OpenAI. Recentemente il CEO e cofondatore di OpenAI, Sam Altman, ha parlato al MIT sulle preoccupazioni legate alla sicurezza dei futuri modelli di AI e sull’eventuale sviluppo del successore GPT-5. Vediamo insieme il contenuto del suo intervento e le ripercussioni che avranno le sue parole nel mondo dell’intelligenza artificiale.

Il CEO di Open-AI risponde a una lettera aperta su GPT-5

Sam Altman ha risposto in particolare a una lettera aperta (consultabile a questo link) circolata nel settore tecnologico, che chiedeva alle aziende del settore come OpenAI di sospendere lo sviluppo di sistemi di AI più potenti di GPT-4. La lettera sollevava timori sulla sicurezza dei futuri sistemi, ma è stata criticata da vari operatori del settore per mancanza di chiarezza e consenso sulle minacce effettive poste dall’AI e su come l’industria potrebbe mettere in pausa lo sviluppo. Durante l’evento del MIT il CEO di OpenAI ha sottolineato che la lettera “manca di molte sfumature tecniche” e ha negato che l’azienda stia attualmente addestrando il modello GPT-5, come erroneamente riportato in una versione precedente della lettera. Tuttavia, ha anche evidenziato che OpenAI sta attualmente lavorando a miglioramenti incrementali del modello GPT-4 e ad altre iniziative collegate, tenendo sempre in forte considerazione le implicazioni di sicurezza legate a tali sviluppi.

Le parole di Altman (che potete ascoltare dal video in fondo a questo articolo, che racchiude una parte dell’intervento) pongono l’accento su una delle principali sfide nel dibattito sulla sicurezza dell’AI, ovvero la difficoltà nel valutare e tracciare i progressi in questo campo. La questione diventa ancora più complessa a causa della cosiddetta “fallacia dei numeri di versione“, ovvero l’idea che gli aggiornamenti tecnologici numerati rappresentino miglioramenti chiari e lineari delle capacità di un sistema. Questa fallacia si basa sull’assunto che un numero di versione superiore corrisponda automaticamente a un prodotto migliore, ma tale logica non si applica necessariamente al mondo dell’intelligenza artificiale. Non è infatti possibile stabilire se un sistema di AI sia effettivamente più avanzato o sicuro solo sulla base del suo numero di versione, poiché il processo di sviluppo e miglioramento è spesso non lineare e complesso. È fondamentale, quindi, evitare di cadere nella trappola della fallacia dei numeri di versione e di non ridurre il dibattito sulla sicurezza e sull’effettivo progresso di queste tecnologie a una mera questione numerica.

Risulta invece più importante e stimolante affrontare il problema con un approccio più maturo e analitico, cercando di comprendere le reali implicazioni e sfide poste dai sistemi di intelligenza artificiale in continua evoluzione. Per fare ciò è necessario promuovere un dialogo aperto e costruttivo tra esperti del settore, ricercatori, operatori e stakeholder, al fine di individuare soluzioni condivise e strategie efficaci per garantire la sicurezza dei sistemi di questo tipo presenti e futuri.

Il dibattito sulla sicurezza dell’intelligenza artificiale rappresenta una sfida complessa e multidimensionale, che richiede un’analisi approfondita delle reali capacità e implicazioni dei sistemi di AI, al di là dei numeri di versione o delle posizioni polarizzate. Solo attraverso un dialogo aperto e cooperativo tra tutti gli stakeholder coinvolti sarà possibile individuare soluzioni condivise e strategie efficaci per affrontare le questioni legate alla sicurezza e all’etica in questo settore specifico.

Potrebbe interessarti anche: Ecco Wolverine, il programma che risolve i bug con l’intelligenza artificiale