Da qualche mese a questa parte quasi non si parla d’altro, l’intelligenza artificiale ha monopolizzato buona parte delle notizie che vengono riportate dalle testate giornalistiche del settore tecnologico, noi compresi.

In diverse occasioni infatti, sulle nostre pagine, vi abbiamo riportato notizie differenti sui vari traguardi ed implementazioni di questa nuova tecnologia. Non è tutto oro quello che luccica però e, come in altre occasioni, c’è chi esprime riluttanza nei confronti delle AI, chiedendo a gran voce che il loro utilizzo venga adeguatamente regolamentato.

Migliaia di esperti chiedono uno stop di sei mesi allo sviluppo di sistemi di intelligenza artificiale più potenti di GPT-4

Circa un paio di settimane fa abbiamo assistito al lancio di quella che può essere considerata l’ultima evoluzione, in ordine di tempo, dell’intelligenza artificiale; OpenAI ha infatti presentato GPT-4, la versione perfezionata del linguaggio di intelligenza artificiale che muove ChatGPT e il nuovo Bing AI di Microsoft.

Considerando che, rispetto alla precedente generazione, i miglioramenti sono notevoli, c’è già chi guarda con una certa preoccupazione alle future versioni; è il caso di oltre 1.000 esperti che, con una lettera aperta pubblicata dal Future of Life Institute, chiedono di fermare lo sviluppo di intelligenze artificiali più potenti di GPT-4 per almeno sei mesi.

Tra i firmatari della lettera sopra citata figurano esponenti di spicco del mondo tecnologico e accademico, tanto per fare qualche esempio c’è Elon Musk, Steve Wozniak, co-founder di Apple, Jaan Tallinn, co-founder di Skype, Emad Mostaque, ceo di Stability, oltre a esperti di intelligenza artificiale come Yoshua Bengio e Stuart Russell.

Gary Marcus, professore emerito della New York University tra i firmatari della lettera, ha dichiarato:

La lettera non è perfetta, ma lo spirito è quello giusto. Dobbiamo rallentare fino a quando non avremo compreso meglio le implicazioni. I grandi operatori stanno diventando sempre più riservati su ciò che fanno, il che rende difficile per la società difendersi da qualsiasi danno possa materializzarsi.

I dubbi condivisi rimandano dunque ad una richiesta di implementazione e verifica di protocolli di sicurezza condivisi, invitando gli sviluppatori a collaborare con i politici in materia di governance e regolamentazione.

Ad unirsi al coro anche la polizia europea, l’Europol infatti ha manifestato le proprie preoccupazioni riguardo all’utilizzo dell’intelligenza artificiale in pratiche di phishing, disinformazione e criminalità informatica, cose in parte già avvenute.

Entro l’anno potrebbe essere pronto GPT-5 e non sarà possibile distinguerlo da un essere umano

Le preoccupazioni sopra esposte guardano al futuro, se attualmente infatti ci sono comunque metodi per identificare quanto prodotto dall’intelligenza artificiale, in futuro potrebbe non essere più così; stando a quanto riportato su Twitter dallo sviluppatore Siqi Chen, entro dicembre GPT-5 dovrebbe essere pronto.

A destare i timori e le preoccupazioni della comunità tecnologica è principalmente il fatto che GPT-5 rappresenterà un enorme traguardo per l’intelligenza artificiale, essa potrebbe diventare completamente indistinguibile da un essere umano, raggiungendo l’intelligenza generale artificiale (AGI).

Nessuno è realmente in grado, al momento, di comprendere o immaginare cosa sarebbe in grado di fare l’AGI, visto che sarà certamente capace di superare, senza troppi problemi, le capacità della mente umana nell’elaborazione dei dati e nella generazione di contenuti. Una volta che l’intelligenza artificiale raggiungerà l’AGI, sarà simile a un essere umano quando si tratta di comprendere concetti e compiti, dandogli la possibilità di ragionare e parlare come un essere umano.

Insomma al momento ci si limita ad una serie di congetture, lo sviluppo di questa tecnologia porterà con sé sicuramente tutta una serie di benefici, ma anche diversi aspetti negativi che attualmente magari nemmeno immaginiamo; è proprio questo il motivo per cui servono, anche con una certa urgenza, regole ben chiare e appositi protocolli di sicurezza. Non siamo ancora arrivati al punto di dover temere Skynet, ma forse, prima o poi, la fantascienza potrebbe entrare con arroganza nelle nostre vite, meglio avere gli strumenti adatti per non farle prendere il totale controllo.

Potrebbe interessarti anche: L’intelligenza artificiale sarebbe utile nella sanità, per il creatore di ChatGPT