Sam Altman, CEO di OpenAI, la società che ha creato ChatGPT, ha già avvertito del rischio di eventi catastrofici causati dall’intelligenza artificiale, affermando che è necessario regolamentare il settore.

Per mitigare questa possibilità OpenAI ha annunciato che sta formando un nuovo team che traccerà, valuterà, prevederà e proteggerà l’umanità dalle minacce associate all’intelligenza artificiale.

Il team si occuperà di evitare minacce nucleari, chimiche, biologiche e radiologiche e la replicazione autonoma di un’intelligenza artificiale, eventi che potrebbero portare a scenari catastrofici.

Alcuni degli altri rischi che il team affronterà includono la capacità dell’intelligenza artificiale di ingannare gli esseri umani, nonché le minacce alla sicurezza informatica.

L’intelligenza artificiale è uno strumento utile, ma anche pericoloso

OpenAI crede che l’IA abbia il potenziale per apportare benefici a tutta l’umanità, tuttavia afferma che mano a mano che si evolverà comporterà anche minacce sempre più grandi.

In quest’ottica il team preposto delineerà ciò che l’azienda sta facendo per valutare e monitorare i potenziali rischi associati ai modelli di intelligenza artificiale.

Al timone del team ci sarà Aleksander Madry, attualmente in congedo dal suo ruolo di direttore del Center for Deployable Machine Learning del MIT.

Potrebbe interessarti: Intel vuole portare l’intelligenza artificiale su 100 milioni di PC entro due anni