Frontier Model Forum è il nuovo ente di Google, Microsoft, OpenAI e Anthropic nato nella giornata di oggi per promuovere lo sviluppo sicuro e responsabile dei modelli di intelligenza artificiale. Si tratta di un tema particolarmente importante considerando il recente impatto delle soluzioni IA, non soltanto a livello aziendale, ma anche per le persone comuni; e lo dimostrano sia gli interventi delle singole società produttrici che degli stessi governi e istituzioni, già da mesi impegnate a ideare delle misure per regolamentarne l’utilizzo. Dal successo di ChatGPT ad oggi, l’intelligenza artificiale e le sue molteplici diramazioni sono diventate questioni comuni, e fornire agli utenti determinate tutele, assicurare un approccio trasparente e in linea con determinati principi, è ormai cruciale.

Cos’è e cosa farà il Frontier Model Forum di Google, Microsoft, OpenAI e Anthropic

Si posiziona dunque in un contesto difficile il Frontier Model Forum, soprattutto alla luce dell’urgenza di mettere sul tavolo determinate norme per rendere più sicuri e a norma di legge i modelli di intelligenza artificiale, urgenza provata ad esempio dall’intervento del Garante della Privacy italiano contro ChatGPT e dagli stessi ritardi della disponibilità europea di Google Bard.

Entrambe le aziende madri di questi servizi, OpenAI e Google, sono infatti promotrici dell’iniziativa in questione che ha fra i suoi obiettivi principali la volontà di potenziare la ricerca nel tema della sicurezza delle IA, di identificare delle pratiche per uno sviluppo responsabile e di impegnarsi nel creare applicazioni e soluzioni che possano essere d’aiuto per far fronte alle più importanti sfide della società. Questo con la collaborazione di esponenti politici e accademici, di aziende terze, ma anche attingendo direttamente alle competenze tecniche delle stesse aziende associate, protagoniste nel campo dell’intelligenza artificiale.

Ma cosa faranno? Nel comunicato stampa relativo si legge che Google, Microsoft, OpenAI e Anthropic, con questa iniziativa, concentreranno gli sforzi su queste aree chiave nel corso del prossimo anno:

  • promuovere e facilitare la condivisione delle conoscenze fra industrie, governi, società e mondo accademico soprattutto riguardo i temi legati alla sicurezza, per mitigare un ampio spettro di rischi potenziali delle soluzioni IA;
  • coordinare la ricerca, lo sviluppo e la condivisione di una biblioteca pubblica di valutazioni tecniche e benchmark per i modelli di IA.

Nei prossimi mesi il Frontier Model Forum istituirà un comitato consultivo che ne predisporrà strategie e priorità, con le società fondatrici (Google, Microsoft, OpenAI e Anthropic) che stabiliranno poi degli accordi istituzionali, creeranno uno statuto e organizzeranno il tutto, per istituire un ente che possa essere prezioso per le aziende e per i consumatori stessi.

Il Frontier Model Forum è in ogni caso aperto a nuove adesioni da parte di organizzazioni che si occupano di sviluppare e implementare modelli di IA, dimostrano di sposare gli stessi principi di responsabilizzazione promossi dal Forum e, beninteso, di voler contribuire sostenendo lo sviluppo e il funzionamento dell’iniziativa.

“Siamo entusiasti di lavorare insieme ad altre aziende leader condividendo competenze tecniche per promuovere un’IA responsabile. Dovremo lavorare tutti insieme per assicurarci che l’intelligenza artificiale sia vantaggiosa per tutti” ha detto Kent Walker, presidente Global Affairs di Google & Alphabet.

Potrebbero interessarti anche: La legge europea sull’intelligenza artificiale prende forma e Google annuncia tante novità per Bard che arriva in Europa, Italia inclusa