Google ha apportato alcune importanti modifiche alla propria policy sull’intelligenza artificiale. Su tutte, quella che ha maggiormente catturato l’attenzione del Washington Post e di Bloomberg (che per primi hanno notato il cambiamento) è la rimozione delle promesse formulate nel 2018, secondo cui non avrebbe mai progettato o implementato strumenti IA per l’utilizzo di armi o tecnologie di sorveglianza.

Contrariamente agli auspici dell’epoca, confermati fino alla scorsa settimana, ora nei principi di utilizzo dell’intelligenza artificiale di Google trova spazio una sezione dedicata a Sviluppo e implementazione responsabili, in cui Big G afferma che implementerà dei meccanismi di supervisione umana, due diligence e feedback per allinearsi agli obiettivi degli utenti, alla responsabilità sociale e ai principi ampiamente accettati del diritto internazionale e dei diritti umani.

In buona sostanza, si tratta di un impegno molto più ampio e strutturato di quello che era stato assunto in precedenza da Google. Per quanto riguarda il suo richiamo al mondo delle armi, l’azienda aveva precedentemente dichiarato che non avrebbe progettato l’IA per usarla in armi o altre tecnologie il cui scopo principale o la cui implementazione fosse causare o facilitare direttamente lesioni alle persone.

Per quanto invece attiene gli strumenti di sorveglianza dell’intelligenza artificiale, dichiarava che non avrebbe sviluppato tecnologie che violino norme accettate a livello internazionale.

Le risposte di Google alle domande degli analisti

A domandarsi per quale motivo la società statunitense abbia cambiato il proprio approccio ci ha pensato Engadget, che ha chiesto maggiori informazioni a Google. Un portavoce in risposta ha pubblicato un post che era stato diffuso la scorsa settimana sul sito dell’azienda, in cui l’amministratore delegato di DeepMind Demis Hassabis e James Manyika, vicepresidente senior per la ricerca, i laboratori, la tecnologia e la società di Google, affermavano che l’emergere dell’IA come tecnologia di uso generale abbia reso necessario un cambiamento di policy.

Nelle loro dichiarazioni, i due hanno condiviso come le democrazie devono essere leader nello sviluppo dell’IA e che aziende, governi e organizzazioni che condividono questi valori devono lavorare insieme per creare un’intelligenza artificiale che protegga le persone, promuova la crescita globale e sostenga la sicurezza nazionale.

Ha domandato maggiori chiarimenti anche TechCrunch e, anche in questo caso, l’azienda ha rimandato a un post sul proprio blog intitolato IA responsabile.

Insomma, emerge un chiaro cambio di rotta che però non dovrebbe stupire i più attenti. Già negli ultimi anni l’azienda ha stretto diversi contratti per la fornitura di servizi cloud agli eserciti statunitense e israeliano, scatenando peraltro importanti proteste da parte dei propri dipendenti, preoccupati per l’uso etico della tecnologia.

Aver manifestato in modo così chiaro la possibilità di usare l’IA anche per la sicurezza, lascia intendere che con ogni probabilità Google ha intenzione di collaborare in modo più intenso con il settore della difesa, rimanendo competitiva in un mercato in cui altri operatori come Amazon e Microsoft sono peraltro coinvolti attivamente.