Lo sviluppo delle tecnologie di intelligenza artificiale applicate ai molti ambiti della tecnologia moderna (come la medicina e la sicurezza) è inarrestabile ma, attraverso il lancio di linee guide, l’Unione Europea vuole che il tutto avvenga nel massimo rispetto dell’etica.

Intelligenza artificiale

Secondo l’Unione Europea, le intelligenze artificiali dovrebbero aderire ai principi etici di base del rispetto per l’autonomia umana, la prevenzione del danno, l’equità e la responsabilità.

Le linee guida includono sette requisiti – elencati di seguito – e richiedono particolare attenzione alla protezione di gruppi vulnerabili, come bambini e persone con disabilità. Dichiarano anche che i cittadini dovrebbero avere il pieno controllo dei loro dati. La Commissione Europea raccomanda di utilizzare un elenco di valutazione quando si sviluppa o si distribuisce un servizio che trae beneficio di un qualche tipo di intelligenza artificiale. Tuttavia, le linee guida non intendono essere – o interferire con – politiche o regolamenti. Invece, offrono una struttura allentata.

Intelligenza artificiale

Quest’estate, la Commissione collaborerà con le parti interessate per identificare le aree in cui potrebbero essere necessari ulteriori orientamenti e capire come attuare e verificare al meglio le sue raccomandazioni.

All’inizio del 2020, il gruppo di esperti incorporerà il feedback dalla fase pilota. Man mano che sviluppiamo il potenziale per costruire cose come armi autonome e algoritmi per intercettare le fake news, è probabile che più governi prenderanno posizione sulle preoccupazioni etiche che l’IA porta in tavola.

Fra i punti principali che fanno parte delle linee guida troviamo:

  • Agenzia e supervisione umana: i sistemi di intelligenza artificiale dovrebbero consentire società equa sostenendo l’agenzia umana e i diritti fondamentali, e non diminuire, limitare o fuorviare l’autonomia umana.
  • Robustezza e sicurezza: l’IA affidabile richiede che gli algoritmi siano sicuri, affidabili e robusti per affrontare errori o incoerenze durante tutte le fasi del ciclo di vita dei sistemi di intelligenza artificiale.
  • Privacy e governance dei dati: i cittadini dovrebbero avere il pieno controllo dei propri dati (qua entra in gioco il GDPR), mentre i dati che li riguardano non saranno utilizzati per danneggiarli o discriminarli.
  • Trasparenza: la tracciabilità dei sistemi di intelligenza artificiale dovrebbe essere garantita.
  • Diversità, non discriminazione ed equità: i sistemi di intelligenza artificiale dovrebbero considerare l’intera gamma di capacità, abilità e requisiti umani e garantire l’accessibilità a tutti, senza alcuna distinzione o pregiudizio proveniente dagli algoritmi.
  • Benessere sociale e ambientale: i sistemi di intelligenza artificiale dovrebbero essere utilizzati per migliorare i cambiamenti sociali positivi e migliorare la sostenibilità e la responsabilità ecologica.
  • Responsabilità: i meccanismi dovrebbero essere messi in atto per garantire la responsabilità per i sistemi di IA e i loro risultati.