Un’auto a guida autonoma procede lungo una strada bagnata. All’improvviso, un pedone attraversa fuori dalle strisce. Il veicolo ha due opzioni: sterzare, rischiando la vita del passeggero, o proseguire, colpendo il pedone. Non è un esperimento filosofico, ma una possibilità reale già contemplata nei protocolli di simulazione dei produttori. In pochi secondi o meglio, in millisecondi, una macchina dovrà “decidere” chi sacrificare. Ma può davvero parlare di scelta chi non conosce il senso del bene e del male?

La domanda non è più teorica: la chiamano machine ethics. È la branca della ricerca che studia come e se integrare principi morali nei sistemi autonomi. Non si tratta di discutere l’etica dell’uso dell’intelligenza artificiale, ma di qualcosa di più audace: immaginare un’etica nell’AI. Un codice capace non solo di seguire regole, ma di “comprendere” il valore delle conseguenze delle proprie azioni.

L’idea che una macchina possa agire moralmente ha una genealogia lunga, che va da Asimov alle linee guida del Parlamento Europeo. Ma la differenza tra programmare un comportamento corretto e insegnare a un sistema a riconoscere ciò che è giusto resta abissale. Le due principali correnti della machine ethics lo mostrano bene: la prima, di ispirazione deontologica, cerca di tradurre in codice regole fisse (“non nuocere all’essere umano”); la seconda, di impronta consequenzialista, tenta di far valutare alle macchine gli esiti possibili di un’azione per scegliere quello meno dannoso.

Possiamo insegnare la morale all'intelligenza artificiale? Il punto di snodo dell'etica nell'AI 1

In entrambi i casi, il problema è la semantica morale: la macchina non comprende, calcola. Come ha osservato Luciano Floridi, l’etica dell’intelligenza artificiale non può ridursi a un esercizio di compliance normativa, ma deve farsi soft ethics: un dialogo continuo tra ciò che la tecnologia permette e ciò che la società ritiene desiderabile. Nessun algoritmo può sostituire il giudizio, ma può, se ben progettato, orientarlo verso la responsabilità condivisa.

Alcuni ricercatori hanno parlato di illusione di moralità: la tendenza a confondere la coerenza logica di una decisione automatica con il suo valore etico. È la stessa ambiguità che si produce quando un modello linguistico “spiega” le proprie risposte: ciò che percepiamo come intenzione è in realtà pattern statistico. Le intelligenze artificiali, da data2vec di Meta AI ai modelli multimodali che integrano testo, immagine e linguaggio, stanno diventando straordinariamente capaci di inferire contesti, ma non di interiorizzare valori.

Il rischio è costruire sistemi che simulano la moralità anziché praticarla, algoritmi virtuosi in apparenza ma ciechi nel significato. Come ricorda Shannon Vallor, autrice di Technology and the Virtues (Oxford University Press, 2016), la vera sfida non è replicare le virtù umane, ma creare ambienti in cui tali virtù possano fiorire. È una prospettiva che ribalta l’idea stessa di etica artificiale: non più insegnare alle macchine la morale, ma insegnare a noi stessi a convivere eticamente con le macchine.

Bernd C. Stahl, in Artificial Intelligence for a Better Future (Springer, 2021), propone di guardare all’etica dell’AI come a un ecosistema di relazioni tra umani, istituzioni e tecnologie. La domanda corretta, secondo lui, non è “come rendere etiche le macchine”, ma “come progettare sistemi che contribuiscano al human flourishing”, il pieno sviluppo umano e sociale. In questa prospettiva, l’etica non è un modulo aggiuntivo, ma l’architettura stessa del sistema.

Possiamo insegnare la morale all'intelligenza artificiale? Il punto di snodo dell'etica nell'AI 2

Ogni dataset, ogni parametro, ogni funzione di perdita racchiude scelte normative. Stabilire cosa ottimizzare significa già decidere cosa conta. L’AI Act dell’Unione Europea — insieme alle linee guida della High-Level Expert Group on AI (2019) — tenta di tradurre questo principio in governance: un’etica di progetto, preventiva, che precede l’uso. La machine ethics, allora, diventa anche una pedagogia civile: educare progettisti e cittadini a riconoscere il peso morale del codice. Perché se la macchina non ha coscienza, chi la costruisce ne ha una inesorabile.

Alla fine, il problema non è se un algoritmo possa diventare morale, ma se noi sapremo restare tali nell’era degli algoritmi. La tentazione di delegare alla macchina la fatica della scelta, quella sottile vertigine tra ragione e responsabilità, è forse il vero pericolo. L’AI non avrà mai una coscienza, ma può costringerci a interrogarci sulla nostra. Insegnarle la morale significa, in fondo, ricordare la nostra. E comprendere che, in un mondo di sistemi che imparano, l’unico limite davvero etico resta quello che siamo disposti a non oltrepassare.

AI, etica e futuro digitale: una rubrica di Giovanni Di Trapani

L’intelligenza artificiale è ormai ovunque: nei motori di ricerca, nei social, nei software che usiamo per lavorare, curarci, decidere. Ma siamo davvero pronti a convivere con algoritmi che imparano, decidono, ci osservano?

Questa rubrica nasce per esplorare, con uno sguardo critico e accessibile, le sfide etiche e sociali dell’AI: dalle discriminazioni nei dati al lavoro che cambia, dalla creatività generativa alla privacy, fino al ruolo dell’umano in un mondo sempre più automatizzato.
Ogni settimana, un breve approfondimento per capire meglio cosa c’è dietro la tecnologia che ci cambia. E per iniziare a domandarci, tutti: dove vogliamo andare?

Puoi seguire la rubrica mettendo fra i preferiti la pagina che raccoglierà le varie puntate: Etica AI, oppure se utilizzi un aggregatore di notizie aggiungendo il Feed RSS di TuttoTech o più nello specifico il Feed RSS della rubrica Etica e AI.

Giovanni Di Trapani, ricercatore del CNR, economista, statitstico ed autore. Si occupa di innovazione, governance pubblica e futuro digitale. Gestisce il sito AIgnosi.it