Nel contesto attuale, in cui i modelli di intelligenza artificiale sono integrati in sistemi critici – dalla diagnostica medica alla gestione del credito, dai veicoli autonomi alla pubblicità personalizzata – l’interrogativo su chi debba rispondere in caso di errore non è più retorico. È una questione strutturale che tocca i fondamenti dell’AI governance. Le architetture AI contemporanee, in particolare quelle basate su deep learning e modelli autoregressivi di tipo transformer, operano come black box, generando output che risultano spesso opachi anche per chi ha progettato il modello. L’efficacia statistica non equivale a comprensibilità causale. Da qui l’urgenza di definire meccanismi di accountability coerenti con l’asimmetria crescente tra capacità predittiva e intelligibilità.

Nel ciclo di vita di un sistema AI, dal data curation al fine-tuning, intervengono molteplici attori: team di sviluppo, fornitori di dataset, integratori di API, responsabili del deployment e utilizzatori finali. A fronte di questa complessità, la classica distinzione tra “autore” e “utente” si sfalda. La responsabilità, in questi casi, è necessariamente distribuita e multilivello. Un esempio emblematico è l’algoritmo COMPAS per la valutazione del rischio di recidiva: utilizzato nel sistema giudiziario statunitense, ha dimostrato bias sistemici contro le minoranze. Il problema non era nel codice in sé, ma nei dati e nei criteri di ottimizzazione.

Chi doveva rispondere? Il vendor? Il giudice? L’autorità pubblica che ha adottato il sistema? In ambito europeo, l’AI Act classifica i sistemi ad “alto rischio” (tra cui AI per sanità, giustizia, lavoro, istruzione e finanza) e introduce requisiti rigorosi: tracciabilità dei dataset, documentazione dei modelli, supervisione umana obbligatoria e meccanismi di explainability. Ma è sufficiente?

Un tema chiave, oggi, è la spiegabilità dei modelli: quanto è lecito delegare decisioni a sistemi che non possiamo interrogare con chiarezza? Il problema non è solo etico, ma tecnico. Modelli come GPT-4 o PaLM 2 generano output plausibili e coerenti, ma spesso senza un grounding semantico verificabile. Le tecniche post-hoc, come LIME o SHAP, cercano di ricostruire logiche locali, ma non risolvono il nodo strutturale dell’opacità. L’alternativa è sviluppare modelli interpretabili by design, sacrificando parte della performance predittiva a favore della trasparenza. Ma questa scelta ha costi operativi ed è raramente praticata nel settore privato, dove l’efficienza scalabile prevale sul principio di accountability.

Governare l’AI prima che ci governi: chi paga il prezzo degli errori algoritmici 1

Alcuni casi emblematici mostrano con chiarezza come il tema della responsabilità algoritmica non sia solo teorico, ma abbia ricadute dirette sulla vita delle persone. Il sistema Autopilot di Tesla, ad esempio, è stato coinvolto in incidenti mortali dove l’ambiguità del ruolo umano, supervisionare ma non guidare, ha sollevato interrogativi su dove finisce il dovere del conducente e dove inizia quello del sistema. Il software, basato su deep learning e visione artificiale, non è in grado di garantire una situational awareness equivalente a quella umana, ma viene percepito come “intelligente” e affidabile. Questo mismatch tra capacità reale e rappresentazione pubblica solleva una questione di accountability cognitiva: la responsabilità ricade anche su come viene comunicato il funzionamento dell’AI.

Nel mondo enterprise, piattaforme come Palantir Gotham sono utilizzate per decisioni ad alto impatto sociale: analisi predittive in ambito sicurezza, intelligence, gestione emergenze. Tuttavia, l’opacità dell’architettura software e la riservatezza dei dataset impediscono ogni forma di audit indipendente. Senza trasparenza operativa, è impossibile stabilire chi debba rispondere di un errore predittivo che incide su diritti fondamentali, come l’arresto di una persona innocente o la profilazione indebita di una popolazione.

Infine, l’esplosione degli LLM come GPT-4, Claude o Gemini ha introdotto un nuovo livello di ambiguità decisionale: questi sistemi sono in grado di generare suggerimenti, risposte e soluzioni che vengono percepiti come “consigli esperti”, ma che non derivano da processi razionali, bensì da correlazioni probabilistiche su larga scala. In scenari come l’assistenza legale automatizzata o la generazione di report medici, il rischio è quello di attribuire un’autorità cognitiva a un sistema che non ha né consapevolezza né garanzie epistemiche. L’uso di LLM nei processi decisionali richiede pertanto un modello di responsabilità che consideri il confine sfumato tra automazione e influenza, tra supporto e delega.

Nel contesto di sistemi autonomi e AI-as-a-Service, l’attribuzione della colpa richiede nuovi strumenti concettuali. Il principio di responsabilità computazionale propone un approccio orientato alla causalità sistemica, in cui si valuta la catena decisionale end-to-end – non solo il codice, ma anche le metriche di performance, i criteri di reward nei modelli RLHF, le policy di controllo degli accessi e i livelli di auditabilità. Alcuni framework iniziano a formalizzare questo approccio. Il NIST AI Risk Management Framework (USA) e le Linee guida ISO/IEC 23894 propongono sistemi di gestione del rischio AI fondati su responsabilità trasversali. In ambito open source, progetti come Model Cards e Data Sheets for Datasets cercano di rendere trasparenti le scelte che informano la progettazione degli algoritmi.

Governare l’AI prima che ci governi: chi paga il prezzo degli errori algoritmici 2

L’obiettivo, quindi, non è (solo) punire gli errori, ma costruire un ecosistema AI che sia verificabile, auditabile e socialmente legittimo. In un contesto dove gli algoritmi partecipano attivamente a processi decisionali che riguardano salute, libertà, diritti e opportunità, non basta affidarci all’efficienza tecnica o alla performance predittiva. La fiducia nei sistemi automatizzati non può fondarsi su un atto di fede, ma su metriche condivise di responsabilità, trasparenza, tracciabilità e controllo umano significativo.

In una parola: governance. Intesa non solo come regolamentazione normativa, ma come infrastruttura operativa ed etica, capace di integrare competenze tecniche, giuridiche e sociali. Costruire fiducia richiede tempo, ma soprattutto meccanismi di accountability robusti e riconoscibili. Significa sapere chi ha progettato cosa, con quali dati, per quali obiettivi, e con quale margine di errore. Finché non sapremo rispondere in modo chiaro alla domanda “chi risponde?”, ogni decisione algoritmica rischierà di sfociare in una terra di nessuno, dove il potere decisionale è esercitato senza responsabilità e la complessità tecnica diventa uno scudo contro l’attribuzione della colpa. Una terra in cui la tecnologia anticipa la legge, ma non può sostituirla. E in cui il rischio più grande non è l’errore dell’AI, ma l’assenza di strumenti per riconoscerlo, correggerlo e, soprattutto, assumerlo.

AI, etica e futuro digitale: una rubrica di Giovanni Di Trapani

L’intelligenza artificiale è ormai ovunque: nei motori di ricerca, nei social, nei software che usiamo per lavorare, curarci, decidere. Ma siamo davvero pronti a convivere con algoritmi che imparano, decidono, ci osservano?

Questa rubrica nasce per esplorare, con uno sguardo critico e accessibile, le sfide etiche e sociali dell’AI: dalle discriminazioni nei dati al lavoro che cambia, dalla creatività generativa alla privacy, fino al ruolo dell’umano in un mondo sempre più automatizzato.
Ogni settimana, un breve approfondimento per capire meglio cosa c’è dietro la tecnologia che ci cambia. E per iniziare a domandarci, tutti: dove vogliamo andare?

Puoi seguire la rubrica mettendo fra i preferiti la pagina che raccoglierà le varie puntate: Etica AI, oppure se utilizzi un aggregatore di notizie aggiungendo il Feed RSS di TuttoTech o più nello specifico il Feed RSS della rubrica Etica e AI.

Giovanni Di Trapani, ricercatore del CNR, economista, statitstico ed autore. Si occupa di innovazione, governance pubblica e futuro digitale. Gestisce il sito AIgnosi.it