Digitiamo una domanda su Google e invece di una lista di link ci arriva una risposta già pronta, esaustiva, scritta dall’intelligenza artificiale, quella che a Mountain View hanno deciso di chiamare AI Mode. Comodo, certo ma cosa succede ai giornali, alle fonti, al nostro diritto di sapere da dove provengono quelle informazioni?

È questa, in estrema sintesi, la domanda che ha messo in moto un confronto sempre più acceso tra le autorità di regolamentazione europee e il colosso americano. E per una volta l’Italia non rimane a guardare. Nel corso del convegno “Epistemia – conoscenza, AI e società”, svoltosi il 18 febbraio alla Sapienza di Roma, il presidente AGCOM, Giacomo Lasorella, ha annunciato che l’autorità è pronta a presentare una segnalazione formale alla Commissione Europea sull’AI Mode di Google.

Il rischio, come sostiene Lasorella, è quello che cercando informazioni con questa modalità si smetta di leggere i giornali, con una conseguente compressione della libertà informatica e del diritto dei cittadini di accedere a più fonti. diritto peraltro sancito dall’articolo 3 dell’European Freedom Act.

Offerta

Apple iPhone Air 256 GB

899€ invece di 1239€
-27%

Cos’è l’AI Mode

Per capire di cosa stiamo parlando, facciamo un passo indietro. Google ha introdotto questa tecnologia inizialmente come Search Generative Experience nel 2024, per lanciarla ufficialmente in Italia nel marzo 2025. La versione più evoluta, l’AI Mode, permette una ricerca conversazionale avanzata: la domanda dell’utente viene scomposta in sotto-domande simultanee che esplorano il web da più angolazioni, mentre i collegamenti alle fonti vengono spostati in una colonna laterale e la parte centrale della pagina mostra una risposta già elaborata, che spesso rende superfluo cliccare sui link originali.

In pratica, prima cercavamo “migliore cura per l’insonnia” e Google ci mostrava dieci siti da cui avremmo potuto trovare una risposta. Oggi ce la dà direttamente, costruita attingendo a quegli stessi siti, senza che sia necessario aprirli. Per noi utenti è più rapido. Per chi ha scritto quegli articoli, è un problema esistenziale.

Gli editori italiani lo hanno capito prima di molti altri. La Federazione Italiana Editori Giornali (Fieg) ha presentato un reclamo all’AGCOM definendo Google un “traffic killer” che sottrae lettori e ricavi alle testate, chiedendo che la Commissione europea apra un procedimento formale ai sensi del Digital Services Act. L’iniziativa non è isolata: a livello europeo, anche l’associazione degli editori ENPA ha mosso analoghe contestazioni presso i regolatori degli altri Paesi membri, e la Germania si era già mossa in questa direzione.

Chi decide cosa dobbiamo sapere?

Al convegno della Sapienza si è consumato anche un confronto diretto tra AGCOM e Google. Diego Ciulli, responsabile degli affari governativi di Google Italia, ha risposto che AI Overview e AI Mode rappresentano una naturale evoluzione del motore di ricerca, che migliorano il modo di fare ricerca senza compromettere l’accesso all’informazione, e che sarebbe preoccupante se le persone smettessero di leggere i giornali a causa dell’IA. Una risposta difensiva, ma non del tutto priva di logica: Google sostiene che le sue funzioni AI citano sempre le fonti e che spetta a noi utenti decidere se approfondire.

Il problema, però, va ben oltre il semplice calo del traffico sui siti di informazione. Il pericolo reale è che l’intelligenza artificiale diventi l’unico filtro tra noi e la realtà: se ci fermiamo alla sintesi dell’algoritmo, smettiamo di consultare fonti diverse e perdiamo quella pluralità di punti di vista che è alla base di qualsiasi scelta davvero informata. C’è anche un tema di responsabilità che non possiamo ignorare: quando l’AI sintetizza male, o seleziona in modo distorto, chi risponde dell’errore? Non c’è una firma, non c’è un direttore responsabile, non c’è un obbligo di rettifica, tipico invece di un giornale, anche online.

Al convegno romano la vicepresidente della Camera Anna Ascani ha sollevato un altro punto che vale la pena tenere a mente: l’illusione di conoscenza generata dall’IA impatta sulla formazione dell’opinione pubblica e, in ultima analisi, sulla democrazia stessa. È il fenomeno che gli studiosi chiamano “epistemia”: la sensazione di sapere tutto perché una macchina ci ha consegnato una risposta, senza che ci si sia mai confrontati con il ragionamento, le sfumature, le fonti contraddittorie che rendono quell’informazione degna di fiducia.

Nonostante esista un quadro normativo a livello europeo, la sua applicazione non è così semplice. Lo stesso Lasorella ha riconosciuto l’esistenza di complessità molto evidenti e che affrontarle richiede un dialogo costante tra istituzioni, ricercatori e regolatori. La partita è appena cominciata e il risultato non riguarda solo i giornali, online e non. Riguarda anche il nostro diritto, nonché la nostra capacità, di distinguere una informazione reale da una risposta preconfezionata.