Ogni notizia che riguarda l’intelligenza artificiale è destinata a dividere e far discutere. Un po’ perché sull’AI i pareri sono netti tra entusiasti e contrari, un po’ perché il suo utilizzo ha indubbiamente impatti che vanno valutati. È il caso di Wikipedia che, aggiornando delle proprie linee editoriali, ha deciso di vietare l’utilizzo degli LLM per scrivere o riscrivere i contenuti dell’enciclopedia. Alla base di questa decisione non c’è il rifiuto aprioristico dell’innovazione tecnologica, ma la consapevolezza dei suoi limiti e la volontà di preservare la credibilità di una piattaforma che per anni si è contraddistinta (al netto di alcune critiche) per la propria autorevolezza.

Offerta

La nuova policy

Con 40 voti favorevoli e soli 2 contrari la scorsa settimana è stata approvata la decisione che aggiorna e rafforza le linee guida editoriali della comunità di Wikipedia. Con questa revisione è stato stabilito in modo esplicito il divieto di impiegare i cosiddetti LLM (Large Language Model) per produrre o riformulare contenuti enciclopedici. La motivazione è legata al fatto che i testi generati da questi sistemi tendono a entrare in conflitto con alcuni dei principi fondamentali di Wikipedia, in particolare quelli legati alla verificabilità delle informazioni e all’affidabilità delle fonti.

Questa novità non è repentina, ma segue un orientamento consolidato. La vecchia formulazione stabiliva che gli LLM “non dovrebbero essere usati per generare nuovi articoli di Wikipedia da zero”. Una definizione che però lasciava un vuoto normativo significativo. La riscrittura di articoli esistenti o l’inserimento di paragrafi generati dall’AI in voci già consolidate non erano tecnicamente vietati. La nuova policy chiude definitivamente la questione.

Le eccezioni previste

La nuova policy, proprio a conferma dell’intento con cui si è arrivati a questa decisione, non è una chiusura totale all’intelligenza artificiale. Gli editor possono ancora usare gli LLM per suggerire correzioni di base al testo scritto in prima persona, a condizione che le modifiche vengano esaminate con attenzione e che il sistema non introduca nuove informazioni. Wikipedia avverte esplicitamente che gli LLM possono andare oltre quanto richiesto e alterare il significato del testo in modo non supportato dalle fonti citate. È consentito inoltre l’uso dell’AI per tradurre articoli da altre edizioni linguistiche verso l’inglese, purché l’editor verifichi il testo originale e segua le linee guida specifiche per la traduzione assistita.

Ogni modifica che incorpori testi creati con un LLM deve essere dichiarata, indicando il nome e, se possibile, la versione del modello utilizzato. Negare l’uso degli LLM quando si viene interrogati nel merito può portare a sanzioni.

Le conseguenze per chi non rispetta le regole non sono nuove, ma già esistenti. Un uso ripetuto di testi prodotti da modelli linguistici può configurare un comportamento definito “pattern of disruptive editing”, che può portare a un blocco o a un ban dell’account. È possibile avviare una procedura di appello per richiedere la revoca dei blocchi che possono essere rimossi con il consenso dell’amministratore che li ha disposti, oppure su iniziativa di altri amministratori nei casi in cui il provvedimento sia palesemente ingiustificato.

Allucinazioni e assenza di responsabilità

Il motivo per cui Wikipedia è arrivata a questa decisione non è nell’uso dell’AI in sé per la scrittura dei testi. La celebre enciclopedia è particolarmente attenta alla corretta rappresentazione di ciò che le fonti affidabili dichiarano su un dato argomento. I modelli linguistici hanno mostrato seri limiti proprio su questo fronte. È il problema delle cosiddette “allucinazioni” e del fatto che non è raro che l’AI pur di dare una risposta inventi da fonti inesistenti.

C’è poi una questione di responsabilità. I modelli di intelligenza artificiale non hanno nessuna forma di responsabilità rispetto a ciò che affermano. Gli esseri umani parlano e scrivono a partire da ciò che credono e di cui si fanno carico; i modelli linguistici invece generano sequenze di parole statisticamente plausibili, senza alcun ancoraggio a credenze, esperienze o conseguenze. Un aspetto che, in un progetto fondato sulla comunità e sulla responsabilità editoriale condivisa, non è trascurabile.

In un’analisi condotta dai ricercatori di Princeton, circa il 5% dei nuovi articoli esaminati in un campione mensile mostrava segni di creazione tramite AI, alcuni dei quali scritti per promuovere aziende o interessi specifici.

Un problema più ampio

La decisione di Wikipedia arriva in un momento di forte pressione per l’enciclopedia. Secondo dati della Wikimedia Foundation, le visite al sito da parte di utenti umani sono calate di circa l’8% anno su anno. Così come lamentano gli editori per la ricerca su Google, il traffico non arriva più sui siti perché le risposte vengono prodotte direttamente dai motori di ricerca AI e dai chatbot di intelligenza artificiale. Per questo Wikimedia Foundation aveva siglato accordi con alcune grandi aziende tecnologiche (tra cui Microsoft, Google, Amazon e Meta) per consentire l’utilizzo dei contenuti di Wikipedia attraverso il suo servizio commerciale Enterprise.

Il punto, quindi, non è l’uso dell’AI, ma il fatto che il suo utilizzo possa essere inutile o addirittura dannoso per gli utenti che leggono. Così come Google penalizza non i testi scritti con l’AI, bensì il suo uso manipolatorio, Wikipedia stabilisce il divieto del suo utilizzo per evitare problemi che minerebbero un progetto che vuole restare umano, verificabile e responsabile.

I nostri contenuti da non perdere: