Di ChatGPT si è parlato moltissimo nel corso delle ultime settimane, anche per le notizie che vorrebbero Microsoft interessata alla sua acquisizione. Il chatbox di OpenAI è in grado di evidenziare caratteristiche tali da farne una sorta di finestra sul futuro e come tale ha fatto molto parlare gli esperti di intelligenza artificiale e non solo. Ora però iniziano a farsi largo anche alcuni aspetti abbastanza problematici sul suo utilizzo e anche sulle modalità che gli hanno permesso di raggiungere un livello di operatività effettivamente straordinario.

ChatGPT: l’inchiesta di Time svela aspetti eticamente discutibili

A seminare dubbi sulle modalità dei lavori che hanno permesso a ChatGPT di conseguire i livelli operativi che hanno sollevato un certo stupore tra gli addetti ai lavori è stata un’inchiesta condotta da Time. L’estensore dell’articolo ha infatti ricordato come il risultato in questione sia stato raggiunto grazie ad un lavoro preparatorio straordinario, reso necessario dal fatto che il predecessore di ChatGPT, GPT-3, era già riuscito a raggiungere un’impressionante capacità di mettere insieme le frasi e dargli un senso compiuto.

Il suo linguaggio, però, era risultato largamente pregiudicato dalla pericolosa inclinazione a lanciare commenti violenti, sessisti e razzisti. Ovvero quelli che caratterizzano in lungo e in largo il web, i quali non hanno mancato di inquinare pesantemente il linguaggio di GPT-3, sino a renderne impossibile l’utilizzo senza un intervento su questo campionario di bestialità.

Per arrivarci, però, era necessario un lavoro straordinario. Basti pensare che per riuscire a formare un set di dati effettivamente utili e politicamente corretti per l’addestramento del bot una squadra composta da centinaia di esseri umani avrebbe impiegato decenni per riuscire ad esaminare manualmente l’enorme set di dati. Si è quindi reso necessaria la costruzione di un ulteriore meccanismo di sicurezza per fare in modo che ChatGPT non cadesse vittima degli stessi problemi. L’eliminazione di questi problemi, però, è stata condotta con modalità non proprio etiche.

L’ombra dello sfruttamento dietro ChatGPT

Per riuscire a costruire il sistema di sicurezza necessario, OpenAI ha deciso di adottare un modus operandi simile a quello utilizzato in precedenza da Facebook e altri social media. In pratica si è pensato di allenare il chatbot e abituarlo a riconoscere tutti gli abusi linguistici che hanno luogo ogni giorno in rete. Il rilevatore che ne sarebbe conseguito sarebbe stato integrato in ChatGPT nel preciso intento di verificare se era in grado di capire la tossicità di questi dati e filtrarli evitando che potessero raggiungere l’utente.

Per farlo, OpenAI si è rivolto nel novembre del 2021 ad una società di San Francisco, Sama, che è solita utilizzare lavoratori in Kenya, Uganda e India nel preciso intento di  analizzare dati dopo aver raccolto commesse di aziende come Meta, Google e Microsoft.

Sama è solita presentarsi come un’azienda operante nel settore dell’intelligenza artificiale etica. Grazie ad essa, sempre naturalmente in base al suo modo di presentarsi verso l’esterno, l’azienda avrebbe aiutato non meno di 50mila persone ad uscire da uno stato di indigenza.

Al biglietto da visita per l’esterno, però, non corrispondeva la pratica di ogni giorno. I lavoratori in questione, infatti, per portare avanti il lavoro di analisi dei dati ricevono paghe orarie tra 1,32 e 2 dollari. Le variazioni dipendono dallo stato di anzianità lavorativa e dalle prestazioni nell’ambito della funzione ricoperta. A scoprirlo è stato proprio Time, dopo aver esaminato documenti dell’azienda e buste paga. Un lavoro cui si sono aggiunte le interviste a quattro dei lavoratori interessati, che per confidare quanto accaduto hanno preteso l’anonimato, temendo con tutta evidenza ripercussioni lavorative.

Naturalmente, una volta scoperta la cruda realtà, consistente in paghe bassissime e conseguenze psicologiche gravissime per gli interessati, è partita la corsa a cercare di capire cosa sia effettivamente successo, anche se in fondo è una storia ormai risaputa: molte aziende abituate a presentare fatturati e guadagni miliardari, non si fanno eccessivo scrupolo a utilizzare forza lavoro dislocata nel Sud del mondo, spesso per un piatto di lenticchie o poco più.

La reazione di OpenAI

Per quanto riguarda OpenAI, l’azienda ha tenuto a precisare che l’accordo stilato con Sama prevedeva una tariffa oraria di 12,50 dollari per ogni lavoratore. Inoltre, non aveva indicato alcun obiettivo in termini di produttività. Ne consegue che Sama era responsabile sia per la gestione dei pagamenti che per quanto concerne la necessità di tutelare il benessere psicologico dei lavoratori interessati.

L’epilogo della storia è poi arrivato nel febbraio del 2022, quando Sama ha deciso di terminare il rapporto con OpenAI. I lavoratori dell’azienda hanno riferito a Time di essere stati convocati dai membri del team delle risorse umane, dai quali hanno appreso la notizia, motivata dal fatto che la società non voleva più esporli a contenuti pericolosi. Il peggio doveva però ancora arrivare. Nella fase successiva, infatti, alcuni di loro sono stati spostati su progetti meno “remunerativi”, mentre altri sono stati licenziati.

Secondo gli interessati, però, i veri motivi dello stop sarebbero da ricondurre ad un’altra ragione, ovvero alla pubblicazione da parte di Time di un altro articolo, intitolato “Inside Facebook’s African Sweatshop”. Al suo interno si narrava nei particolari la vicenda relativa all’assunzione da parte di Sama di moderatori di contenuti per Facebook. Anche in questo caso si trattava di esaminare immagini e video terrificanti, per un compenso minimo pari a 1,50 dollari.

Facebook afferma dal suo canto che richiede ai suoi partner di outsourcing di “fornire retribuzioni, vantaggi e supporto leader del settore”, ma non di meno Sama ha interpretato il tutto alla sua maniera. In questo caso il contratto prevedeva la corresponsione di 3,9 milioni di dollari da parte di Facebook e dopo il mancato rinnovo circa 200 posti di lavoro a Nairobi sono saltati, con le conseguenze del caso per le famiglie interessate.

La storia, comunque la si rigiri, è destinata naturalmente a sollevare domande molto importanti, soprattutto da un punto di vista etico. La necessità di fare questo genere di lavoro sporco, in effetti, sussiste, in quanto l’intelligenza artificiale deve rapportarsi anche agli aspetti peggiori dell’animo umano. Per poter dare un senso a questo genere di lavoro, però, bisogna affrontare problemi seri e fondamentali. Secondo Andrew Strait, esperto di rapporti tra etica e intelligenza artificiale, OpenAI non li affronta.

Leggi ancheCos’è ChatGPT, il nuovo chatbox che minaccia il dominio sul web di Google