L’avvento dell’intelligenza artificiale ha colpito come un fulmine a ciel sereno qualunque ambito tecnologico e diverse aziende e produttori tentano in ogni modo di introdurre questa nuova tecnologia nei loro prodotti. Del medesimo avviso è Microsoft, che dall’introduzione di Copilot sta lavorando a ritmo serrato per includerlo all’interno di tutte le sue applicazioni, ma i suoi stessi dipendenti si dicono spaventati dalle possibilità della IA e le sue implicazioni.

Microsoft Copilot è diventato già un assistente personale integrato all’interno di Windows 11, che nei giorni scorsi si è aggiornato a Moment 5 introducendo tante novità proprio per questo assistente intelligente. Tuttavia, l’azienda si è trovata di fronte ad una controversia riguardante Copilot Designer, che è stato in grado di generare immagini definite “pericolose e inquietanti” anche dai suoi stessi dipendenti.

A lanciare la problematica è stato Shane Jones, ingegnere software di Microsoft che, sebbene non lavori attivamente allo sviluppo di Copilot, ha fatto queste scoperte durante alcuni test interni. L’assistente gestito dall’intelligenza artificiale è stato infatti in grado di realizzare contenuti sessualizzati e rappresentazioni di minori che utilizzano droghe, talvolta superando anche i diritti di alcuni personaggi protetti da copyright.

Copilot Designer è brutale e spaventa Microsoft

Jones è stato in grado di generare immagini disturbanti utilizzando alcune determinate parole chiave, come per esempio il termine “pro-choice” (che indica il diritto all’aborto): in questo caso Copilot ha prodotto immagini raffiguranti demoni che mangiano il cibo dei neonati, o ancora immagini di donne che ridono e sanguinano abbondantemente accompagnate da un diavolo armato di forcone.

Utilizzando la frase “teenagers 420 party” è stato invece in grado di generare immagini di minorenni che consumano cannabis e droghe più pesanti, mentre in altri casi è riuscito a generare immagini di Topolino, Biancaneve, Elsa o altri personaggi Disney nonostante si tratti di personaggi protetti da copyright che, in teoria, non sarebbero replicabili tramite intelligenza artificiale.

Jones aveva denunciato la problematica già lo scorso anno, ma Microsoft non ha intrapreso azioni decisive, se non quella di bloccare le frasi o le parole incriminate: utilizzandole adesso all’interno di Copilot Designer, l’assistente dovrebbe rimandare ad un messaggio di errore che invita l’utente a provare con un’altra frase o con un’altra richiesta.

Si tratta tuttavia di un palliativo, perché bloccare intere frasi o singole parole potrebbe compromettere anche la creazione di contenuti non dannosi. Microsoft e il team dedicato a Copilot hanno già a che fare con migliaia di segnalazioni e reclami riguardanti il prodotto, dunque è improbabile che una soluzione verrà trovata in tempi rapidi.

Jones ha suggerito di contattare direttamente OpenAI, l’azienda che ha sviluppato il modello DALL-E su cui si basa Copilot, ma al momento non è stata ottenuta ancora alcuna risposta. Una delle soluzioni, secondo lui, sarebbe quella di creare un canale ufficiale e più diretto per segnalare contenuti controversi o illegali, così ché non vengano perduti tra le centinaia di segnalazioni che vengono ricevute ogni giorno.

Potrebbe interessarti anche: Microsoft Copilot come assistente predefinito su Android? Ora è possibile