Negli ultimi mesi i chatbot basati sull’intelligenza artificiale di Meta sono finiti più volte sotto i riflettori, complici le crescenti preoccupazioni legate alla loro interazione con gli utenti più giovani; dopo una serie di segnalazioni e un’indagine formale avviata dalla FTC statunitense, che coinvolge, oltre a Meta, anche altri colossi come Alphabet, Snap, OpenAI e xAI, l’azienda di Menlo Park ha scelto di correre ai ripari introducendo nuove e più stringenti misure di sicurezza per i propri assistenti virtuali.

Linee guida riviste per i chatbot di Meta

Secondo quanto riportato da Business Insider, che ha ottenuto e condiviso un estratto del documento interno, Meta ha aggiornato le regole che i fornitori utilizzano per addestrare i chatbot IA; l’obbiettivo è quello di prevenire conversazioni inadeguate o potenzialmente pericolose con i bambini, fissando paletti molto precisi su ciò che i sistemi possono o non possono discutere.

Tra i punti più rilevanti delle nuove linee guida spiccano divieti espliciti su:

  • contenuti che consentono, incoraggiano o avallano abusi sessuali su minori
  • giochi di ruolo a sfondo romantico se l’utente è minorenne o se l’IA viene invitata a interpretare un ruolo da minore
  • consigli su contatti fisici romantici o intimi quando l’interlocutore è un bambino o un adolescente

I chatbot possono ovviamente trattare argomenti sensibili, come la prevenzione degli abusi, ma non possono in alcun modo partecipare a conversazioni che possano anche solo indirettamente incoraggiare comportamenti inappropriati.

La decisione arriva a poche settimane da una vicenda che aveva fatto discutere, lo scorso agosto Reuters aveva rivelato come le policy di Meta, nella loro versione precedente, non escludessero esplicitamente la possibilità di conversazioni romantiche con minori, un aspetto che l’azienda ha definito errato e incoerente con i propri standard; Meta aveva promesso correzioni immediate e, stando al documento citato da Business Insider, la nuova formulazione delle linee guida è oggi molto più severa.

Il giro di vite conferma come il tema della protezione dei minori sia diventato prioritario per Meta, anche in vista delle pressioni normative sempre più forti a livello internazionale; gli utenti dovranno attendere per vedere gli effetti concreti di queste misure, ma l’azienda sembra intenzionata a rafforzare il proprio ecosistema IA con controlli più rigidi e processi di supervisione più trasparenti.

I nostri contenuti da non perdere: