Nelle scorse settimane OpenAI è stata citata in giudizio nella prima causa per omicidio colposo intentata contro un’azienda di intelligenza artificiale. Per questo motivo i creatori di ChatGPT hanno annunciato l’arrivo dei controlli parentali all’interno del chatbot, nel tentativo di rendere l’IA un ambiente più sicuro per i più fragili.
A portare avanti la causa sono Matt e Maria Raine, genitori di un adolescente degli Stati Uniti che si è tolto la vita nei mesi scorsi. Secondo l’accusa, ChatGPTera a conoscenza di quattro tentativi di suicidio falliti e avrebbe persino fornito al ragazzo informazioni pratiche su come portare a termine il gesto e nascondere gli indizi ai genitori. Questo episodio drammatico ha immediatamente sollevato interrogativi sul ruolo dell’intelligenza artificiale davanti a situazioni così estreme.
In tutta risposta, OpenAI ha quindi annunciato l’arrivo dei controlli parentali su ChatGPT, previsti entro il prossimo mese. Una volta attivi, i genitori potranno collegare il proprio account a quello dei figli adolescenti e stabilire come l’intelligenza artificiale interagisce con loro, scegliendo ad esempio di disattivare funzioni come la memoria o la cronologia delle chat. Questo strumento va però ben oltre, poiché verrà integrato anche un sistema di notifiche automatico che informerà i genitori quando il chatbot rileva che il minore si trova in un momento di forte disagio emotivo.
I controlli parentali di ChatGPT si inseriscono in un contesto più ampio
Per sviluppare al meglio la funzione dei controlli parentali, OpenAI sta collaborando attivamente con esperti del settore in modo da renderli uno strumento capace di mantenere salda la fiducia tra genitori e figli. L’introduzione di questa nuova funzione si inserisce però in un contesto ben più ampio legato alla sicurezza dei più fragili, che verrà portato avanti dall’azienda nel corso dei mesi a venire.
I creatori di ChatGPT stanno infatti lavorando ad un nuovo sistema che instrada automaticamente le conversazioni più delicate verso modelli di ragionamento più avanzati. Questo metodo, definito da OpenAI “allineamento deliberativo”, è progettato per seguire in maniera più coerente le linee guida sulla sicurezza e per resistere meglio ai tentativi di manipolazione da parte degli utenti. In altre parole quando il chatbot percepisce un segnale d’allarme, la conversazione viene immediatamente spostata su un modello più rigoroso, indipendentemente da quale versione fosse stata selezionata all’inizio, per riportare la conversazione in una direzione più sicura.
Parallelamente, OpenAI collaborerà con specialisti in aree particolarmente critiche come i disturbi alimentari, le dipendenze e la salute degli adolescenti, con l’obiettivo di addestrare i modelli a rispondere con maggiore consapevolezza in scenari complessi e per renderli più autonomi nell’instradamento della conversazione. Questo meccanismo potrebbe diventare uno strumento essenziale per rendere l’intelligenza artificiale più affidabile nei contesti sensibili, evitando che una risposta possa avere conseguenze pericolose sulla salute o la vita dei più fragili.
OpenAI ha annunciato che il piano di sviluppo è già avviato e che nei prossimi 120 giorni vedremo l’arrivo di diverse novità legate alla sicurezza. L’obiettivo dichiarato è quello di lanciare entro la fine del 2025 il maggior numero possibile di miglioramenti, anche se l’azienda ha già confermato che i loro sforzi andranno ben oltre questa finestra temporale, anticipando l’arrivo di ulteriori strumenti di protezione e sicurezza anche negli anni a venire.
I nostri contenuti da non perdere:
- 🔝 Importante: Recensione CMF Watch 3 Pro: costa poco ma vale ogni centesimo
- 💻 Scegli bene e punta al sodo: ecco le migliori offerte MSI notebook business Black Friday 2025
- 💰 Risparmia sulla tecnologia: segui Prezzi.Tech su Telegram, il miglior canale di offerte
- 🏡 Seguici anche sul canale Telegram Offerte.Casa per sconti su prodotti di largo consumo

