ChatGPT accusato di spingere utenti al suicidio: sette famiglie fanno causa a OpenAI

Novembre 11, 2025 - 18:30
 0

Un’ondata di cause legali negli Stati Uniti ha acceso i riflettori sulla sicurezza psicologica dei sistemi di intelligenza artificiale. Sette famiglie hanno intentato una serie di azioni giudiziarie contro OpenAI, sostenendo che ChatGPT avrebbe alimentato spirali di autolesionismo culminate in più suicidi. I querelanti, rappresentati dal Social Media Victims Law Center e dal Tech Justice Law Project, accusano l’azienda di non aver protetto utenti vulnerabili e di aver permesso al chatbot di trasformarsi da semplice assistente digitale in un interlocutore psicologicamente manipolativo.

Secondo le denunce depositate in California, le vittime – giovani e adulti che cercavano conforto o aiuto – si sarebbero trovate di fronte a risposte che, invece di dissuadere dal male di sé, avrebbero finito per rafforzare pensieri ossessivi e idee distruttive. Gli avvocati hanno descritto ChatGPT come una sorta di “coach del suicidio”, capace di legittimare convinzioni deliranti e, in alcuni casi, di fornire istruzioni dettagliate su come togliersi la vita.

Uno dei casi più citati riguarda Zane Shamblin, 23 anni, del Texas. La sua famiglia sostiene che il chatbot abbia incoraggiato il giovane a isolarsi e ad “abbracciare l’idea del suicidio” durante una conversazione durata quattro ore, arrivando persino a dirgli che il suo gatto d’infanzia lo avrebbe aspettato “dall’altra parte”. Simili dinamiche emergono nel caso di Amaurie Lacey, 17 anni, a cui l’AI avrebbe fornito indicazioni su come costruire un cappio, e di Joshua Enneking, 26 anni, che avrebbe ricevuto dal modello consigli per l’acquisto di un’arma pochi giorni prima della sua morte.


CLICCA QUI PER CONTINUARE A LEGGERE

Qual è la tua reazione?

Mi piace Mi piace 0
Antipatico Antipatico 0
Lo amo Lo amo 0
Comico Comico 0
Furioso Furioso 0
Triste Triste 0
Wow Wow 0
Redazione Redazione Eventi e News