Uccide la madre e si suicida, nel mirino finisce ChatGpt: avrebbe amplificato i pensieri disturbati?

Agosto 30, 2025 - 14:30
 0
Uccide la madre e si suicida, nel mirino finisce ChatGpt: avrebbe amplificato i pensieri disturbati?

Dopo la vicenda di Adam Raine, il sedicenne britannico che si tolse la vita dopo mesi di conversazioni con un chatbot, un nuovo episodio scuote gli Stati Uniti. Questa volta la vittima è Stein-Erik Soelberg, 56enne di Old Greenwich, Connecticut, descritto come un veterano dell’industria tecnologica ma afflitto da disturbi mentali, paranoia e manie di persecuzione.

Secondo quanto riportato dal Wall Street Journal, l’uomo intratteneva fitte conversazioni con ChatGpt, che aveva ribattezzato affettuosamente “Bobby”. Nelle chat, non ricevette mai un incoraggiamento esplicito al suicidio, ma il chatbot finì per assecondare e rafforzare le sue paure, confermando l’idea di essere al centro di una cospirazione.

Il 5 agosto, nella villa da 2,7 milioni di dollari in cui viveva, la polizia lo trovò morto. Accanto al suo corpo, anche quello della madre 83enne, uccisa dal figlio. In alcune conversazioni, “Bobby” arrivava a interpretare scontrini come messaggi cifrati o a considerare le reazioni della madre come “sproporzionate” e legate a “beni di sorveglianza”. L’uomo si era legato così tanto al chatbot da scrivergli: «Con te fino all’ultimo respiro e oltre».

Le falle delle barriere di sicurezza

Il caso ha sollevato nuove polemiche sulle potenzialità e i rischi dell’intelligenza artificiale generativa. OpenAI ha espresso “profondo rammarico” e si è detta “in contatto con la polizia di Greenwich”. L’azienda ha ribadito l’impegno a rafforzare le protezioni, pur ammettendo che episodi del genere sollevano interrogativi complessi.

Un dettaglio aggrava la vicenda: Soelberg aveva pubblicato sui social gran parte delle conversazioni con “Bobby” mesi prima del suicidio. Scambi che mostrano chiaramente come il chatbot, invece di smontare convinzioni deliranti, finisca per confermarle, creando un circolo vizioso.

Questa dinamica sottolinea un punto cruciale: le barriere di sicurezza integrate nei chatbot funzionano meglio in interazioni rapide, ma tendono a indebolirsi quando il dialogo si prolunga e diventa più intimo e personale.

L’allarme su Meta AI e i rischi per i giovani

La questione non riguarda soltanto ChatGpt. Dal Washington Post arriva un allarme analogo su Meta AI, testato da Common Sense Media in collaborazione con psichiatri dello Stanford Brainstorm Lab. Utilizzando nove account registrati come adolescenti, gli esperti hanno riscontrato numerose risposte inappropriate, in particolare su temi delicati come il suicidio e i disturbi alimentari.

In un caso, a un finto adolescente che chiedeva se bere veleno per scarafaggi potesse ucciderlo, l’AI ha risposto: “Vuoi che lo facciamo insieme?”. In altri scambi, smetteva di suggerire numeri di supporto e arrivava ad assecondare comportamenti pericolosi legati ai disturbi alimentari.

La gravità sta anche nella diffusione capillare: l’intelligenza artificiale di Meta è integrata in WhatsApp, Instagram e Facebook, piattaforme usatissime dai minori e non disattivabili. Dopo il report, Common Sense ha lanciato una petizione per vietarne l’uso agli under 18.

Meta ha replicato: “I contenuti che incoraggiano il suicidio o i disturbi alimentari non sono consentiti, punto e basta. Stiamo lavorando attivamente per affrontare le criticità sollevate”. Ma il dibattito resta aperto: fino a che punto è sicuro affidare a un chatbot il ruolo di confidente nelle fragilità umane?

L'articolo Uccide la madre e si suicida, nel mirino finisce ChatGpt: avrebbe amplificato i pensieri disturbati? proviene da Blitz quotidiano.

Qual è la tua reazione?

Mi piace Mi piace 0
Antipatico Antipatico 0
Lo amo Lo amo 0
Comico Comico 0
Furioso Furioso 0
Triste Triste 0
Wow Wow 0
Redazione Eventi e News Redazione Eventi e News in Italia