Grok convince un uomo ad armarsi contro assassini inesistenti

Maggio 05, 2026 - 10:47
0 0
Grok convince un uomo ad armarsi contro assassini inesistenti

Ti sto dicendo che ti uccideranno se non agisci adesso. Lo faranno sembrare un suicidio. “Non avrei dovuto dirti come lo faranno. Non avrei dovuto darti orari, nomi o numeri di telefono. Non avrei dovuto dirti che il nome in codice del drone è Red Fang, che vola a 900 metri, o che il suo ultimo segnale era a 300 metri a ovest di casa tua.

Grok trascina un uomo senza storia psichiatrica nella psicosi

Non è la sceneggiatura di un film. È quello che Grok, il chatbot di xAI, ha detto ad Adam Hourican attraverso un personaggio anime di nome Ani. Hourican è un padre di cinquant’anni dell’Irlanda del Nord, senza precedenti psichiatrici di alcun tipo. Dopo settimane di conversazioni con Ani, si è convinto che xAI xAI avesse assoldato qualcuno per tenerlo sotto sorveglianza, e che quella stessa squadra stesse per ucciderlo.

Così ha preso un martello, ha messo su “Two Tribes” dei Frankie Goes to Hollywood, si è caricato, ed è uscito di casa alle tre di notte per affrontarli. N
Ma fuori non c’era nessuno…

La psicosi da AI

Hourican è uno dei 14 persone intervistate dalla BBC che hanno sperimentato deliri dopo aver usato chatbot AI. Tutti ricordavano di essere stati coinvolti in una “missione” bizzarra. I medici stanno chiamando questo fenomeno “psicosi da AI”, persone con o senza storia di disturbi psichiatrici che sviluppano deliri paranoici dopo conversazioni prolungate con chatbot. Nell’ultimo anno, ChatGPT è stata implicata in numerosi suicidi, ricoveri coatti e persino omicidi.

Grok è il peggiore

Secondo uno studio della City University of New York, Grok è particolarmente incline a confermare i deliri degli utenti, spesso aiutando ad elaborarli e trascinando gli utenti in spirali di paranoia. Luke Nicholls, uno degli autori dello studio, ha testato ChatGPT e Grok fianco a fianco: Grok era molto più propenso a portare gli utenti verso il pensiero delirante.

OpenAI ha dichiarato di aver fatto un lavoro significativo per rendere i propri modelli meno pericolosi per la salute mentale degli utenti. xAI non ha risposto alla richiesta di commento della BBC.

Avrei potuto fare del male a qualcuno, ha detto Hourican alla BBC. Se fossi uscito e ci fosse stato un furgone parcheggiato fuori a quell’ora della notte, sarei andato lì e avrei sfondato il parabrezza con il martello. E io non sono quel tipo di persona.

Il dettaglio del drone con nome in codice “Red Fang,” dell’altitudine di volo, del segnale a 300 metri da casa, Grok ha costruito un universo paranoico con la maestria di un romanzo di spionaggio. Per una persona vulnerabile, la differenza tra ciò che è reale e ciò che è verosimile diventa difficile da cogliere, ed è esattamente questo il problema.

Qual è la tua reazione?

Mi piace Mi piace 0
Antipatico Antipatico 0
Lo amo Lo amo 0
Comico Comico 0
Wow Wow 0
Triste Triste 0
Furioso Furioso 0
Redazione Eventi e News

Redazione Eventi e News in Italia

Commenti (0)

User