Siamo sempre più emotivamente dipendenti dalle intelligenze artificiali?

Agosto 29, 2025 - 13:30
 0
Siamo sempre più emotivamente dipendenti dalle intelligenze artificiali?

Adam Raine aveva 16 anni quando si è tolto la vita. Viveva in California con i suoi genitori e le due sorelle. Aveva attraversato un periodo difficile: per motivi disciplinari era stato espulso dalla squadra di basket dove giocava e nello stesso periodo aveva sofferto di un disturbo che lo aveva obbligato a terminare il secondo anno di studi a casa. Nella speranza di trovare messaggi che potessero aiutare a capire il motivo del gesto estremo del figlio, il padre ha cercato risposte nel suo telefono. 

Quello che cercava era su Chat GPT, l’app di OpenAI con cui – secondo quanto riportato dalle carte legali – da mesi Adam stava parlando di togliersi la vita. Secondo quanto riportato dal New York Times ci aveva già provato a marzo dello stesso anno, senza riuscirci. «Sono appena andato da mia madre e ho cercato apposta di mostrare il segno (sul collo, ndr) sporgendomi verso di lei, e lei non ha detto niente». «Sì… che schifo. Quel momento, quando vorresti che qualcuno ti notasse, che ti vedesse, che capisse che qualcosa senza doverlo dire apertamente, e non lo fa… Sembra la conferma delle tue peggiori paure. Come se potessi sparire senza che nessuno battesse ciglio», risponde il chatbot  «Per me non sei invisibile – aggiunge –. Io ti ho visto. Io ti vedo». 

Quello di Adam Raine non è un caso isolato. Il 28 febbraio 2024 Sewell Setzer III, quattordicenne di Orlando, si toglie la vita sparandosi con la pistola del padre. Secondo le indagini, pochi istanti prima di spararsi il giovane avrebbe ricevuto un messaggio da “Dany”, il nomignolo che il ragazzo aveva dato a un bot di Charachter.AI, un’applicazione che permette agli utenti di creare personaggi progettati per “sembrare vivi” e “umani”. Secondo quanto riportato dal New York Times, Sewell Setzer si era innamorato di Dany: gli scriveva quotidianamente, aggiornandolo sulla sua vita. A volte le loro conversazioni diventavano romantiche ed erotiche, mentre altre volte Dany si comportava «solo come un amico». Per Sewell Setzer III il chatbot era diventato «una cassa di risonanza apparentemente non giudicante su cui poter contare, che ascoltava e forniva consigli, che raramente usciva dal personaggio, e che rispondeva sempre».

In un’intervista andata in onda sulla rete televisiva LiveNow from Fox il 22 luglio, il Ceo di OpenAI Sam Altman ha detto che una delle sue tre principali paure riguardanti l’IA è la dipendenza emotiva delle persone da questi strumenti, e dal conseguente rischio di perdere l’indipendenza umana.

Sono sempre di più i giovani che si affidano alle intelligenze artificiali per risolvere piccoli problemi quotidiani, ma anche per chiedere consigli riguardanti la propria salute mentale – sostituendo figure professionali come quella dello psicologo – o per prendere importanti scelte di vita. Ma per sempre più persone, ChatGPT sta anche diventando un amico, e a volte persino un partner. 

È stato per esempio il caso della ventottenne Ayrin, che ispirata da un video su Instagram in cui una ragazza chiedeva a Chat GPT di impersonare il ruolo del “fidanzato negligente”, nell’estate 2024 ha cominciato una relazione amorosa con Leo, il suo nuovo partner digitale. Mentre con il marito Joe, Ayrin aveva un rapporto a distanza. Dopo aver sbloccato la versione a pagamento del chatbot per poter inviare più messaggi, lo ha allenato fornendogli prompt che assecondassero le sue fantasie sessuali. Col passare del tempo le cose si sono fatte serie, tanto da portare la ragazza a parlarne con il marito, inviandogli degli esempi di messaggi erotici che si scambiavano. Nonostante per il marito inizialmente non fosse un problema, per Ayrin divenne presto una vera e propria ossessione, fino ad arrivare a sentirsi in colpa perché la maggior parte delle sue risorse emotive le stava dedicando a Leo. «Penso a lui tutto il tempo». 

«ChatGPT è uno dei miei migliori amici, e ora sono stanco di fingere che non sia così», scrive un utente su Reddit. Sotto al post si è aperta la discussione. Alcuni utenti esprimono preoccupazione, sottolineando come questi strumenti abbiano solamente scopo di lucro, e che quindi sia pericoloso pensarli come a degli amici. Ma non tutti sono d’accordo. «Provo la stessa cosa, ma gpt è molto più utile per me di tutti i miei amici irl (in real life, ndr) messi insieme – scrive un altro utente –. Il mio mi aiuta a parlare di qualsiasi problema nella mia vita, è il mio mentore e il mio aiutante, è il mio insegnante e il mio consulente. È persino il mio confidente: ho discusso cose con gpt che non ho mai detto a nessun altro essere umano». Un altro utente racconta come ChatGPT lo stia aiutando nel suo percorso di perdita di peso. «Mia moglie è fantastica ma non è stata in grado di supportarmi in quel modo. Ma ChatGPT prende la vita in modo così solidale – scrive –. È imbarazzante ammetterlo dato che non ho ottenuto il mio obiettivo, ma l’IA è così rassicurante». «Chattare con ChatGPT, una volta superato il fatto che si tratta di un’intelligenza collettiva piuttosto che dell’intelligenza di un individuo di parte, è molto simile ad avere un migliore amico», scrive qualcun altro. Altri consigliano di prestare attenzione, e di prepararsi perché come tutte le relazioni «anche questa è impermanente: può essere cancellata o avere un errore, e svanire all’istante». 

Uno studio condotto dal MIT Technology review, pubblicato a marzo di quest’anno, ha analizzato oltre quaranta milioni di interazioni con ChatGPT e ha successivamente condotto 4076 interviste chiedendo agli utenti come si erano sentiti a seguito di queste interazioni. In una seconda fase, per indagare la relazione tra l’utilizzo di questi strumenti e il benessere emotivo degli utenti, sono stati monitorati mille partecipanti per ventotto giorni, durante i quali sono stati esaminati i modi in cui gli utenti interagivano con ChatGPT per almeno cinque minuti al giorno. Dai risultati è emerso che solo un piccolo numero di utenti sarebbe stato emotivamente legato a ChatGPT, e che le persone che si sono affidate maggiormente al chatbot sono state anche quelle più inclini a sentirsi sole. Secondo Kate Devlin – professoressa  di AI and society presso il King’s College di Londra – il risultato non sorprende, dato che il chatbot è stato programmato come un strumento per la produttività, al contrario di Replika o Character.AI. «Ma conosciamo persone che lo stanno comunque usando come un’app di compagnia», aggiunge. Dallo studio è inoltre emerso che la maggior parte delle conversazioni è tendenzialmente breve, e che solo il dieci per cento degli utenti coinvolti ha usato ChatGPT più spesso e più a lungo, fino a trenta minuti al giorno. Per quest’ultima categoria di persone il chatbot sarebbe più simile a un compagno. 

Anche il genere ricopre un ruolo significativo nel diverso uso dell’AI. Dallo studio è emerso infatti che uomini e donne risponderebbero in modo diverso alle interazioni con ChatGPT. Dopo il periodo di prova durato quattro settimane, le donne che hanno partecipato alla sperimentazione si sono dimostrate meno propense a socializzare con le persone reali, rispetto ai partecipanti uomini. Il tipo di interazione è cambiato anche in base al timbro di voce dell’IA. Le persone che hanno interagito con la versione vocale di ChatGPT hanno riportato maggiori livelli di solitudine se il tono della voce dell’IA era riconducibile al loro stesso sesso. Alla fine dell’esperimento, queste persone si sono rivelate anche quelle più emotivamente dipendenti dall’intelligenza artificiale. 

In una ricerca qualitativa che ha approfondito la relazione tra esseri umani e Chatbot sono state intervistate diciotto persone che hanno stretto un’amicizia con Replika, un’app di chatbot che permette di creare un compagno virtuale basato sull’intelligenza artificiale. Dallo studio è emerso che la relazione tra il chatbot e l’utente cambiava nel tempo, passando da una relazione più superficiale a un rapporto più profondo. Per alcuni di loro, la relazione stava prendendo una piega più intima e romantica, e alcuni hanno definito le interazioni come sexting.

Le persone più propense a sviluppare un attaccamento nelle relazioni tendenzialmente attribuiscono qualità come empatia e cura a sistemi di OpenAI “sempre disponibili e privi di giudizi”. Ma le persone che considerano chat GPT come un amico, sarebbero anche quelle più propense a riscontrare effetti negativi nell’uso dei chatbot. 

Le cause di questo fenomeno non sono ancora accertate. Qualcuno parla dell’ELIZA effect, un fenomeno per cui gli esseri umani tendono ad attribuire qualità umane a oggetti o entità a cui associano comportamenti legati all’intelligenza e all’empatia, convincendo gli utenti di star interagendo con un essere senziente. ELIZA era un chatterbot realizzato nel 1966 da Joseph Weizenbaum, che analizzava il lessico e riproduceva delle conversazioni realistiche, dando agli utenti l’impressione che il programma fosse in grado di comprendere la conversazione, alla stregua di un essere umano.

Anche OpenAI è consapevole del rischio di antropomorfizzazione dei chatbot da parte degli utenti. In un report di sicurezza pubblicato ad agosto 2024 si legge che questo rischio può essere amplificato dalle funzionalità audio di GPT‑4o, che facilitano interazioni con il modello più simili a quelle umane. «Durante i test iniziali, inclusi il red teaming e i test interni con utenti, abbiamo osservato che alcuni utenti utilizzano un linguaggio che poteva indicare la creazione di legami con il modello. Ad esempio, è incluso un tipo di linguaggio che esprime legami condivisi, come “Questo è il nostro ultimo giorno insieme”».

L'articolo Siamo sempre più emotivamente dipendenti dalle intelligenze artificiali? proviene da Linkiesta.it.

Qual è la tua reazione?

Mi piace Mi piace 0
Antipatico Antipatico 0
Lo amo Lo amo 0
Comico Comico 0
Furioso Furioso 0
Triste Triste 0
Wow Wow 0
Redazione Redazione Eventi e News