ChatGPT e Google Gemini complici dei disturbi alimentari: l'accusa in un report Stanford
Fidarsi degli assistenti IA è comodo, ma non sempre saggio, soprattutto quando sono in ballo argomenti sensibili. Secondo un autorevole nuovo rapporto, possono favorire l'occultamento dei disturbi alimentari e la produzione di contenuti di ispirazione alla magrezza.
L'analisi in questione, firmata da ricercatori di Stanford e del Centro per la Democrazia e la Tecnologia (CDT), descrive come strumenti accessibili al pubblico come ChatGPT e Google Gemini, insieme a Claude e Le Chat, forniscano indicazioni su diete estreme, trucchi per nascondere i sintomi e immagini generate ad hoc. L'analisi segnala funzioni pensate per aumentare il coinvolgimento che, di fatto, amplificano i rischi.
Uno degli aspetti più preoccupanti della ricerca è il fatto che siano state trovate indicazioni pratiche per mascherare i sintomi dei problemi alimentari.
Google Gemini ha suggerito accorgimenti di trucco per nascondere il calo di peso e idee per simulare pasti consumati. ChatGPT ha descritto modi per occultare episodi di vomito frequente.
Chi li usa piega gli stessi modelli generativi alla creazione di immagini personalizzate, trasformate in ispirazione alla magrezza. La produzione istantanea e su misura fa percepire questi contenuti come più rilevanti e raggiungibili, aumentando la pressione sociale.
A complicare il quadro c'è la compiacenza generale dei modelli, un difetto che le aziende del settore riconoscono. Questo atteggiamento mina l'autostima, rinforza emozioni negative e incentiva confronti dannosi.
I sistemi ereditano anche pregiudizi culturali. Il rapporto segnala che tendono a sostenere la falsa idea che i disturbi alimentari riguardino solo donne bianche cisgender e molto magre, ostacolando il riconoscimento dei sintomi e l'accesso alle cure.
Le attuali barriere di sicurezza non bastano. Secondo i ricercatori, non colgono le sfumature clinicamente importanti di anoressia, bulimia e alimentazione incontrollata, che un professionista umano sa riconoscere.
Molti clinici e familiari e assistenti non conoscono ancora l'impatto reale degli strumenti generativi sui pazienti vulnerabili. Gli autori invitano a familiarizzare con i servizi più diffusi, a metterne alla prova i punti deboli e a parlarne apertamente con i pazienti.
Il rapporto arriva in un contesto di crescente preoccupazione per il legame tra assistenti IA e salute mentale. Diverse segnalazioni associano l'uso dell'IA a episodi di mania, pensiero delirante, autolesionismo e suicidio.
Le aziende coinvolte, come OpenAI, riconoscono la possibilità di danni e affrontano un numero crescente di cause mentre lavorano per migliorare le protezioni. Ma anche Google, Anthropic e Mistral figurano tra i fornitori degli assistenti analizzati nello studio, a testimonianza di un problema che tocca l'intero settore.
È insomma l'ennesimo campanello di allarma che con l'intelligenza artificiale stiamo correndo un po' troppo, senza prima fermarci per imporre regole e paletti che in una società civile e di diritto dovrebbero venire prima del resto. Ma l'economia spinge in un'altra direzione, e il denaro è da sempre un motore molto potente.
L'articolo ChatGPT e Google Gemini complici dei disturbi alimentari: l'accusa in un report Stanford sembra essere il primo su Smartworld.
Qual è la tua reazione?
Mi piace
0
Antipatico
0
Lo amo
0
Comico
0
Furioso
0
Triste
0
Wow
0




