OpenAI, il Consiglio per la salute mentale senza esperti di suicidio

OpenAI ha un problema. ChatGPT è stato accusato in tribunale di essere un “coach del suicidio” per adolescenti. La soluzione dell’azienda? Formare un consiglio di otto esperti per il benessere mentale. C’è però un dettaglio imbarazzante, nessuno di questi otto è un esperto di prevenzione del suicidio.
Decine di professionisti specializzati in prevenzione del suicidio avevano chiesto esplicitamente a OpenAI di consultare degli esperti al riguardo. Detto, fatto (a metà). OpenAI ha formato un consiglio, e poi ha scelto esperti in tutto tranne quello.
Il consiglio include persone brillanti: specialisti in sviluppo infantile, ricercatori sulla salute mentale digitale, professori che studiano l’impatto della tecnologia sul cervello dei bambini. Ma specificamente sul suicidio, il tema che ha scatenato le cause legali, niente.
OpenAI crea un consiglio per proteggere la salute mentale, chi sono gli esperti
Gli otto membri sono indiscutibilmente qualificati nei loro campi. David Bickham dirige la ricerca al Boston Children’s Hospital e monitora l’impatto dei social media sulla salute mentale dei bambini. Mathilde Cerioli studia come l’AI influenza lo sviluppo cognitivo ed emotivo dei giovani, preoccupata che i cervelli dei bambini vengano “rimodellati” dall’interazione con entità “infinitamente accomodanti”.
Munmun De Choudhury, professoressa alla Georgia Tech, studia approcci computazionali per migliorare la salute mentale online. Nel 2023 ha condotto uno studio, finanziato in parte dall’American Foundation for Suicide Prevention, che ha scoperto che i chatbot terapeutici rilevavano comportamenti suicidi solo nel 50% dei casi.
Ci sono Tracy Dennis-Tiwary (professoressa di psicologia e cofondatrice di Arcade Therapeutics), Sara Johansen (fondatrice della Digital Mental Health Clinic di Stanford), David Mohr (direttore del Center for Behavioral Intervention Technologies della Northwestern) e Andrew Przybylski (professore di comportamento umano e tecnologia). E c’è Robert K. Ross, esperto di salute pubblica che OpenAI aveva già ingaggiato come consulente. Sono tutti esperti legittimi. Ma nessuno è specializzato specificamente in prevenzione del suicidio.
Perché nessun esperto di prevenzione del suicidio?
È la domanda che tutti si pongono, a cui OpenAI non ha dato una risposta. Quando decine di esperti di prevenzione del suicidio ti scrivono una lettera aperta chiedendo di essere consultati, e tu formi un consiglio sul “benessere” senza includerne nemmeno uno, il messaggio è chiaro: non era una priorità. Forse OpenAI pensa che esperti generici di salute mentale siano sufficienti. O magari che gli specialisti in sviluppo infantile coprano in parte anche il tema. Forse ha altre ragioni che non ha condiviso pubblicamente.
La prima riunione: focus sui benefici, non sui rischi
OpenAI conferma che finora si è tenuta una sola riunione del consiglio, usata per presentare i consulenti ai team che lavorano su ChatGPT e Sora. Le discussioni iniziali si sono concentrate su cosa costituisce il benessere e sui modi in cui ChatGPT potrebbe aiutare le persone”.
Quindi ChatGPT non è un rischio da mitigare, è un’opportunità da sfruttare. E alcuni membri del consiglio sembrano condividere questa visione. Ma alcuni membri sono scettici (e menomale!). Non tutti nel consiglio sono entusiasti dei chatbot. Quindi il consiglio non è unanimemente ottimista. C’è pluralità di opinioni. Ma resta il fatto che nessuno è specializzato in prevenzione del suicidio, che era esattamente il tema su cui esperti esterni avevano chiesto consulenza.
I nuovi controlli parentali
Da poco OpenAI ha aggiornato i controlli parentali per avvisare i genitori quando un adolescente potrebbe essere in difficoltà. Ma nella pagina di supporto per genitori, l’azienda conferma che i genitori non saranno sempre informati se un adolescente esprime pensieri di autolesionismo o suicidio. Il sistema può collegarlo direttamente a risorse esterne di aiuto (come linee di emergenza o servizi di supporto psicologico).
È un compromesso delicato. Da un lato, i genitori dovrebbero sapere se i figli sono in pericolo. Dall’altro, se un adolescente cerca aiuto e sa che i genitori verranno automaticamente avvisati, potrebbe non cercare affatto aiuto. Ma senza esperti di prevenzione del suicidio nel consiglio, chi decide quale sia il giusto equilibrio? Chi valuta se queste notifiche sono efficaci o se potrebbero involontariamente peggiorare la situazione?
Qual è la tua reazione?






