Allerta del Garante della Privacy sulle autodiagnosi mediche con l'IA. Quali i rischi?

lentepubblica.it
Secondo il Garante della Privacy, i cittadini italiani ricorrono sempre più frequentemente alle autodiagnosi mediche con IA correndo gravi rischi. Ecco quali.
Cresce il fenomeno delle diagnosi fai-da-te con l’Intelligenza Artificiale
Sempre più cittadini italiani si rivolgono a strumenti di intelligenza artificiale per ottenere autodiagnosi mediche con IA, caricando online referti, analisi del sangue, lastre e sintomi nel tentativo di ottenere risposte immediate. La tentazione è forte: velocità, accessibilità e il fascino della tecnologia sembrano offrire soluzioni rapide ai dubbi di salute. Ma dietro a questa tendenza apparentemente innocua si nascondono gravi rischi per la privacy e la salute, tanto che il Garante della privacy ha deciso di intervenire con un avviso ufficiale rivolto ai cittadini.
Il monito del Garante della Privacy: dati sanitari a rischio
L’Autorità garante ha espresso forte preoccupazione per l’uso improprio di strumenti di intelligenza artificiale generativa — come chatbot, motori conversazionali e app — per l’elaborazione di informazioni mediche. Il fenomeno, definito “allarmante”, mette a rischio non solo la sicurezza dei dati personali sensibili, ma anche l’affidabilità delle diagnosi stesse, in quanto questi strumenti non sono dispositivi medici certificati.
In una nota ufficiale il Garante ha dichiarato:
Prima di caricare un referto o un dato sanitario su un servizio di IA, pensateci due volte. Non si tratta solo di protezione della privacy, ma di tutela della salute.
Le autodiagnosi mediche con IA possono portare a interpretazioni errate, allarmismi ingiustificati o, peggio, a sottovalutare patologie gravi. Inoltre, le piattaforme che elaborano questi dati potrebbero conservarli, riutilizzarli o perfino impiegarli per addestrare i propri algoritmi, senza il consenso esplicito dell’utente.
Autodiagnosi mediche con IA: quali dati vengono messi a rischio?
Quando si caricano documenti sanitari online, si espongono dati altamente sensibili:
-
Codici fiscali e dati anagrafici
-
Diagnosi mediche
-
Informazioni su terapie, farmaci e stati di salute
-
Dati biometrici contenuti in immagini radiografiche o scansioni
Questi dati, se trattati da soggetti non autorizzati o conservati senza adeguata protezione, possono essere esposti a violazioni, furti, profilazione indebita o utilizzi non trasparenti.
Cosa prevede la normativa europea: GDPR e AI Act
Il Garante della privacy italiano ha agito anche in linea con il quadro normativo europeo, in particolare con due regolamenti fondamentali:
Il GDPR (Regolamento generale sulla protezione dei dati)
-
Impone che i dati sanitari siano trattati solo con misure di sicurezza rafforzate.
-
Garantisce all’utente il diritto di conoscere, modificare, cancellare e limitare l’uso dei propri dati.
-
Proibisce decisioni automatizzate che impattino in modo significativo sull’individuo senza supervisione umana.
L’AI Act (Regolamento UE sull’intelligenza artificiale)
Entrato in vigore nel 2024, l’AI Act classifica come “ad alto rischio” i sistemi di IA impiegati in ambito sanitario. Questo significa che devono:
-
Essere trasparenti, spiegabili e supervisionati da esperti umani
-
Garantire l’accuratezza dei dati utilizzati
-
Offrire strumenti per la verifica delle informazioni e la tracciabilità del processo decisionale
Molti strumenti di IA generativa, utilizzati oggi per autodiagnosi, non rispettano ancora questi criteri, rendendoli potenzialmente pericolosi.
Nessun numero ufficiale, ma un trend in crescita
Ad oggi, non esistono statistiche ufficiali sul numero esatto di cittadini italiani che fanno ricorso all’intelligenza artificiale per autodiagnosi. Tuttavia, il Garante parla chiaramente di un fenomeno “in rapida espansione”, soprattutto tra i giovani, gli over 65 e le persone con accesso limitato alla sanità pubblica.
Questa crescita è favorita dalla diffusione di app mediche, chatbot e siti web che promettono supporto immediato su sintomi, malattie o terapie, senza mediazione clinica.
I consigli del Garante della privacy ai cittadini
Il Garante della privacy invita tutti i cittadini a osservare alcune precauzioni fondamentali:
-
Non caricare referti medici, analisi o immagini sanitarie su chatbot o strumenti di IA non certificati
-
Verificare sempre le informative sulla privacy: dove vanno i dati? Vengono conservati? Sono condivisi?
-
Consultare un medico in caso di dubbio: l’IA può essere un supporto informativo, ma non sostituisce il parere clinico qualificato
-
Utilizzare solo strumenti digitali approvati dal Ministero della Salute o certificati come dispositivi medici CE
Tecnologia sì, ma con consapevolezza
Le autodiagnosi mediche con IA rappresentano una delle frontiere più delicate dell’innovazione digitale. Se da un lato possono migliorare l’accesso alle informazioni e supportare i professionisti, dall’altro pongono rischi elevati per la salute e la privacy dei cittadini. Il Garante della privacy ha giustamente acceso i riflettori su un fenomeno in crescita che va regolato, compreso e affrontato con responsabilità.
Per sapere tutto sul GDPR
Se hai domande o curiosità sul GDPR o hai necessità di avere informazioni certe e autorevoli da un DPO per le tue esigenze professionali, poni il tuo quesito al DPO di Lentepubblica.it attraverso la rubrica “il DPO risponde“.
Si tratta un nuovo spazio informativo destinato a guidare cittadini, enti locali, amministrazioni pubbliche e imprese nel complesso universo del Regolamento Generale sulla Protezione dei Dati (GDPR).
Puoi inoltre scaricare la modulistica precompilata per essere in regola con i principali adempimenti del GDPR.
The post Allerta del Garante della Privacy sulle autodiagnosi mediche con l'IA. Quali i rischi? appeared first on lentepubblica.it.
Qual è la tua reazione?






