Sorveglianza "intelligente" a Milano: Garante Privacy stoppa uso delle telecamere AI

lentepubblica.it
Le tecnologie di monitoraggio del traffico urbano basate sull’intelligenza artificiale sono ancora lontane dal garantire una protezione adeguata dei dati personali: parola del Garante della Privacy, che blocca l’uso delle telecamere AI utilizzate dal Comune di Milano.
L’Autorità ha fatto il punto con il provvedimento n. 202/2025, mettendo in discussione un progetto sperimentale avviato nel capoluogo lombardo.
Secondo quanto emerso da un’indagine avviata in seguito a una segnalazione giornalistica, alcune videocamere sarebbero state utilizzate per rilevare e classificare in tempo reale il passaggio di veicoli e pedoni, inclusi biciclette e monopattini, con l’ausilio di software basati su algoritmi avanzati. L’obiettivo dichiarato era quello di monitorare con precisione il traffico cittadino e supportare le decisioni politiche in materia di mobilità. Tuttavia, nonostante le garanzie offerte in merito alla presunta “invisibilità” dei dati sensibili, l’Autorità ha rilevato numerose criticità sul piano della tutela della privacy.
Dati personali “disponibili” anche se offuscati
L’Agenzia responsabile del progetto – non direttamente riconducibile al Comune di Milano, che ha dichiarato di non aver autorizzato formalmente l’iniziativa – ha installato due telecamere in viale Monza e via Tommaso Pini per raccogliere filmati in tempo reale, successivamente elaborati da un sistema di intelligenza artificiale. Nella fase iniziale, i volti dei passanti e le targhe dei veicoli venivano oscurati entro 15-20 minuti, mentre le immagini originali venivano cancellate. I video offuscati erano poi conservati per una settimana e potevano essere esaminati da operatori umani per verificare l’efficacia del software.
Tuttavia, per il Garante, anche questi video modificati rientrano nella definizione di “dati personali”, in quanto è comunque possibile risalire all’identità delle persone tramite caratteristiche fisiche, abiti o altri elementi di contesto. La semplice offuscatura non rappresenta, quindi, una forma di anonimizzazione adeguata secondo la normativa europea.
Le immagini sono dati: lo dice la legge
La posizione dell’Autorità si fonda sulla giurisprudenza della Corte di giustizia dell’Unione europea, secondo cui anche una singola immagine, se può essere associata a una persona fisica identificabile, rappresenta un dato personale. È irrilevante se l’identificazione avvenga direttamente o grazie a informazioni esterne, come database pubblici o social network. Il trattamento di tali immagini, anche se per un tempo limitato e senza intervento umano diretto, costituisce comunque un trattamento di dati ai sensi del Regolamento Generale sulla Protezione dei Dati (GDPR).
Non solo i volti, ma anche le targhe dei veicoli rientrano tra le informazioni protette dalla normativa, come confermato dalla recente giurisprudenza italiana. In base a questi principi, l’Autorità ha respinto la tesi dell’Agenzia secondo cui le immagini non risulterebbero effettivamente acquisite, ma soltanto “lette” da un algoritmo per produrre dati statistici.
Il problema della trasparenza
Un ulteriore punto critico riguarda l’informazione agli interessati. Il Regolamento europeo impone infatti l’obbligo di fornire indicazioni chiare e accessibili sul trattamento dei dati, soprattutto quando si utilizzano sistemi di videosorveglianza. Questo richiede, oltre alla segnaletica visibile nei luoghi sottoposti a ripresa, anche la disponibilità di informative dettagliate (il cosiddetto “secondo livello”), accessibili ad esempio tramite un sito web o cartelli in loco.
Secondo il Garante, il progetto in questione non ha assicurato un livello di trasparenza sufficiente. I cittadini, infatti, non erano stati messi nelle condizioni di comprendere appieno la portata del monitoraggio, i soggetti coinvolti, la durata della conservazione dei dati e l’eventuale trasferimento a terzi.
Una tecnologia ancora poco “a prova di privacy”
Pur riconoscendo lo sforzo dell’Agenzia di implementare sistemi di offuscamento e di avviare uno studio per migliorare l’anonimizzazione dei dati attraverso la “decontestualizzazione totale” delle immagini, il Garante ha sottolineato che tali accorgimenti non bastano a scongiurare i rischi per i diritti e le libertà degli interessati.
Il provvedimento evidenzia la necessità di un bilanciamento tra innovazione tecnologica e protezione dei dati personali, in particolare quando le tecnologie utilizzate consentono un monitoraggio così capillare e dettagliato della popolazione. Anche l’utilizzo a fini statistici o urbanistici, per quanto legittimo, non può prescindere dall’applicazione rigorosa delle regole sulla privacy.
Le conclusioni dell’Autorità
Il caso milanese conferma che, nonostante i progressi dell’intelligenza artificiale, la gestione dei dati visivi raccolti nello spazio pubblico rimane un terreno delicato. Per il Garante, le tecnologie attuali non sono ancora in grado di garantire anonimato in modo assoluto. Di conseguenza, ogni trattamento di immagini – anche offuscate – deve essere considerato alla stregua di un trattamento di dati personali, con tutte le implicazioni normative che ne derivano.
Il monito lanciato dall’Autorità non è rivolto soltanto all’Agenzia coinvolta, ma a tutte le realtà pubbliche e private che intendono sperimentare strumenti simili: prima dell’uso, serve piena consapevolezza dei limiti tecnici e giuridici, e soprattutto una trasparenza assoluta nei confronti dei cittadini.
Garante Privacy stoppa uso delle telecamere AI a Milano: il testo del provvedimento
The post Sorveglianza "intelligente" a Milano: Garante Privacy stoppa uso delle telecamere AI appeared first on lentepubblica.it.
Qual è la tua reazione?






