Smart city e IA, i timori del Garante privacy
Le smart city sono il futuro delle nostre città. Un futuro tutto sommato vicino, prossimo al nostro tempo, in cui tutti noi, i cittadini, avremo modo di sfruttare i benefici di diverse tecnologie avanzate, tra cui l’intelligenza artificiale (IA).
Il Garante Privacy, partendo dai contenuti del nuovo studio dal titolo “Artificial Intelligence and Urban Development”, condotto dal Parlamento europeo, ha sottolineato nella sua comunicazione odierna la centralità di questo percorso di transizione tecnologica urbana per la crescita economica e il miglioramento della qualità della vita in città, evidenziandone, però, anche le criticità maggiori, se non quelli che a tutti gli effetti sono dei veri e propri rischi.
Rischi per i cittadini come singoli e comunità, ma anche per le organizzazioni e le Istituzioni che rendono vivo il tessuto urbano, con la possibilità di veder emergere nuove discriminazioni (su base etnica, sessuale, culturale e politica) e disuguaglianze (sociali, economiche, nell’accesso ai servizi e in termini di opportunità).
Proteggere i dati personali
Al centro delle preoccupazioni del Garante Privacy, che si vanno ad aggiungere a quelle espresse dagli europarlamentari, c’è ovviamente la tutela dei dati personali, il loro trattamento e la finalità per cui sono elaborati.
Come precisato dal commento del Garante: “L’intelligenza artificiale presenta tuttavia potenziali rischi collegati soprattutto alla capacità di raccogliere, elaborare e trasformare immense quantità di dati, sfruttando anche le sinergie con altre tecnologie (Big Data, cloud, Internet delle cose)”.
Sull’utilizzo dell’IA, in particolare, c’è anche il capitolo riconoscimenti facciale e suo utilizzo da parte delle Forze dell’ordine in ambito urbano, principalmente, con il parere negativo del Garante.
Principali rischi per la privacy
Rischi di varia natura, come detto, “che vanno dalle politiche di cybersecurity all’influenza di errori e “bias” (pregiudizi) basati sulla raccolta e l’elaborazione dei dati, che possono avere pesanti ripercussioni a livello individuale e collettivo”.
Ulteriore elemento di preoccupazione per il garante è il cosiddetto rischio “black-box”, legato all’opacità o addirittura totale impenetrabilità dei processi automatizzati, le implicazioni etiche connesse ai processi decisionali dell’AI che, a differenza di quelli umani, possono essere completamente avulsi da implicazioni morali, empatia, riferimento al contesto umano (lack-of-value).
Ulteriori punti di riflessione sono i rischi reputazionali, dovuti alla condivisione e diffusione incontrollata di dati personali, le disparità connesse alle differenti opportunità di accesso ai dati e l’eccessiva invasività del controllo tecnologico nelle vite quotidiane.
Le azioni da intraprendere
Tra le azioni da intraprendere per mitigare tali rischi e potenziare i vantaggi dell’IA, l’autorità propone:
- un’attenta cooperazione tra le istituzioni;
- lo sviluppo di politiche e pratiche focalizzate su una precisa regolazione dell’accesso ai dati e della loro condivisione;
- un puntuale e tempestivo adeguamento dei quadri giuridici e regolamentari;
- lo sviluppo di competenze e capacità adeguate (anche in chiave data protection) da parte dei soggetti chiamati a gestire lo sviluppo e la governance dei processi e delle tecnologie connessi alle città intelligenti.