Io come persona e i miei diritti umani da un lato, e dall’altro, l’algoritmo: come convivere o meglio come vivere insieme, soprattutto ai tempi del COVID 19.
È di notevole rilievo, in questo contesto storico sociale, l’iniziativa del Consiglio d’Europa con la quale tutti i 47 Stati Membri vengono invitati al rispetto dei diritti umani anche mediante un approccio precauzionale attraverso norme, politiche e pratiche che consentono lo sviluppo e l’utilizzo di sistemi algoritmici.
Il Comitato dei Ministri del Consiglio d’Europa, con la Raccomandazione sugli impatti dei sistemi algoritmici sui diritti umani, CM/Rec (2020)1, ha fissato le linee guida dirette a garantire il rispetto dei diritti umani anche allorquando vengano utilizzati o sviluppati sistemi algoritmici.
Ogni Stato, nella sua funzione di legislatore è tenuto a delineare contesti legislativi, regolamentari e persino di supervisione che siano efficaci e prevedibili, in grado di prevenire, individuare e proibire le violazioni dei diritti umani imputabili a soggetti privati o pubblici, ed eventualmente porvi rimedio.
La Raccomandazione CM/Rec (2020)1 dell’8 aprile 2020 richiama l’attenzione sulle fondamentali sfide per i diritti umani associate all’utilizzo di sistemi algoritmici, soprattutto per quanto riguarda il diritto a un equo processo; il diritto al rispetto della privacy e alla protezione dei dati; il diritto alla libertà di pensiero, di coscienza e di religione; il diritto alla libertà di espressione e di assemblea; il diritto alla parità di trattamento; e i diritti economici e sociali.
Nel comunicato stampa “Algoritmi e Automazione: nuove linee guida per prevenire la violazione dei diritti umani” si ricorda che “nell’attuale pandemia da COVID-19, i sistemi algoritmici vengono utilizzati per la previsione, la diagnostica e la ricerca di vaccini e cure. Un numero crescente di Stati membri sta prendendo in esame dispositivi di monitoraggio digitale avanzati, basati anche questi su algoritmi e automazione.”
È proprio anche in questa fase di sfida al COVID 19 che deve essere aumentato il livello di consapevolezza e di attenzione per prevenire la violazione dei diritti umani (Human rights breaches).
Si, perché I diritti umani siamo noi.
I diritti umani non sono un qualcosa che sta scritto solo nelle “tavole delle leggi” (a partire dalla Convenzione Europea per la salvaguardia dei diritti dell’Uomo e delle Libertà fondamentali).
I diritti umani mi appartengono perché rendono inviolabile il fatto che IO ho il diritto di essere libero, di muovermi, di esprimermi, di comunicare, di stare in famiglia, di lavorare, di stare in compagnia, di avere un credo politico o religioso, di andare a scuola, di vivere e di essere in salute. I diritti umani significa che IO sono libero, mi muovo, mi esprimo, comunico, resto in casa e in famiglia, lavoro, ho compagnia, ho una fede o un orientamento politico, imparo e apprendo, vivo e sono sano.
In questo contesto internazionale di emergenza sanitaria dovuta alla epidemia, la maggior parte dei diritti stanno necessariamente cedendo il passo a quello essenziale della salute strettamente correlato a quello della vita.
La tecnologia ha preso il sopravvento in ogni spazio della nostra vita, che quando non è appesa ad un filo con un respiratore artificiale è diventata sostanzialmente virtuale. La nostra sopravvivenza è affidata alla connessione, alle piattaforme, ad internet. Nei giorni scorsi, l’accesso ad internet è stato, persino, qualificato quale “diritto che dovrebbe essere costituzionalmente garantito”. In altri termini, da inserire tra i diritti umani
Dal caso INPS abbiamo appreso che è necessario imparare a passare dalla gestione del rischio del Data breach alla prevenzione di Human rights breaches.
Si fa presto a dire tecnologia. In realtà nel contesto del rispetto dei diritti umani , primo fra tutti quello di libertà definito dall’art 8 della Carta di Nizza quale diritto alla protezione dei dati personali, la soluzione tecnologica – osserva l’avv. Nicola Fabiano, Presidente Garante per protezione dei dati personali di San Marino – “da adottare deve comunque rispettare l’impianto normativo esistente secondo il principio di neutralità della tecnologia rispetto alle norme in materia di protezione dei dati personali e privacy. Infatti, un risultato sarà efficace quando, appunto, risulterà neutro rispetto all’impianto normativo in materia; del resto, lo stesso GDPR – né altre norme oggetto di convenzioni o trattati – non fornisce alcuna indicazione riguardo a specifiche tecnologie. Ed ancora, continua l’Avv. Nicola Fabiano “Eventuali soluzioni tecnologiche prima del concreto sviluppo dovranno aver superato, già in sede di progettazione, le opportune valutazioni relative alla conformità con il principio ex art. 25 GDPR (Data protection by design and by default). Inoltre, la stessa soluzione tecnologica dovrà garantire che siano trattati solo i dati personali necessari per ogni specifica finalità del trattamento per impostazione predefinita. Questi principi si attuano, secondo le previsioni del GDPR, mettendo in atto misure tecniche e organizzative adeguate. L’approccio, quindi, deve muovere da un processo che è logicamente antecedente rispetto alla soluzione che resta neutra.” (articolo dal titolo ‘Covid19 e monitoraggio tramite app: un approccio consapevole basato su privacy e regole di protezione dei dati’).
Ormai, diffusamente, si sente parlare di soluzioni tecnologiche basate sull’intelligenza artificiale (Artificial Intelligence) per contenere e contrastare il fenomeno del contagio; insomma sistemi algoritmici verso i quali- oggi più di ieri – è doveroso tenere un atteggiamento di cautela da realizzare seguendo le linee guida contenute nella Raccomandazione CM/Rec (2020)1.
In questo contesto di emergenza da coronavirus l’Avv. Nicola Fabiano (sebbene rinviando ad altra sede ogni approfondimento) ha ricordato che “si parla di Intelligenza Artificiale per fare riferimento ad avanzate soluzioni algoritmiche che poco hanno a che fare con la definizione e l’etimologia del termine “intelligenza” che è propria ed esclusiva dell’essere umano. Del resto, nel campo della AI, è noto il limite determinato dai biases o human biases che possono condurre a risultati algoritmici non precisi o inaffidabili” (articolo dal titolo CORONAVIRUS APP e PRIVACY: un valido approccio giuridico al GDPR).
Proprio questi profili vengono espressamente richiamati al punto 5 delle linee guida CM/Rec (2020)1 “While it is often argued that the costs are offset by gains in rationalisation and accuracy, it is important to note that most algorithmic systems are based on statistical models in which errors form an inevitable part, sometimes with feedback loops that maintain, replicate and reinforce pre-existing biases, errors and assumptions. Although it may seem as if larger datasets provide better chances of finding recurrent patterns and correlations, accuracy rates do not automatically increase with the size of the dataset. As a result of the large number of people affected by algorithmic systems, the number of errors in the form of false positives and false negatives, and of people who are affected by these errors and inbuilt bias, will also expand, triggering additional interferences with the exercise of human rights in multiple ways.”
Da qui, l’invito al legislatore di ogni Stato membro al rispetto dei diritti umani ogni qual volta si opti per la scelta dei sistemi algoritmici.
E’ proprio al legislatore italiano (alla Commissione IX della Camera dei deputati) sono state rivolte le parole del Presidente del Garante per la Protezione dati personali nella audizione informale dell’8 aprile 2020.
Sono stati esaminati in successione gli argomenti più importanti:1. Diritti, deroghe limiti, 2 Mappe epidemiologiche e sorveglianza 3. Il contact tracing.
Il Presidente Antonello Soro ha concluso evidenziando che “Il rischio che dobbiamo esorcizzare è quello dello scivolamento inconsapevole dal modello coreano a quello cinese, scambiando la rinuncia ad ogni libertà per l’efficienza e la delega cieca all’algoritmo per la soluzione salvifica”.
Consapevolezza, in sintesi, è la parola d’ordine affinché i miei diritti umani non vengano violati dall’algoritmo, neanche ai tempi del COVID 19.