analisi

Digital Services Act, tra ombre e libertà di espressione sui social

di |

Il DSA è arrivato all’approvazione finale ed entrerà in vigore al più tardi il 1 gennaio 2024. In questo articolo mi concentro su alcuni aspetti sui quali sarà opportuno fare attenzione.

Pubblicato come proposta della Commissione Europea nel dicembre 2020, il DSA è arrivato all’approvazione finale dopo una fase molto lunga di discussione sia a livello istituzionale che di consultazione della società civile ed entrerà in vigore al più tardi il 1 gennaio 2024. Ricordo che il processo legislativo dell’Unione Europea prevede che normalmente la Commissione Europea (organo esecutivo) abbia il potere di iniziativa legislativa, formulando proposte che devono essere approvate dal Parlamento Europeo (eletto dai cittadini) e dal Consiglio dell’Unione Europea (formato dai ministri dei governi degli Stati dell’UE), che sono gli organi legislativi. 

Digital Services Act, i lati positivi

Si tratta certamente di un evento di rilevanza internazionale per la regolamentazione dei servizi digitali, i cui elementi più rilevanti erano stati anticipati qui, e che pone l’Europa all’avanguardia in questo settore. È certamente positivo, ad esempio, che nella versione adottata venga salvaguardata la libertà di espressione proibendo il monitoraggio generale dei contenuti pubblicati da parte degli utenti o la ricerca attiva di elementi che indicano un’attività illegale, approccio che ha dimostrato sul campo di creare molti più problemi (rimuovendo contenuti perfettamente legittimi) di quanti ne abbia risolti. Altrettanto positivi sono gli obblighi di trasparenza verso gli utenti richiesti alle piattaforme, soprattutto relativamente ai sistemi di raccomandazione (proibendo l’uso dei dati sensibili e, per i minori, vietando l’uso di qualunque dato personale), alla pubblicità online (per la quale gli utenti devono poter capire in base a quali parametri gli viene mostrata, con la possibilità di cambiarli) e alle garanzie che gli utenti hanno rispetto alla rimozione dei contenuti. Vi sono molti altri elementi positivi, tendenti a garantire un ecosistema dei servizi online sicuro e fidato. Un ulteriore descrizione di quanto previsto nella norma approvata si trova nel comunicato stampa pubblicato dal Parlamento il 5 luglio 2022. In questo articolo mi concentro invece su alcuni aspetti sui quali sarà opportuno fare attenzione.

Digital Services Act, alcune ombre

Mentre il DSA ha previsto che, qualora vengano forniti strumenti per la trasmissione crittata o con meccanismi che rendono impossibile l’identificazione degli utenti, ciò non costituisce, di per sé, indizio di attività illegale, non ha stabilito un diritto esplicito per gli utenti ad usare trasmissioni crittate o a usare servizi in modo anonimo. Alla luce della discussione in atto nell’Unione Europea sulla legislazione cosiddetta del chat control che, con lo scopo di combattere i crimini ai danni dell’infanzia, vuole imporre il controllo automatico di tutti i messaggi scambiati dagli utenti, si tratta di una mancanza che non aiuta nella protezione del diritto fondamentale alla privatezza delle conversazioni delle persone.

È un po’ deludente, dal momento che non aggiunge molto a quanto già previsto dall’attuale normativa per la protezione dei consumatori, come viene gestito dal DSA l’eventuale uso da parte dei fornitori di servizi dei cosiddetti dark patterns (espressione inglese che può essere resa in questo caso come “meccanismi ingannevoli”), ovvero di modalità di presentazione delle informazioni che impediscono all’utente di prendere una decisione in modo equilibrato. Ad esempio, dare maggiore visibilità ad alcune scelte, oppure chiedere nuovamente di compiere una scelta già espressa, o rendere una procedura di rinuncia ad un servizio più complicata o più lunga dell’adesione, o usare dei parametri il cui valore predefinito è difficile o faticoso cambiare.

Un aspetto di preoccupazione concerne l’assegnazione esclusiva alla Commissione Europea dei poteri di supervisione e attuazione verso le piattaforme di dimensioni molto grandi (nonostante ci debba essere un coordinamento tra i vari Coordinatori nazionali dei Servizi Digitali e la Commissione), che espone al rischio di regulatory capture (= cattura del regolatore), in riferimento al fatto che le big tech, dovendo interagire con un solo ente centrale, riescono più facilmente ad influenzarlo. 

Un elemento di potenziale criticità è lo stato di trusted flaggers (= segnalatori affidabili) che può essere assegnato dal Coordinatore nazionale dei Servizi Digitali ad organizzazioni statali o private che hanno dimostrato particolare esperienza e competenza nella valutazione dei contenuti illegali e che lavorano in modo diligente, accurato e obiettivo. Le loro segnalazioni di illegalità devono essere elaborate dalle piattaforme in modo prioritario. Non si può infatti escludere che tale meccanismo possa essere soggetto ad abusi. In generale, la valutazione dell’illegalità di un contenuto può essere un compito difficile da attuare, soprattutto per i fornitori più piccoli, dal momento che cosa sia illegale dipende spesso dalle varie giurisprudenze nazionali. Abbiamo inoltre assistito, nel periodo della pandemia COVID-19, ad un’intollerabile limitazione del dibattito scientifico causata proprio dall’elaborazione di segnalazioni di illegalità, dibattito che è vitale per il progresso della scienza e che non può accadere senza la diversità di opinioni. Come ricordato in un’opinione pubblicata sul British Medical Journal (una delle più prestigiose riviste scientifiche internazionali di medicina generale) a maggio 2021, gli esperti «hanno enfatizzato la quasi impossibilità di distinguere tra un’opinione scientifica minoritaria e un’opinione che è oggettivamente scorretta (disinformazione)». 

Un segnale della delicatezza di una previsione di questo tipo è fornito dall’azione legale appena avviata negli USA dalla New Civil Liberties Alliance (un’importante associazione americana no-profit che si batte per la difesa dei diritti civili e le libertà costituzionali) per conto degli Stati del Missouri e della Louisiana, insieme a Jay Bhattacharya, esperto di politica sanitaria a Stanford, e Martin Kulldorff, epidemiologo di Harvard, entrambi medici e scienziati di assoluto e riconosciuto valore, contro il Presidente degli USA, Joe Biden, il suo capo consigliere sanitario nonché direttore dell’Istituto Nazionale delle Allergie e Malattie Infettive, Anthony Fauci, ed altri alti responsabili della politica sanitaria negli USA. Ciò che viene contestato è la violazione del Primo Emendamento, che protegge la libertà di parola, dal momento che sono emersi documenti che evidenziano come il Presidente ed altri funzionari di altissimo livello del governo USA hanno richiesto alle aziende che governano i più importanti mezzi di comunicazione social di censurare i punti di vista sul COVID-19 e sulla sua gestione che erano in conflitto con i messaggi del Centers for Disease Control and Prevention (= Agenzia per il Controllo e la Prevenzione delle Malattie, l’organizzazione federale responsabile negli USA per la protezione della salute pubblica attraverso il controllo e la prevenzione). Alcuni esempi delle evidenze che sono emerse sono riportati quaqua e qua. Il punto non è tanto il supporto che è stato fornito da queste aziende per una corretta informazione sanitaria (anche se il ruolo dell’Agenzia come sorgente delle informazioni è stato tenuto nascosto) quanto la censura che hanno attuato verso chi era in disaccordo con le versioni ufficiali. Questa azione si è dispiegata con molti meccanismi, da un bando completo sulla piattaforma di comunicazione a un bando cosiddetto “ombra” (= shadow ban, che blocca la notifica a chi segue una certa persona dei messaggi pubblicati dalla persona stessa), a tutta una varietà di meccanismi algoritmici per diminuire o impedire la visibilità dei messaggi o sminuirne la rilevanza (quale, ad esempio, etichettarli con avvisi di allerta o non mostrarli tra i primi risultati di ricerca). In sintesi, secondo quanto sostenuto da questa azione legale, il governo USA ha stabilito quali discorsi potevano essere tenuti in pubblico e quali no, esattamente quello che il Primo Emendamento proibisce di fare. Vedremo come si svilupperà la vicenda.

Guerra in Ucraina, la Commissione Ue può imporre a Facebook, Twitter&Co. il cambiamento degli algoritmi di moderazione, l’adozione di misure di promozione dell’informazione affidabile fino al cambiamento delle interfacce utente

Infine, un ulteriore motivo di attenzione è l’inserimento, avvenuto sotto l’influenza della guerra in Ucraina iniziata a fine febbraio 2022, di un “meccanismo di risposta alle crisi” che fornisce alla Commissione Europea un potere straordinario di intervento in caso di crisi, quali, ad esempio, conflitti bellici, atti di terrorismo, disastri naturali, pandemie e altre serie minacce alla sanità pubblica. In tali casi la Commissione può richiedere a piattaforme e motori di ricerca di grandi dimensioni, per un periodo massimo di tre mesi, misure straordinarie di intervento come, per esempio, l’intensificazione dell’attività di moderazione dei contenuti, il cambiamento degli algoritmi di moderazione, l’adozione di misure di promozione dell’informazione affidabile, il rafforzamento della cooperazione con i segnalatori affidabili, il cambiamento delle interfacce utente. Nonostante tale potere sia temperato dalla necessità di ottenere l’approvazione dei Coordinatori nazionali dei Servizi Digitali e sia previsto che le misure straordinarie richieste siano proporzionate ed efficaci per ottenere lo scopo desiderato, il precedente che si è verificato durante la pandemia del COVID-19, quando, a febbraio 2021, sono state bandite da Facebook tutte le opinioni che discutevano la possibile origine in laboratorio del virus SARS-CoV-2, salvo poi tornare sui propri passi alla fine di maggio dello stesso anno perché si era capito che si trattava di un’ipotesi assai plausibile, lascia qualche dubbio su una misura di questo genere che rischia di determinare un’indebita limitazione della libertà di parola.

Questo avvenimento ci ricorda infatti che può sempre accadere che ciò che ieri veniva considerato “disinformazione”, oggi può essere una teoria accettabile che diventa domani la verità riconosciuta. Tra gli altri, questo è stato messo in evidenza da ciò che il giudice costituzionale Samuel Anthony Alito Jr ha scritto nel 2012 nella sua opinione in dissenso sul caso US vs. Alvarez: «Il punto è … che è pericoloso permettere che lo Stato sia l’arbitro della verità. Anche quando c’è un vasto consenso tra gli studiosi riguardo uno specifico soggetto, si rende un miglior servizio alla verità permettendo che il consenso venga contestato senza paura di ritorsioni. La conoscenza che viene accettata oggi alle volte può rivelarsi errata». Si tratta di un caso in cui la Corte Suprema degli Stati Uniti ha ritenuto essere in contrasto con il Primo Emendamento una legge (Stolen Valor Act) che stabiliva fosse un atto criminale il dichiarare di aver falsamente ricevuto un’onorificenza militare. Il giudice Alito ha espresso un parere in dissenso argomentando che la precedente giurisprudenza della Corte aveva già riconosciuto che affermazioni oggettivamente false non sono intrinsecamente protette dal Primo Emendamento, che tutela invece l’interesse del pubblico dibattito a ricevere una pluralità di punti di vista su uno stesso argomento. Tale legge, ha concluso il giudice, non costituiva alcuna limitazione in questo senso e quindi non rappresentava alcuna minaccia alla libertà di espressione. 

Certo, si tratta di giurisprudenza degli Stati Uniti, che in fatto di protezione della libertà di parola è più garantista di molti Stati europei, ma – essendo i problemi affrontati dalle società sostanzialmente simili, perlomeno nelle società occidentali – costituisce senz’altro un elemento su cui riflettere.

(I lettori interessati potranno dialogare con l’autore, a partire dal terzo giorno successivo alla pubblicazione, su questo blog interdisciplinare.)

Leggi le altre notizie sull’home page di Key4biz