La lotta alla disinformazione è un argomento ricorrente nell’ambito degli ecosistemi digitali, ma non coincide con la promozione della ricerca della verità e spesse volte dimentica di collocare l’essere umano al centro dell’evoluzione tanto della tecnologia quanto della norma.
Alla ricerca della verità perduta
La ricerca delle verità è un movente che ha da sempre spinto l’essere umano, sin da tempi remoti, verso il perseguimento di una maggiore conoscenza e costituisce il fondamento dell’epistemologia nonché dell’intera filosofia della scienza. Nel mito della caverna platonica, è il dubbio circa la verità offerta dalle ombre proiettate a muovere la volontà del filosofo verso la scoperta della realtà e la condivisione dei suoi frutti.
L’allegoria resiste però in una caverna che si è fatta strutturata e ampia, come il mondo digitale e Internet? Certamente, riecheggia il passaggio “Sì, sono un criminale. Il mio crimine è la curiosità” contenuto all’interno dell’Hacker Manifesto[1]. O forse il problema è lo Splinternet, ovverosia il fenomeno della frammentazione di Internet in ragione di pressioni culturali e normative, che sta plasmando le confortanti caverne delle echo chambers?
Interconnessi ma divisi: il nodo delle echo chambers
La possibilità di essere interconnessi attraverso Internet è un fatto e un presupposto che può condurre ad una gamma di scenari che può andare dallo scambio di informazioni ed evoluzione fino a polarizzazioni ed estremizzazioni. Il social network è il mezzo all’interno del quale si è registrato proprio il fenomeno delle echo chambers o camere dell’eco, ovverosia ambienti virtuali (il più delle volte: gruppi o “bolle social”) all’interno delle quali viene agevolato l’ingresso e la circolazione delle sole informazioni che rafforzano le convinzioni dell’utenza, mentre ogni informazione non allineata semplicemente è esclusa, sottostimata e, di fatto, censurata. Con l’esito di fornire e rafforzare un’unica rappresentazione della realtà, escludendone ogni altra in modo totalmente acritico.
In qualche modo è stata l’evoluzione degli ecosistemi digitali ad aver contribuito a questo frazionamento, incentivato dagli algoritmi e dalle dinamiche premiali dell’engagement che sempre più spesso sfocano in una vera e propria gamification. Pur in presenza di fortissime asimmetrie informative, questi sistemi sono ampiamente accettati da parte dell’utenza e dunque devono oramai essere considerati come un fatto. Non immutabile, beninteso, ma divenuto estremamente complesso nel tempo.
Il legislatore si è però concentrato più del fenomeno a valle della generazione e circolazione dei contenuti, promuovendo azioni e campagne di “lotta alla disinformazione”. Probabilmente in ragione dell’onda emotiva di un intervento emergenziale e reazionario. Questo però comporta un certo grado di miopia nell’approccio, impedendo una corretta analisi e comprensione del fenomeno. Se non si guarda ai suoi presupposti, programmare interventi per applicare (o incentivare) dei correttivi a monte è, ancor prima che impossibile, impensabile.
L’approccio normativo al fenomeno delle fake news
La maggiore preoccupazione dell’agenda dei vari governi non è mai stata la ricerca della verità – o anzi: la rimozione degli ostacoli per perseguire tale scopo – bensì la lotta alla “disinformazione”. Qualunque cosa ciò voglia dire, dal momento che la definizione pacificamente condivisa di fake news comprende non solo notizie totalmente inventate ma anche ingannevoli, presentate in modo tale da manipolare la percezione della verità del lettore. Cosa che può avvenire anche non in spregio della verità ma ricorrendo a tecniche retoriche o altre modalità per catturare l’attenzione del lettore. L’esperienza vuole inoltre che le fake news siano accomunate dal movente di favorire interessi socio-culturali, scientifici, economici o politici ad esempio, perseguendo cioé una finalità divergente rispetto alla pura ricerca e condivisione di verità o conoscenza. Tanto la manipolazione del lettore quanto la divergenza rispetto alla purezza degli scopi indicano dei parametri interpretabili in modo così ampio da poter sfociare nell’applicazione arbitraria di tali presupposti per giustificare qualsivoglia azione di contrasto. Che nella pratica comporta il più delle volte la rimozione dell’informazione e la criminalizzazione del suo autore originario o mediato.
L’Unione Europea, nel descrivere la propria strategia di contrasto alla disinformazione attraverso dei codici di condotta[2], fa ricorso allo strumento retorico del pendio scivoloso: la diffusione di fake news è una “minaccia crescente per le democrazie europee” con effetto destabilizzante. Se però una democrazia può essere destabilizzata da azioni di fake news, questa avrebbe dovuto forse investire nell’educare i cittadini alla ricerca della verità anziché nelle più variegate azioni – la cui efficacia è tutt’ora indimostrata – di contrasto della disinformazione. Quanto meno si potrebbero perseguire entrambi gli obiettivi, dal momento che un’alternativa non esclude l’altra.
Possiamo affermare che il compromesso di ritenere che una democrazia divenga intrinsecamente fragile per effetto del “digitale” sia stato, se non accettato in modo diffuso, narrato fino al punto in cui è stato considerato come una verità accettabile?
Pensare che possa esistere una norma giusta e perfetta per contrastare le fake news è un’illusione. Stimare che qualsivoglia norma a riguardo possa essere dirimente e comportare la cessazione del fenomeno, sfocia semplicemente nell’allucinazione.
Il fallimento dell’azione normativa di contrasto alle fake news
Se intrapresa come unica soluzione, ogni azione normativa di contrasto alle fake news è destinata a fallire vista l’ampiezza del “campo da gioco” e la velocità di generazione e propagazione di tali informazioni. Anzi, comporta più criticità di quelle che ha l’intento di risolvere. Che sono in quantità di qualche ordine di grandezza inferiore rispetto a quelle effettivamente risolte.
Pensiamo ad esempio ad un’estensione al massimo della punibilità in astratto e la scelta di colpire l’azione di chiunque vada a condividere una fake news. Questo comporta l’effetto di porre in concorso con gli autori tutti quei soggetti che hanno subito l’effetto distorsivo accettando, di fatto, il rischio di criminalizzare alcune vittime. È accettabile un obbligo surrettizio in capo all’utente di dover verificare ogni contenuto prima di operare una ricondivisione dello stesso? Quale soglia minima di comprensione e discernimento si deve porre affinché la condotta sia inaccettabile dall’ordinamento in quanto prevedibile nella sua illiceità e dunque fonte di responsabilità?
La ricondivisione di una notizia manifestamente falsa o infondata con il pieno intento di ampliarne la portata e gli effetti negativi è infatti un caso di scuola. Mentre l’applicazione di una norma estremamente severa comporta il rischio di colpire la libertà di espressione e di informazione, come ad esempio la creazione di contenuti satirici o di critica.
Per quanto la diffusione dell’Intelligenza Artificiale abbia aumentato la generazione e la propagazione di fake news, siamo certi che focalizzare l’attenzione sul criminalizzare l’impiego illecito di un determinato strumento possa essere una strategia efficace?
Ecco così che gli intenti dichiarati e pregevoli di voler realizzare un mondo digitale “migliore” (altro termine estremamente pericoloso per la sua relatività), quando si trovano alla prova della realtà, lastricano la strada verso futuri decisamente poco desiderabili. Anche perché non eliminano il problema che avrebbero dovuto affrontare.
E questo non solo per la naturale imprevedibilità dell’evoluzione tecnologica, ma soprattutto perché non si tiene debitamente conto del ruolo centrale dell’utente.
Ricollocare l’umano al centro
Nel multiverso dei diritti digitali, è fondamentale che la tecnologia permanga al servizio dell’essere umano, ma perché ciò sia possibile questi deve essere ricollocato al centro nel quadro delle tutele normative. Gli strumenti di natura rimediale o riparatoria si collocano in un momento successivo rispetto al vulnus prodotto e rivelano un’azione imperfetta della norma.
Nel momento in cui l’essere umano è un mero destinatario formale e soggetto passivo, allora diritti e libertà fondamentali resteranno solo sulla carta. O in qualche byte. Come avviene nel caso in cui si opti per la lotta alla disinformazione anziché favorire la ricerca della verità da parte del consociato, senza che questo sia limitato al campo di attività come utente di un social network.
Marcel Proust diceva: “La saggezza non si riceve, bisogna scoprirla da sé dopo un percorso che nessuno può fare per noi, né può risparmiarci, perché è un modo di vedere le cose”. La libertà di questa scoperta deve essere però difesa da ogni forma di ingerenza, ma richiede che l’essere umano, pur negli scenari del multiverso digitale, sia in grado di resistere e di agire.
Questi sono elementi fondamentali di cui tenere conto affinché sia il legislatore che il cittadino possano orientarsi nella pur complessa evoluzione tecnologica e normativa.
[1] Altrimenti detto “La coscienza di un Hacker”, è considerato una pietra miliare della cultura hacker risalente al 1986.
[2] https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/new-push-european-democracy/protecting-democracy/strengthened-eu-code-practice-disinformation_it