Uno dei fattori cruciali della trasformazione digitale è che spesso riporta alla luce dati oscuri, finiti magari in un cimitero di carta o di byte abbandonati nei server polverosi di questa o quella Pubblica Amministrazione, di cui nessuno finora si è occupato.
Il primo fattore critico per l’utilizzo di un dato è certamente la sua esistenza. Sembra un paradosso ma non lo è. Pensiamo a quante volte il cittadino si è recato presso un ufficio pubblico ed il funzionario non è stato in grado di fornire una risposta perché non trovava la pratica.
Il secondo fattore abilitante per la digital transformation è la localizzazione del dato e, a seguire, la sua esattezza, assieme alla giusta classificazione, come precondizione per un suo uso legale.
Rimane, infine, un ulteriore fattore culturale e di formazione del personale che mettiamo per ultimo, ma certo non per importanza.
Il fattore simultaneo di “twin transition” promosso dall’Europa, contemporaneamente sia nel digitale che nel green, pone inoltre, fin da subito, il problema di costruire un ambiente digitale capace di immagazzinare in sicurezza il dato del cittadino, avendo cura però anche dell’impatto energetico.
Attualmente una mole incredibile di dati viene giornalmente raccolta e immagazzinata dalla PA, consumando spazio ed elettricità, in modo promiscuo e disomogeneo. Tuttavia, solo una piccolissima percentuale dei dati immagazzinati viene usato, il resto rimane inutilizzato e finisce in una sorta di cimitero di dati, di cui a volte nemmeno la PA ha contezza, perché spesso non sa di averli o non li ha classificati nel modo corretto per poterli usare.
Ciò significa che per la transizione digitale non ci si deve solo preoccupare di creare un enorme magazzino centrale sicuro, ma si deve avere modo anche di valutare come acquisire, classificare e gestire i dati che andranno inseriti all’interno, ovviamente anche quelli già raccolti.
Il primo passo è quindi fare luce su ciò che già c’è, ovvero quei “dati oscuri” di cui nessuno oggi si preoccupa. Quei dati che non possono essere analizzati, valutati e quindi utilizzati nella stragrande maggioranza dei casi, comportando costi per i supporti di memorizzazione impiegati e dell’elettricità, nonché emissioni dannose per l’ambiente di milioni di tonnellate di CO2.
Tutto questo al netto dei problemi legali che i dati (anche e soprattutto quelli “oscuri”), possono sollevare, se non vengono cancellati dopo che hanno soddisfatto lo scopo per cui sono stati raccolti.
Orbene, come salvare i vecchi dati? Dove si trovano? Come sono stati memorizzati? Come avverrà la trasmigrazione degli stessi in un unico Cloud centrale?
Una valutazione umana sarebbe difficile, improbabile e costosissima. Il punto centrale della sicurezza dei dati della PA non riguarda quindi solamente la loro archiviazione e non è un fattore crittografico a risolvere il problema.
Solo con il ricorso all’intelligenza artificiale si potrebbe dar vita a una rinascita e valorizzazione di questi dati oscuri in possesso della PA.
E allora, concludendo, chi dispone oggi della tecnologia per poter compiere queste analisi sui very big data?
Eccezion fatta per i cosidetti hyperscaler, nessuno sa come valorizzare i dati dimenticati della PA, e come classificarli.
Oggi solo con il ricorso all’AI è possibile analizzare il contenuto dei dati, sapere se e quando sono stati usati, quindi classificarli e usarli o cancellarli se non necessari.
I dati già migrati sul Cloud dovrebbero generalmente essere già ordinati, classificati, e perfino cercare di prevedere un loro riuso. Ma così non è. Ed è un bel problema di cui finora nessuno pare, ancora, occuparsi o preoccuparsi.