Per garantire i massimi livelli di sicurezza alle nostre infrastrutture più critiche, energetiche, idriche, relative ai trasporti, di telecomunicazione e per la Difesa, è stato pensato e sviluppato dall’Agenzia nazionale per le nuove tecnologie, l’energia e lo sviluppo economico sostenibile (Enea) un nuovo software completamente automatizzato: Obserbot.
Grazie a questa piattaforma, sarà possibile acquisire ed elaborare le informazioni online relative ad eventuali danni alle reti dovuti a eventi naturali, catastrofici e terroristici. La sicurezza dei nostri servizi più essenziali alla vita di tutti i giorni passa sostanzialmente attraverso un’analisi attenta ed avanzata dei big data.
“Si tratta di un software in grado di osservare in maniera totalmente automatizzata la rete grazie alla potenza della nostra infrastruttura di calcolo ENEAGRID/CRESCO e alla rete nazionale a banda ultralarga GARR”, ha commentato in una nota Vittorio Rosato, responsabile del Laboratorio Enea di Analisi e protezione delle infrastrutture critiche.
I dati, spiega il responsabile Enea, sono acquisiti in tempo reale sulla rete, sui social, sui siti web, le piattaforme online, dalle agenzie di stampa, le testate giornalistiche, i blog persino: “L’analisi di queste informazioni è molto delicata perché queste fonti richiedono una verifica approfondita del contenuto ma restituiscono una conoscenza diretta dello stato delle infrastrutture grazie alle informazioni messe in rete dagli utenti stessi, il cosiddetto fenomeno del crowdsourcing”.
“In questo modo – ha spiegato Rosato – inauguriamo un nuovo modo di ascoltare i cittadini e di renderli proattivi nel favorire la sicurezza e la protezione della collettività e dei servizi essenziali”.
Obserbot, in definitiva, è una piattaforma in continua espansione capace di arricchirsi, in modo del tutto automatizzato, con le informazioni su incidenti e blackout alle infrastrutture critiche pubblicate online dagli internauti.
Tutti i dati sono poi raccolti ed elaborati sia dal software Enea, sia da altri enti di ricerca europei, come il centro olandese Deltares.
Grazie a questa nuova soluzione, basata su big data e automazione, è stato inoltre possibile individuare gli influencer, “ossia quelle persone che più di altre contribuiscono alla formazione delle opinioni e degli interessi generali”, ha sottolineato Gregorio D’Agostino, team leader del progetto di sviluppo del software, e misurare la tendenza dei navigatori virtuali ad essere influenzati.
Un elemento rilevante per questi studi, sviluppati in collaborazione con la Boston University, è stato il concetto di “temperatura della lingua”: “Basato sulla frequenza di ripetizione delle parole nei testi, che consente di avvicinare l’analisi automatica di un messaggio a criteri più “umani” nel processo di individuazione delle informazioni d’interesse”.
In definitiva, il messaggio dei ricercatori dell’Enea è semplice quanto oggettivamente utile: “l’analisi dei dati della rete costituisce un’incredibile sorgente di conoscenza e poter accedere a queste informazioni può risultare strategico anche per il progresso della ricerca scientifica”.
Oggi la dimensione del web è praticamente sconfinata: si stima che ci siano 1 miliardo di siti e 5 miliardi di pagine web. I social network contribuiscono costantemente all’aumento di queste dimensioni, visto che ogni secondo nel mondo vengono pubblicati 6000 tweet e spediti oltre 2 milioni di messaggi di posta elettronica.