Italia
Si è tenuto il 18 marzo a Roma il XXII incontro del ciclo dei Seminari Bordoni dedicato a “Reti sociali su Internet e sentiment analysis“, organizzato dalla Fondazione Ugo Brodoni a cui hanno partecipato informatici, ricercatori accademici e rappresentanti di alcuni dei principali operatori di rete. Un’occasione per ricordare come e quanto i social network hanno cambiato il nostro modo di relazionarci, di comunicare e di appartenere ad una comunità. Ogni giorno in tutto il mondo le persone si scambiano miliardi di opinioni e di pensieri sotto forma di messaggi, ma anche di contenuti audiovisivi, aumentando a dismisura il flusso di dati che corre sulle autostrade informatiche. Queste informazioni sono oggetto di studio e di ricerca, per diverse finalità, sia scientifiche, sia di mercato, ponendo ai regolatori politici delle scelte da compiere, ma anche la consapevolezza che in tutto questo universo di bit in movimento si nascondono delle grandi opportunità di sviluppo. “Ogni giorno la nostra società produce una quantità impressionante di testi; un bombardamento giornaliero di informazioni”, ha detto, nel suo discorso di apertura della mattinata, il presidente della Fondazione Ugo Bordoni (FUB), Enrico Manca, aggiungendo: “Nel 2009 sono state inviate e ricevute quotidianamente 250 miliardi di eMail e sono stati pubblicati sui social network una media di 27 milioni di messaggi. Manuel Castells ha definito questo fenomeno come auto-comunicazione di massa, riferendosi alla partecipazione diffusa delle persone a forum, blog e reti sociali come Facebook o Friendfeed. Cioè tutte le azioni che permettono agli individui di esercitare un ruolo attivo nella formazione delle opinioni, prescindendo dal relazioni di prossimità fisica o sociale“.
All’interno delle reti si realizzano così sinergie virtuose tra la dimensione cognitiva e quella emotiva dell’esistenza, facendo emergere un modello sociale che premia la condivisione piuttosto che la separazione, la comunità invece che il singolo. È in questo contesto che si delinea la nuova democrazia della partecipazione elettronica, ovvero l’eDemocracy, la nuova inclusione sociale, ma nello stesso tempo, ha precisato Manca,: “Sorgono nuovi interrogativi sulle dinamiche di costruzione del consenso intorno ai nodi delle reti sociali, sulla natura dei diritti e delle responsabilità che caratterizzano tale interazione sociale, in relazione alla produzione e lo scambio di contenuti online“. La tutela del diritto d’autore sembra essere la prima criticità, a cui segue il ritardo del nostro sistema giuridico nella gestione e nella valorizzazione delle nuove forme di espressione e comunicazione tecnologiche, soggette spesso ad un uso distorto da parte di alcune fasce di utenti, come nel caso della recente sentenza Google. Qui è stato definito infatti un nuovo livello di responsabilità del provider di tecnologia, in cui rientra anche il ruolo di editore di contenuti, che la condanna del motore di ricerca di Montain View, per violazione della privacy, determina in modo chiaro e non senza un lungo strascico di polemiche. Sta di fatto che la condivisione dei contenuti online, nonostante i tanti problemi anche di natura giuridica e morale che creano, rimangono un giacimento di opportunità a cui non si può rinunciare, definiti da molti: la vera grande ricchezza di Internet.
Si pone ora il problema di come gestirli e comprenderli, nel modo più consono ai nuovi orientamenti della società, senza urtare le sensibilità di nessuno, invadere la privacy e nello stesso tempo limitarne le capacità espressive. Il seminario si è proposto di mostrare e di approfondire, proprio alla luce di questi nuovi scenari, tutte quelle tecniche di analisi e di misurazione delle opinioni e dei sentimenti che gli utenti si scambiano attraverso la rete. Tecnologie e metodi di ricerca fondati sul trattamento informatico di questi dati, a cui si aggiungono anche comportamenti e atteggiamenti che sono sempre più spesso rintracciabili nei testi che circolano sul web. Contenuti multimediali e multipiattaforma che riempiono le reti sociali e che, come detto, sono ormai miliardi. Secondo Giuseppe Richeri, docente universitario e membro del Comitato Scientifico FUB: “Ogni giorno gli internauti italiani passano sui social network in media almeno un’ora. Si tratta – ha spiegato il professore dell’Università di Lugano – di una comunità di 24 milioni di persone che nel nostro paese accede alla rete, la metà delle quali frequenta social network e che nel 75% dei casi ha un’età compresa tra 18 e 34 anni“. Una società online che sta mutando velocemente, sia in termini qualitativi, sia quantitativi, anche con l’entrate in scena degli User Generated Content. Quei contenuti che vengono prodotti dal basso, dagli utenti stessi della rete, che come diceva Manca sono la nuova ricchezza del web e che nello stesso tempo, ha invece sostenuto Richeri, pongono nuove problematiche: “In termini di qualità, quantità, affidabilità e di migrazione del pubblico dai media tradizionali alle nuove piattaforme di comunicazione, un processo variegato che coinvolge più livelli del mondo dei media, compresa la pubblicità, in costante calo su giornali e tv e in crescita sui nuovi mezzi di comunicazione“.
Tra i massimi studiosi di tali argomenti in Italia c’è sicuramente Alessandro Panconesi, docente all’Università di Roma La Sapienza, che nella sua presentazione, “Il gossip è una cosa seria! Il connubio tra informatica e scienze sociali attraverso la rete“, ha mostrato in che modo si fa oggi analisi informatica delle reti sociali e come si modellano i fenomeni di interazione sociale che avvengono sul web. Presentato da Mario Frullone, direttore ricerche della FUB, qui in veste di moderatore degli interventi, Panconesi si è soffermato sul nuovo corso dell’informatica all’interno delle scienze sociali e in particolare dei social network. “Con i nostri strumenti siamo oggi in grado di monitorare le reti sociali e di raccogliere molti dati intorno alle opinioni e alle idee espresse dagli utenti, nonché relativi ai loro atteggiamenti“. “Da questi nascono le teorie delle reti sociali e i metodi di analisi dei dati empirici – ha affermato Panconesi – che sono oggi in circolazione, anche conosciute come opinion mining, cioè l’analisi quantitativa e qualitativa delle percezione degli utenti e dei consumatori, a partire da grandi quantità di dati e grazie all’utilizzo di modelli matematici, che potranno poi avere un impiego industriale o culturale“. Come dire che si stanno cercando di individuare le nuove leggi del web a partire da ciò che scriviamo su blog, newsgroup, forum, siti di recensioni online e social network, solo che non è chiaro in che modo ci si possa arrivare a partire dall’analisi informatica delle relazioni sociali. Queste inoltre, non bisogna diementicarlo, sono costruite in rete sullo scambio di dati, il più delle volte di natura sensibile, e gli interessati devono essere messi in grado di esprimere consapevolmente e liberamente le proprie scelte in ordine al trattamento di questi, come vuole la legge sulla privacy in vigore in Italia. “Il web – ha spiegato Panconesi – ha di per se una natura sociale, perché fatto di link che collegano individui e dati in continuo scorrimento. Il numero di tali link determina il successo e la popolarità di una pagina o di un sito ed in questo modo che si sono determinate ad esempio la Leggi a potenza“. Una popolarità che va modellata, ha precisato il professore, perché si è potuto constatare che: “Più si hanno amici e più si ha la possibilità di aumentare a dismisura la nostra popolarità, in termini di nuove amicizie, sul modello economico del ‘Rich get richer’; ancora un esempio, della bontà delle nuove tecniche di analisi matematiche applicate alla sociologia, è l’individuazione della famosa legge dei sei gradi, fino a qualche anno fa considerata un’ipotesi, secondo cui qualunque persona può essere collegata a qualunque altra persona attraverso una catena di conoscenze con non più di 5 intermediari, ora dimostrata legge da numerosi programmi di ricerca“.
Basta quindi mettersi in ascolto del web e dell’incessante flusso dei dati per riuscire a discernere tutta una serie di informazioni su come e cosa pensiamo e in che modo agiamo, soprattutto con riferimento al mondo del marketing, anche se le applicazioni in questo senso possono essere diverse e fuorvianti. Le aziende che lavorano sul web e sulle reti sociali stanno cercando il modo più veloce per arrivare a risultati concreti su cui ragionare, perché il marketing relazionale fino ad ora ha dato solo delle indicazioni di massima, delle suggestioni, più che delle vere e proprie best practice su cui poter contare. “Non è semplice raccogliere milioni di dati ogni giorno ed analizzarli in tempi commercialmente sfruttabili – ha sottolineato Giambattista Amati della FUB – parliamo di 50 milioni di opinioni per utente al giorno solo in Italia e di cui siamo riusciti a raccoglierne ben 29 milioni“. Lo strumento utilizzato per tale lavoro, ha raccontato Amati, è il nuovo motore di ricerca TERRIER, acronimo di TERabyte RetrIEveR, canale open source sviluppato dall’Università di Glasgow, che assicura l’estrazione dei dati indicizzati attraverso search engine in modo che questi siano processabili dalle librerie che eseguono la Latent Semantic Analysis (LSA). Una piattaforma di ricerca che trova oggi sempre nuove applicazioni, anche nella convergenza tecnologica tra televisione e Internet (TV++).
Ovviamente, ha sostenuto nel suo intervento Luigi Montuori per il Garante della Privacy: “Gli strumenti son utili in base all’uso che ne fa. La protezione dei dati personali in questi scenari deve essere vista come un aiuto nella diffusione delle nuove tecnologie e non un impedimento. Se il cittadino si sente protetto e tutelato percepisce una maggiore sicurezza e accetta l’interazione con il mezzo“. “L’unico rischio – ha precisato Montuori – che in molti paventano è un processo in corso di profilazione di massa o di schedatura, esageratamente già annunciato da qualcuno, che necessita di una risposta in termini di trasparenza delle operazioni e di gestione dei tanti database che stanno sorgendo“. Un tema importante che in Italia necessità di un maggiore spazio di dibattito, secondo Alberto Marinelli dell’università di Roma La Sapienza: “L’utilizzo di modelli matematici nelle scienze sociali non è l’unico modo per computare i dati, ci sono infatti la Social Network Analysis (SNA) ad esempio, che ci hanno permesso di misurare quanto le tecnologie abilitano i comportamenti sociali e di come le pratiche sociali ne permettano la diffusione“. “Attraverso la Sentiment Analysis – ha sottolineato Marinelli – si riesce a dare un valore sociale ed economico al modo in cui gli utenti parlano di un avvenimento o di un brand“.
Gli stessi operatori di rete, intervenuti alla tavola rotonda “Opportunità e rischi dell’opinion mining delle reti sociali“, sempre moderata da Frullone, hanno espresso un moderato ottimismo attorno a teli pratiche informatiche e alla Sentiment analysis, proprio per i dubbi che sono stati espressi negli interventi dei primi speaker. Giampaolo Balboni di Telecom Italia ha sostenuto che: “Ascoltare la rete è fondamentale, ma bisogna saper discernere tra cose utili e cose inutili, perché poi è su questi dati che vengono costruite strategie aziendali di lungo periodo e soprattutto investiti soldi“. Torna quindi il problema della validità delle informazioni raccolte, della loro autenticità e veridicità, che non sempre è facilmente verificabile: “Il più delle volte si parla solo di trend e di possibili sviluppi futuri – ha specificato Valeria Sandei di Almaviva – più che di un dato certo, anche se le tecnologie semantico-ontologiche, che oggi si utilizzano sul web, permettono di raccogliere dati molto attendibili“. Numerosi utenti si divertono a diffondere false informazioni su Internet, come anche opinioni costruite per creare confusione, dando vita ad uno scenario che progressivamente diventa sempre meno semplice da gestire. “Elementi di discontinuità sociale sono attivi sul web come nella società reale – ha sostenuto Antongiulio Lombardi di 3Italia – ciò che bisognerebbe fare è impegnarsi maggiormente nel diffondere la consapevolezza, tra gli utenti, dell’importanza che hanno i concetti di autenticità e validità delle informazioni immesse in rete“. In questo modo, ha spiegato Maurizio Mencarini di Exper System, è possibile dare un senso alle parole individuate sulla rete, proprio in virtù del fatto che: “La loro analisi semantica trova significato in base all’utilizzo che se ne è fatto delle stesse e le possibili applicazioni sono diverse, dal brand identity all’eCommerce, dal business intelligente alla Net Economy, fino alla prevenzione di azioni pericolose di individui e gruppi con finalità terroristiche o violente in generale“. Sulla questione Google è infine tornata Sara Rinaldi di Fastweb, che vede nella sentenza italiana un pericoloso precedente giuridico: “Un provider di tecnologia o un operatore di rete non deve avere il ruolo di controllore sull’operato degli utenti, perché così facendo si potrebbe generare un allontanamento degli stessi dal mezzo, con gravissime ripercussioni economiche ad ampio spettro“. Le tecnologie di ascolto sociale non sono mai piaciute a nessuno, richiamando alla memoria esperimenti di ingegneria sociale dagli esiti spesso drammatici, ma allo stesso tempo è improbabile che le nostre comunicazioni online non vengano raccolte ed esaminate da aziende e agenzie di marketing. Nel tempo tali pratiche di information mining avranno un ruolo sempre più importante per lo sviluppo della nuova Net Economy, ciò di cui abbiamo bisogno è che lo sviluppo tecnologico sia ancorato a saldi principi di etica pubblica e di responsabilità sociale, che possano garantire al contempo le legittime esigenze di conoscenza, espresse da centri di ricerca e da aziende, con i diritti degli utenti.