Nel suo lungo pezzo “Lo spillover del giornalismo” Michele Mezza invita a “riprogrammare le intelligenze dell’informazione” partendo dall’irruzione nelle redazioni della cibernetica negli anni Ottanta e dall’ondata di ristrutturazioni prodotta in questi mesi dalla pandemia con conseguente “surriscaldamento della scena multimediale”.
When facts change, I change my mind. What do you do, sir?
John Maynard Keynes
La salace battuta di lord John Maynard Keynes che richiamiamo anche questa volta in apertura dovrebbe essere riportata sotto ogni testata giornalistica, sia cartacea che elettronica. Sia per confermare ai giornalisti che fanno i cronisti e non i guru, sia per richiamarli ad una rivisitazione del loro mestiere, che è forse uno dei fatti più eclatanti e discriminanti che stanno mutando nella nostra epoca. La prima cosa che penso vada abbandonata completamente è la visione letteraria e retorica che abbiamo del nostro mestiere, che continuiamo a vedere come una professione che coincida con una vita intera e si identifichi esattamente nei contenuti che produce. La tesi che vi propongo è che la pandemia ha reso ormai sfacciatamente visibile come il giornalismo oggi sia l’effetto diretto del processo produttivo, invece che del prodotto, ossia l’informazione che viene diffusa.
A cominciare da una visione laica, scientifica e sociologica di quanto sta mutando nelle dinamiche dell’informazione. L’idealismo di cui rimangono impregnate le professioni liberali, nel nostro paese in particolare, porta i giornalisti a considerare la crisi che da anni attanaglia il loro mestiere come la prostrazione per non ritrovare l’inafferrabile autenticità dell’informazione, avrebbe detto Martin Heidegger, determinata dall’eterno dualismo fra libertà e poteri, mentre, da sempre, giornalismo è, come spiegava pazientemente un grande matematico come Claude Shannon, “spostare un contenuto da un punto all’altro dello spazio” (1). Meccanicamente .E quando, come tutte le cose meccaniche, il movimento è stato automatizzato dalle progressive forme di intelligenza artificiale il funzionario di questa funzione meccanica è decaduto. Esattamente come l’operaio nel processo di automatizzazione della produzione. La comparazione con le figure dell’industrializzazione ancora produce rigetto nei giornalisti che continuano a pensarsi come intellettuali esterni al processo di valorizzazione delle merci. Mentre ci avrebbe aiutato molto calarci nella realtà che ci vedeva fin dal dopo guerra come operai della catena di mercato dell’immaginario, essenziali ma pur sempre accessori, fattori di quella transizione che poneva il consumo al centro dello sviluppo economico più che la stessa produzione.
Sarebbe stato utile già alla fine degli anni Settanta, con il primo salto dal caldo al freddo nella catena redazionale, quando i primi computer irruppero nelle testate, e scaricammo tutti i costi della prima semplificazione dell’organizzazione del lavoro editoriale sui tipografi che furono decimati, rileggere i passaggi del dibattito che pure divise il movimento operaio negli anni Sessanta, quando si affacciò nelle fabbriche la prima versione di un’innovazione tecnologica che palesemente mutava la natura, la meccanica e l’identità del lavoro industriale.
In una straordinaria ricerca sul lavoro all’Olivetti, uno dei più lucidi sociologi del lavoro di quel tempo, Romano Alquati, scriveva “La cibernetica ricompone globalmente e organicamente le funzioni dell’operaio complessivo polverizzate dalle microdecisioni individuali: il bit salda l’atomo operaio alle cifre del Piano” (2). Siamo in preistorico 1963, nel pieno del miracolo economico italiano, in cui, con un’aura di preveggenza, viene analizzato e anticipato il processo che avrebbe successivamente schiantato ogni categoria politica, sindacale e sociale del lavoro in fabbrica, come oggi possiamo constatare. Una lezione quella dell’automatizzazione industriale che non abbiamo avuto né voglia né l’umiltà di imparare. Quei bit che scomponevano e smaterializzavano il lavoro operaio, di lì ad un ventennio sarebbero entrati nelle nostre redazioni senza che ne avessimo consapevolezza e capacità di intuirne gli effetti strutturali. Tanto più che quella spinta tecnologica vene animata e accelerata da una domanda di partecipazione, più radicalmente di disintermediazione, che veniva dalla società che non si accontentava più di essere guidata e selezionata negli accessi all’informazione da una casta imprenditoriale e professionale quale era il comparto editoriale.
Forse con un approccio più industriale avremmo percepito in tutta la sua irreversibile drammaticità il collasso imminente dell’INPGI, l’istituto previdenziale della categoria, che ci spiega con il pragmatismo dei bilanci quale sia il trend che da almeno trent’anni ha cominciato a sgretolare prima lo status, poi le retribuzioni ed ora la sostenibilità stessa dell’autonomia previdenziale. Due numeri avrebbero convinto Keynes a cambiare idea, se avesse mai avuto la tentazione di sostenere la separatezza del giornalismo dell’evoluzione industriale: più o meno 17 mila redattori contrattualizzati con l’articolo uno dell’inquadramento giornalistico, a fronte di quasi 10 mila pensionati. Un rapporto che sfida ogni legge della finanza più creativa, infatti il 2020, si è chiuso con una previsione di deficit dell’Istituto di più di 200 milioni, superando del 15 percento il deficit dell’anno prima che aveva surclassato quello dell’anno precedente: fino a quando potrà girare questa giostra? E vi pare che questo baratro possa essere colmato dall’arruolamento, come viene chiesto, di alcune migliaia di addetti sotto pagati del ciclo della comunicazione d’impresa o della Pubblica Amministrazione? o piuttosto non sarebbe oggi il caso di compiere quell’operazione di verità e affrontare il nodo delle reali competenze e conoscenze che sono oggi essenziali nel ciclo della notizia a partire dalle funzioni informatiche, sistemiste e di programmazione ? Questa crisi si potrà mai superare senza recuperare quella scissione che proprio negli anni Sessanta vide separare gli operatori della notizia da quelli dell’informazione?
La pandemia, come per tutti i processi sociali, dallo smart working, all’e-Commerce, ha accelerato ulteriormente la tendenza a ridisegnare i profili del mondo dell’informazione, e resa evidente in questo scorcio di nuovo millennio come si stia evolvendo il sistema delle nostre relazioni sociali, mediante una trasformazione di codici, linguaggi, grammatiche e simboli, che tendono tutti in un’unica direzione, dove il primato dei mediatori viene inesorabilmente scavalcato dalle ambizioni degli utenti.
Le convulsioni che hanno prodotto in questi mesi di contagio di massa le opinioni che venivano da esperti e scienziati sulle dinamiche del virus, con una relativizzazione di ogni cosiddetto parere scientifico ed una confutazione popolare di diagnosi e prescrizioni che fino a qualche anno fa sarebbero state indiscutibili, dimostrano come il processo di disintermediazione, che ha sbriciolato il primato giornalistico nell’informazione, stia ora attaccando i campi più solenni della scienza e della formazione. Una tendenza che nelle emergenze drammatiche quale è appunto la pandemia, sembrava rallentarsi se non rovesciarsi, mentre, al di la di occasionali contraccolpi, persino la crescita dei volumi di diffusione delle testate giornalistiche indicano come il baricentro dell’informazione sia sempre più incardinato nella filigrana delle relazioni reticolari, prodotte dai social e dalla sussidiarietà degli utenti.
Non è certo un caso che proprio nelle settimane successive al picco del contagio in Italia, siamo nel pieno della primavera 2020, in un momento in cui i numeri sembravano comunque indicare una ripresa del mercato giornalistico, con testate e televisioni in grande spolvero, i principali gruppi editoriali del paese – da Repubblica/La Stampa, al Corriere della Sera/Gazzetta dello sport, al Messaggero, al Gruppo Debenedetti, o anche a testate tutte digitali come l’Huffington Post o LInkiesta e Fanpage – abbiano vissuto ristrutturazioni drastiche, in alcuni casi con repentini cambi di direzione, o annunci di nuove uscite.
Lo stesso si è verificato sulla scena internazionale, con le ristrutturazioni redazionali del New York Times, i rimaneggiamenti del Washington Post, le drastiche riorganizzazioni del Guardian o della BBC. La pandemia ha dato un ulteriore violento scrollone al sistema dell’informazione, esacerbando inadeguatezze e soprattutto impreparazione rispetto ad un crescere rapido di una domanda sociale più complessa e articolata. Il 2020, dal punto di vista mediatico, sarà anche ricordato come l’anno del sorpasso degli investimenti pubblicitari sulla rete rispetto alla spesa pianificata su tutti i media tradizionali del pianeta (3).
Un sorpasso in discesa
Infatti se l’insieme dei circuiti editoriali tradizionali battono il passo, nemmeno i grandi monopoli della rete, i cosiddetti OTT (Over The Top) che pure registrano performance finanziarie senza precedenti, con capitalizzazioni che nelle settimane della pandemia, nella paralisi economica generale, hanno fatto segnare incrementi del 20/30 percento, con il mercato del Nasdaq che ha fine anno arriva a segnare un quasi 50 percento in più rispetto all’anno precedente, sono al meglio della loro forma. A fronte di un rigonfiamento degli introiti si registra una caduta generale della reputation.
Alcune delle grandi firme della Silicon Valley, per la prima volta, sono investite da proteste ed attacchi interni che gettano un’ombra addirittura sulla tenuta della compagine azionaria. Il social network di Mark Zuckerbie è stato fortemente criticato dai suoi principali inserzionisti – dalla Coca Cola alla Unilever, alla Johnson & Johnson – che hanno cancellato sostanziosi investimenti perché contestano l’immagine della piattaforma troppo coinvolta nella gestione di fake news e nella manipolazione dei dati degli utenti. Non meglio se la sono passata Google e Microsoft che nella stessa estate del 2020 sono stati al centro di vere e proprie requisitorie da parte delle istituzioni europee che li ritengono responsabili di esercitare un dominio eccessivo sul sistema mediatico, controllando, con i loro servizi di connessione e di interscambio dati, informazioni sensibili degli stessi organismi amministrativi europei.
48 stati degli USA, sia democratici che repubblicani, si sono associati all’incriminazione di Google e Amazon per inquinamento dell’ecosistema informativo, e in Europa si annunciano nuove norme che renderanno più vincolata l’attività delle piattaforme, che saranno costrette a rendere trasparenti e condivisi i loro sistemi di profilazione e di calcolo predittivo. Si conferma così quanto sia essenziale per questo tipo di imprese, basate sulla delicatissima e sensibile delega da parte degli utenti a gestire, ed a orientare, le proprie identità, il capitale reputazionale, quel patrimonio di affidabilità e di percezioni positive che devono legare gli utenti ai custodi delle nostre intimità relazionali. Torna d’attualità, nell’economia digitale, la previsione di qualche anno fa dell’Harvard Business Review per la quale “nel mercato delle piattaforme i clienti sono più importanti degli azionisti”. Siamo ad un bivio fondamentale: da una parte l’insufficienza dei media tradizionali a canalizzare la domanda di partecipazione e personalizzazione dell’offerta informativa, dall’altra la potenza tecnologica delle piattaforme ha violato diritti individuali e comunitari di fondo. Il buco nero che sta diventando sempre meno sostenibile è proprio la sovrapposizione in uno stesso soggetto della capacità di gestire automaticamente servizi alla persona e di raccogliere e elaborare dati della stessa persona. Una circostanza che altera in maniera strutturale una delle poche leggi naturali del capitalismo: l’ignoranza.
L’invisibile mano del mercato, come diceva Adam Smith non ammetteva asimmetrie cognitive, nessuno poteva sapere e controllare tutte le variabili del sistema economico. Proprio un campione del liberismo monetarista, quale il premio Nobel Friedrich Hayek sosteneva che “L’economia moderna ci spiega come un tale ordine esteso costituisca un processo di raccolta delle informazioni che nessuna planning agency, e soprattutto nessun individuo, può conoscere, possedere o controllare nel suo complesso” (4). Proprio questa “ignoranza“ della complessità della materia da parte di ogni singolo operatore era, fino a qualche anno fa, anche nell’informazione il fattore che riduceva lo spazio per posizioni dominanti e totalitarie. E così come nell’economia, anche nel sistema della comunicazione questa premessa è oggi stata frantumata dal monopolio assoluto sui modelli computazionali e i data base totalitari che contraddistingue alcune delle grandi compagnie della Silicon Valley, come appunto Google, Facebook, Microsoft e Amazon.
Il surriscaldamento della scena multimediale prodotto dalla pandemia
La pandemia, che ha investito – con un sovraccarico di responsabilità – l’intero sistema comunicativo, sia nel segmento informativo, che era sollecitato dalla complessità e urgenza di notizie attendibili e utili, sia dei reticoli di interconnessione, che sono stati usati come sostitutivo delle attività materiali, frenate dal contagio. Proprio questo surriscaldamento della scena multimediale ha reso evidente come l’intero sistema sia in una fase di transizione in cui non è chiaro né chi sia a pilotarla né quale sia la direzione imboccata da questa trasformazione.
Si comprende meglio in questo contesto l’aforisma di Paolo Giordano, nel suo instant Book Nel Contagio, per cui “la pandemia è un’infezione delle nostre relazioni” (5), infezione che ha sconvolto il 2020, con le sue contorsioni biologiche e le sue imprevedibilità sociali, ha, forse per la prima volta, reso evidente come la comunicazione, ossia quel sistema di scambio di simboli e informazioni che caratterizza la specie umana, sia oggi una potenza autonoma, che condiziona e ridisegna persino i saperi di base, come la medicina in virtù della sua capacità di raccolta e di analisi di masse di dati infinite. E come in questo gorgo comunicativo siano poche imprese, proprietarie di saperi matematici a poter disporre di tutti gli elementi per rendere trasparente e conoscibile ogni varante del mercato. “La lotta per il potere e il controllo – ci dice Shoshanna Zuboff (6) – non ha più a che fare con i segreti del rapporto tra classi e produzione, ma con i segreti della modifica automatizzata dei comportamenti”.
Infatti più che i farmaci o i ricoveri, a fronteggiare la diffusione del virus sono stati sistemi tecnologici basati sulla connessione di un dato- sei positivo – con una località- dove sei stati e chi hai visto, moltiplicati all’infinito. Il calcolo degli indicatori di contagiosità, i più volte evocati R con 0 e R con T, sono il risultato di sofisticatissime elaborazioni rese possibili da sistemi computazionali che incrociano e rielaborano informazioni differenziate. Delle ormai famose tre T della strategia contro il contagio – tracing, testing, treatment – che ancora sorreggono la politica di contenimento e mitigazione della pandemia – è la prima, ovvero il tracing, che determina il possibile successo dell’operazione. E’ la capacità di connettere, punto a punto, ogni individuo sul pianeta trasmettendogli l’informazione utile e ricevendo invece i dati essenziali per proseguire la catena del valore. Una potenza basata su una sterminata capacità di calcolo, che arriva a valori incommensurabili: dal petabyte (1015 byte) al successivo l’exabyte (1018 byte). Di dimensioni ancora maggiori sono lo zettabyte (1021 byte) e lo yottabyte (1024 byte).E’ questa inedita potenza, che arriva a valori mai nemmeno immaginati fino a qualche decennio fa, che rende possibile per i proprietari di queste tecnologie di accumulare e padroneggiare un numero inverosimile di variabili, tali da comprendere ogni opzione dell’animo umano.
Siamo in un contesto che trascende ogni possibilità di controllo umano: siamo nel regno dell’automatizzazione quantica, dove solo la matematica trova formule e modelli per contenere queste dimensioni, mutando la natura e la riconoscibilità della stessa scienza; figuratevi cosa rimane dell’informazione? Vogliamo ancora parlare di giornalista artigiano? Vogliamo ancora discutere di insidia dei poteri rispetto al disvelamento della singola notizia?
Come scriveva Chris Anderson in uno storico articolo pubblicato nel 2008 da Wired intitolato “La Fine della Teoria”, con cui voleva celebrare l’era dei dati, la Petabyte Age, e scuotere dalle fondamenta il mondo della scienza «Enormi quantità di dati e di matematica applicata hanno sostituito ogni altro strumento. Il meccanismo visto oggi è semplice: se un utente di una piattaforma di e-commerce acquista un romanzo giallo e un rasoio, e questa scelta si ripete centinaia di migliaia di volte, non conterà più sapere il perché lo ha fatto, ma solo che questa correlazione si è manifestata e si manifesterà di nuovo” (7). La correlazione nella tesi di Anderson avrebbe mandato in pensione la causalità. Provate a immaginare un meccanismo simile applicato a ogni ambito: dalle scelte d’acquisto durante un tornado, all’insorgere di una patologia rilevata dalle stesse domande poste milioni di volte a un motore di ricerca.
«I petabyte ci permettono di affermare che la correlazione è più che sufficiente-aggiungeva l’ex direttore di Wired- Smettiamola di cercare altri modelli e dedichiamoci ad analizzare i dati senza costruire ipotesi» (8). Anderson, insomma, annunciava trionfante che avremmo dovuto dimenticare «la tassonomia, l’ontologia e la psicologia». E chiedeva: «chi davvero sa perché la gente fa quello che fa? Il punto è che lo fa e basta, e noi possiamo monitorarlo e misurarlo con una precisione senza precedenti». Il metodo scientifico andava seppellito senza troppe formalità: «la scienza può progredire anche senza modelli coerenti, teorie unitarie e senza alcuna spiegazione meccanicistica di tutto». Oggi più che misurare l’esattezza della tesi di Anderson ci basta constatare che nell’informazione sta funzionando perfettamente, spostando dalla redazione alle piattaforme le forme di analisi e decisione di ogni pubblicazione di contenuti. I dati svolgono una funzione taumaturgica, guariscono la scienza e curano il presente dall’inesattezza, dalla lentezza e dalla costruzione di ipotesi. I processori, i server e gli algoritmi diventano una nuova trinità cui affidare il progresso. Nel 2008 la cara vecchia teoria poteva salutare l’umanità e lo si poteva annunciare senza paura. In poco più di dieci anni i dati sono diventati prisma e paradigma del presente. A partire dai dati si prevede e si predice, si interpreta e si discute. Non c’è nulla di male in questo modo di procedere, il problema è che l’approccio dei fanatici dei dati è radicale. Esclude ogni altro approccio, censura quella roba ostinata e ottocentesca che prende il nome di dialettica. La fine della teoria ha lasciato il posto a una fede nella tecnologia che tutto cura. Anderson usava il tono di chi crede che tutto ciò che non è dati ha il connotato dell’orrido vecchiume.
Come rabdomanti, gli scienziati dei dati impugnavano e impugnano la bacchetta per scovare nuove e clamorose sorgenti di correlazioni. Da quel momento avremmo dovuto smetterla di immaginare, smetterla di aspettare la mela che casca dall’albero sulla nostra testa; avremmo dovuto scordare la ricerca ostinata di una soluzione che va a sbattere sull’assenza di numeri perché il sentiero di una scoperta è spesso imprevisto. La viralità, termine che ci riporta alle uniche due potenze che oggi possono riordinare il globo, come il coronavirus e la rete, è il format che contempera potenza di calcolo e big data, ordinando così le piste per produrre e distribuire informazione. Una concatenazione di relazioni, punto a punto, basata sul riconoscimento reciproco e sulla singolarità di contatto. La comunicazione di massa lascia qui posto e ruolo ad una massa delle comunicazioni, in cui ogni trasmettitore si rivolge ad un solo interlocutore, mediante l’automatizzazione dei profili. Un modo che si discosta dalle modalità tradizionali proprio perché separa il sapere dai sapienti, l’informazione dagli informatori, esattamente, ha scritto Anderson nel suo articolo che abbiamo riportato, “come i sistemi di arma digitali non sono più gestiti direttamente dai guerrieri ma da algoritmi” (9).
E’ questo il nodo che segnala la cesura fra la cultura alfanumerica che abbiamo elaborato nei 13 mila anni che ci separano dalla vita consapevole e organizzata, iniziata dai primi cacciatori-raccoglitori, per poi arrivare alla svolta dell’agricoltura, e successivamente alle città e ancora poi agli imperi, fino alla nascita degli stati nazione, con una sequenza di linguaggi e di forme organizzative sempre basate sull’informazione umana. Con la separazione fra contenuto e autore, in una dinamica del tutto autonoma e riprogrammata, in cui i linguaggi vengono sequenziati da sistemi automatici, e discrezionalmente poi resi condivisibili da piattaforme che agiscono in base alla profilazione di ogni singolo utente, si realizza quel salto di specie, quello spillover digitale, che affida proprio alla quantità del calcolo la responsabilità di sostituire la centralità lineare della mente umana. L’informazione si rivela così un indispensabile sistema di decifrazione dei nuovi codici sociali indotti dallo stato terapeutico, e da quel nuovo senso comune che, come abbiamo già visto, declina la libertà innanzitutto come garanzia di sicurezza personale. Più seccamente possiamo dire che ci informiamo ormai come ci curiamo, e vice versa, ossia che la medicina è un sistema di codici informativi. In questa relazione si modificano i ruoli e i primati di quella schiera di mediatori esclusici che per tutto il Novecento hanno dettato legge nell’ambito della diffusione delle notizie.
Un microscopio nel lockdown
Proprio a cavallo della fase più acuta del contagio mi sono trovato in un privilegiato punto di osservazione per cogliere le mutazioni che stanno ridisegnando le dinamiche dei media. Mi è capitato di avere sotto gli occhi il vetrino, potremmo dire, dato il contesto sanitario, con i geni e il sistema virale proprio dell’infosfera. Il microscopio, con cui ho potuto analizzare campioni significativi del mondo del giornalismo per ricavare le tendenze generali che stanno connotando quel sistema socio tecnologico, era costituito da una ricerca sulle forme e le modalità dell’automatizzazione digitale delle redazioni, che ho avuto l’opportunità di coordinare (10).
Il lavoro era stato programmato, dall’inverno del 2019, dall’Osservatorio Universitario sui linguaggi del giornalismo multimediale, promosso dall’Ordine Nazionale dei Giornalisti congiuntamente al Dipartimento di Scienze sociali dell’Università Federico II di Napoli. Si voleva documentare la dinamica e le conseguenze, sia a livello internazionale che nel mercato italiano, dei processi di automatizzazione delle diverse fasi del lavoro giornalistico, per prevedere i profili professionali e l’insieme delle competenze che saranno indispensabili nell’informazione dei prossimi anni.
Tutto più di prima
Sotto la direzione della professoressa Enrica Amaturo, insieme alle ricercatrici dell’Osservatorio (Rosanna Marino, Paola Napoli e Valentina Russo) dopo poche settimane di lavoro, in cui comunque avevamo già decifrato sostanziali fasi di automatizzazione avanzate, sia nelle modalità produttive che nelle caratteristiche delle figure professionali, siamo incappati nel cigno nero del coronavirus, che proprio nell’informazione, uno dei pochi comparti a non essersi fermato nemmeno un istante, ha immediatamente reso visibile l’irreversibilità della svolta.
Più che “nulla come prima”, il mantra che si salmodiava nei giorni del lockdown, mi sembra di poter sintetizzare quanto sta accadendo con “tutto più di prima”. Intendo dire che sicuramente nell’informazione, ma io credo più in generale in tutti gli ambiti sociali, economici e relazionali, il virus è stato un turbo che ha stressato fenomeni ed evoluzioni che comunque erano già tutte iscritte nella realtà materiale.
Già al suo sorgere, nella fase della prima modernità, siamo nel tornante decisivo di Johannes Gutenberg, nel XVI° secolo, quando la stampa diventa fabbrica, con le rudimentali tipografie che si organizzano per la prima volta specializzando funzioni e attività, in una inziale catena di produzione, che solo qualche secolo dopo Henry Ford codificherà nella sua linea di montaggio seriale, l’informazione fu laboratorio del capitalismo dei mestieri. Poi, il secondo sobbalzo, lo conoscemmo alla fine degli anni Settanta del secolo scorso, quando furono le redazioni, nel passaggio dal caldo al freddo, dal piombo delle linotype alle prime impaginazioni al computer, che si cominciò a intravvedere l’applicazione di quel linguaggio ancora esoterico, che era il software, ai comportamenti artigiani.
Ora siamo al terzo, e ancora più radicale passaggio: i giornalisti diventano cavie per sperimentare l’automatizzazione di discrezionalità non lineare, dove la scelta e il gusto diventano calcolo. E’ l’approdo di un lungo processo, iniziato nel cuore del secolo della scienza, il Seicento, in cui proprio il sistema computazionale si accostò prima e cominciò a sostituire poi non solo il pensiero ma anche le emozioni. Scriveva Gottfried Wilhelm von Leibniz in quegli anni che “la musica è un’attività inconsapevole dell’aritmetica, in cui l’anima non sa di calcolare”.
La misurabilità computazionale è la nuova ideologia, la vera tecnicalità, che dà sostanza ad ogni relazione sociale, dunque anche all’informazione. Conseguentemente il motore professionale del giornalismo diventa oggi la potenza dei big data, e il corredo di intelligenza artificiale che li raccoglie e li analizza all’interno delle piattaforme che muovono le informazioni. Il giornalista in questo mondo della misurabilità permanente è un puro snodo della catena del valore. Un passaggio, certo ancora sensibile, nella circolarità di un’informazione che diventa credibile solo se calcolabile.
Solo rovesciando questo assioma, e fondando la capacità di governo del processo computazionale, che non può essere rallentato, in un diverso legame fra realtà e calcolo basato sull’idea che è certo quel che è vero, ed è vero quel che posso verificare.
La redazione quantica
Come nel salto quantico che si approssima, in cui il cambio di natura del sistema computazionale è dato dall’avvento nel calcolo binario (0/1) di una terza dimensione, costituita dall’insieme dei due valori di base ( 0 e 1), che moltiplica esponenzialmente i risultati, così nel giornalismo, accanto alle tradizionali funzione attiva- il modo in cui si organizzano e distribuiscono le notizie-e a quella passiva – il modo in cui si raccolgono e si acquisiscono le notizie – si aggiunge una terza dimensione, che è esattamente la fusione delle prime due: io acquisisco le notizie proprio nel momento in cui le produco, e viceversa.
Un vero cambio di genere del sistema.
Sono i comportamenti sociali che determinano gli standard tecnologici e non viceversa, se è vero che già nel 1937, nel corso della seconda stesura del suo saggio L’opera d’arte nell’epoca della riproducibilità tecnica (riproposto dall’editore Donzelli nel 2012), Walter Benjamin descrive i prodromi di una nuova rottura gerarchica che si consuma in occidente, al di fuori del perimetro della fabbrica, quando, osservando gli effetti delle prime rubriche di lettere al direttore lanciate dai quotidiani in Francia e Inghilterra, scrive che “ …. La distinzione fra autore e pubblico è sul punto di perdere il suo carattere fondamentale… Il lettore è ognora pronto a divenire uno scrittore”. Da allora quelle rubriche con poche centinaia di lettere, sono diventate i social di oggi con milioni di protagonisti, ed hanno completamente riclassificato l’idea stessa di giornalismo, e più ancora quella delle gerarchie sociali. Diventa così sempre più essenziale nelle redazioni la scannerizzazione della rete. In larga parte è ancora realizzata, in continuità con i modelli tradizionali del giornalismo novecentesco, basato sul rimpallo di dichiarazioni e battute dei personaggi politici o economici o sportivi, con il monitoraggio degli account Twitter o Facebook di ministri e parlamentari, o dei calciatori o, ancora, di personaggi popolari. Ormai i quotidiani, ma anche le stesse agenzie di stampa e i telegiornali, sono composti con un continuo gioco di citazioni di questo o quel cinguettio.
In altri casi, forse l’esperienza del Guardian è quella più solida in questa direzione, i giornalisti sono diventati impresari di community di lettori che vengono attivate su singoli temi, come potenti collaboratori collettivi. Proprio il Guardian, ma anche El Pais in Spagna, usò l’abnegazione dei propri utenti per leggere3 e riprodurre digitalmente le centinaia di migliaia di File che vennero trasmessi da Wikileaks in occasione delle varie ondate di rivelazioni dei segreti degli apparati statunitensi. Il giornalista diventa così un federatore di competenze esterne al giornale, trasformando la redazione da unico punto di elaborazione delle notizie a broker di competenze e saperi esterni.
L’arbitraggio dell’algoritmo
Con ritmi e accelerazioni diverse, la tendenza sembra abbastanza univoca: un unico clock di 24 ore costruito in rete, con una stretta connessione fra i social e il proprio sito web, da cui si ricava, ad un certo punto della giornata, il menabò della versione cartacea, che non è più il giornale, ma, appunto, una versione che fotografa il senso comune in un dato momento della serata, e che viene stampata per essere commercializzato attraverso il canale delle edicole. Al centro di questo nuovo modello professionale troneggia, un’unica funzione, che riordina darwinianamente le relazioni del ciclo della notizia fra le diverse figure che lo animano: l’arbitraggio dell’algoritmo. Ci riferiamo ad un unico modello che ormai si sta imponendo, con varianti del tutto marginali, in cui una nuova generazione di potenza di calcolo entra in redazione, e, producendo una mutazione genetica completa nella semantica e grammatica dei testi, ridisegna la flow chart del sistema produttivo mediante una progressione di automatismi che sostituiscono sempre più le funzioni di coordinamento e di smistamento, e soprattutto connettendo le tipologie di ogni servizio o notizia alle sfaccettature emotive e professionali di ogni singolo utente. Proprio in questo ultimo passaggio, quando si personalizza intimamente la notizia, adeguandola alle categorie di pertinenza di ogni utente, si produce una nuova e ancora largamente sconosciuta forma di valore, che allontana sempre più il giornalista dagli effetti del suo lavoro. Siamo dinanzi al santuario della rete, a quelle interfacce che trasformano gli utenti in profili, e dunque personalizzano l’offerta per centinaia di milioni di singoli clienti. Materialmente parliamo di quella che ci appare come la prima schermata di Netflix, o l’algoritmo PageRank di Google: sistemi di calcolo che profilando dettagliatamente ogni nostra azione emotiva, come dice Ad Finn nel suo libro Che Cosa vogliono gli algoritmi, trasformano il tempo in merce” (11). E successivamente la merce viene rivenduta ai giornalisti sotto forma di calcolabilità dei modi e dei tempi, con cui scrivere e postare un contenuto in rete. E’ questa la fase suprema dell’automatizzazione editoriale: ricavare dal profilo del lettore la struttura semantica dell’informazione, la sua caratteristica, il suo senso, la sua documentazione, per renderlo più gradito, più capace di trattenerne l’attenzione, o ancora meglio di spingerlo a muoversi in quel testo o filmato. Una magia che viene resa disponibile alle redazioni da competenze esterne in base innanzitutto, come vedremo, alla calcolabilità della relazione fra comportamenti degli utenti e tempi di trasmissione.
E’, per l’appunto, l’arbitraggio dell’algoritmo, una nuova antropologia della comunità professionale, dove gli individui si dividono in base alla propria autonomia computazionale: ci sono pochi calcolanti, molti calcolati. I movimenti dei secondi sono largamente pianificati dai primi. Il mercato si basa sulla connessione fra queste due categorie di utenti, e lo spostamento dei flussi di contenuti dagli uni agli altri. Nello storico testoThe Mathematical Theory of Communication, Claude Shannon, con Alan Turing uno dei padri dell’informatica moderna, così descriveva spietatamente la funzione del comunicatore: ”il problema fondamentale dell’informazione è quello di riprodurre in un punto, o esattamente o in un modo approssimativo, un messaggio selezionato in un altro punto. Spesso i messaggi hanno un significato” (12). Lo spostamento in sé è ciò che dà senso e valore all’informazione. Tutta la storia dell’informatica è contenuta in un’altra, fulminante definizione di Shannon: l’automatizzazione sincronizza utenti e comunicatori lungo un’unica linea di scambio. La rete ha separato questa linea dal sistema dei media facendola coincidere con la vita globale dell’umanità. In questo processo di re-design produttivo, si creano gerarchie, valori e linguaggi del tutto irriducibili al precedente assetto, con la sostituzione delle precedenti titolarità di potere con altri soggetti che si sostituiscono ai professionisti della mediazione e dell’arbitrato sociale: le piattaforme profilanti.
Automatizzare il pensiero. Dal giornalista autoriale al grafo
La storia dell’automatizzazione redazionale nasce alla metà degli anni Settanta, con il primo salto tecnologico realmente disruption, che ha mutato il volto del sistema editoriale, mediante il passaggio dal caldo al freddo degli apparati tipografici, quando andarono in pensione le mitiche linotype, nel tornante anni Settanta / anni Ottanta. In quella fase si automatizzò la produzione della pagina, che diventava un file. Poi si arrivò, alla metà degli anni Novanta, ai primi siti web, con i quali si automatizzava la distribuzione del giornale in rete, dove il file era l’attenzione del lettore. Oggi entriamo in un buco nero più profondo, da cui non si ha percezione del modo in cui sarà possibile uscirne, in cui è la conoscenza del giornalista che diventa file, cancellando le residue continuità con il passato. Con l’irruzione in redazione dell’intelligenza artificiale, i giornalisti si trovano immersi in un plancton di big data e algoritmi che si alimentano reciprocamente in un gorgo di processi automatizzati, con quote di creatività del software non banali, come appunto sono la selezione, l’elaborazione e la personalizzazione dell’offerta giornalistica per ogni singolo utente, in ogni singolo minuto della giornata. Una situazione dove i principi ordinatori della produzione – in sostanza la riduzione dell’abbondanza di informazione ad una quantità finita, impaginabile in una versione cartacea o digitale – sfuggono completamente alla padronanza e alla competenza del profilo redazionale.
Proprio la connessione di una data notizia con un dato momento della giornata in cui distribuirla con una data piattaforma social, oggi è la funzione primaria che produce valore per una testata. Una funzione che dà corpo ad una figura apicale, il social timing manager, che non deriva né da esperienze giornalistiche né da logiche editoriali, ma direttamente dalle pratiche di esecuzione degli stilemi algoritmici. Una figura che, per riprendere la distinzione iniziale, tende a chiedersi solo come postare e non perché postare in quel momento e su quella piattaforma. Tanto è vero che queste funzioni nei giornali, anche i più solenni e gelosi della propria artigianalità, come ad esempio Le Monde, sono affidate in outsourcing, ad agenzie che sulla base di algoritmi, misurano il gradimento delle piattaforme per quella notizia, scritta in quel modo, e accompagnata da quel corredo iconografico, elaborando un indice in base al quale il giornalista automaticamente posta. In sostanza, nel brusio globale della rete, la cattura dell’attenzione di una frazione infinitesimale di pubblico per un tempo altrettanto infinitesimale è l’elemento che decide la vita o la morte in rete di quella redazione. E dunque solo un sistema computazionale è in grado di indicare la migliore gestione temporale di ogni specifico contenuto. Il tempo di pubblicazione prevale su ogni valutazione del contenuto da pubblicare. Il browsing soffoca l’edit.
Se analizziamo i sistemi industriali che vengono oggi implementati negli imbuti digitali delle redazioni, vediamo come questi sistemi offrano non solo una bussola cronologica per scegliere il momento magico di postare, ma anche un sistema di machine learning che, sovrapponendo lo stile del giornale ai gusti degli utenti abituali di quella testata, prendono in gestione direttamente l’intero ciclo produttivo e propongono la formulazione del testo e la struttura del post più efficacie. Rimaniamo prigionieri del come postare e non del perché. Le principali testate italiane, come quelle europee, hanno ormai un fornitore di intelligenza editoriali, che in poche settimane di allenamento è in grado di automatizzare titoli e sommari, oltre che la scansione logica della notizia che non deve mai rivelare il suo contenuto giornalistico prima del terzo o quarto paragrafo. Il motore di questa attività è la movimentazione della notizia che deve andarsi a cercare i click per sopravvivere. Proprio quel concetto di movimento, intuito da Shannon nel dopo guerra, oggi appare come il vero driver per identificare questa nuova marca giornalistica in cui il valore è il momento del post e non il post stesso. Ogni contenuto dunque coincide non più con la mediazione autoriale, quanto, tramite una continua condivisione, “ruminazione” dice Derrick De Kerchove, con la coproduzione di una community di utenza connettiva.
La redazione diventa così sempre più un hub, una stazione di smistamento, dove il momento magico è dato dalla coincidenza che si coglie fra attenzione e contenuto. Un’attività composita più che collettiva, dove progressivamente vengono abilitati sempre più utenti, con la regia della piattaforma che promuove e valorizza i contenuti cliccabili. Una logica che appare molto prossima alla logistica computerizzata di Amazon più che alla sensibilità letteraria di un ceto professionale esclusivo. Ogni news che viene immessa in rete infatti viene inesorabilmente modificata ed integrata da una simultaneità di circuiti mobili. La pagina oggi non è mai chiusa, un testo non è mai definito, un servizio tv non è mai concluso. Siamo sempre all’inizio di una conversazione, dove il contenuto iniziale, quello solitamente immesso da una figura professionale viene costantemente trattato e remixato dalla community di utenti che aggiornano il suo valore, adeguandolo permanentemente al fixing dell’evento. Lungo questa catena la figura professionale perde primato e peso retributivo. E’ l’informazione dei grafi, come la dovremmo definire seguendo le indicazioni di Albert-Laszlo Barabàsi, che nel suo testo Link ci dice che i grafi sono la descrizione del tragitto connettivo di un contenuto, punto a punto, nella rete, che trasferendosi si modifica secondo le modalità del movimento e le forme del suo processamento dinamico (13). Il grafo oggi è la figura e la relazione che riorganizza le procedure professionali del giornalismo, modellizzando funzioni, atti, movimenti e saperi del tutto inediti rispetto alla tradizione del mestiere per come lo abbiamo conosciuto in passato.
La Piattaforma è la zecca della moneta informazionale
La Piattaforma è la zecca della moneta informazionale. Se il movimento, abbiamo detto, è il vero know how dell’intera funzione dell’informazione, dobbiamo rintracciare la nuova identità professionale del produttore di informazione in questa nuova dinamica che, per la sua pervasività e velocità, inevitabilmente sposta radicalmente il potere decisionale dall’autore di un contenuto al sistema che lo muove.
Lucidamente già nel 1999, nel suo tomo Psiche e Technè, Umberto Galimberti ci avvertiva che il criterio della verità non è più lo svelamento della natura (aletheia) ma la correttezza delle procedure (Orthotes). Ovviamente non parve a nessuno che parlasse concretamente della figura del giornalista e soprattutto dei suoi profili professionali. Tanto meno agli interessati. Ma oggi in redazione ci troviamo più Orthotes che Aletheia. Su questa base si sono anche coniate nuove monete, come l’indice degli utenti unici, o il pay for click, che hanno sostituite le vecchie valute analogiche dell’indice di diffusione o dell’audience. Il collante di tutta questa spirale di automatizzazione che guida la penna del redattore è il cosiddetto natural language processing, ossia quell’insieme di intelligenza artificiale che si allena a comprendere, interpretare e rispondere alle conversazioni, in linguaggio naturale degli ambienti, per produrre da una parte un flusso di misurazioni di quanto detto e pensato dagli umani, e questi sono i big data, dall’altro per sostituire gradatamente in virtù della massima accelerazione delle reazioni, l’interfaccia umana in ogni occasione di interattività, a cominciare appunto dai sistemi dell’informazione. Questo è il vero crepaccio che sta ingoiando la nostra professione: la connessione di un data base semantico ad un risponditore automatico. Un sistema che allena e fa crescere una capacità che fino ad oggi abbiamo considerato inseparabile dalla nostra identità antropologica e ora diventa una protesi dell’individuo. Esattamente come lo fu la pagina da scrivere nella sostituzione della tradizione orale con la scrittura, dove decentrammo conoscenza, tradizioni e saperi in una piattaforma che abbiamo chiamato libro. Ora il processo diventa più insidioso, perché la piattaforma pensa, cresce, impara e ci sostituisce. Una piattaforma che mantiene però tutti i tratti costitutivi che gli ha impresso il suo creatore, il suo programmatore, il suo padrone.
Non a caso è sulla trasparenza e condivisibilità di questa Second Life, di questa seconda vita del nostro cervello che si sta scatenando la vera guerra di potere fra monopoli privati e stati: la titolarità dei codici dell’intelligenza artificiale. Nelle ultime settimane del 2020, nell’indifferenza generale nel nostro paese e nel silenzio completo di giornali e giornalisti, si è consumato uno dei round di questo scontro. La responsabile dell’etica dei sistemi semantici di Google Timnit Gebru è stata licenziata per avere denunciato l’inaffidabilità etica dell’apparato semantico del principale motore di ricerca del mondo (14). Per la prima volta, dinanzi alla reazione della comunità accademica e giornalistica americana, Google ha dovuto fare retromarcia, dimostrando che le intelligenze sono analizzabili, scomponibili e negoziabili: da qui si parte per salvare anche l’INPGI. Mentre la cosa è scivolata come vetro sull’acqua. Perché? Forse una spiegazione è rintracciabile nelle parole di Simona Panseri, direttore comunicazione e public affairs del sud Europa per Google che ha fatto elegantemente i conti in tasca ai giornali :”ogni mese distribuiamo 10 miliardi di click ai siti dei giornali, e condividiamo con gli editori 14 miliardi di dollari di fatturato pubblicitario” (15). Prendere o lasciare, era il senso.
Un giornale come software house
A gennaio del 2017, il New York Times ha presentato un report dal titolo Journalism That Stands Apart (Il giornalismo che si distingue), documento programmatico che indica il percorso e le pietre angolari di una ristrutturazione del giornale che cambia completamente i paradigmi alla base della sua produzione: “[…] Noi non stiamo tentando di massimizzare i click e vendere pubblicità a basso margine. Non stiamo tentando di vincere una corsa agli armamenti per le pagine visualizzate. Noi crediamo che la migliore strategia di business per il Times è di fornire un giornalismo così forte che alcuni milioni di persone nel mondo vorranno pagare per averlo. Naturalmente questa strategia è anche profondamente in sintonia con i nostri valori tradizionali. I nostri incentivi ci spingono verso l’eccellenza giornalistica. […] Le nostre ambizioni sono grandiose: provare che c’è un modello digitale per quel giornalismo originale, competente, approfondito e in presa diretta di cui il mondo ha bisogno […]” (16).
Il documento raccoglie un anno di lavoro di sette giornalisti che compongono il “2020 Group”, e mira a fissare una bussola concreta per la riorganizzazione del giornale da realizzare entro il 2020. Il 2020 Group afferma che il modello di business del presente e del futuro è quello a pagamento, almeno di singole sezioni di alta specializzazione, anche se la pubblicità cresce ma c’è la consapevolezza che, sul lungo termine, molti di quei soldi finiranno alle piattaforme come Google e Facebook. Sarà necessario creare nuove sezioni (come “Cooking” e “Watching”) e funzionalità che, fino a ieri erano ferme a quanto impostato negli anni Settanta del secolo scorso. Dovranno essere implementate le interazioni con gli utenti, sebbene esse siano già un punto centrale nella strategia del Times.
L’organizzazione della redazione è poi il core del rapporto: nuovi giornalisti dovranno essere assunti per migliorare competenze verticali e giornalismo sul campo ma, anche, aumento in alcuni campi del lavoro freelance e riduzione in altri. Contemporaneamente vengono meglio definite le aree di competenza tra responsabili di prodotto e giornalisti che però devono lavorare con maggiore sintonia.
È necessario abbandonare gli schemi e i ruoli ancora connessi con la carta ed è necessaria una maggiore eterogeneità tra i membri della redazione: di genere, sesso e religione. Il rapporto è lungo e, sebbene articolato, lascia solo trasparire quelli che, evidentemente, nel lavoro programmatico di studio e di analisi, saranno obiettivi estremamente concreti e definiti da scelte operative esecutive.
In conclusione, i responsabili editoriali aggiungono un impegno che la dice lunga sul senso di tutto il documento: nei prossimi anni il 15 percento dei ricavi del giornale dovrà essere investito nella produzione di propria e autonoma Intelligenza artificiale. Qui arriviamo al punto: un giornale può mantenere una propria autonoma strategia se dipende dalle forme di intelligenza e di connessione sociale mutuate da altri soggetti ? Una redazione può competere se pensa come i suoi concorrenti?
Le risposte segmentano il mercato. Da una parte cresce ormai un granulare tessuto di micro aziende, composte da singoli giornalisti, che offrono servizi integrati alla comunità proprio sulla base dell’opportunità che le piattaforme offrono di navigare negli spazi vuoti. D’altra parte invece le strutture giornalistiche più consistenti si stanno chiedendo come trovare una via per rendere più rilevante la quota di valore aggiunto della propria azione. La diversificazione che indica il New York Times, è una strada. Oppure la specializzazione per nicchie, come testate specialistiche tipo il Wall Street Journal, o il Financial Times stanno esplorando con abbonamenti mirati a singoli temi.
Rimane uno spazio in quella terra di nessuno dell’automatizzazione del territorio e delle sue articolazioni. Quanto un giornale possa diventare il navigatore di una città, o di un settore, quale la cultura, l’assistenza, lo sport. O ancora come produrre report di approfondimento di quelle Commodity che sono ormai le news. Il filo conduttore di tutte queste attività è la relazione fra dati e potenza di calcolo. E’ possibile sfondare in questi mercati rimanendo all’ombra di giganti monopolistici che bulimicamente stanno occupando ogni anfratto del mercato?
L’avvento del 5G, con la transizione al video di ogni espressione testuale, o di nuove funzioni finanziarie, come annunciato da Facebook, con sistemi di pagamento che integreranno le informazioni per gli acquisti, alzano l’asticella della competizione. Per una redazione sempre più si avvicina la necessità di staccarsi dai condotti delle intelligenze standardizzate, e trovare forme e procedure per riprogrammare gli algoritmi che stanno guidando il pilota automatico in redazione. Ricordando che ormai negli aerei il rischio principale è la singolarità del software, che, come nell’ultima tragedia a Nairobi, non risponde più all’artigianalità del pilota. A conferma che “non è vero quel che è certo, ed è certo solo quello che è misurabile“ ma, al contrario, “ è certo quel che è vero, ed è vero quel che posso verificare”.
Note al testo
(1) Claude Shannon,”A mathematical theory of communication”, The Bell System Technical Journal, XXVII (3) luglio 1948 pp 379-423 e XXVII (4) ottobre 1948, pp. 623–656. Cfr. http://people.math.harvard.edu/~ctm/home/text/others/shannon/entropy/entropy.pdf.
(2) Romano Alquati, “Composizione organica del capitale e forza-lavoro all’Olivetti”, Quaderni Rossi, (2), aprile 1962 pp. 63-98 e Quaderni Rossi, (3) settembre 1962, pp. 121-185. Poi ripreso in Romano Alquati, Sulla Fiat e altri scritti, Milano, Feltrinelli, 1975, pp. 81-163. https://operaismoinenglish.files.wordpress.com/2013/11/73113278-alquati-romano-sulla-fiat-e-altri-scritti-1975.pdf.
(4) Friedrich von Hayek, La Presunzione fatale. Gli errori del socialismo, a cura di Dario Antiseri, Milano, Rusconi, 1997, 263 p. Edizione originale: The Fatal Conceit: The Error of Socialism, London – Chicago, Routledge – Chicago University Press, 1988, 194 p.
(5) Paolo Giordano, Nel Contagio, Torino, Einaudi, 2020, 80 p.
(6) Shoshana Zuboff, The Age of Surveillance Capitalism. The Fight for a human Future at the new Frontier of Power, Campus,2018. Traduzione italiana: Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri, Roma, Luiss University Press, 2019, 622 p.
(7) Chris Anderson, “The end of theory. The Data Deluge Makes the Scientific Method Obsolete”, Wired, 23 giugno 2008. Vedilo in:
https://www.uvm.edu/pdodds/files/papers/others/2008/anderson2008a.pdf
(8) Chris Anderson, The end of Theory, Wired, loc.cit. alla nota precedente.
(9) Eodem loco
(10) https://www.odg.it/i-nuovi-percorsi-della-notizia/37814
(11) Ed Finn, Che cosa vogliono gli algoritmi. L’immaginazione nell’era dei computer, Torino, Einaudi 2018, 264 p. Edizione originale: What Algorithms Want. Imagination in the Age of Computing, Boston, MIT Press Ltd, 2017, 272 p.
(12) Claude Shannon, The Mathematical Theory of Communication, Urabana – Chicago, University of illinois Press, 1963.
(13) Albert-Laszlo Barabàsi, Link. La scienza delle reti, Torino, Einaudi, 2004, VII-254 p. Edizione originale: Linked: The New Science of Networks, New York, Perseus Group, 2002, 280 p.
(16) The New York Times, Journalism That Stands Apart. The Report of the 2020 Group, January 2017. https://www.nytimes.com/projects/2020-report/index.html