Michele Mezza in una lunga analisi per Democrazia futura dal titolo “Chat GPT e la mediamorfosi della televisione[1]” analizza “Gli effetti dell’irruzione dell’intelligenza artificiale nell’audiovisivo invitando la Rai e “Il servizio pubblico a realizzare il passaggio da quella che definisce come la ‘storiricizzata passività’ del pubblico “all’intraprendente complicità dell’utente”, ovvero attraverso il ricorso ai big data e alla “metàrealtà di ogni nostra azione digitalmente meditata”.
________
A fine marzo a Roma, al cinema Aquila. è stato presentato un film polacco- 2028: la Ragazza trovata nella spazzatura-che sarà direttamente distribuito dalla storica sala del Pigneto. Il regista, Michal Krywicki, intervenendo alla conferenza stampa ci spiegava che la sceneggiatura del film, un prodotto indipendente costato meno di 200 mila euro, è stata perfezionata con Chat GPT, che ha curato direttamente la sottotitolazione del lungometraggio. Siamo ormai già entrati nell’epoca della riproducibilità tecnica dell’elaborazione artistica, e scientifica, avrebbe forse notato Walter Benjamin.
Negli stessi giorni, usciva l’ultimo numero della rivista scientifica MedRXiv[2] che annoverava fra gli autori di una pubblicazione su un tema medico direttamente ChatGPT.
Il caso si è poi ripetuto anche per altre testate di grande reputazione. Arte e scienza ci stanno segnalando qualcosa che avrà spettacolari ripercussioni, fra l’altro, nel mondo della produzione e organizzazione dell’intero sistema della comunicazione.
Naturalmente immediato è stato il dibattito sulla congruenza di queste dinamiche.
Al momento prevale l’orientamento di non accettare questo riconoscimento diretto dell’individualità delle nuove forme di intelligenza artificiale perché il dispositivo, che pure fornisce contributi rilevanti e sicuramente non compilativi, all’ elaborazione scientifica, automatizzando fasi delicate come la consultazione e l’estrazione di riferimenti e citazioni , di cui si valuta la pertinenza e funzionalità nell’argomentazione, non avrebbe ancora la caratteristica di consapevolezza critico – diciamo non sarebbe senziente per usare un termine del dibattito-che lo renderebbe responsabile delle sue elaborazioni.
Mentre divampava la discussione, con enfasi e accanimenti tipici di una comunità accademica che vede insidiata la propria esclusiva titolarità nella ratifica dei contenuti scientifici, è mutato l’oggetto della contesa.
Infatti Chat GPT, quel sistema che ci sembrava già affine alla magia, che nei mesi a cavallo del natale 2022 aveva stupito il mondo per la sua reattività complessa agli input che riceveva, è stato archiviato e sostituito da una nuova release, ChatGPT4, che lo ha del tutto declassato ad occasionale sperimentazione del passato.
La nuova versione dell’intelligenza artificiale lavora oggi su una gamma di parametri cognitivi-concetti ed espressioni compiute che qualificano valori e pensieri- più di 500 volte superiore al suo precedente. Mentre la versione che abbiamo usato fino al giorno prima di ChatGPT funzionava in base a 175 miliardi di parametri di apprendimento automatico, come ha ricordato Sergio Ferraris, un giornalista esperto e implacabile cronista del fenomeno, la nuova è alimentata da 100 mila miliardi di parametri.
Il salto qualitativo del nuovo dispositivo Chat GPT4: quando la macchina intelligente sfugge al controllo dell’operatore umano
Un salto non solo quantitativo ma essenzialmente qualitativo, che dota il sistema di una proprietà di valutazione e una capacità di elaborazione di ogni singolo concetto sempre più vicino alla media della nostra attività professionale.
Ma la vera differenza che rende la nuova release la massima approssimazione alla discrezionalità umana riguarda gli input, cioè il modo in cui l’intelligenza artificiale viene interrogata e orientata. Fino ad oggi dovevano essere quesiti o suggerimenti testuali, espressi con un linguaggio naturale, ma pur sempre frasi di senso compito. Ora invece il dispositivo accetta e processa ogni genere di messaggio: testuale, grafico, fotografico, video, e persino semplici schemi disegnati con larga approssimazione.
Una capacità che ci informa intanto della sua più vasta attività neurale, che ha campionato e decifrato una larghissima parte delle espressioni concettuali che l’umanità ha elaborato nei suoi ultimi migliaia di anni, ma soprattutto ci fa intravvedere come imminente la fase in cui, proprio mediante i linguaggi iconici, la scena non sarà più caratterizzata dalla relazione uomo –macchina, con le mille combinazioni che in questi ultimi trent’anni abbiamo imparato ad imbastire, via via che i terminali digitali si facevano più sensibili, quanto direttamente macchina-macchina, segnando una vera cesura in termini antropologici e semantici. Entrerebbero in campo, come soggetti relazionali qualcosa come almeno altri 50 miliardi di interlocutori che si troverebbero a produrre e intercettare dati.
La relazione fra gli oggetti, la cosi detta Internet delle cose (I.O.T), incrementa in maniera esponenziale la visualità dei dispositivi di intelligenza artificiale sul mondo, la loro capacità di selezionare e immagazzinare oggetti cognitivi, quali i nostri comportamenti e le sensazioni ed emozioni che li accompagnano, rendendolo, necessariamente, sempre più sensibili alla natura e finalità dei messaggi che raccolgono. Diciamo che la specie di Chat GPT e dei suoi consimili si troverebbe rapidamente ad evolvere, verso nuove e più collaudate forme di autonomia che rendono meno lontana e fondata la prospettiva di una possibile singolarità, quella proprietà per cui la macchina intelligente sfugge al controllo diretto del suo operatore umano, come ci ha vaticinato il leader visionario di Google Raymond Kurzeil.
Di questo ci accorgiamo già oggi quando dialogando con uno di questi sistemi vediamo affiorare reazioni e riflessioni nella macchina che segue le nostre istruzioni di carattere emotivo, scorgiamo con evidenza segnali di delusione o di soddisfazione del sistema nel momento in cui accogliamo positivamente o meno le loro risposte alle nostre domande.
La stratificazione nei wafer che connettono i microchip neurali del cervello artificiale sempre più riproduce – o semplicemente imita – esattamente quelle reazioni emotive che ci sono proprie, come genere umano.
L’interrogativo che non possiamo certo lasciare sospeso è quale effetto o traguardo si può ipotizzare in fondo ad un percorso che vede miliardi e miliardi di frammenti emotivi depositarsi in quei circuiti che sono guidati da labirinti di calcoli sempre più potenti e onni comprensivi? Con la conseguente considerazione: ma il mondo televisivo può ignorare questa antropologica mutazione?
L’intelligenza artificiale nella società dell’immagine e dello spettacolo
Ora nella società dell’informazione e dello spettacolo, dove lo scambio di notizie produce valore e da sostanza ad ogni funzione sociale, e dove la rappresentazione pubblica, con un linguaggio multimediale, determina l’attrazione di ogni attività o servizio, diventa decisivo misurare l’impatto di una tale innovazione, quale la filiera di soluzioni tipo Chat GPT, sul ciclo di produzione audiovisivo di cui abbiamo già incontrato le prime esperienze.
Schematicamente a me pare fondamentale cogliere la tendenza del processo, e non tanto soppesare la funzionalità di ogni singola tappa, ossia l’efficienza di ogni singolo prodotto, valutando la capacità del trend che individuiamo come principale a riconfigurare le attività sociali a partire proprio dai linguaggi audiovisivi.
Sarebbe patetico, oltre che inutile, come vedo comunque fare, registrare le mille inadempienze o incongruenze che un attuale agente intelligente si trova a manifestare se messo alla prova con attività nobili, quali appunto l’elaborazione o la programmazione di piani di produzione audiovisiva. Il vero punto di frequenza, ossia quella circostanza che modifica radicalmente le condizioni precedenti, come nei cristalli, è ragionare su quali siano le potenzialità espressive e creative di una soluzione tecnologica che si trova ad essere costantemente rimodellata dal suo uso, determinando con il machine learning, una vera rottura epistemologica nella cultura umana, sempre contrassegnata da una crescita lineare basata dall’incremento della base cognitiva, del suo sapere, delle sue nozioni e capacità, separate dal modo in cui vengono poi utilizzate.
La tecnica analogica di una produzione cinematografica o di un montaggio non evolve con il suo uso, ma con l’apporto creativo dei suoi artigiani che gradualmente vi apportano le modifiche migliorative. Mentre i sistemi digitali intelligenti hanno ormai da tempo un meccanismo che trasforma la quantità di utilizzatori in qualità di funzione.
Questo aspetto è forse quello su cui varrebbe la pena di ragionare e confrontarci, per cogliere la reale portata della trasformazione in atto. E soprattutto individuarne le ragioni e le motivazioni che rendono inevitabile la trasformazione.
In questa sede ci sembra sufficiente introdurre due aspetti che ci portano naturalmente ai processi di automatizzazione del ciclo produttivo multimediale. Il primo è la personalizzazione del singolo prodotto. Questa domanda differenziata da parte degli utenti costringe gli autori ad un lavoro inedito che viene bene documentato nel testo Mercanti di verità[3] di Jill Abramson che analizza la realtà e non le previsioni dell’attuale mercato giornalistico americano, dove, dice l’autrice, già direttrice del New York Times,
“ogni giornalista si trova nella sua nuova funzione polivalente di produttore e gestore dei flussi di news digitali che vengono postati e pubblicati sul web ad abbinare ogni singola notizia ad ogni singolo utente”.
Una combinazione che porta l’attività editoriale fuori dalla portata del lavoro artigiano dei redattori e impone il ricorso a possenti infrastrutture digitali che siano in grado di elaborare e distribuire capillarmente il flusso informativo.
Il secondo aspetto che riclassifica materialmente le professioni dell’immaginario è proprio la disponibilità di una massa infinita di dati che permette e impone la profilazione degli utenti e la tipicizzazione dei prodotti, come ci insegnano le esperienze di Spotify o di Netflix.
Questo è il punto decisivo in cui cambia la natura del fenomeno.
Per affrontare questo aspetto, ossia come un sistema che ha capacità di calcolo e memoria può riprodurre cultura e scienza, dobbiamo capire bene quali siano appunti i dati, i nuovi input, ossia la materia prima che alimenta questi dispositivi e li rende per la prima volta capace di affiancare il protagonismo umano nel pensiero.
I big data e la metarealtà di ogni nostra azione digitalmente mediatata
La chiave di volta che ci permette di svelare il meccanismo che ha permesso, ad un certo punto della storia – siamo al passaggio del nuovo millennio -di interpretare e rielaborare attraverso il calcolo la complessità cognitiva, è proprio il big data. Ossia quella realtà che vede una metà realtà, composta da infinite strisce di dati che accompagnano e motivano ogni nostra azione digitalmente mediata.
Il primo step di questa progressione che ha aperto una specie di passaggio a nord ovest, documentando e tracciando l’evoluzione delle nostre sinapsi, ci è estata sintetizzata da un famoso saggio di Chris Anderson, il creatore della coda lunga e grande visionario digitale, che su Wired nel 2008 annunciava la morte della teoria sotto l’impetuosa esplosione dei dati[4].
Quindici anni dopo non possiamo non riconoscere come quella provocazione cogliesse nel segno.
Oggi, lo abbiamo visto con la pandemia, lo ritroviamo in ogni aspetto della nostra vita, dai più solenni ed istituzionali ai più frivoli e personali: l’aura di big data che circonda ogni azione o relazione che compiamo e pratichiamo diventa il mattoncino con cui ricostruire e tracciare esattamente il nostro comportamento e i sentimenti e gli interessi che lo guidano, come perfino la guerra in Ucraina ci ha dimostrato.[5]
Le riflessioni di Lev Manovich, Luciano Floridi e Maurizio Ferraris: analisi computazionale della cultura, infosfera e documanità
Nel suo ultimo saggio, Cultural Analytics[6], Lev Manovich, uno dei più lucidi, attrezzati e documentati scienziati del sistema digitale, centra proprio questo aspetto nevralgico quando ci spiega che attraverso l’analisi dei dati poggi possiamo scientificamente cogliere e riprodurre ogni singola attività umana, a partire proprio dalle espressioni culturali. Scrive su questo Manovich :
“L’approccio ai processi e agli artefatti culturali intesi come pretesti per raccogliere dati può portarci a porre quei tipi di domande sulla cultura che le persone che oggi di professione ne scrivono, la curano e la gestiscono non si pongono-perché tali domandi andrebbero contro la concezione accettata della cultura della creatività, dell’estetica e del gusto nelle scienze umane, nei media popolari e nel mondo dell’arte”.
Proseguendo questa osservazione l’autore del saggio ancora ci incalza
“come si trasformano le esperienze culturali, gli eventi, le azioni e i media in dati? cosa si guadagna e cosa si perde in questa traduzione? E una volta che la trasformiamo in dati, come possiamo esplorare la cultura su più scale, potendo osservare sia ciò che è unico o poco frequente sia i modelli comuni e regolari?”
Stressando ancora di più il concetto e affrontando il tema più specifico per noi, ossia il modello di produzione audiovisivo, penso che dobbiamo chiederci come cambierà nel prossimo futuro, diciamo nell’arco di 3-5 anni il comparto cinematografico e televisivo in tutte le sue declinazioni sotto la pressione dell’Intelligenza Artificiale?
Gia oggi abbiamo dinanzi a noi una trasformazione che stentiamo a riconoscere come un dato materiale e ormai incontrovertibile: la riorganizzazione della distribuzione mediante la programmazione attraverso i big data.
Da Google a Spotify a Netflix, al nuovo televisore Sky Glass, noi siamo già immersi in una infosfera, come dice Luciano Floridi[7] interpretando le nostre relazioni come uno scambio esclusivo di informazioni, o ancora meglio in una docusfera, come opportunamente corregge Maurizio Ferraris[8], che invece tende a considerare come determinante del nostro modo di vivere la tracciabilità dei dati che disseminiamo lungo i nostri percorsi digitali, in cui ogni contenuto e messaggio è la conseguenza e non più la causa di un grafo di informazioni e dati prodotti dai suoi utenti.
La recente esperienza del festival di Sanremo, scandito più che dai suoi 14 milioni di spettatori in media a puntata, dai suoi circa 4 milioni di contatti on line registrati per ogni serata, già ci conferma di come sia ormai penetrata anche ai livelli più nazional popolare questa nuova metrica della comunicazione.
La transizione dagli gli apparati hollywoodiani di produzione e organizzazione della narrazione attraverso un sistema espressivo di messaggi a un potere sociotecnologico formato da un flusso inesauribile di dati
Una svolta che appare non dissimile da quella che nel pieno della seconda guerra mondiale, nell’abbagliante America hollywoodiana, fece riflettere due profughi tedeschi che brillantemente declinarono il loro marxismo europeo sui canoni di una società dello spettacolo che osservavano negli Studios di Los Angeles.
Mi riferisco ovviamente a Max Horckeimer e Theodor Wiesengrund Adorno che con il fondamentale saggio Dialettica dell’Illuminismo, trasformarono la sovversione dell’accademia ideologica marxista nella Scuola di Francoforte che anticipava la transizione dal lavoro alla vita nel metaverso dello spettacolo.
La base di quella visione del mondo era proprio la categoria dell’industria culturale, ossia la percezione di apparati di produzione e organizzazione della narrazione che tendevano ad intrecciarsi, per poi sostituirsi alle catene fordiste nella produzione del valore che veniva generato mediante la costituzione di senso comune indotto dall’immaginario di massa.
Quella categoria – lo show biz – come architrave della struttura e non orpello della sovrastruttura– che ha retto fino ad oggi, animando la cosiddetta società della comunicazione, viene del tutto superata e ripensata mediante i cosiddetti media analysis, come indica ancora Lev Manovich nel testo che abbiamo citato, documentando proprio la transizione da un sistema espressivo guidato dai messaggi e non dalla produzione, messaggi che si fanno apparato tecnologico di controllo e dominio, come sostenevano i francofortesi, ad un altro modello di potere socio tecnologico, alimentato e formato da un flusso inesauribile di dati che vengono calcolati e ricombinati per riclassificare i contenuti e gli utenti.
Un cambio di scena copernicano, che abilita il calcolo non più a supporto e servizio della nostra attività, ma a lingua vitale ed esclusiva del libro della vita, come scriveva Galileo Galilei.
Come confessa il responsabile del settore ingegneria di Netflix, Xavier Amatriain rilasciata a Wired per l’inchiesta The Science behind the Netflix Algorithmics[9]
“sappiamo cosa avete giocato o cercato, o valutato o l’ora la data e il dispositivo che avete scelto. Tutti questi dati confluiscono in diversi algoritmi, ciascuno ottimizzato per uno scopo diverso. In senso lato la maggior parte dei nostri algoritmi si basa sull’ipotesi che modelli di visualizzazione simili rappresentano gusti simili degli utenti.”
Quando la massa diventa un oggetto governabile in base alla capacità di calcolare ogni singolo comportamento umano
Lo stesso fanno le grandi piattaforme di abbinamento fra ogni singolo oggetto iconografico, sia essa fotografia, come propone Yelp, o musica, come Spotify, o video, come YouTube, e ognuno fra le centinaia di milioni di utenti.
Ma l’operazione che archivia la pur brillante intuizione nel dopoguerra dei fondatori della scuola di Francoforte è che il destinatario di questa nuova produzione di messaggi medianti i dati di profilazione non è la massa degli utenti, ma ogni singolo cittadino che, consegnando i suoi dati si rende disponibile ad essere interpretato e riprodotto, proprio in virtù della sua diversità da tutti gli altri.
Se aveva perfettamente ragione nel secolo scorso Sherlock Holmes a dire che “l’individuo è un enigma insondabile ma infilalo in una massa e diventa una certezza matematica”, oggi possiamo dire che la massa diventa un oggetto governabile in base alla capacità di calcolare ogni singolo comportamento.
In sostanza ci ha spiegato il direttore della tecnologia di Netflix Xavier Amatriain che non solo le raccomandazioni della sua piattaforma individuano la platea di individui per ogni film che trasmettano in maniera chirurgica, ma che la produzione dei film è condizionata dall’obiettivo di raggruppare quella particolare platea, composta da quei particolari individui a cui ogni fase della produzione, dalla sceneggiatura alla regia al montaggio, è dedicata individualmente.
Per questo conclude Manovich “la media analytics è l’aspetto chiave della materialità di tutti i media di oggi”.
Se questo fenomeno di inversione della relazione fra distribuzione e produzione, con un dominio incontrastato dei distributori sui titolari dei contenuti, come vediamo sul mercato con lo strapotere delle grandi piattaforme rispetto alle cassaforti del copyright, allora diventa più chiaro il percorso che stiamo conducendo insieme a Chat GPT e compagnia bella.
Lev Manovich infatti scrive il suo poderoso saggio che abbiamo ripetutamente citato fra il 2015 e il 2018, descrivendo con una massa poderosa di documenti, l’antefatto del processo di automatizzazione.
In pratica i media analytics, cosi come li individua nell’ormai indissolubile integrazione fra ogni singola fase del processo di realizzazione mediatica e la polluzione di big data in cui siamo immersi, che guida ogni programmazione e organizzazione della creatività comunicativa, sono la palestra di allenamento e addestramento delle intelligenze artificiali che erano in via di prototipazione mentre Manovich scriveva.
L’era degli zettabyte con 3 miliardi di individui che hanno accesso a Internet
Tim Barrett, CEO di CISCO, sostiene che il XXI secolo può essere definito come l’era degli zettabyte (1 Zettabyte = 1021 byte = 1 triliardo di byte, l’equivalente di 36 milioni di anni di video in alta definizione!).
Abbiamo varcato la soglia per cui la massa dei dati esaurisce l’alea di incertezza in cui si generano, con il metodo probabilistico, quelle forme di induzione creativa che hanno orientato il pensiero occidentale.
Basti pensare che ormai largamente più di tre miliardi di individui hanno oggi accesso regolarmente a Internet, e in ogni minuto, sono valori riferiti al momento in cui stiamo scrivendo, si stima che in Youtube vengano caricati trecento ore di nuovi video, prodotti 350 mila Tweets su Twitter, postati 4,2 milioni di posts su Facebook, 1,7 milioni di foto su Instagram, 110 mila calls in Skype, eccetera. Mediamente, negli ultimi 30 anni i dati generati sono quadruplicati in un lasso di tempo inferiore ai tre anni!
Ogni trentasei mesi si moltiplica per quattro l’archivio dei contenuti prodotti dall’umanità fin dalla sua nascita.
Questa enorme tasso di crescita dei dati, accompagnata dalla diffusione del cloud computing che consente di accedere a grandi potenze di calcolo a costi contenuti, e allo sviluppo prepotente degli algoritmi dell’intelligenza artificiale (IA) e del machine learning (ML) in particolare, consentono da un lato di rendere l’intera conoscenza dell’universo disponibile “gratuitamente” ad ogni individuo, dall’altro alle Big Tech (quali Amazon, Apple, Microsoft, Google, Facebook,..) di implementare algoritmi sempre più sofisticati grazie ai dati personalizzati che ognuno di noi, consapevolmente o meno, fornisce.
Questo fino all’alba del giorno in cui abbiamo concluso questo testo.
Oggi, con la miniaturizzazione degli agenti intelligenti che appunto decentrano la potenza dell’intelligenza artificiale ad ogni individuo, la nuova spirale socio tecnologica rende integra in ogni attività professionale o relazionale il supporto di un sistema di elaborazione e finalizzazione di quell’immenso tappeto di dati che fino ad ora era disponibile solo per grandi apparati in grado di processarli.
Una trasformazione che innesta un movimento permanente del perfezionamento tecnologico che, basandosi proprio su un meccanismo di machine learning come abbiamo descritto, capitalizza la crescita geometrica degli utenti.
Già mentre stiamo scrivendo questo articolo la dinamica e il perimetro cognitivo dei sistemi intelligenti sta mutando via via che cresce il numero degli utilizzatori.
ChatGPT 4, esattamente alle ore 16 del 15 marzo del 2023, appare come l’ultimo artefatto che racchiude, da una parte, la capacità di campionare l’intera massa dei dati – la versione contemporanea di Bernardo di Chartres che ci diceva che siamo nani sulle spalle dei giganti- e dall’altra di elaborare in velocità questi dati per estrarre esattamente i formati e le composizioni che gli chiediamo.
Il primato della domanda e la capacità di estrarre il massimo contenuto cognitivo dai nuovi dispositivi digitali intelligenti
In questa transizione, paradossalmente rispetto alle aspettative, ad essere surrogato dall’automatizzazione sono prioritariamente proprio le abilita tecniche, o ancora meglio, proprio le funzioni informatiche, che vengono assorbite dal dispositivo, mentre diventa discriminante la capacità di orientamento tramite quesiti del sistema.
Si inverte la modalità di produzione del pensiero e delle idee.
Fino ad oggi la nostra cultura era il frutto della selezione delle migliori risposte alle mille domande che affioravano dalla vita sociale, da cui ricavavamo per ognuno di noi il tasso di intelligenza, talento, ispirazione, profondità, speculazione, visione, che andavano a determinare la nostra competitività sul mercato.
Oggi invece è la domanda che decide.
E’ la nostra capacità di orientare verticalmente ogni entità di intelligenza artificiale verso lo specifico problema che ci è stato posto con una pista di quesiti che addestri il dispositivo digitale, estraendone il massimo di valore cognitivo, tradotto in una relazione fra il minor tempo impiegato per elaborare la maggiore massa di dati.
Si producono contenuti, si generano soluzioni, si elaborano concetti e valori in base alla nostra capacità di estrarre dai moduli di intelligenza artificiale risultati in base alle domande che poniamo.
Un cambio concettuale che riformula l’intero profilo professionale e organizzativo della società della conoscenza.
La mediamorfosi nel mondo giornalistico e nel cinema
Il principale riscontro di questa cosiddetta mediamorfosi lo osserviamo proprio nel mondo della comunicazione.
Nel segmento giornalistico, dove con più maturità e profondità si sono gia manifestate le trasformazioni di sistema, siamo ad un nuovo e al momento incontrollato, tornante tecnologico.
Le esperienze della tragica guerra in Ucraina, come descrivo nel mio saggio NetWar: in Ucraina il giornalismo sta cambiando la guerra [10], che ho già richiamato, ci stanno mostrando la rapida evoluzione del combattimento mediante uso delle forme e delle infrastrutture del giornalismo. Un processo che porta direttamente in campo le componenti sociali primarie, nel caso della guerra le forze armate e la popolazione civile, che si contende i flussi informativi e la possibilità di interferire nel senso comune dell’avversario, come modalità della guerra ibrida, teorizzata gia dal generale Valery Gerasimov.
In questo quadro l’abbondanza delle fonti, tutte credibili e verosimili, mette a dura prova la capacità dei professionisti dell’informazione di selezionare e validare quelle autentiche, costringendoli a dotarsi di strumenti e potenze digitali in grado di leggere e decifrare in velocità un tale flusso di dati.
Una dinamica che porta a ricomporre la scissione fra informatica e informazione, rendendo la macchina giornale una piattaforma algoritmica che, al pari delle altre, deve analizzare matematicamente la massa di contenuti che vengono ormai prodotti dalla società civile.
Con la banale scusa di sperimentare il nuovo dispositivo numerose testate fra cui The Guardian, o in Italia il Foglio, stanno già combinando nella propria produzione artigianale contributi che vengono direttamente da Chat GPT o dai suoi epigoni, gestendo e ottimizzando siti web, contenuti per i social e le stesse pagine della versione cartacea con articoli ricavati direttamente dai sistemi intelligenti mediante batterie di prompt (i quesiti per gli agenti intelligenti) sempre più specializzati.
In breve tempo abbiamo gia verificato come al desk delle testate si stiano affermando figure professionali come il prompt ingeneer o il social media tutor che affianca e sorveglia le attività dei dispositivi automatici.
Lo stesso processo si sta verificando nel ciclo produttivo dell’audiovisivo, dove già in questi pochi mesi, abbiamo visto come l’intelligenza artificiale sia diventata un coproduttore multimediale. L’aneddoto del regista polacco Michal Krzywicki con cui abbiamo aperto questo articolo ci dice quanto siamo ormai nel campo della cronaca e non più del futurismo: se la Tv e il cinema non sono più l’allineamento sulla frontiera di minor resistenza sociale, come argutamente scriveva Manuel Castells nella sua trilogia la Società in Rete[11], in cui in maniera sempre meno autoritaria e verticistica autori ed editori ridisegnavano il senso comune delle tribù di una platea, ma una costante conversazione fra produttore che diviene utente dei dati dei suoi singoli spettatori, e utenti, che diventano produttori di quelle informazioni, allora l’industria cinematografica, per tornare alle categorie di base di Francoforte, non può ripensarsi proprio in base alla capacità di diluire la rigidità autoriale in una dialettica fluida determinata da invisibili confini fra la profilazione e la sintonia di uno spettacolo con i propri spettatori.
Ricorrere a ChatGPT per cogliere questa linea di demarcazione è oggi il nuovo tratto del sistema audiovisivo. La distinzione fra un operatore di mercato, che vuole estrarre valore commerciale dal suo esercizio, e uno di servizio pubblico che vuole rispondere ad un contratto sociale con i suoi utenti, sta proprio nella qualità e trasparenza di uso dei dati, non nella volontà di farne a meno.
La prima ricerca dell’Ufficio Studi Rai sugli Algoritmi di servizio pubblico
Nella pubblicazione curata da Flavia Barca per l’ufficio Studi della Rai, Algoritmi di servizio pubblico[12], constato come con non molti precedenti si individui questa realtà come prescrittiva proprio per un’azienda di pubblica utilità. Si legge nel volume come sia ormai, e finalmente aggiungo io, “
inevitabile quindi che una delle grandi sfide per i media di servizio pubblico nella prossima decade risieda nel passaggio dall’immagine in movimento (film, serie tv) all’immagine interattiva (video giochi, storie non lineari) che rimanda a quello, già accaduto agli albori della televisione, dall’immagine statica all’immagine in movimento. Per questa ragione, nonostante le quote di ascolto ancora assolutamente rilevanti della Radiotelevisione di servizio pubblico, in particolare nel nostro paese, appare comunque urgente indagare nuovi linguaggi, piattaforme e metodologie di coinvolgimento del pubblico”.
Siamo ancora ben al di là del Rubicone dell’abbinamento ad ogni singolo utente, e della capacità di raccolta ed elaborazione dati con moduli e stili del tutto discontinui rispetto alle speculazioni proprietarie, ma comunque si scorge una volontà di uscire dalla trincea di una TV generalista ancora protetta solo da una testimonianza anagrafica che la rende in palesa controtendenza rispetto alle nuove generazioni del nostro tempo. Soprattutto se leggiamo ancora nella stessa pagina del report dell’Ufficio studi della Rai che
“miliardi di persone nel mondo hanno ormai superato la storicizzata passività contemplativa del programma televisivo-a favore di una partecipazione attiva che influenza l’atto creativo dell’opera attraverso una serie di scelte di fronte alle quali il pubblico viene posto e dalle cui risultanze individuali e collettive dipenderà l’esistenza stessa dell’esperienza”.
Irrompe qui nella grammatica professionale della Rai la relazione con il singolo utente e soprattutto la visione di una progressiva e inesauribile partnership già nella fase ideativa e produttiva fra editore, autore e pulviscolo degli utenti. Una conversazione in cui si tende ormai a superare, scrivono ancora i ricercatori dell’azienda pubblica: “la cristallizzazione fra produttore e consumatore”.
E’ la traduzione in italiano di quella mediamorfosi che sta riorganizzando l’officina della televisione, e in cui l’esplosione di una risorsa quale appunto l’intelligenza artificiale permette di artigianalizzare, se ci possiamo consentire una tale temeraria terminologia, il calcolo di ingenti masse di dati nell’elaborazione di produzioni e programmazioni anche di entità minore.
In questa prospettiva le fasi della ideazione, della stesura di un soggetto, della sceneggiatura, delle schede di regia, delle tracce di montaggio e dei piani di distribuzioni diventano costantemente forme di un dialogo che vedranno sempre più estendersi il ruolo di una elaborazione artificiale per assicurare una produzione aumentata in ogni economia di scala.
Arriviamo così ad un nodo che già è pratica corrente nei processi di automatizzazione del ciclo industriale e della commercializzazione: come imprimere un timbro autoriale e di responsabilità pubblica all’evoluzione automatica di attività basate su un machine learning che, lo abbiamo visto, tende a soverchiare passo e metriche delle esperienze artigiane?
In sostanza come, tanto più in un contesto pubblico, rendere autonomo e non automatico la fase di irrobustimento delle capacità di calcolo e di riformulazione della progettazione in base alle relazioni con l’utenza basate appunto su algoritmi di auto apprendimento?
E’ questo il terreno in cui il titolo del rapporto che abbiamo citato –Algoritmi di servizio pubblico– deve diventare una pratica del tutto originale e prototipale in cui la comunità editoriale diventa soggetto negoziale dei dispositivi di calcolo sia nella fase della raccolta dei dati, che deve essere trasparente e condivisa con gli utenti, sia in quella della loro tracciabilità, che deve essere documentata e isolabile dal flusso generale, sia soprattutto in quella del corredo etico e finalistico dell’apparato digitale che deve essere riprogrammabile e negoziale costantemente per non delegare al fornitore l’anima di un’interattività che richiederebbe di superare “ la storicizzata passività” del vecchio pubblico con la “matematica certezza” di condizionamento della nuova moltitudine digitale, di cui parlava il buon Sherlock Holmes.
[1] Scheda di programma del corso di Epidemiologia sociale degli algoritmi e dei Big data del Dipartimento di Scienze sociali dell’Università Federico II di Napoli
[2] https://pub.towardsai.net/chatgpt-on-a-scientific-paper-as-a-co-author-does-it-even-make-sense-a60de41bbaf6
[3] Jill Abramson, Merchants of Truth: Inside the News Revolution, New York, Vintage digital, 532 p. Traduzione italiana di Andrea Grechi e Chiara Rizzuto: Mercanti di verità. I business delle notizie e la grande guerra dell’informazione, Pa- lermo, Sellerio, 2021, 904 p.
[4] The End of Theory: The Data Deluge Makes the Scientific Method Obsolete
https://www.wired.com/2008/06/pb-theory/
Michele Mezza NetWar:In Ucraina il giornalismo da cambiando la guerra, , Donzelli editore)
[6] Lev Manovich, Cultural Analytics, Cambridge Massachussetts, The MIT Press, 2020, 336 p. Traduzione italiana di Andrea Maraschi: Cultural Analytics. L’analisi computazionale della cultura, Milano, Raffaello Cortina Editore, 2023, 402 p.
[7] Luciano Floridi, Infosfera. Etica e filosofia nella società dell’informazione, Torino, Giappichelli, 2009, IX-232 p.
[8] Maurizio Ferraris, Documanità. Filosofia del mondo nuovo, Roma-Bari., Laterza, 2021, 440 p.
[9] https://www.wired.com/2013/08/qq-netflix-algorithm/
[10] Michele Mezza, Net-War. Ucraina: come il giornalismo sta cambiando la guerra, Con un post scritto di Pierluigi Iezzi, Roma, Donzelli, 2022, VI-226 p.
[11] Si veda in particolare il primo volume: Manuel Castells, The Rise of Network Society The Information Age: Economy, Society, and Culture Volume I: 1 Hoboken (New Jersey), Blackwell Pub,1998, 597 p. Traduzione italiana di Lara Turchet: 1- La nascita della società in rete, Milano, Egea- Università Bocconi, 2002, XXXVI-601