Dopo l’annuncio nei giorni scorsi da parte di Meta, il nuovo brand adottato da facebook, di rinunciare ad un uso intensivo del riconoscimento facciale, rimangono ancora sospesi interrogativi e dubbio su quanto sta elaborando il gruppo di Mark Zuckerberg.
Si capisce chiaramente che il social network più diffuso del pianeta stia ora innanzitutto divincolandosi nella presa che stanno esercitando le istituzioni e l’opinione pubblica al di qua e al di là dell’Atlantico.
Dopo il maquillage sul nuovo brand Meta, che arriva nel pieno della campagna scatenata sui giornali dalle dichiarazioni dell’ex dirigente del settore “Integrità” del gruppo Francis Haugen, e dopo l’evocazione di nuovi mondi immersivi come Metaverso, in cui dovrebbe evolversi il social network, l’annuncio della rinuncia ad usare i dati facciali di circa un miliardo di utenti, accumulati, non si capisce come, nei mesi scorsi, segna una nuova frenata.
Ma come sempre l’esperienza insegna che il gruppo di Menlo Park non rinuncia mai completamente alla sua gallina dalle uova d’oro. Infatti ancora ieri il vice presidente per l’intelligenza artificiale di Meta Jerome Pesenti spiegava che “riteniamo quindi appropriato limitare l’uso di questa tecnologia ad una gamma molto contenuta di casi “. Quali casi e in che modalità e soprattutto per fare che cosa?
Le domande rimangono sospese. E non si riesce mai a concludere una vera istruttoria su uno specifico tema che riguarda la poliedrica attività di Facebook. Su un punto in effetto lo stesso Mark Zuckerberg coglie il vero, quando, non senza un tono provocatorio, denuncia le lacune del sistema normativo su temi sensibili quali appunto anche il riconoscimento facciale. Un alibi per giustificare le incursioni del suo gruppo certo, ma una constatazione che non può rimanere senza risposta.
Nel caso specifico si capisce che da almeno due anni Facebook ha avviato in grade stile una massiccia strategia per accumulare tecnicalità nel campo del riconoscimento facciale. Il metodo è sempre lo stesso, come per Cambridge Analytica: si usa la sterminata platea di utenti come laboratorio e si comincia a sparare nel mucchio usando pretesti apparentemente frivoli, come quei giochini sull’invecchiamento virtuale che forse qualcuno ricorderà: sulla bacheca di ognuno di noi apparivano annunci e sfide per vedere se avevamo il coraggio di comparare le nostre fotografie da giovani con quelle attuali, oppure se volevamo vedere come saremmo diventati fra qualche decennio.
In questo modo i sistemi algoritmici di facebook hanno accumulato almeno un miliardo di sequenze fotografiche su cui hanno esercitato i propri modelli matematici per decifrare e analizzare non solo le immagini ma le evoluzioni che sono comprese fra due fotografie di uno stesso soggetto.
A questo punto il vero elemento che emerge non è tanto l’accumulo di questi data base che Zuckerberg annuncia di voler distruggere ma è l’addestramento che l’algoritmo di facebook ha ricevuto , impareggiabile con qualsiasi altro concorrente Solo il governo cinese può ambire ad avere la capacità di esercitare i propri sistemi di riconoscimento facciale su campioni cosi ampi e dinamici. La Cina e facebook oggi sono i due bastioni di un totalitarismo digitale che sta superando le soglie della nostra struttura biologica.
Il nodo di questa perversione scientifica è proprio il machine learning, ossia la capacità di autoapprendimento degli algoritmi che su larga scala, procedendo in maniera geometrica porta rapidamente ad un’escalation del sistema che cambia natura nella sua vorticosa crescita.
E’ questo il vero punto di frequenza del sistema che deve essere regolamentato a controllato.
Prendiamo Zucherberg in parola che colmiamo la lacuna che lui denuncia. L’Unione Europa deve elaborare sistemi tecnologici e piattaforme di monitoraggio in grado di registrare e documentare la progressione dei sistemi di calcolo. Come giustamente prevede il nuovo regolamento sull’intelligenza artificiale europea , il DMS, proprio la capacità di imparare dei modelli matematici deve essere trasparentemente condivisa. Io devo sapere come sta evolvendo il sistema che mi sta contendendo la mia discrezionalità, e come comunità devo anche avere la piena informazione su quale sia l’obbiettivo e l’approdo di un sistema di learning machina applicato ai comportamenti sociali o alle strutture biometriche.
Su questo punto bisogna produrre esattamente la stessa mobilitazione che si sta realizzando sul clima. In campo bisogna mettere non solo capacità legislative ma anche esperienze negoziali e conflittuali di gruppi sociali e soprattutto comunità, quali città e università, in grado di contestare ai proprietari dei grandi gruppi l’assoluta ed esclusiva potestà di disporre della potenza di singolarità tecnologica che si sta intravvedendo all’orizzonte. Un G20 della trasparenza del calcolo sarebbe un segnale forte ed adeguato.