Key4biz

Deepfake, rischio disinformazione per un italiano su due. L’indagine Ipsos

L’indagine Ipsos sul fenomeno deepfake, tra consapevolezza e preoccupazione

Il 46% degli italiani crede che l’intelligenza artificiale aumenti di molto il rischio di disinformazione, secondo una nuova indagine Ipsos dal titolo “Deepfake: consapevolezza e preoccupazione”, presentata oggi all’evento “Deepfake, tra realtà e illusione. Smascherare le manipolazioni, tutelare la verità”, organizzato dallo Studio Previti in collaborazione sempre con Ipsos.

La stessa conclusione è valida per il 51% degli intervistati a livello mondiale. Un altro dato rilevante, evidenziato da Nicola Neri, AD di Ipsos, durante l’illustrazione dei risultati dell’indagine, è che il 74% è a conoscenza della capacità dell’intelligenza artificiale (AI) nel generare false immagini e narrazione altamente realistiche, con punte dell’89% in Indonesia, dell’82% i Perù e in Cine (il 71% in Italia).

Il problema è che il 46% degli italiani intervistati ha ammesso di non conoscere il termine deepfake, di non averne mai sentito parlare (il 57% tra le donne), contro un 30% che invece conosce questo fenomeno.

Deepfake e aziende

I deepfake sono foto, video e audio creati grazie a software di intelligenza artificiale generativa (GAI) che, partendo da contenuti reali (immagini e audio veri), riescono a modificare o ricreare, in modo estremamente realistico, le caratteristiche e i movimenti di un volto o di un corpo, imitare fedelmente una voce, al fine di produrre contenuti e informazioni non vere, ma che sembrano vere, si legge nella definizione data dallo stesso Istituto di ricerche.

Un fenomeno che ovviamente, se non in maggior misura, riguarda da vicino anche il mondo delle imprese. Secondo l’indagine, infatti, nel 64% dei casi i dirigenti d’azienda conoscono il termine deepfake, con un 26% i cui si sottolineano comunque dei dubbi.

Nonostante la gravità del problema, ancora il 50% delle persone e un terzo delle aziende riconosce il concetto, ma non il termine. Un esempio pratico di confusione e scarsa capacità di identificare la minaccia.

Rimane il fatto che sia tra le persone comuni, sia tra le imprese, in otto casi su dieci la preoccupazione per i rischi è alta. Tra le imprese, nel 75% dei casi, le fake news sono riconosciute come un serio rischio per il proprio business.

In occasione delle recenti elezioni europee di giugno, anche il Consiglio d’Europa ha sollevato con forza il problema della disinformazione, delle fake news e soprattutto dei deep fake. Minacce globali che crescono di pari passo con lo sviluppo tecnologico e delle sue possibili applicazioni.

Tutti possono cadere vittima di questi utilizzi impropri delle tecnologie più avanzate, aziende comprese.

Le preoccupazioni

Ciò che preoccupa di più è la passività delle persone (55%), i rischi per la democrazia (50%), la crisi dei criteri per distinguere tra realtà e finzione (50%). Anche le aziende riconoscono come rischi la passività delle persone (59%), la minaccia alla democrazia (48%) e la difficoltà nel distinguere il vero dal falso (39%), ma anche la rapidità dell’evoluzione tecnologica rispetto alle contromisure possibili (53%).

Pet contrastare questa minaccia, le persone vedono favorevolmente l’impiego di difese tecnologicamente avanzate (47%), regole più chiare (42%), pene più severe (36%). Secondo le aziende servono software anti-deepfake (64%), regole più chiare da un punto di vista legale (34%), responsabilizzare i social media e i media tradizionale (35%).

Come si attrezzano le aziende per ridurre i cyber rischi: il 41% hanno una struttura interna dedicata al problema, il 25% si appoggia a strutture esterne, il 24% hanno risorse interne che se ne occupano ma senza una struttura predefinita, il 10% non sentono l’esigenza di tutelarsi.

Come tutelare i diritti

Quando diventa sempre più difficile distinguere il vero dal falso, come si tutelano i diritti?”, si è chiesta Ginevra Cerrina Feroni, Vicepresidente del Garante per la Protezione dei Dati Personali, intervenendo nel primo panel istituzionale, moderato da Raffaella Grisafi, Presidente, Osservatorio Imprese e Consumatori.

Tra i pericoli insiti in queste tecnologie c’è la perdita del controllo sui propri pensieri e della propria immagine. Un furto di identità, un attentato ad una corretta rappresentazione dell’individuo, quindi della personalità e della dignità dell’individuo, arrivando a violare la nostra Costituzione. Poi c’è la criminalità informatica, dal phishing alle frodi. Ma il deepfake può essere usato anche per produrre pornografia. Certe app sono in grado di ricostruire il corpo di una persona nuda. Senza una chiara trasparenza e discrimine tra vero e falso si mettono a repentaglio di diritti fondamentali delle persone. L’Autorità deve monitorare costantemente la rete alla ricerca di questi contenuti e delle piattaforme che li diffondono, per un uso responsabile delle tecnologie, strumento di progresso e amplificazione dei diritti e non strumento di regressione”, ha precisato Cerrina Feroni.

Dalla creazione ai rischi: un’analisi dei deepfake

Chi lavora a questo tipo di attività necessità di risorse hardware, competenze e strumenti di varia natura”, ha affermato Achille Foti, Responsabile Dipartimento Digital Forensic di SP TECH .

Le AI nascono neutre, ma il loro utilizzo è vario, anche illecito. Ogni AI può essere liberata da vincoli etici e legali, per creare qualsiasi tipo di contenuto, anche lesivo l’immagine delle persone. Diversi i fenomeni generati dall’impiego di deepfake, come la creazione di modelli virtuali e influencer per monetizzare sui social, con difficoltà crescenti nel distinguere se si ha a che fare con una persona reale o un’agente virtuale. Ma spesso si arriva anche a situazioni molto delicate che vanno a colpire fasce di popolazione vulnerabili, come i minori, tra cui i casi di revenge porn. Poi ci sono nuove forme di reati come i nudify, persone letteralmente spogliate nude in rete. Fino a pornografia e pedopornografia. In termini di analisi forensi ci sono delle metodologie da applicare per distinguere tra vero e falso e per individuare i deepfake. Esistono piattaforme aperte che potrebbero aiutare, come deepware e Honor, quest’ultima soluzione utile a scovare deepfake nelle videochiamate”, ha raccontato Foti.

Tavola rotonda istituzionale e politica

L’Italia si è mossa sul terreno della regolamentazione dell’AI e secondo l’On. Alberto Barachini, Sottosegretario di Stato, Dipartimento per l’Informazione e l’Editoria, “la via italiana all’AI Act introduce tre elementi chiave: la difesa del diritto d’autore, la tracciabilità e riconoscibilità dei contenuti generati dall’AI, in particolare per il deepfake”. Assicurando che “il ddl dovrebbe arrivare al voto al senato entro la fine dell’anno”.

L’AI Act, di cui sono stato relatore, oggi va implementato, prevede diverse forme di controllo e riduzione dei rischi, con l’obiettivo di aumentare i vantaggi dell’AI. Rischi che nascono dai luoghi del lavoro, nell’amministrazione della giustizia, nei processi democratici, nei contesti dove sono in gioco diritti, tutela della salute e sicurezza pubblica. Per questo ogni contenuto generato dall’AI deve essere riconoscibile, con etichette digitali che lo contraddistinguono. Compresi i contenuti protetti da diritto d’autore, che è particolarmente sensibile al problema”, ha spiegato in video l’On. Brando Benifei, Eurodeputato, Gruppo dei Socialisti e Democratici.

Serve sviluppare fin dalla scuola il senso critico su questo argomento. Quasi un approccio cartesiano alla realtà, che deve essere sempre messa in discussione per evitare appunto disinformazione e diffusione di falsi contenuti. Riguardo al contrasto alla pirateria online e alla violazione del copyright, nelle prime giornate del campionato di Serie A di calcio abbiamo già bloccato più di 1000 domini e 500 indirizzi IP, con numeri in crescita nella terza e quarta giornata”, ha affermato Massimiliano Capitanio, Commissario AGCOM..

Circa due tre milioni di italiani accedono al cosiddetto pezzotto fornendo e mettendo a repentaglio i propri dati personali nel vedere partite di calcio su piattaforme pirata. Per questo la formazione è necessaria nello sviluppo del senso critico, per prendere consapevolezza delle attività criminali online. Allo stesso tempo serve il piracy shield, sviluppato dall’Agcom, e per la prima volta in 30 minuti l’Autorità può chiedere all’Isp di disabilitare un fqdn o un IP che sta violando il diritto d’autore. Si è partito con le partite di calcio, ma presto si estenderà anche ai contenuti audiovisivi, come film e serie tv. Non solo – ha precisato Capitanio – perché svilupperemo presto linee guida anche per gli influencer e ci sono degli obblighi tra cui la tutela dei minori e il contrasto alla disinformazione”.

Legalità, responsabilizzazione e comunicazione

Oggi si ribadisce che l’Italia non è un Paese per pirati, cioè per gruppi criminali che agiscono per sottrarre risorse economiche e dati in maniera illegale a persone e aziende. Come spesso accade molti dei criminali che hanno iniziato con la pirateria online hanno poi proseguito con i deep fake. Abbiamo indagato a lungo il fenomeno in relazione alla violazione del diritto d’autore e abbiamo avuto Ipsos sempre al nostro fianco, punto di riferimento nazionale nell’analisi dei rischi e le minacce che le nuove tecnologie rappresentano per la società e il mondo imprenditoriale. La legalità è il principio chiave per affrontare questo tipo di fenomeni e l’Italia rappresenta ormai una best practice regolatoria a livello mondiale, con le nuove tecnologie che soprattutto in passato, ma ancora oggi, hanno preso di mira il diritto d’autore. Il tema regolatorio è centrale in questa battaglia”, ha detto Federico Bagnoli Rossi, Presidente FAPAV.

Tutti i soggetti devono essere coinvolti, come nella lotta alla pirateria, dove i risultati sono arrivati solo facendo fronte comune. Tutelare i consumatori è un altro aspetto chiave. Spesso sono involontariamente coinvolti nell’illegalità, altre volte ne sono consapevoli. Dobbiamo garantire la massima trasparenza nell’offerta di contenuti online. Il punto cardine anche per affrontare le minacce portate da AI e deepfake è l’educazione, i percorsi formativi e le campagne di comunicazione. La comunicazione è vincente in questa battaglia”, ha precisato Bagnoli Rossi.

Il consumatore non è più un soggetto passivo in questo ecosistema tecnologico avanzato, ma attore chiave nel consumo e nella produzione di contenuti. Ricordiamo che mai come oggi si è potuto comunicare il tema della pirateria. Presto, in collaborazione con il Dipartimento per l’Informazione e l’Editoria, avvieremo una nuova campagna comunicativa per continuare nel contrasto attivo alla pirateria online”, ha infine aggiunto il Presidente FAPAV.

Come combattere il fenomeno: parola alle aziende e ai professionisti

Il tema del deepfake per noi come azienda è una minaccia in termini reputazionale. Neggi ultimi mesi abbiamo assistito ad un’escalation nella produzione di contenuti che prendevano di mira il nostro amministratore delegato che veniva presentato nel proporre truffe online. Relativamente a questo aspetto le contromisure sono di monitoraggio a quanto accade in rete. Abbiamo un’unità specifica di cyber intelligence anche opera nel contrasto a tali attività illecite, a difesa della reputazione aziendale. C’è poi il problema della minaccia interna, il voice phishing, che sfrutta fake audio, cioè la clonazione della voce originale, tutti strumenti tecnologici molto insidiosi. Serve maggiore consapevolezza, un’azione di continua di formazione, l’offerta di strumenti di contrasto sia a livello culturale, sia tecnologico, mettendo la formazione a presidio della sicurezza aziendale”, ha spiegato Luigi Guaragna, Head of Global Cyber Security di Eni.

Quando si parla di AI va chiesto che sia utilizzata nel rispetto delle regole. I deepfake sono utilizzati per creare falsi contenuti pubblicitari, per sostituire speaker in radio, per sfruttare volti noti nell’offrire prodotti finanziari, come nel caso della famiglia Berlusconi. Nel 2023 si sono avviate delle cause legali e siamo in attesa di ulteriori udienze, ma nel frattempo è passato un anno. Sono seguite querele e campagne di comunicazione, ma il vero nemico sono i social, in prima linea nel diffondere la gran parte di queste minacce. Segnalare queste situazioni alle piattaforme social non serve a risolvere i problemi. Alcuni contenuti vengono buttati giù, ma non tempestivamente, Meta chiede dai tre agli otto giorni per intervenite e non garantisce nemmeno che non tornino in rete. Il problema è che questi spazi offerti alla truffa sono spazi pubblicitari, venduti a chi crea deepfake. Nel 90% dei casi si tratta di facebook e instagram”, ha rivelato Stefano Longhini, Dir. Gestione Enti Collettivi Protezione Diritto d’Autore, Contenzioso RTI Spa.

Ciò che si deve fare per Giorgio Assumma, Titolare Studio Legale Assumma è “penalizzare gli illeciti, ottenere risarcimenti e aggiungere una misura punitiva pecuniaria. Si riconoscono i meriti al legislatore e all’Unione europea, ma se non troviamo una uniformità di reazioni e difese in tutti gli Stati non si rivolve il problema, perché i deep fake sono entità immateriali, indistruttibili, perché rimangono nella testa di chi guarda, possono essere ovunque e raggiungere chiunque. Ci si deve muovere a livello internazionale”.

La facilità di diffusione dei contenuti deepfake

Le piattaforme sono crocevia di tutti i fenomeni illeciti digitali. Ma allo stesso tempo la tecnologia è una risorsa nel contrasto alla criminalità online. Per Diego Ciulli, Head of Government Affairs and Public Policy di Google Italy: “il vero problema del deepfake sta nella facilità con cui questi contenuti illeciti vengono oggi diffusi. Il fake è un concetto vecchio, il problema oggi è che troppo facilmente si viene a contatto con questi contenuti. La democratizzazione dei contenuti mette a disposizione dei criminali una massa di utenti impensabile da raggiungere prima. Relativamente ai prosumer c’è un corpus di norme ben sviluppato. Il revenge porn è perseguibile e le norme funzionano, anche se il problema non è risolto del tutto. Se parliamo dell’utilizzo della tecnologia da parte di gruppi criminali con adeguate competenze possono mettere in campo piani di disinformazione ben congegnati. In termini di consapevolezza qualcosa sta cambiando, ma c’è ancora molto lavoro da fare. I dati di Ipsos sono incoraggianti su questo, ma non basta, perché bisogna responsabilizzare gli attori che abitano l’ecosistema tecnologico”.

Quando ci siamo resi conto di questo abbiamo provato a migliorare le policy di autoregolamentazione. Su Google non si vendono più spazi pubblicitari a piattaforme che diffondono contenuti illeciti finalizzati ad esempio alle truffe finanziarie. I rischi ovviamente ci sono, ma li stiamo limitando. Google è una delle massime piattaforme di advertising, ma alla fine si è deciso solo di autorizzare le pubblicazioni a valle di un processo di verifica. Ci vogliono due-tre settimane di controlli prima di dare il via libera. Dal punto di vista tecnologico, Google offre delle etichette invisibili su tutti i contenuti generati dalla piattaforma con strumenti di AI. Le grandi aziende del mondo stanno lavorando assieme allo sviluppo di standard di digital watermarking per tutelare gli utenti”, ha concluso Ciulli.

Stefano Previti, Managing Partner, Studio Previti Associazione Professionale, ha infine annunciato che questo primo incontro tra Studio Previti e Ipsos “segna l’inizio di una collaborazione volta a integrare competenze diverse. Grazie all’analisi della percezione dei fenomeni condotta da Ipsos, leader nel settore, si intende ottenere una visione chiara e affidabile della realtà. Questo permetterà di discutere, identificare problemi e proporre soluzioni concrete alle tante sfide che riguardano il mondo delle imprese, dei professionisti, dei cittadini“.

Exit mobile version