Meta ha ottenuto il via libera dall’autorità di regolamentazione dei dati dell’Unione Europea per addestrare i suoi modelli di IA utilizzando contenuti condivisi pubblicamente sulle sue piattaforme social come Facebook, Instagram e WhatsApp.
Post e commenti di utenti adulti (rigorosamente maggiorenni) sulle piattaforme di Meta, tra cui Facebook, Instagram, WhatsApp e Messenger, insieme a domande e richieste all’assistente AI dell’azienda, saranno ora utilizzati per migliorare i suoi modelli di IA, ha reso noto Meta in un post sul blog del 14 aprile.
L’azienda ha affermato che è “importante che i nostri modelli di IA generativa siano addestrati su una varietà di dati in modo che possano comprendere le incredibili e diverse sfumature e complessità che compongono le comunità europee”.
“Questo include tutto, dai dialetti e colloquialismi, alla conoscenza iper-locale e ai modi distintivi in cui i diversi paesi usano umorismo e sarcasmo sui nostri prodotti”, ha aggiunto.
Le sfumature sono certamente importanti e l’algoritmo va certamente addestrato bene per cogliere le differenze e le finezze linguistiche.
Esclusi i messaggi privati e quelli degli under 18
Tuttavia, i messaggi privati delle persone con amici, familiari e i dati pubblici dei titolari di account UE di età inferiore ai 18 anni sono ancora off-limits, precisa Meta.
Una precisazione importante, visto che il tema della age verification tiene banco così come l’altro grande tema sensibile, vale a dire il rischio di un uso distorto dei social media come vettore di messaggi d’odio e di bullismo.
Il caso della serie britannica “Adolescence” ha puntato un faro pubblico sul ruolo potenzialmente rischioso di un cattivo utilizzo dei social.
Certo, i social non vanno criminalizzati a priori però è un bene che le persone possano anche scegliere di non consentire l’utilizzo dei propri dati per l’addestramento dell’IA tramite un modulo che Meta, a detta del social media, verrà inviato nell’app, via email e sarà “facile da trovare, leggere e utilizzare”.
Ghiglia (Garante Privacy): ‘Puoi usare i dati soltanto se c’è il consenso esplicito’
Un tema, quello della comunicazione trasparente agli utenti, che resta tutta da verificare. Ma che è dirimente. “La questione è limpida: puoi usare i dati degli utenti se l’hai preventivamente chiesto loro e hai ottenuto un consenso esplicito”, ricordava Agostino Ghiglia, componente del Garante Privacy un paio di mesi fa su Linkedin, mentre in occasione di ComoLake aveva detto che nessuno si sarebbe mai immaginato l’uso in chiave economica dei nostri dati da parte di Facebook quando ci siamo iscritti al social network anni fa.
In altri termini, prima di procedere con l’addestramento dell’AI con i nostri dati, Facebook, Instagram e Whatsapp ce lo dovrebbero chiedere esplicitamente. Ma come? Via mail, dice l’azienda. Però, da quanto emerge dalla comunicazione aziendale, l’utilizzo dei dati avverrà da subito, prima di ottenere il consenso esplicito. Sarà poi invece cura dell’utente esprimere il suo eventuale diniego.
La nota di Meta: l’uso dei dati avviene prima del consenso esplicito?
Di seguito il passaggio della nota inviata ieri da Meta:“…A partire da questa settimana, le persone che si trovano nell’Unione Europea e utilizzano le piattaforme di Meta inizieranno a ricevere notifiche — in app e via email — che spiegano la tipologia di dati che cominceremo a utilizzare e come questo migliorerà l’IA di Meta e l’esperienza complessiva degli utenti. Queste notifiche includeranno anche un link a un modulo attraverso il quale sarà possibile opporsi in qualsiasi momento all’utilizzo dei propri dati in questo modo. Abbiamo reso questo modulo facile da trovare, leggere e compilare, e rispetteremo tutte le richieste già ricevute di non utilizzare i dati, così come quelle che verranno inviate in futuro.
Come già sottolineato in precedenza, non utilizziamo i messaggi privati scambiati con amici e familiari per addestrare i nostri modelli di IA generativa. Inoltre, i dati pubblici provenienti da account appartenenti a persone nell’UE di età inferiore ai 18 anni non verranno utilizzati a fini di addestramento…”.
AI: Nicita (Pd), ‘Addestramento rispetti consenso preventivo utenti e concorrenza’
Critico nei confronti dell’annuncio di Meta i senatori Pd Antonio Nicita: “Dopo l’annuncio di Meta di utilizzare dati e contenuti degli utenti nelle proprie piattaforme al fine di addestrare le proprie tecnologie di intelligenza artificiale, occorrerebbe chiedersi se basti solo il consenso degli utenti oppure modalità di esercizio della scelta (opt-in) che presentino il medesimo grado di autenticazione e semplificazione previsto per l’accesso alle piattaforme, nonché modalità semplificate di opt-out in ogni momento per singoli contenuti come per il complesso dei dati e dei contenuti associati all’utente”, dice in una nota il senatore Antonio Nicita (Pd) che ha presentato una serie di emendamenti su questi temi al ddl su IA a prima firma Lorenzo Basso (Pd) depositato in Senato. “Inoltre, al fine di evitare forme di monopolizzazione nella costruzione dei modelli di agenti IA, occorrerebbe riflettere, almeno per le funzioni tecnicamente separabili nelle grandi piattaforme digitali (Very Large Online Platforms, e Very Large Online Search Engines), se debba essere introdotta la possibilità di accesso da parte di concorrenti che sviluppino servizi analoghi, nonché la possibilità da parte degli utenti di utilizzare servizi concorrenti di IA all’interno delle piattaforme digitali. Sono questioni fondamentali per gli assetti concorrenziali futuri dell’ecosistema digitale e i parlamenti devono occuparsene”, aggiunge.
Due temi, quello del consenso preventivo (Opt-in) e del rispetto della concorrenza che andranno certamente valutati per non creare monopoli e lock in tecnologici nel mercato dell’AI all’interno delle piattaforme.
Le autorità di regolamentazione dell’UE a luglio avevano sospeso i piani di addestramento dell’IA delle aziende tecnologiche
Lo scorso luglio, Meta aveva ritardato l’addestramento della sua IA utilizzando contenuti pubblici sulle sue piattaforme dopo che il gruppo per la difesa della privacy “None of Your Business” ha presentato reclami in 11 paesi europei, che hanno portato la Commissione irlandese per la protezione dei dati (IDPC) a richiedere una sospensione dell’implementazione fino all’esecuzione di una revisione. I reclami sostenevano che le modifiche all’informativa sulla privacy di Meta avrebbero consentito all’azienda di utilizzare anni di post personali, immagini private e dati di tracciamento online per addestrare i suoi prodotti di intelligenza artificiale.
Meta afferma di aver ricevuto l’autorizzazione dall’autorità garante per la protezione dei dati dell’UE, la Commissione europea per la protezione dei dati, che il suo approccio all’addestramento dell’IA soddisfa gli obblighi di legge e che l’azienda continua a collaborare “in modo costruttivo con l’IDPC”.
“È così che abbiamo addestrato i nostri modelli di IA generativa per altre regioni sin dal lancio”, ha affermato Meta.
“Stiamo seguendo l’esempio di altri, tra cui Google e OpenAI, che hanno già utilizzato i dati degli utenti europei per addestrare i loro modelli di IA”.
Autorità irlandese indagine su Google
L’autorità irlandese per la protezione dei dati ha aperto un’indagine transfrontaliera su Google Ireland Limited lo scorso settembre per determinare se il gigante della tecnologia abbia rispettato le leggi dell’UE sulla protezione dei dati durante lo sviluppo dei suoi modelli di IA.
X ha dovuto affrontare un controllo simile e ha accettato di interrompere l’utilizzo dei dati personali degli utenti nell’UE e nello Spazio economico europeo lo scorso settembre. In precedenza, X utilizzava questi dati per addestrare il suo chatbot di intelligenza artificiale Grok.
L’UE ha varato il suo AI Act nell’agosto 2024, stabilendo un quadro giuridico per la tecnologia che includeva disposizioni sulla qualità dei dati, sulla sicurezza e sulla privacy.
Leggi anche: Meta AI, ospite senza invito su WhatsApp. Utenti infuriati