Key4biz

Meta cambia idea. Non userà più i nostri dati sui social per addestrare la sua AI

Meta ha confermato che sospenderà i piani per iniziare ad addestrare i suoi sistemi di intelligenza artificiale utilizzando i dati dei suoi utenti nell’Unione Europea e nel Regno Unito. La mossa fa seguito alla denuncia della Commissione irlandese per la protezione dei dati (DPC), il principale regolatore di Meta nell’UE, che agisce per conto di diverse autorità di protezione dei dati in tutto il blocco.

Anche l’Information Commissioner’s Office (ICO) del Regno Unito ha chiesto a Meta di sospendere i suoi piani fino a quando non potrà rispondere alle preoccupazioni sollevate. “Il DPC accoglie con favore la decisione di Meta di sospendere i suoi piani per addestrare il suo ampio modello linguistico utilizzando contenuti pubblici condivisi da adulti su Facebook e Instagram in tutta l’UE/SEE”, ha affermato il DPC venerdì.

Decisione di concerto

Meta sta già sfruttando i contenuti generati dagli utenti per addestrare la propria intelligenza artificiale in mercati come gli Stati Uniti, ma le normative del GDPR hanno creato ostacoli per tutte le aziende che cercano di migliorare i propri sistemi di intelligenza artificiale, compresi modelli linguistici di grandi dimensioni con i cosiddetti “ugc”, user generated content. Tuttavia, Meta il mese scorso ha iniziato a notificare agli utenti un imminente cambiamento della sua politica sulla privacy, che gli darà il diritto di utilizzare contenuti pubblici su Facebook e Instagram per addestrare la sua intelligenza artificiale, inclusi contenuti di commenti, interazioni con aziende, aggiornamenti di stato, foto e relative didascalie.

L’azienda ha sostenuto che era necessario farlo per riflettere “le diverse lingue, geografie e riferimenti culturali delle persone in Europa”. Queste modifiche sarebbero dovute entrare in vigore il 26 giugno. Ma i piani hanno spinto l’organizzazione no-profit di attivisti per la privacy NOYB a presentare 11 reclami ai paesi costituenti dell’UE, sostenendo che Meta sta violando vari aspetti del GDPR. Uno di questi riguarda la questione dell’opt-in rispetto all’opt-out, rispetto dove avviene il trattamento dei dati personali, agli iscritti dovrebbe essere chiesto prima il permesso anziché richiedere un’azione per rifiutare. Meta, da parte sua, si affidava ad una disposizione del GDPR denominata “interessi legittimi” per sostenere che le sue azioni fossero conformi alle normative. E non è la prima volta: in precedenza Meta aveva utilizzato lo stesso schema per giustificare il trattamento degli utenti europei per pubblicità mirate.

C’è notifica e notifica

La società ha affermato di aver inviato più di 2 miliardi di notifiche per informare gli utenti delle imminenti modifiche, ma a differenza di altri importanti messaggi pubblici che sono affissi nella parte superiore dei feed degli utenti, come le richieste di uscire e votare, queste notifiche sono apparse accanto a quelle standard: compleanni degli amici, avvisi di tag foto, annunci di gruppo e altro ancora. Quindi, se qualcuno non controlla regolarmente la sezione, rischiava di perdere l’aggiornamento. E, anche dopo aver letto l’avviso, niente spiega come opporsi o rinunciare.

Inoltre, tecnicamente gli utenti non sono in grado di “rinunciare” all’utilizzo dei propri dati, se non compilando un modulo di opposizione in cui si espongono le loro argomentazioni sul motivo: e resta a discrezione di Meta accogliere o meno la richiesta.

Burocratese social

La scorsa settimana, quando è stato chiesto perché questo processo richiedesse all’utente di presentare un’obiezione anziché aderire, il responsabile delle comunicazioni sulle politiche di Meta, Matt Pollard, ha spiegato: “Crediamo che questa base legale [“interessi legittimi” ] è l’equilibrio più appropriato per l’elaborazione dei dati pubblici sulla scala necessaria per addestrare modelli di intelligenza artificiale, nel rispetto dei diritti delle persone”.

Quindi il modo migliore per aggirare il problema era emettere una notifica solitaria tra le altre degli utenti; nascondere il modulo di opposizione dietro una mezza dozzina di clic per chi cerca autonomamente la “rinuncia”; e poi farli giustificare la loro obiezione, invece di dare loro una chiara rinuncia. In un post aggiornato venerdì, il direttore globale per la politica sulla privacy di Meta, Stefano Fratta, ha affermato di essere “deluso” dalla richiesta ricevuta dal DPC. “Questo è un passo indietro per l’innovazione europea, la concorrenza nello sviluppo dell’intelligenza artificiale e ulteriori ritardi nel portare i benefici dell’intelligenza artificiale alle persone in Europa” ha scritto Fratta. “Rimaniamo fortemente fiduciosi che il nostro approccio sia conforme alle leggi e ai regolamenti europei. La formazione sull’intelligenza artificiale non è un’esclusiva dei nostri servizi e siamo più trasparenti di molti dei nostri omologhi del settore”.

La corsa all’AI

Se i tentativi di Meta di addestrare la sua intelligenza artificiale sui contenuti pubblici degli utenti in Europa per ora sono bloccati, probabilmente il colosso rialzerà la testa in un’altra forma dopo aver consultato il DPC e l’ICO. “Per ottenere il massimo dall’intelligenza artificiale generativa e dalle opportunità che offre, è fondamentale che il pubblico possa avere fiducia che i suoi diritti alla privacy saranno rispettati fin dall’inizio”, ha affermato Stephen Almond, direttore esecutivo dell’ICO per il rischio normativo. “Continueremo a monitorare i principali sviluppatori di intelligenza artificiale generativa, incluso Meta, per rivedere le misure di salvaguardia che hanno messo in atto e garantire che i diritti di informazione degli utenti siano protetti”.

Exit mobile version