“Abbiamo deciso in qualità di comitato europeo per la protezione dei dati di creare una task force” su ChatGPT “principalmente per armonizzare l’approccio. In questo caso tutte le autorità (nazionali) di protezione dei dati sono competenti” in linea con il principio dello sportello unico previsto dal regolamento europeo per la protezione dei dati personali (Gdpr). Lo ha detto il garante Ue per la privacy, Wojciech Wiewiórowski, in conferenza stampa, rispondendo a una domanda sul blocco temporaneo di ChatGPT deciso dall’autorità italiana per la protezione dei dati. “OpenIA, che ha introdotto ChatGPT nel mercato, non ha sede in Ue, per questo il Garante può prendere questa decisione e ci sono anche indagini in corso in altri paesi”, ha aggiunto Wiewiórowski, sottolineando tuttavia la necessità di “un approccio comune tra le autorità di vigilanza” sull’impatto di questo modello di Ia generativa sulla protezione dei dati.
Il Garante privacy Ue mette in guardia le compagnie di AI americane: rischiano uno scenario d’inferno
Il Garante Privacy Ue mette in guardia le aziende americane del settore AI sotto inchiesta in Europa per presunte violazioni del GDPR.
In una recente intervista alla MIT Technology Review Wiewiòrowski ha detto che che il rapido ritmo di sviluppo nello spazio dell’IA significa che le autorità di regolamentazione della protezione dei dati dovrebbero essere preparate per un altro scandalo, invocando la situazione di Cambridge Analytica come riferimento.
I commenti di Wiewiórowski arrivano dopo una settimana tumultuosa per il principale gruppo di intelligenza artificiale OpenAI, creatore della popolarissima suite di prodotti e servizi GPT. La suite di servizi GPT dell’azienda è stata completamente vietata in Italia in attesa di ulteriori informazioni sulla sua intenzione e capacità di conformarsi al GDPR, con azioni simili in corso in Irlanda, Francia e Germania.
Secondo il Garante dell’Unione Europea, OpenAI si trova attualmente l’incudine europeo e il martello negli Stati Uniti, legalmente parlando. Mentre i regolatori dell’UE cercano di reprimere, i legislatori statunitensi potrebbero considerare la prescrizione europea come un possibile modello da replicare. Ha detto Wiewiórowski nell’intervista al MIT Technology Review:
“L’approccio europeo è connesso allo scopo per cui si utilizzano i dati. Quindi, quando cambi lo scopo per cui vengono utilizzati i dati, e soprattutto se lo fai contro le informazioni che fornisci alle persone, stai violando la legge.
In base a questa premessa, ad esempio, OpenAI potrebbe trovarsi incapace di implementare e utilizzare modelli come GPT-3.5 e GPT-4 a causa del modo in cui sono progettati e addestrati. La legge GDPR richiede che i cittadini dell’UE abbiano la possibilità di rinunciare alla raccolta dei dati e, nel caso in cui un sistema emetta dati errati, di correggere tali errori”.
Tuttavia, alcuni esperti ritengono che sarà quasi impossibile per gli sviluppatori mettere GPT e simili modelli di linguaggi di grandi dimensioni (LLM) in linea con il GDPR. Uno dei motivi è che i dati su cui vengono addestrati sono spesso confusi, rendendo così i singoli dati inseparabili l’uno dall’altro.
La valutazione di Wiewiórowski, secondo l’articolo di Technology Review, è che questo rappresenta un danno per aziende come OpenAI che si sarebbe affrettata a partire senza un piano pubblico per affrontare problemi di privacy come quelli regolati dal GDPR.
OpenAI deve affrontare varie inchieste ufficiali in Europa con scadenze che si avvicinano – 30 aprile in Italia, 11 giugno in Germania – e non è chiaro come la società intenda affrontare le preoccupazioni sulla privacy dei regolatori.
Ancora una volta nel mezzo ci sono coloro che utilizzano prodotti e servizi basati sull’API GPT e altri LLM che, in questo momento, non possono essere sicuri per quanto tempo ancora quei modelli saranno legalmente disponibili.
Un divieto assoluto ai sensi del GDPR potrebbe avere conseguenze devastanti per gli europei che utilizzano gli LLM per alimentare le proprie attività e i propri progetti individuali, in particolare nel mercato fintech, dove gli scambi di criptovalute, gli analisti e i trader hanno abbracciato la nuova tecnologia.
E, negli Stati Uniti, dove hanno sede molte delle società di criptovaluta e blockchain più dominanti, un divieto simile potrebbe essere un duro colpo per il settore finanziario.
Fino al 25 aprile, gli analisti della società di servizi finanziari JPMorgan Chase affermavano che almeno la metà dei guadagni dell’indice S&P 500 di quest’anno sono stati guidati da ChatGPT.
Se gli Stati Uniti assumessero il ruolo europeo e istituissero regolamenti sulla privacy in linea con il GDPR, sia il mercato tradizionale che quello delle criptovalute potrebbero subire enormi interruzioni.