Si è svolto ieri sera l’incontro, in video conferenza, tra Garante Privacy e OpenAI sul ChatGPT. Un dialogo durato quasi quasi tre ore in un clima definito molto buono, ma è ancora presto per capire se e quando il servizio tornerà attivo in Italia.
All’incontro, a cui ha preso parte in apertura anche Sam Altman, CEO di OpenAI, erano presenti, oltre al Collegio del Garante (Pasquale Stanzione, Ginevra Cerrina Feroni, Agostino Ghiglia, Guido Scorza), Che Chang, Deputy General Counsel della società statunitense, Anna Makanju, responsabile Public Policy e Ashley Pantuliano, Associate General Counsel.
“OpenAI, pur ribadendo di essere convinta di rispettare le norme in tema di protezione dei dati personali, ha tuttavia confermato la volontà di collaborare con l’Autorità italiana con l’obiettivo di arrivare ad una positiva soluzione delle criticità rilevate dal Garante riguardo a ChatGPT”, ha spiegato il Garante in una nota.
OpenAI si è impegnata a rafforzare la trasparenza nell’uso dei dati personali
“L’Autorità da parte sua ha sottolineato come non vi sia alcuna intenzione di porre un freno allo sviluppo dell’AI e dell’innovazione tecnologica ed ha ribadito l’importanza del rispetto delle norme poste a tutela dei dai personali dei cittadini italiani ed europei. OpenAI si è impegnata a rafforzare la trasparenza nell’uso dei dati personali degli interessati, i meccanismi esistenti per l’esercizio dei diritti e le garanzie per i minori e ad inviare al Garante entro oggi un documento che indichi le misure che rispondano alle richieste dell’Autorità”, ha concluso la nota.
Il Garante si riserva di valutare le misure proposte dalla società, anche riguardo al provvedimento adottato nei confronti di OpenAI.
Stati Uniti e Canada seguono la scia del Garante italiano
Dopo il Garante italiano, anche quello del Canada ha annunciato di aver aperto un’indagine su OpenAI, la società che sviluppa e gestisce ChatGPT. Il motivo? Lo stesso avanzato dall’Autorità italiana: “è stata avviata a seguito di una denuncia secondo cui le informazioni personali sono state raccolte, utilizzate e comunicate senza consenso”, ha spiegato l’Ufficio del Commissario per la privacy del Canada.
Se non regoliamo l’IA, sarà “la nostra invenzione finale”?
“Le ripercussioni sulla privacy della tecnologia IA sono una priorità per il Commissariato”, ha affermato il commissario per la privacy del Canada Philippe Dufresne. “Dobbiamo stare al passo con i rapidi progressi tecnologici”, ha aggiunto, “e persino rimanere un passo avanti su questo piano”. E il riferimento è all’esigenza di normare il prima possibile l’intelligenza artificiale generativa come ChatGPT, basata sui Large Language Model (modelli linguistici di grandi dimensioni) prima che sia troppo tardi. Prima che l’Intelligenza Artificiale diventi “la nostra invenzione finale”, per citare il titolo del libro di James Barrat, che vede l’IA come la fine dell’età dell’uomo.
Negli Stati Uniti è stata presentata alla Federal Trade Commission (FTC) una denuncia contro OpenAI da parte del gruppo di ricerca senza scopo di lucro Center for AI and Digital Policy, che accusa la società dietro ChatGPT e ormai GPT-4 “di violare una parte della legge FTC che vieta le pratiche commerciali sleali e ingannevoli e le linee guida sui prodotti di intelligenza artificiale”.
Secondo il presidente del gruppo di ricerca denunciante, “GPT-4 è di parte, ingannevole ed è un rischio per la privacy e la sicurezza pubblica”. Il gruppo sostiene che i modelli linguistici di grandi dimensioni non soddisfino gli standard dell’Agenzia sull’IA, ossia non sono “trasparenti, spiegabili, equi…”
OpenAI: “La nostra mission è costruire e implementare sistemi di AI sicuri”
OpenAI ha diffuso ieri sera, tramite il suo blog, un post riguardo il suo approccio alla sicurezza.
“OpenAI si impegna a mantenere l’AI potente sicura e ampiamente vantaggiosa. Sappiamo che i nostri strumenti di AI forniscono molti vantaggi alle persone oggi. I nostri utenti in tutto il mondo ci hanno detto che ChatGPT aiuta ad aumentare la loro produttività, migliorare la loro creatività e offrire esperienze di apprendimento personalizzate. Riconosciamo anche che, come qualsiasi tecnologia, questi strumenti comportano rischi reali, quindi lavoriamo per garantire che la sicurezza sia integrata nel nostro sistema a tutti i livelli. Prima di rilasciare qualsiasi nuovo sistema, conduciamo rigidi test, coinvolgiamo esperti esterni per il feedback, lavoriamo per migliorare il comportamento del modello con tecniche come il reinforcement learning con il feedback umano e costruiamo sistemi di sicurezza e monitoraggio ampi”, spiega OpenAI nel suo blog.
“Ad esempio, dopo che il nostro ultimo modello, GPT-4, ha terminato la formazione, abbiamo impiegato più di 6 mesi per rendere il sistema più sicuro e allineato prima di rilasciarlo pubblicamente. Crediamo che i sistemi di AI potenti debbano essere soggetti a rigorose valutazioni di sicurezza. La regolamentazione è necessaria per garantire che tali pratiche vengano adottate e ci impegniamo attivamente con i governi sulla migliore forma che questa regolamentazione potrebbe assumere”.
Protezione dei bambini: segnaliamo gli abusi al National Center for Missing and Exploited Children
Secondo OpenAI “Uno dei punti centrali dei nostri sforzi per la sicurezza è la protezione dei bambini. Richiediamo che le persone debbano avere almeno 18 anni o, se hanno tra i 13 e i 18 anni, ottenere l’approvazione dei genitori per utilizzare i nostri strumenti di AI, e stiamo esaminando le opzioni di verifica. Non consentiamo che la nostra tecnologia venga utilizzata per generare contenuti, violenti o per adulti. Il nostro ultimo modello, GPT-4, è meno probabile dell’82% di rispondere a richieste di contenuti non consentiti rispetto a GPT-3.5 e abbiamo stabilito un sistema robusto per monitorare gli abusi. GPT-4 è ora disponibile per gli abbonati a ChatGPT Plus e speriamo di renderlo disponibile a un numero sempre maggiore di persone nel tempo. Abbiamo fatto un notevole sforzo per ridurre al minimo la possibilità che i nostri modelli generino contenuti che danneggiano i bambini. Ad esempio, quando gli utenti cercano di caricare materiale relativo all’abuso sessuale infantile sui nostri strumenti di immagine, lo blocciamo e lo segnaliamo al National Center for Missing and Exploited Children”.