I veloci sviluppi tecnologici dell’intelligenza artificiale, a partire da ChatGpt di OpenAI, rendono difficili gli sforzi dei vari governi globali, impegnati nel difficile tentativo di trovare un quadro di riferimento comune per l’uso della tecnologia.
Di seguito gli ultimi sviluppi da parte di enti nazionali e internazionali impegnati nella regolazione degli strumenti di AI, messi in fila da Reuters.
Australia
Pianifica le regolazioni.
L’Australia farà sì che i motori di ricerca redigano nuovi codici per impedire la condivisione di materiale pedopornografico creato dall’intelligenza artificiale e la produzione di versioni deepfake dello stesso materiale, ha affermato a settembre il suo regolatore di Internet.
Gran Bretagna
Pianifica regolazioni.
I governi e le aziende devono affrontare direttamente i rischi dell’intelligenza artificiale, ha affermato il primo ministro Rishi Sunak il 26 ottobre in vista del primo vertice globale sulla sicurezza dell’intelligenza artificiale a Bletchley Park l’1 e il 2 novembre.
Sunak ha aggiunto che la Gran Bretagna istituirà il primo istituto al mondo per la sicurezza dell’intelligenza artificiale per “capire di cosa è capace ogni nuovo modello, esplorando tutti i rischi, dai danni sociali come pregiudizi e disinformazione fino ai rischi più estremi”.
L’autorità di vigilanza dei dati britannica ha dichiarato il 10 ottobre di aver inviato a Snapchat di Snap un avviso di applicazione preliminare per una possibile incapacità di valutare adeguatamente i rischi per la privacy del suo chatbot di intelligenza artificiale generativa per gli utenti, in particolare i bambini.
Cina
Implementazione di regolamenti temporanei
Il 12 ottobre la Cina ha pubblicato una proposta di requisiti di sicurezza per le aziende che offrono servizi basati sull’intelligenza artificiale generativa, inclusa una lista nera di fonti che non possono essere utilizzate per addestrare modelli di intelligenza artificiale.
Il Paese ha emesso una serie di misure temporanee in agosto, imponendo ai fornitori di servizi di presentare valutazioni di sicurezza e ricevere l’autorizzazione prima di rilasciare prodotti di intelligenza artificiale sul mercato di massa.
Unione Europea
Regolazione in fase di sviluppo.
I legislatori europei hanno raggiunto un accordo il 24 ottobre su una parte critica delle nuove regole sull’IA che delinea i tipi di sistemi che saranno designati “ad alto rischio”, e si sono avvicinati a un accordo più ampio sulla storica legge sull’IA, secondo cinque persone che hanno familiarità con la questione. Un accordo è previsto per dicembre, hanno affermato due correlatori.
Il 13 settembre la presidente della Commissione europea Ursula von der Leyen ha convocato un panel globale per valutare i rischi e i benefici dell’intelligenza artificiale.
Francia
* Indagare su possibili violazioni
L’autorità francese di vigilanza sulla privacy ha dichiarato ad aprile che stava indagando sui reclami relativi a ChatGPT.
G7
Ricerca di input sulle normative
A maggio i leader del G7 hanno chiesto lo sviluppo e l’adozione di standard tecnici per mantenere l’intelligenza artificiale “affidabile”.
Italia
Indagare su possibili violazioni
L’autorità italiana per la protezione dei dati prevede di rivedere le piattaforme di intelligenza artificiale e assumere esperti nel settore, ha affermato a maggio un alto funzionario. ChatGPT è stato temporaneamente vietato nel paese a marzo, ma è stato reso nuovamente disponibile ad aprile.
Giappone
Indagare su possibili violazioni
Il Giappone prevede di introdurre entro la fine del 2023 regolamenti che probabilmente saranno più vicini all’atteggiamento degli Stati Uniti rispetto a quelli rigorosi pianificati nell’UE, ha detto a luglio un funzionario vicino alle deliberazioni.
L’autorità di vigilanza sulla privacy del paese ha avvertito OpenAI di non raccogliere dati sensibili senza il permesso delle persone.
Polonia
Indagare su possibili violazioni
L’Ufficio polacco per la protezione dei dati personali ha dichiarato il 21 settembre che stava indagando su OpenAI per una denuncia secondo cui ChatGPT viola le leggi dell’UE sulla protezione dei dati.
Spagna
Indagare su possibili violazioni
Ad aprile l’agenzia spagnola per la protezione dei dati ha avviato un’indagine preliminare su potenziali violazioni dei dati da parte di ChatGPT.
Nazioni Unite
Regolazione pianificata
Il 26 ottobre il segretario generale delle Nazioni Unite António Guterres ha annunciato la creazione di un organo consultivo composto da 39 membri, composto da dirigenti di aziende tecnologiche, funzionari governativi e accademici, per affrontare le questioni relative alla governance internazionale dell’intelligenza artificiale.
Il Consiglio di Sicurezza delle Nazioni Unite ha tenuto la sua prima discussione formale sull’intelligenza artificiale a luglio, affrontando le applicazioni militari e non militari dell’intelligenza artificiale che “potrebbero avere conseguenze molto gravi per la pace e la sicurezza globale”, aveva affermato all’epoca Guterres.
USA
Ricerca di input per la regolazione
Si prevede che la Casa Bianca presenterà il 30 ottobre un ordine esecutivo sull’intelligenza artificiale tanto atteso, che richiederebbe che “i modelli avanzati di intelligenza artificiale siano sottoposti a valutazioni prima di poter essere utilizzati dai lavoratori federali”, ha riferito il Washington Post.
A settembre il Congresso degli Stati Uniti ha tenuto udienze sull’intelligenza artificiale e un forum sull’intelligenza artificiale con la partecipazione del CEO di Meta Mark Zuckerberg e del CEO di Tesla Elon Musk.
Più di 60 senatori hanno preso parte ai colloqui, durante i quali Musk ha chiesto un “arbitro” statunitense per l’IA. I legislatori hanno affermato che esiste un accordo universale sulla necessità di una regolamentazione governativa della tecnologia.
Il 12 settembre, la Casa Bianca ha affermato che Adobe, IBM, Nvidia e altre cinque aziende hanno firmato gli impegni volontari del presidente Joe Biden che regolano l’intelligenza artificiale, che richiedono passaggi come la filigrana dei contenuti generati dall’intelligenza artificiale.
Un giudice distrettuale di Washington D.C. ha stabilito ad agosto che un’opera d’arte creata dall’intelligenza artificiale senza alcun contributo umano non può essere protetta da copyright secondo la legge statunitense.
La Federal Trade Commission degli Stati Uniti ha aperto a luglio un’indagine su OpenAI sostenendo che sarebbe entrata in conflitto con le leggi sulla protezione dei consumatori