G7, i risultati della fase pilota e il sistema di monitoraggio del Codice sull’AI
“Il Gruppo di lavoro G7 Digital & Technology (D&T WG) ha finalizzato con successo il Reporting Framework per il Codice di condotta internazionale del Processo di Hiroshima per le organizzazioni che sviluppano sistemi avanzati di intelligenza artificiale”.
Così si legge in un post pubblicato da Daniela Grazia Battisti, Responsabile per le Relazioni Internazionali presso il dipartimento per la Trasformazione digitale della Presidenza del Consiglio dei ministri, annunciando il raggiungimento di un risultato rilevante nello sviluppo etico dell’intelligenza artificiale (AI) nel settore pubblico.
La Presidenza italiana del G7 annuncia la pubblicazione del Rapporto sui risultati della fase pilota per il sistema di monitoraggio dello HAIP Codice di condotta (Towards a Hiroshima AI Process Code of Conduct Reporting Framework) e il perfezionamento del sistema di monitoraggio del Codice di condotta internazionale del Processo di Hiroshima (HAIP).
Il Codice di condotta internazionale del Processo di Hiroshima (HAIP)
In continuità con i lavori della Presidenza Giappone del G7 (2023), il nostro Paese si è impegnato, durante tutto il 2024, ad integrare il Codice di Condotta Internazionale per le Organizzazioni che Sviluppano Sistemi di IA Avanzati (HAIP CoC) sviluppando un meccanismo di monitoraggio frutto diretto dell’implementazione del Codice di condotta internazionale del Processo di Hiroshima (HAIP) – Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems.
Grazie al supporto dell’OCSE, si è riusciti ad elaborare una prima bozza di quadro di monitoraggio su cui è stata lanciata una fase pilota tenutasi dal 19 luglio al 6 settembre 2024, e che ha visto la partecipazione di venti organizzazioni in dieci Paesi, garantendo il coinvolgimento di tutte le parti interessate.
Il sistema di monitoraggio è stato sviluppato e finalizzato grazie al lavoro del G7 D&TWG, coordinato dal Dipartimento per la trasformazione digitale della Presidenza del Consiglio dei ministri, con il contributo dell’OCSE e quello di una Task Force informale composta dalle diverse componenti delle società, in linea con quanto previsto dal Comunicato Finale dei Ministri della Tecnologia e del Digitale di Cernobbio (15 ottobre). Il sistema è stato testato con successo durante una fase pilota condotta tra luglio e settembre del 2024.
Il sistema di monitoraggio per un’AI sicura
Il sistema di monitoraggio sarà attivato attraverso uno strumento interattivo che sarà messo a disposizione sul sito OECD Artificial Intelligence Policy Observatory – OECD.AI nella prima metà di febbraio; tutte le organizzazioni che adottano il codice e si sottopongono al monitoraggio saranno elencate sotto il logo creato dalla Presidenza G7 Italia.
Tutte le organizzazioni che adotteranno il Codice e parteciperanno al monitoraggio riceveranno un bollino di riconoscimento e saranno inserite in una lista apposita redatta dall’Osservatorio per aumentare il livello di trasparenza, accessibilità e fiducia verso i cittadini e soprattutto il mondo delle amministrazioni pubbliche.
Il risultato raggiunto pone fine all’iniziativa del G7 D&T WG sotto la Presidenza italiana, ultimo documento dopo i tre Report (“G7 Compendium of Digital Government Services”; “G7 Toolkit for Artificial Intelligence in the Public Sector”; “G7 Mapping Exercise of Digital Identity Approaches”) illustrati in occasione della Riunione ministeriale Tecnologia e Digitale di Cernobbio dello scorso 15 ottobre.
I risultati della fase pilota
La fase pilota ha evidenziato diversi punti di forza. È stata apprezzata la copertura completa degli argomenti chiave relativi alla governance dell’AI, garantendo che la massima rilevanza per tutte le aree critiche afferenti allo sviluppo, alla gestione del rischio e alla conformità. Inoltre, l’allineamento diretto con il Codice di condotta di Hiroshima è stato riconosciuto come un punto di forza significativo, in quanto riflette una serie di azioni riconosciute a livello internazionale per promuovere un’IA sicura, affidabile e responsabile.
Infine, è stato evidenziato il potenziale necessario per affermarsi come un meccanismo internazionale per il reporting sull’IA, promuovendo l’allineamento con altri framework di governance e incoraggiando pratiche coerenti in tutto il settore.
La principale preoccupazione riguardante la divulgazione dei dati era la potenziale pubblicazione di informazioni riservate o commercialmente sensibili. A riguardo, è stata sottolineata la necessità di maggiore chiarezza su come le informazioni fornite sarebbero state utilizzate e condivise