Scarica il testo italiano del Regolamento europeo sull’intelligenza artificiale (AI Act)
La pubblicazione dell’AI Act in GU dell’UE
L’intelligenza artificiale (AI) deve essere affidabile, accessibile a tutti e sicura, soprattutto, più che l’uomo al centro, bisogna sempre ricordarci che questa tecnologia è uno strumento (dall’uomo sviluppato), è fondamentale essere formati per il suo corretto utilizzo, arrivando a sfruttarne le potenzialità e a riconoscerne i limiti, dettati dall’etica e dalla legge.
Serve anche a questo l’Artificial Intelligence Act (AI Act), il Regolamento europeo sull’intelligenza artificiale che sarà pubblicato in Gazzetta Ufficiale dell’Unione europea il prossimo 12 luglio, per poi entrare in vigore 20 giorni dopo, quindi il 2 agosto 2024.
Piena applicabilità del Regolamento, le scadenze
La legge sarà pienamente applicabile a partire dai primi giorni di agosto 2026, con diverse eccezioni relative a specifiche disposizioni normative per le applicazioni particolarmente rischiose.
Il prossimo anno dovrebbero entrare in vigore le norme relative alle pratiche di AI vietate (febbraio 2025) e le norme relative agli obblighi per i sistemi di AI con finalità generali (agosto 2025).
A tre anni dalla piena applicabilità del testo, quindi l’agosto del 2027, saranno pienamente operativi gli obblighi per i sistemi considerati ad alto rischio che trovano innumerevoli applicazioni (dalla biometria all’istruzione, dal mondo del lavoro all’accesso ai servizi essenziali, dalle infrastrutture critiche alla giustizia, fino agli stessi processi democratici).
Una società sensibile alle applicazioni dell’AI
Nel testo si fa riferimento ad alcuni ambiti della nostra quotidianità ed esistenza particolarmente sensibili ad ogni tipo di innovazione, vista la capacità di penetrazione delle tecnologie nella nostra vita e di come essa ne viene condizionata, come la salute, la sicurezza individuale e collettiva, i diritti fondamentali, lo Stato di diritto, la protezione dell’ambiente, con particolare attenzione alle conseguenze che l’utilizzo dell’AI in termini di disuguaglianze, discriminazioni di genere, lavorative e sociali.
Le applicazioni di AI dovrebbero rimanere affidabili anche dopo essere state immesse sul mercato. Ciò richiede una gestione continua della qualità e del rischio da parte dei fornitori.
Supervisionare lo sviluppo dell’AI, mitigare i rischi e sfruttarne al massimo le potenziale
A febbraio di quest’anno è stato creato anche un Ufficio europeo sull’IA, che opererà dall’interno della Commissione, per supervisionare l’applicazione e l’attuazione della legge sull’AI con gli Stati membri, ma anche per creare un ambiente in cui le tecnologie di intelligenza artificiale rispettino appunto la dignità umana, i diritti e la fiducia
Ovviamente, tutti i sistemi di AI ad alto rischio saranno soggetti a obblighi rigorosi prima di poter essere immessi sul mercato, tra cui: dotarsi di adeguati sistemi di valutazione e mitigazione del rischio; la registrazione delle attività per garantire la tracciabilità dei risultati; documentazione dettagliata che fornisce tutte le informazioni necessarie sul sistema e sul suo scopo affinché le autorità possano valutarne la conformità; misure di supervisione umana per ridurre al minimo il rischio; elevato livello di robustezza, sicurezza e precisione.
Fin qui le misure prese da Bruxelles per arginare e mitigare i possibili rischi legati all’utilizzo diffuso di questa tecnologia, ma il Regolamento serve anche a dotare l’Europa di un quadro normativo il più completo possibile finalizzato a favorire lo sviluppo e la crescita dell’AI in tutti i settori chiave della nostra economica, nell’industria e nella ricerca, per sfruttare al massimo le potenzialità offerte dall’intelligenza artificiale e poter così migliorare i livelli di competitività su scala globale.
Il testo del regolamento in PDF è offerto in download tradotto in 24 lingue dell’Unione europea, tra cui ovviamente l’italiano.