I legislatori del Parlamento europeo hanno votato a stragrande maggioranza – voti favorevoli, 46 contrari e 49 astensioni – a favore della legge sull’intelligenza artificiale, cinque anni dopo la prima proposta di regolamentazione. Si prevede che l’AI Act fungerà da faro globale per altri governi alle prese con la regolamentazione della tecnologia.
“L’AI Act ha spinto il futuro dell’IA in una direzione incentrata sull’uomo, in una direzione in cui gli esseri umani hanno il controllo della tecnologia e dove essa – la tecnologia – ci aiuta a sfruttare nuove scoperte, crescita economica, progresso sociale e sbloccare il potenziale umano “, ha detto prima del voto Dragos Tudorache, deputato rumeno e co-leader dei negoziati del Parlamento sul progetto di legge.
Le grandi aziende tecnologiche in genere hanno sostenuto la necessità di regolamentare l’intelligenza artificiale, esercitando allo stesso tempo pressioni per garantire che qualsiasi regola funzioni a loro favore. Il Ceo di OpenAI, Sam Altman, ha suscitato un po’ di scalpore l’anno scorso quando lasciando balenare l’ipotesi che ChatGPT potrebbe ritirarsi dall’Europa se non riuscisse a rispettare l’AI Act, prima di fare marcia indietro e dire che non c’erano piani per andarsene.
Ecco uno sguardo al primo set completo di regole IA al mondo:
Come funziona l’AI Act?
Come molte normative dell’Ue, l’AI Act inizialmente doveva fungere da legislazione sulla sicurezza dei consumatori, adottando un “approccio basato sul rischio” per prodotti o servizi che utilizzano l’intelligenza artificiale.
Più un’applicazione di intelligenza artificiale è rischiosa, maggiore sarà il controllo che dovrà affrontare. Si prevede che la stragrande maggioranza dei sistemi di intelligenza artificiale siano a basso rischio, come i sistemi di raccomandazione dei contenuti o i filtri antispam. Le aziende possono scegliere di seguire requisiti volontari e codici di condotta.
Gli usi ad alto rischio dell’intelligenza artificiale, come nei dispositivi medici o nelle infrastrutture critiche come le reti idriche o elettriche, devono affrontare requisiti più severi come l’utilizzo di dati di alta qualità e la fornitura di informazioni chiare agli utenti.
Alcuni usi dell’intelligenza artificiale sono vietati perché considerati un rischio inaccettabile, come i sistemi di punteggio sociale (social scoring) che regolano il comportamento delle persone, alcuni tipi di polizia predittiva e i sistemi di riconoscimento delle emozioni a scuola e sul posto di lavoro.
Altri usi vietati includono la scansione dei volti da parte della polizia in pubblico utilizzando sistemi di “identificazione biometrica” remota alimentati dall’intelligenza artificiale, ad eccezione di crimini gravi come rapimenti o terrorismo.
Che cosa riguarda l’AI generativa?
Le prime bozze della legge si concentravano sui sistemi di intelligenza artificiale che svolgono compiti strettamente limitati, come la scansione di curriculum e domande di lavoro. La sorprendente ascesa dei modelli di intelligenza artificiale per scopi generali, esemplificata dal ChatGPT di OpenAI, ha spinto i politici dell’Ue a sforzarsi per tenere il passo.
Hanno aggiunto disposizioni per i cosiddetti modelli di intelligenza artificiale generativa, la tecnologia alla base dei sistemi di chatbot di intelligenza artificiale in grado di produrre risposte, immagini e altro ancora uniche e apparentemente realistiche.
Gli sviluppatori di modelli di intelligenza artificiale per scopi generici, dalle startup europee a OpenAI e Google, dovranno fornire un riepilogo dettagliato di testi, immagini, video e altri dati su Internet utilizzati per addestrare i sistemi e rispettare la legge sul copyright dell’Ue.
Le immagini, i video o l’audio deepfake generati dall’intelligenza artificiale di persone, luoghi o eventi esistenti devono essere etichettati come manipolati artificialmente.
C’è un esame più approfondito per i modelli di intelligenza artificiale più grandi e potenti che comportano “rischi sistemici”, tra cui GPT4 di OpenAI – il suo sistema più avanzato – e Gemini di Google.
L’Ue è preoccupata che questi potenti sistemi di intelligenza artificiale possano “causare gravi incidenti o essere utilizzati in modo improprio per attacchi informatici di vasta portata”. Temono inoltre che l’intelligenza artificiale generativa possa diffondere “pregiudizi dannosi” in molte applicazioni, colpendo molte persone.
Le aziende che forniscono questi sistemi dovranno valutare e mitigare i rischi; segnalare eventuali incidenti gravi, quali malfunzionamenti che causino la morte di qualcuno o gravi danni alla salute o alle cose; mettere in atto misure di sicurezza informatica; e rivelare quanta energia utilizzano i loro modelli.
Le regole europee influenzano il resto del mondo?
Bruxelles ha suggerito per la prima volta una regolamentazione dell’IA nel 2019, assumendo un ruolo globale familiare nell’intensificare il controllo delle industrie emergenti, mentre altri governi si affannano per tenere il passo.
Negli Stati Uniti, in ottobre il presidente Joe Biden ha firmato un ampio ordine esecutivo sull’intelligenza artificiale che dovrebbe essere sostenuto da leggi e accordi globali. Nel frattempo, i legislatori di almeno sette stati degli Stati Uniti stanno lavorando alla propria legislazione sull’IA.
Il presidente cinese Xi Jinping ha proposto la sua Global AI Governance Initiative per un uso equo e sicuro dell’IA, e le autorità hanno emesso “misure provvisorie” per la gestione dell’IA generativa, che si applica a testo, immagini, audio, video e altri contenuti generati per le persone all’interno della Cina.
Altri paesi, dal Brasile al Giappone, così come gruppi globali come le Nazioni Unite e il Gruppo dei Sette paesi industrializzati, si stanno muovendo per elaborare dei limiti sull’intelligenza artificiale.
Cosa succede dopo?
Si prevede che la legge sull’intelligenza artificiale diventi ufficialmente legge entro maggio o giugno, dopo alcune formalità finali, inclusa la benedizione dei paesi membri dell’Ue. Le disposizioni inizieranno ad entrare in vigore gradualmente, con i paesi tenuti a vietare i sistemi di intelligenza artificiale vietati sei mesi dopo l’entrata in vigore delle norme nei codici legislativi.
Le regole per i sistemi di intelligenza artificiale di uso generale come i chatbot inizieranno ad applicarsi un anno dopo l’entrata in vigore della legge. Entro la metà del 2026 entrerà in vigore l’intera serie di regolamenti, compresi i requisiti per i sistemi ad alto rischio.
Per quanto riguarda l’applicazione delle norme, ciascun paese dell’Ue istituirà un proprio organismo di controllo dell’IA, presso il quale i cittadini potranno presentare un reclamo se ritengono di essere stati vittime di una violazione delle regole. Nel frattempo, Bruxelles creerà un ufficio IA incaricato di far rispettare e supervisionare la legge per i sistemi IA di uso generale.
Le violazioni dell’AI Act potrebbero comportare multe fino a 35 milioni di euro (38 milioni di dollari), ovvero il 7% delle entrate globali di un’azienda.
“Questa non è l’ultima parola di Bruxelles sulle norme sull’intelligenza artificiale – ha detto il deputato italiano Brando Benifei, co-responsabile dei lavori del Parlamento sulla legge – Dopo le elezioni estive potrebbe essere prevista una maggiore legislazione relativa all’intelligenza artificiale, anche in settori come l’intelligenza artificiale sul posto di lavoro che la nuova legge copre in parte, ha aggiunto.