L’Unione europea è sul punto di mettere in atto una legislazione storica e la prima al mondo sul governare l’intelligenza artificiale. Con specifici casi in cui vietare l’IA. Oggi è stato dato il via libera – con 84 voti a favore, 7 contrari e 12 astensioni – dalle commissioni per il Mercato interno (Libe) e Giustizia (Libe) del Parlamento Ue al mandato negoziale sul regolamento sull’Intelligenza artificiale, il cosiddetto Artificial Intelligence Act, proposto dalla Commissione Ue ad aprile 2021. Prima che possano iniziare i negoziati con il Consiglio Ue sulla forma finale della legge, il mandato negoziale deve ora essere approvato dall’intero Parlamento, con il voto previsto durante la sessione del 12-15 giugno. Mentre l’approvazione finale del Regolamento è prevista per i primi mesi del 2024, ma la sua piena applicazione in tutti gli Stati dell’Ue richiederà tempo. Solo allora avremo nell’Unione Europea le prime regole al mondo per governare l’Intelligenza artificiale generativa.
Le novità proposte dai deputati rispetto alla proposta della Commissione Ue
Nei loro emendamenti alla proposta della Commissione, i deputati mirano a garantire che i sistemi di intelligenza artificiale siano supervisionati dalle persone, siano sicuri, trasparenti, rintracciabili, non discriminatori e rispettosi dell’ambiente. Vogliono anche avere una definizione uniforme per l’IA progettata per essere tecnologicamente neutrale, in modo che possa applicarsi ai sistemi di intelligenza artificiale di oggi e di domani.
Tutti gli emendamenti di compromesso
In sintesi, le norme seguono un approccio basato sul rischio e stabiliscono obblighi per fornitori e utenti a seconda del livello di rischio che l’IA può generare. I sistemi di intelligenza artificiale con un livello di rischio inaccettabile per la sicurezza delle persone sarebbero severamente vietati, compresi i sistemi che impiegano tecniche subliminali o intenzionalmente manipolative, sfruttano le vulnerabilità delle persone o sono utilizzati per il punteggio sociale (classificazione delle persone in base al loro comportamento sociale, stato socio-economico, caratteristiche).
Quando vietare l’IA generativa. Stop alla videosorveglianza invasiva, stop all’uso della tecnologia senza regole
I deputati hanno sostanzialmente modificato l’elenco per includere i divieti sugli usi intrusivi e discriminatori dei sistemi di IA come:
- sistemi di identificazione biometrica remota in tempo reale in spazi accessibili al pubblico;
- sistemi di identificazione biometrica remota “post”, con la sola eccezione delle forze dell’ordine per il perseguimento di reati gravi e solo previa autorizzazione giudiziaria;
- sistemi di categorizzazione biometrici che utilizzano caratteristiche sensibili (ad esempio genere, razza, etnia, stato di cittadinanza, religione, orientamento politico);
- sistemi di polizia predittiva (basati su profilazione, posizione o comportamento criminale passato);
- sistemi di riconoscimento delle emozioni nelle forze dell’ordine, nella gestione delle frontiere, sul posto di lavoro e nelle istituzioni educative;
- scraping indiscriminato di dati biometrici da social media o filmati CCTV per creare database di riconoscimento facciale (violando i diritti umani e il diritto alla privacy)
I deputati hanno inoltre ampliato la classificazione delle aree ad alto rischio per includere i danni alla salute, alla sicurezza, ai diritti fondamentali o all’ambiente delle persone. Hanno anche aggiunto i sistemi di intelligenza artificiale per influenzare gli elettori nelle campagne politiche e nei sistemi di raccomandazione utilizzati dalle piattaforme di social media (con oltre 45 milioni di utenti ai sensi del Digital Services Act) all’elenco ad alto rischio.
Un’altra novità riguarda i fornitori di modelli di fondazione, uno sviluppo nuovo e in rapida evoluzione nel campo dell’IA, che, secondo le norme del regolamento, dovrebbero garantire una solida protezione dei diritti fondamentali, della salute e della sicurezza e dell’ambiente, della democrazia e dello stato di diritto. Dovrebbero valutare e mitigare i rischi, rispettare i requisiti di progettazione, informazione e ambiente e registrarsi nella banca dati dell’Ue.
Rivelare se contenuto prodotto con ChatGPT e da altre IA generative
I modelli fondazione generativi, come chatGPT, dovrebbero rispettare ulteriori requisiti di trasparenza, come rivelare che il contenuto è stato generato dall’intelligenza artificiale, progettare il modello per impedire che generi contenuto illegale e pubblicare riepiloghi dei dati protetti da copyright utilizzati per la formazione.
Esenzioni per chi fa Ricerca e sviluppa IA con licenze open source
Per promuovere l’innovazione dell’IA, i deputati hanno aggiunto esenzioni a queste regole per le attività di ricerca e i componenti dell’IA forniti con licenze open source. La nuova legge promuove i sandbox normativi, o ambienti controllati, istituiti dalle autorità pubbliche per testare l’intelligenza artificiale prima della sua implementazione. I deputati vogliono inoltre rafforzare il diritto dei cittadini di presentare reclami sui sistemi di intelligenza artificiale e ricevere spiegazioni delle decisioni basate su sistemi di intelligenza artificiale ad alto rischio che incidono in modo significativo sui loro diritti. Riformato anche il ruolo dell’Ufficio AI dell’Ue, che avrebbe il compito di monitorare l’attuazione del regolamento sull’IA.
Il correlatore Benifei: “Siamo sul punto di mettere in atto una legislazione storica che deve resistere alla sfida del tempo“
Per il correlatore Brando Benifei (Pd, S&D) “Siamo sul punto di mettere in atto una legislazione storica che deve resistere alla sfida del tempo. È fondamentale costruire la fiducia dei cittadini nello sviluppo dell’IA, definire la via europea per affrontare gli straordinari cambiamenti che stanno già avvenendo, nonché orientare il dibattito politico sull’IA a livello globale. Siamo fiduciosi che il nostro testo equilibri la protezione dei diritti fondamentali con la necessità di fornire certezza giuridica alle imprese e stimolare l’innovazione in Europa“.
Il secondo correlatore Tudorache: “È il primo atto legislativo di questo tipo al mondo, il che significa che l’Ue può aprire la strada per rendere l’IA incentrata sull’uomo, affidabile e sicura“
Secondo il correlatore Dragos Tudorache (Renew, Romania) “la legge sull’IA è molto probabilmente l’atto legislativo più importante in questo mandato. È il primo atto legislativo di questo tipo al mondo, il che significa che l’Ue può aprire la strada per rendere l’IA incentrata sull’uomo, affidabile e sicura. Abbiamo lavorato per sostenere l’innovazione dell’IA in Europa e per dare alle start-up, alle PMI e all’industria lo spazio per crescere e innovare, proteggendo al contempo i diritti fondamentali, rafforzando la supervisione democratica e garantendo un sistema maturo di governance e applicazione dell’IA”.
Prossimi passi
Prima che possano iniziare i negoziati con il Consiglio sulla forma finale della legge, questo progetto di mandato negoziale deve essere approvato dal Parlamento, con il voto previsto durante la sessione del 12-15 giugno. Poi l’approvazione finale del Regolamento è prevista per i primi mesi del 2024, ma la sua piena applicazione in tutti gli Stati dell’Ue sarà graduale e richiederà tempo.
Per approfondire: