Il documento

AI Act, i divieti imposti dall’UE. Le linee guida per imprese e Governi

di |

L'obiettivo è fornire certezza giuridica alle aziende che forniscono o utilizzano sistemi di AI nel mercato Ue, e alle autorità nazionali responsabili della supervisione e dell'applicazione delle norme. Scarica il documento.

SCARICA LE LINEE GUIDA

AI Act, ecco i divieti stabiliti dalla Commissione europea

Presentate le linee guida della Commissione europea sull’interpretazione e l’applicazione delle restrizioni alle pratiche di intelligenza artificiale (AI) previste dall’AI Act (Regolamento UE 2024/1689), tese ad evitare pratiche nocive in termini  e di violazione dei diritti fondamentali.

Si tratta di chiarimenti importanti relativi alle diverse tipologie di divieti, a partire dall’analisi dell’interazione con altre normative dell’Unione europea. Indicazioni che forniscono indicazioni sull’applicazione e sull’esecuzione delle linee guida.

Il documento non è vincolante, e l’interpretazione definitiva spetta alla Corte di Giustizia dell’Unione Europea. Le linee guida saranno regolarmente riviste.

Cosa vieta l’articolo 5 dell’AI Act

Le pratiche vietate dall’articolo 5 dell’AI Act mettono a rischio diversi diritti fondamentali, tra cui: dignità umana, autonomia individuale, libertà, uguaglianza, non-discriminazione, libertà di espressione, diritto alla privacy, diritto alla protezione dei dati, diritto a un ricorso effettivo e ad un processo equo, presunzione di innocenza, diritto alla difesa, diritti del bambino, diritti degli anziani.

Le pratiche di IA che utilizzano tecniche subliminali, manipolative o ingannevoli possono compromettere la capacità di un individuo di prendere decisioni informate e autonome, violando la dignità umana e l’autonomia individuale.

L’uso di sistemi di IA che sfruttano le vulnerabilità dovute all’età, alla disabilità o alla situazione socioeconomica, può portare a distorsioni del comportamento e causare danni significativi.

In particolare, i sistemi di intelligenza artificiale che effettuano valutazioni del rischio di commissione di reati, basate esclusivamente su profili o tratti della personalità, possono violare il diritto ad essere giudicati sui comportamenti effettivi, non su previsioni basate su caratteristiche personali.

L’uso di sistemi di identificazione biometrica remota in tempo reale può determinare una situazione di sorveglianza di massa, limitando la libertà di riunione e altri diritti fondamentali. Inoltre, i sistemi di categorizzazione biometrica basati su caratteristiche sensibili possono portare a discriminazioni e violare la dignità umana.

Le eccezioni previste dalle linee guida

Tuttavia, sono previste alcune eccezioni a tali divieti. Queste eccezioni sono dettagliate all’interno del documento e riguardano principalmente alcuni casi specifici. Di seguito alcuni esempi.

Sicurezza nazionale, difesa e scopi militari. L’AI Act non si applica ai sistemi di AI utilizzati esclusivamente per scopi militari, di difesa o di sicurezza nazionale. Questa esclusione è motivata dalla necessità di non interferire con le competenze degli Stati membri in tali ambiti. Le attività di Europol e delle altre agenzie di sicurezza dell’Unione, come Frontex, rientrano invece nel campo di applicazione dell’AI Act.

Cooperazione giudiziaria e di polizia con paesi terzi. L’AI Act non si applica alle autorità pubbliche di paesi terzi o alle organizzazioni internazionali quando utilizzano sistemi di IA nell’ambito di accordi di cooperazione internazionale in materia di applicazione della legge3. Questa esclusione mira a non ostacolare la collaborazione tra Stati nella lotta contro la criminalità.

Ricerca e sviluppo. L’AI Act esclude dal suo ambito di applicazione i sistemi di IA sviluppati e utilizzati esclusivamente per attività di ricerca e sviluppo. Questa esclusione riconosce l’importanza della sperimentazione e dell’innovazione nel campo dell’IA e consente agli sviluppatori di testare nuove funzionalità senza incorrere nelle restrizioni dell’AI Act, a condizione che tali attività siano condotte in conformità con standard etici e professionali riconosciuti. In particolare, le attività di ricerca e sviluppo non sono soggette alle proibizioni dell’articolo 5 dell’AI Act, che si applica invece quando i sistemi di IA vengono immessi sul mercato o messi in servizio4. Tuttavia, se il sistema di IA utilizzato durante la fase di ricerca e sviluppo viene testato in condizioni reali al di fuori di un ambiente di test controllato, l’AI Act potrebbe applicarsi a tali test.

Favorire l’innovazione tecnologica e tutelare Governi, imprese e cittadini

Le linee guida sono concepite per garantire l’applicazione coerente, efficace e uniforme della legge sull’AI in tutta l’Unione europea. Sebbene offrano informazioni preziose sull’interpretazione dei divieti da parte della Commissione, non sono vincolanti, con interpretazioni autorevoli riservate alla Corte di giustizia dell’Unione europea (CGUE).

Si tratta quindi di orientamenti ‘forti’, che forniscono spiegazioni legali ed esempi pratici per aiutare le parti interessate a comprendere e rispettare i requisiti dell’AI Act. Un’iniziativa quindi che sottolinea l’impegno dell’Unione europea a promuovere un panorama dell’AI sicuro ed eticamente accettabile, soprattutto in momento di forte instabilità geopolitica e di tentativi da parte di entità statali straniere di sfruttare questa potente tecnologia per orientare le masse ed indebolire le istituzioni democratiche europee.

In Italia c’è timore per un’efficace tutela del copyright

Nel nostro Paese Confindustria Cultura Italia (CCI) e l’Associazione Italiana Editori (AIE) hanno invece lanciato l’allarme sulle misure attuative dell’AI Act in relazione alla protezione del diritto d’autore, chiedendo al governo di intervenire.

I testi circolati fino ad oggi – ha spiegato in una nota ufficiale il presidente di CCI e AIE, Innocenzo Cipollettatradiscono lo spirito originale della norma, depotenziando fortemente le misure a tutela del diritto d’autore, a favore delle big tech”.

In particolare, le due associazioni chiedono al Governo italiano di agire a difesa del diritto d’autore attraverso l’AI Board, l’organo che può formulare raccomandazioni e pareri scritti sulle elaborazioni dei Codici di buone pratiche, ovvero le misure attuative.

Leggi le altre notizie sull’home page di Key4biz