Il primo quadro giuridico al mondo sull’Intelligenza artificiale (IA) è europeo. Il “modello GDPR” funziona, per cui va replicato per consentirne un uso affidabile, etico e al servizio dei cittadini dell’IA. Così oggi la Commissione Ue ha illustrato la proposta di Regolamento europeo per introdurre in tutti gli Stati membri nuove regole e azioni per l’utilizzo o il divieto di sistemi di intelligenza artificiale. Secondo il documento, le aziende che non si conformeranno alle norme Ue potrebbero incorrere in sanzioni fino al 6% del loro fatturato. Non solo. Sono stati stanziati anche 150 miliardi per favorirne lo sviluppo. “Investimenti utili per garantire la nostra posizione di leader in tutto il mondo sull’intelligenza artificiale”, ha detto Ursula von der Leyen, presidente della Commissione.
Intelligenza artificiale bannata se manipola il comportamento umano per aggirare il libero arbitrio degli utenti
Sarà vietata l’IA quando rappresenta un rischio inaccettabile.
Ossia, concretamente, quando i sistemi di IA sono una chiara minaccia:
- per la sicurezza, i mezzi di sussistenza e i diritti delle persone.
- Sono compresi i sistemi o le applicazioni di IA che manipolano il comportamento umano per aggirare il libero arbitrio degli utenti (ad esempio, giocattoli che utilizzano l’assistenza vocale per incoraggiare i comportamenti pericolosi dei minori) e i sistemi che consentono ai governi di attribuire un “punteggio sociale”.
Quando l’uso dell’intelligenza artificiale a rischio alto? Rispettare rigorosi obblighi
Invece, i sistemi di intelligenza artificiale saranno oggetto di rigorosi obblighi prima di essere immessi sul mercato se sono considerati a rischio alto. Rientra in questa classificazione la tecnologia di IA utilizzata:
- in infrastrutture critiche (ad esempio i trasporti), poiché potrebbe mettere a rischio la vita e la salute dei cittadini;
- nell’istruzione o formazione professionale, poiché può determinare l’accesso all’istruzione e il percorso professionale della vita di una persona (ad esempio, attribuzione del punteggio degli esami);
- in componenti di sicurezza dei prodotti (ad esempio un’applicazione di IA utilizzata nella chirurgia assistita da robot);
- nell’ambito dell’occupazione, della gestione dei lavoratori e dell’accesso al lavoro autonomo (ad esempio, software di selezione dei CV per le procedure di assunzione);
- in servizi pubblici e privati essenziali (ad esempio, lo scoring del credito che può negare ai cittadini la possibilità di ottenere un prestito);
- in attività di contrasto che possono interferire con i diritti fondamentali delle persone (ad esempio, valutazione dell’affidabilità delle prove);
- nella gestione della migrazione, dell’asilo e del controllo delle frontiere (ad esempio, verifica dell’autenticità dei documenti di viaggio);
- nell’amministrazione della giustizia e nei processi democratici (ad esempio, applicazione della legge a una serie concreta di fatti).
Riconoscimento facciale. Sistemi di intelligenza artificiale in tempo reale vietati, con 32 eccezioni
Nella proposta di Regolamento, tutti i sistemi di identificazione biometrica remota sono considerati ad alto rischio e soggetti a requisiti rigorosi. “Il loro utilizzo in tempo reale ai fini di attività contrasto in spazi accessibili al pubblico è in linea di principio vietato”.
Vestager: “32 casi in cui possibile l’identificazione biometrica remota”
Ma sono previste delle eccezioni. “La lista è composta da 32 eccezioni”, ha detto la vice presidente esecutiva della Commissione europea, Margrethe Vestager, durante la conferenza stampa di presentazione del Regolamento.
“Nell’Ue non c’è spazio per la sorveglianza di massa”
“I 32 casi riguardano reati con pena superiore a 3 anni, per cui è previsto l’ordine di arresto europeo”, ha spiegato Vestager, aggiungendo anche con il Regolamento sull’IA “nell’Ue non c’è spazio per la sorveglianza di massa”.
Le eccezioni
Dunque le eccezioni per il riconoscimento facciale sono rigorosamente definite e regolamentate, ad esempio:
- dove strettamente necessario per cercare un minore scomparso,
- prevenire una minaccia terroristica specifica e imminente o individuare,
- localizzare, identificare o perseguire autori o sospettati di un reato grave.
“L’uso”, prevede il Regolamento, “è soggetto all’autorizzazione di un organo giudiziario o di un altro organo indipendente e a limiti per quanto riguarda il tempo, la portata geografica e le banche dati ricercate”.
Riguarda proprio quest’aspetto la recente bocciatura del Garante privacy del sistema di riconoscimento facciale in tempo reale che il Viminale avrebbe voluto mettere in campo la “repressione dei reati e alla tutela dell’ordine e della sicurezza pubblica”.
Infine le ultime 2 condizioni fissate dalla Commissione per usare l’IA
Rischio limitato, ossia sistemi di IA con specifici obblighi di trasparenza: quando utilizzano sistemi di IA come i chatbot, gli utenti dovrebbero essere consapevoli del fatto che stanno interagendo con una macchina, in modo da poter decidere con cognizione di causa se continuare ad usarli oppure no.
Rischio minimo: la proposta legislativa consente il libero utilizzo di applicazioni quali videogiochi o filtri spam basati sull’IA. La grande maggioranza dei sistemi di IA rientra in questa categoria. Il progetto di regolamento non interviene in questo caso, poiché questi sistemi di IA presentano solo un rischio minimo o nullo per i diritti o la sicurezza dei cittadini.
In termini di governance, la Commissione propone che le autorità nazionali di vigilanza del mercato competenti supervisionino le nuove regole, mentre l’istituzione di un comitato europeo per l’intelligenza artificiale ne faciliterà l’attuazione e stimolerà lo sviluppo di norme per l’IA.
Today we also present a Coordinated Plan, to outline the reforms and investments we need to secure our position as a leader in #AI, worldwide.
— Ursula von der Leyen (@vonderleyen) April 21, 2021
With almost €150 billion for digital investments – 20% of its budget – #NextGenerationEU will help reinforce the 🇪🇺 excellence in AI.