Industria e ricerca che vogliono realizzare in Europa soluzioni di intelligenza artificiale (IA) dovranno farlo mettendo al centro l’uomo “ci deve essere sempre un controllo umano, perché l’obiettivo è migliorare l’agire umano e i suoi diritti, non ridurre la sua autonomia”. Così recita il primo dei sette princìpi chiave contenuti nelle linee guida sull’IA presentate dalla Commissione Ue. A queste seguirà a fine giugno il lancio di una fase pilota e poi a inizio 2020 una valutazione con revisione dei punti chiave, se necessaria.
I 7 elementi fondamentali per un’IA affidabile
Un’IA affidabile dovrebbe rispettare tutte le disposizioni legislative e regolamentari applicabili e una serie di requisiti. Liste di controllo specifiche aiuteranno a verificare l’applicazione di ciascuno dei seguenti requisiti fondamentali.
- Azione e sorveglianza umane: i sistemi di IA dovrebbero promuovere lo sviluppo di società eque sostenendo l’azione umana e i diritti fondamentali e non dovrebbero ridurre, limitare o sviare l’autonomia dell’uomo.
- Robustezza e sicurezza: per un’IA di cui ci si possa fidare è indispensabile che gli algoritmi siano sicuri, affidabili e sufficientemente robusti da far fronte a errori o incongruenze durante tutte le fasi del ciclo di vita dei sistemi di IA.
- Riservatezza e governance dei dati: i cittadini dovrebbero avere il pieno controllo dei propri dati personali e nel contempo i dati che li riguardano non dovranno essere utilizzati per danneggiarli o discriminarli.
- Trasparenza: dovrebbe essere garantita la tracciabilità dei sistemi di IA.
- Diversità, non discriminazione ed equità: i sistemi di IA dovrebbero tenere in considerazione l’intera gamma delle capacità, delle competenze e dei bisogni umani ed essere accessibili.
- Benessere sociale e ambientale: i sistemi di IA dovrebbero essere utilizzati per promuovere i cambiamenti sociali positivi e accrescere la sostenibilità e la responsabilità ecologica.
- Responsabilità intesa anche come accountability: dovrebbero essere previsti meccanismi che garantiscano la responsabilità e l’accountability dei sistemi di IA e dei loro risultati.
“Una persona deve sempre sapere quando si trova di fronte a una macchina e non a un essere umano”, ha spiegato la commissaria Ue, Maryia Gabriel, per questo “i sistemi di AI devono essere riconoscibili”. A giungo verrà quindi avviato un esercizio pilota a cui parteciperà un’ampia gamma di attori diversi, da imprese e multinazionali extra Ue a pubbliche amministrazioni (qui per registrarsi), e avverrà sotto l’egida dell’Alleanza europea per l’IA e la supervisione del Gruppo di esperti di alto livello per l’intelligenza artificiale. L’Ue punterà quindi a costruire una coalizione a livello internazionale per far applicare questi principi di sviluppo all’intelligenza artificiale anche a livello globale, a partire dai partner che condividono già questo approccio tra cui Canada, Giappone e Singapore.