Grazie all’incremento delle risorse (soprattutto private), gli Stati Uniti e la Cina hanno acquisito un sostanziale vantaggio nello sviluppo economico e tecnologico dell’intelligenza artificiale (AI). L’Europa ha così accumulato un ritardo difficile da recuperare. Definire un quadro normativo europeo per la sicurezza e la fiducia dell’IA di uso generale e promuoverne l’adozione in tutto il mondo costituisce quindi la migliore strategia di differenziazione per posizionarsi come attore chiave nell’IA.
Molte organizzazioni nazionali e internazionali hanno già proposto ampi principi per un’IA etica e affidabile, senza tuttavia specificare gli attributi specifici che questi implicano e senza che tali principi siano giuridicamente vincolanti.
Tecnologie vietate in Europa
L’Unione Europea si prepara quindi a imporre requisiti di sicurezza e fiducia ai sistemi di IA attraverso una regolamentazione extraterritoriale, abbinata a una direttiva sulla responsabilità civile, l’EU AI Act, prevedendo in particolare la classificazione dei sistemi di IA in base ai rischi che comportano per i fondamentali. diritti, da “minimi” a “inaccettabili”. Con più o meno vincoli, anche il divieto per le tecnologie più controverse ritenute “inaccettabili”.
Il 14 giugno gli eurodeputati hanno adottato la loro posizione negoziale sulla legge sull’intelligenza artificiale ampliando l’elenco delle tecnologie che rientrano nella categoria dei rischi “inaccettabili”, al fine di vietare l’uso intrusivo e discriminatorio dell’IA da parte dell’UE. Ciò include in particolare i sistemi di polizia predittiva basati sulla profilazione o sul riconoscimento biometrico remoto in tempo reale nello spazio pubblico, un argomento su cui gli Stati membri e gli eurodeputati non sono d’accordo.
Questi ultimi vogliono vietare le tecnologie che utilizzano il riconoscimento in tempo reale, mentre il Consiglio invoca la lotta al terrorismo per introdurre eccezioni a questo divieto. La posizione del Parlamento introduce anche misure riguardanti le applicazioni di IA generativa, come ChatGPT o MidJourney, che sarebbero obbligate ad apporre un’etichetta sui propri contenuti per indicare agli utenti che sono in presenza di un testo o di un’immagine creata da un’IA. I deputati vogliono anche impedire la generazione di contenuti illegali e rendere pubblico l’uso dei dati protetti dal diritto d’autore quando utilizzati per l’addestramento degli algoritmi.
Sono iniziati i colloqui con i Paesi Ue in Consiglio sulla forma definitiva della legge, con l’obiettivo di raggiungere un accordo entro la fine dell’anno con un periodo di grazia di circa due anni per consentire alle parti interessate di adeguarsi alle nuove norme.