Le nuove regole dell’UE renderebbero le aziende responsabili per l’uso improprio della tecnologia, ma i critici sostengono che i regolatori dovrebbero intervenire solo se necessario.
Perché la regolazione dell’AI è necessaria?
Le autorità di regolamentazione di tutto il mondo hanno riscontrato che non mancano i problemi di cui preoccuparsi con l’ascesa dell’intelligenza artificiale.
Il dilemma è chiaro, si legge in un’analisi del Financial Times: le autorità dovrebbero o meno intervenire negli algoritmi che potrebbero influenzare o distorcere le decisioni che influenzano la vita quotidiana di miliardi di persone?
Che dire del rischio che i chatbot, come ChatGPT, aumentino la produzione di disinformazione online o portino all’uso improprio di grandi quantità di dati personali?
E cosa dovrebbero fare riguardo al fatto che i computer potrebbero presto raggiungere un livello di intelligenza tale da sfuggire al controllo dei loro creatori, con conseguenze potenzialmente disastrose per l’umanità?
La tecnologia si sta muovendo così velocemente – e i rischi potenziali sono, in alcuni casi, così poco compresi e immaginabili – che c’è ancora poco accordo su un’agenda normativa condivisa.
Quali problemi di intelligenza artificiale stanno esaminando per primi i regolatori?
L’Unione Europea era sulla buona strada per finalizzare una legge sull’intelligenza artificiale, la prima nel suo genere, che avrebbe controllato, o addirittura vietato, i sistemi di intelligenza artificiale presumibilmente “ad alto rischio”, come quelli utilizzati per prendere decisioni su richieste di lavoro, o prestiti, o trattamenti sanitari. Poi è esplosa la ChatGPT mania: l’enorme interesse del pubblico per il chatbot AI generativo disponibile gratuitamente di OpenAI.
I legislatori hanno rapidamente adattato i loro piani per includere i cosiddetti modelli di base, come il grande modello linguistico che si trova dietro ChatGPT.
Le norme dell’UE obbligherebbero le aziende a rivelare su quali dati sono stati addestrati questi modelli e potrebbero renderle responsabili per l’uso improprio della tecnologia, anche quando non controllano le applicazioni finali.
Tuttavia, Patrick Van Eecke, co-presidente della divisione cyber, dati e privacy globale dello studio legale Cooley, ritiene che Bruxelles si sia mossa troppo presto per cercare di regolamentare una tecnologia che è ancora “un bersaglio in movimento”, riflettendo un pregiudizio culturale verso ogni tipo di regolamento. “Ci piace regolare la realtà ancor prima che diventi realtà”, ha detto, facendo eco a una visione ampiamente condivisa nel mondo dell’intelligenza artificiale.
Molti dirigenti tecnologici statunitensi, però, hanno una spiegazione diversa. Lo vedono come una mossa protezionistica deliberata da parte dell’UE, che impone limitazioni a un gruppo di aziende principalmente americane che dominano l’industria dell’intelligenza artificiale.
La regolamentazione europea dell’AI diventerà un modello globale?
Questo è quello che è successo con la legislazione sulla protezione dei dati della Ue, ed è un potenziale sviluppo di cui le aziende tecnologiche statunitensi sono preoccupate. I sostenitori dell’EU Act affermano che sarà applicato in modo flessibile per riflettere il cambiamento degli standard e i progressi tecnologici. Ma i critici sostengono che l’esperienza dimostra che Bruxelles adotta un approccio più dogmatico e che le regole introdotte ora potrebbero limitare l’evoluzione della tecnologia. Alcune aziende europee sono d’accordo. In una lettera alla Commissione Europea di giugno, 150 grandi aziende europee hanno avvertito che la legge potrebbe ostacolare l’economia del dell’Unione impedendo alle aziende locali di utilizzare liberamente importanti tecnologie di intelligenza artificiale. Una versione finale della legge deve essere elaborata in un negoziato a tre tra Parlamento, Commissione e Consiglio degli Stati membri, il che significa che c’è ancora una possibilità di cambiamenti.
Le aziende di intelligenza artificiale non chiedono una regolamentazione?
L’industria dell’intelligenza artificiale ha imparato dalla reazione contro i social media che non conviene eludere la regolamentazione sulle tecnologie che possono avere un impatto sociale e politico significativo. Ma ciò non significa che a loro piaccia ciò che è pianificato dall’UE. Sam Altman, capo di OpenAI e sostenitore della regolamentazione dell’intelligenza artificiale, ha dichiarato al FT che la sua azienda potrebbe essere costretta a ritirarsi del tutto dall’UE se le regole finali sull’intelligenza artificiale saranno troppo rigide. Il clamore suscitato dalle sue parole lo ha portato rapidamente a fare marcia indietro ma, dietro le quinte, le preoccupazioni degli Stati Uniti non sono attenuate. La disponibilità delle grandi aziende tecnologiche a richiedere una regolamentazione ha anche suscitato il sospetto che la vedano come un modo per rafforzare la loro presa sul mercato dell’intelligenza artificiale. Costi e burocrazia più elevati potrebbero rendere più difficile l’ingresso di nuovi concorrenti. Qual è l’alternativa all’approccio dell’UE? Prima di decidere nuove leggi, molti paesi stanno esaminando da vicino il modo in cui le normative esistenti si applicano alle applicazioni basate sull’intelligenza artificiale. Negli Stati Uniti, ad esempio, la Federal Trade Commission ha aperto un’indagine su ChatGPT, sfruttando i suoi poteri esistenti. Una delle sue preoccupazioni è che ChatGPT risucchi dati personali e talvolta li utilizzi per produrre informazioni false e dannose sulla gente comune. A differenza dei loro omologhi europei, i legislatori statunitensi hanno anche intrapreso un’ampia revisione dell’intelligenza artificiale che cerca esplicitamente di bilanciare i benefici della tecnologia con i suoi potenziali danni. Il leader della maggioranza al Senato americano Chuck Schumer ha chiesto una serie di briefing e forum di esperti per le più importanti commissioni del Senato, per aiutarli a decidere quali aspetti dell’intelligenza artificiale potrebbero aver bisogno di essere regolamentati. Holly Fechner, co-presidente del gruppo dell’industria tecnologica presso lo studio legale Covington & Burling, ha detto: “Il significativo bipartisanship del Congresso sulla concorrenza degli Stati Uniti con la Cina” rende l’approccio di Schumer “un messaggio vincente – e segnala che gli Stati Uniti si stanno muovendo in una direzione diversa”. Direzione diversa rispetto all’Europa”.
Se i governi non regolano ora, la corsa all’intelligenza artificiale non diventerà un pericoloso gioco tutti contro tutti?
Molte aziende tecnologiche sostengono che lo sviluppo dell’intelligenza artificiale dovrebbe rispecchiare gli albori di Internet: i regolatori allora si tennero a distanza, lasciando che l’innovazione prosperasse, e intervennero solo più tardi, se necessario. Ci sono già segnali che nuovi standard di settore e accordi sulle migliori pratiche nel campo dell’intelligenza artificiale stanno iniziando a prendere piede, anche senza una regolamentazione esplicita. Negli Stati Uniti, ad esempio, l’industria ha collaborato con il National Institute for Standards and Technology per codificare i modi migliori per progettare, addestrare e implementare sistemi di intelligenza artificiale. Ci sono stati anche impegni a divulgare di più come funzionano i modelli di grandi dimensioni e quali dati sono stati utilizzati per addestrarli, anche se non è chiaro come saranno le future aziende. Intanto non mancano proposte per nuovi sistemi di “watermarking” per verificare se i contenuti online siano stati prodotti da un sistema di intelligenza artificiale generativa piuttosto che da una persona. L’incapacità di fare progressi su questi e altri fronti accelererebbe notevolmente le richieste di regolamentazione.
Alcune persone che sviluppano l’intelligenza artificiale affermano che potrebbe distruggere l’umanità: non è questo un motivo per una regolamentazione immediata?
Nessuno nel settore tecnologico pensa che gli odierni sistemi di intelligenza artificiale rappresentino una minaccia esistenziale per l’umanità e non c’è accordo su quando, se mai, la tecnologia potrebbe raggiungere quel punto. Ma, all’inizio di quest’anno, una lettera aperta firmata da molti tecnologi chiedeva una moratoria di sei mesi sul lavoro sui sistemi più avanzati, per avere il tempo di elaborare nuovi protocolli di sicurezza. Sebbene i governi abbiano iniziato a prendere in considerazione la questione, sarebbero necessari nuovi accordi internazionali per cercare di controllare la diffusione dell’intelligenza artificiale pericolosa. Anche in questo caso, tali sforzi potrebbero rivelarsi impraticabili, data l’ampia disponibilità di risorse informatiche e set di dati necessari per addestrare i sistemi di intelligenza artificiale. Per ora, le stesse aziende che stanno guidando la corsa verso l’intelligenza artificiale affermano di essere anche in prima linea nel tentativo di frenarla. OpenAI ha dichiarato a luglio che stava creando un team interno per iniziare a ricercare modi per controllare computer “superintelligenti”, che si pensa potrebbero arrivare entro questo decennio. La soluzione proposta: un nuovo sistema di intelligenza artificiale per controllare l’intelligenza artificiale.