Con l’accordo sull’AI Act, l’Unione Europea prova ad affrontare le sfide poste dall’era dell’intelligenza artificiale attraverso la proposta di un modello normativo posto a salvaguardia dei diritti fondamentali, un tentativo almeno sulla carta di bilanciare progresso e tutela giuridica. In un contesto tecnologico e geopolitico complesso, con un’Europa che fatica in termini di attrattività per investimenti e cervelli, il ruolo del settore pubblico è cruciale. La transizione richiede allo Stato un impegno deciso in termini di trasparenza e sicurezza, una riflessione critica sul modo in cui l’intelligenza artificiale viene integrata nei processi decisionali, ma anche un ripensamento del ruolo della politica nello stimolare e nel guidare l’innovazione.
AI Act: meno regolamentazione, più investimenti
Sui social alle immagini di un Thierry Breton trionfante, circondato da europarlamentari e assistenti dall’espressione studiatamente provata dopo 36 ore di negoziati, ha fatto da controcanto un fitto dissenso, con una battuta che ricorre di frequente: ci sono più persone in quella stanza che esperti di intelligenza artificiale in Europa. Queste espressioni di insoddisfazione evidenziano una realtà amara: la percezione dell’Unione Europea come terreno fertile per l’innovazione è in declino. E le cause sono molteplici.
In primo luogo, gli investimenti EU in intelligenza artificiale (e in generale in ricerca e sviluppo) sono significativamente inferiori rispetto a quelli di altre potenze tecnologiche come gli Stati Uniti e la Cina, il che evidentemente limita la capacità di attrarre e mantenere talenti di alto livello. In secondo luogo, l’assenza di grandi aziende tecnologiche in Europa impedisce la creazione di un ecosistema robusto che possa competere a livello globale. Infine, ha un peso l’evidente scala di priorità di Bruxelles: la regolamentazione viene prima dell’innovazione, con il rischio di rincorrere eternamente il progresso altrui (lo stesso AI Act diventerà pienamente efficace nel 2026, e tre anni sono un’era geologica per la tecnologia), di ridursi a segnare i punti in una partita giocata altrove.
Come osserva Giovanni Maria Riccio su Domani, l’Europa, persa la sua centralità economica e politica, cerca una nuova dimensione in un ruolo auto-attribuito di difensore dei diritti fondamentali anche nei confronti dei paesi più avanzati (il cosiddetto “effetto Bruxelles”), ma a che prezzo?
AI Act: quale ruolo per la PA?
Lasciando da parte applicazioni in settori sensibili (e sui quali peraltro la competenza è degli Stati membri, non dell’Unione, nonostante l’utilizzo dell’AI Act come “grimaldello” giuridico) quali ordine pubblico, difesa e sanità, un ambito altrettanto cruciale ma meno esplorato è il ruolo della pubblica amministrazione nel guidare il mercato attraverso l’utilizzo strategico della commessa pubblica.
Un esempio significativo è l’elaborazione, da parte della community AI Procurement, di clausole-tipo per l’acquisto di beni e servizi basati su intelligenza artificiale da parte della pubblica amministrazione. L’obiettivo è non soltanto garantire che le tecnologie di IA siano acquisite in modo responsabile ed etico, ma anche stimolare l’innovazione attraverso requisiti mirati e ben definiti. Inoltre, l’attenzione verso forme di procurement orientate all’innovazione apre nuove possibilità per sostenere soluzioni tecnologiche emergenti e per promuovere una maggiore competitività nel settore.
E l’Italia?
In Italia il nuovo Codice dei contratti pubblici rappresenta un passo avanti significativo, riconoscendo all’intelligenza artificiale, con un vero e proprio salto quantico rispetto all’ordinamento previgente, la capacità di intervenire strategicamente nel cuore delle procedure di procurement (art. 30). In questo senso il diritto amministrativo si pone come stimolo anche culturale per l’adozione di soluzioni tecnologiche avanzate.
E sempre in tema di contratti pubblici, utilizzando lo strumento dei pareri di congruità tecnico-economica sulle gare ICT strategiche, previsto dal Codice dell’amministrazione digitale (art. 14-bis), il governo può influenzare in modo significativo le decisioni di acquisto, assicurando che le soluzioni di IA selezionate non solo rispondano ai bisogni immediati, ma siano anche sostenibili e vantaggiose a lungo termine.
Tuttavia, la strategia nazionale in materia di intelligenza artificiale fatica a decollare, evidenziando una certa disconnessione tra i lavori degli europarlamentari italiani e un impegno politico concreto in patria. Un’intelligenza artificiale che peraltro è la grande assente nelle principali iniziative di politica tecnologica degli ultimi due governi e in particolare nel PNRR, fatte salve alcune iniziative isolate ad esempio nel settore sanitario, vere e proprie cattedrali nel deserto.
Eppure, come suggerisce Stefano da Empoli in L’economia di ChatGPT (EGEA, 2023), esiste un potenziale inesplorato nelle piccole e medie imprese italiane, che potrebbero sviluppare un paradigma produttivo in continuità con la vocazione italiana alla manifattura avanzata in cui i grandi modelli fondativi prodotti oltreoceano interverrebbero come fattori della produzione, come nuove materie prime di nuovi processi produttivi. Il rischio, naturalmente, è che si sviluppi una nuova dipendenza strategica da fornitori esteri. Come scrivevo su LinkedIn, è una situazione che ricorda molto la geopolitica dell’energia: rischiamo di trovarci nella posizione di non poter usare sistemi di intelligenza artificiale se non importandoli, con un’industria domestica in grado di fare soltanto fine-tuning di modelli sviluppati altrove, e con Paesi produttori che potrebbero utilizzare la loro egemonia come ulteriore strumento di pressione.
Un’ulteriore opportunità per l’Italia sta certamente nello sviluppo di un modello di collaborazione pan-europeo, attraverso iniziative simili a quella che ha visto il LLM francese Mistral 7B addestrato su supercomputer Cineca. In particolare, giocherebbe un ruolo chiave l’adozione di modelli di intelligenza artificiale generativa open source, pur tenendo presente che anche quest’ambito risente dei rapporti di forza con i grandi player globali.
In sintesi, l’attuale panorama dell’intelligenza artificiale in Europa e, in particolare, in Italia, mette in luce la necessità di un cambiamento significativo e di un impegno più deciso da parte delle istituzioni, che devono riappropriarsi del ruolo di guida dell’innovazione che compete loro, e del settore privato. Mentre l’AI Act offrirà senza dubbio un quadro normativo fondamentale per garantire che lo sviluppo dell’intelligenza artificiale sia responsabile e sicuro, sotto l’egida del neminem laedere, è evidentemente altrettanto cruciale che l’Europa e l’Italia facciano in modo che quello sviluppo anzitutto esista, affrontando proattivamente le sfide legate agli investimenti, all’innovazione e alla collaborazione internazionale.
Per l’Italia, lasciarsi alle spalle il rischio di diventare un attore irrilevante, o peggio interamente dipendente dall’importazione di tecnologia, richiederà un forte impegno politico e finanziario, nonché una visione strategica che promuova l’integrazione dell’IA in tutti i settori, tenendo ben presenti le specificità del nostro tessuto produttivo. La collaborazione pan-europea e l’adozione di modelli open source rappresentano passi importanti verso questo obiettivo, offrendo opportunità (e sfide) per una migliore integrazione nel mercato globale dell’intelligenza artificiale.