Stop alla direttiva europea sulla responsabilità per l’AI. Vincono gli USA
Nella tarda serata di ieri 11 febbraio la Commissione europea ha pubblicato il suo programma di lavoro 2025, ma con una sorpresa: il ritiro della direttiva sulla responsabilità da intelligenza artificiale (AI).
Di fatto, si trattava di un documento che non voleva soffocare l’innovazione e la competitività, soprattutto in un ambito così strategico come quello tecnologico e in particolare dell’AI, ma di tutelare i cittadini, i soggetti più deboli in questo panorama di giganti. Si affrontava il delicato argomento del “risarcimento danni“. A differenza dell’AI Act, che è un quadro normativo ex ante, la direttiva ritirata era un meccanismo di “responsabilità ex post“, che entrava in gioco solo quando l’AI causava effettivamente un danno.
Un cambio di rotta improvviso, come si legge su euractiv.com, arrivato a chiusura della seconda giornata dell’AI Action Summit di Parigi, subito dopo il discorso duro e molto aggressivo tenuto dal vice presidente degli Stati Uniti, J.D. Vance, che ha disapprovato l’approccio normativo dell’Unione europea (Ue) in materia di intelligenza artificiale.
Vance aveva messo tutti in guardia contro una ”regolamentazione eccessiva” dell’AI, che ”potrebbe uccidere un’industria in pieno sviluppo“, sottolineando in maniera esplicita che gli Stati Uniti faranno “tutti gli sforzi necessari per incoraggiare le politiche pro-crescita in materia di AI”: “Gli Stati Uniti sono leader nell’IA e la nostra amministrazione vuole che lo restino“.
Il vicepresidente USA ha poi precisato che i sistemi AI americani sono e saranno “liberi da pregiudizi ideologici“, portando con sé anche il messaggio del grande assente, l’ormai braccio destro di Trump, Elon Musk, con una critica severa alla regolamentazione europea che mira a moderare i contenuti attraverso il Digital Services Act (Dsa).
Alex Voss: “Un approccio da Far West che avvantaggia solo le Big Tech”
“Abolendo la direttiva sulla responsabilità dell’AI, la Commissione sta attivamente scegliendo l’incertezza giuridica, favorendo squilibri di potere delle imprese e un approccio da Far West alla responsabilità dell’AI, che avvantaggia solo le Big Tech”, ha tuonato in un post Alex Voss, membro del Parlamento europeo per la regione del Medio Reno (CDU) e portavoce del PPE nella commissione giuridica (JURI).
“La realtà ora – ha proseguito Voss – è che la responsabilità dell’AI sarà dettata da un mosaico frammentato di 27 diversi sistemi giuridici nazionali, soffocando le startup e le PMI europee nel settore AI. La domanda è: stiamo prendendo sul serio il mercato unico o no?”.
La cosa più grave, ha spiegato Voss, è che “i danni legati all’intelligenza artificiale stanno già aumentando e ora i cittadini dovranno affrontare una battaglia in salita per ottenere un risarcimento in base a leggi nazionali obsolete“.
Una direttiva che aveva molti nemici interni all’Ue
Ora c’è da capire cosa significhi davvero questa nuova posizione europea sul campo dell’AI e di altre tecnologie chiave. Si può pensare che il ritiro della AI Liability Directive sia un passo evidente da parte dell’Ue di apertura al capitale (americano?) e all’innovazione, per dimostrare che in Europa si dà priorità alla competitività e per dimostrare buona volontà nei confronti dell’amministrazione Trump.
Si può anche interpretare questa mossa come una resa, non solo all’alleato statunitense, ma anche alle pressioni interne che nel tempo si sono fatte sempre più forti nei confronti dell’AI Act, legge da tanti vista come eccessivamente esagerata in termini regolatori, quasi una zavorra per la crescita e un ostacolo allo sviluppo della tecnologia e all’ambizione europea di accrescere la propria competitività.
Nel suo documento, la Commissione ha giustificato questo cambio di rotta improvviso con queste parole: “No foreseeable agreement – the Commission will assess whether another proposal should be tabled or another type of approach should be chosen”.
Il punto chiave è che a suo dire non esiste ”alcun accordo prevedibile” su questa legge e che si cercherà di valutare successivamente se presentare un’altra proposta o se sarà più opportuno scegliere un altro tipo di approccio.
Dietro il ritiro della direttiva la spallata della Virkkunen?
Il tutto dopo che a Parigi, sia il padrone di casa, Emmanuel Macron, sia la Presidente della Commissione europea, Ursula von der Leyen, avevano annunciato grandi piani di investimento per un’AI europea forte, sicura e ambiziosa, pronta a sfidare Stati Uniti e Cina se necessario.
Come spiegato da Luca Bertuzzi su MLex, il principale sostenitore del ritiro della direttiva sulla responsabilità per l’AI è stato il vicepresidente esecutivo, Henna Virkkunen, responsabile della politica digitale dell’Unione, che ha sostenuto la semplificazione normativa e la creazione di un ambiente UE più favorevole alle imprese.
Dall’altra parte della barricata, Michael McGrath, commissario europeo per la Giustizia, ha cercato di difendere la proposta originariamente avanzata dal suo dipartimento e intesa a integrare il regime di responsabilità.
Di fatto, molti Paesi europei non avevano sostenuto questa direttiva fin dalla sua nascita, la Francia in testa, che ne ha messo più volte in dubbio utilità ed efficacia, rimproverando alla Commissione eccessivo rigore normativo.
Più favorevole è stato il Parlamento europeo, che anzi ha tentato anche di estenderne l’applicazione.
In termini di sviluppo dell’AI, la nuova posizione della Commissione rientra in una tendenza più ampia tesa a cercare di semplificare il quadro normativo e ridurre l’onere amministrativo per le aziende.
Che cos’è la AI Liability Directive
La direttiva sulla responsabilità da intelligenza artificiale andava a integrare e aggiornare il quadro dell’Unione in materia di responsabilità civile, introducendo per la prima volta norme specifiche per i danni causati dai sistemi di AI.
Grazie a queste norme, coloro che hanno subito danni causati dalla tecnologia di AI potevano accedere al risarcimento come se avessero subito danni in qualsiasi altra circostanza. La direttiva andava ad introdurre due misure principali: la cosiddetta “presunzione di causalità”, grazie alla quale i danneggiati non dovranno spiegare in dettaglio come il danno sia stato causato da una determinata colpa o omissione, e l’accesso agli elementi di prova di imprese o fornitori, quando si tratta di AI ad alto rischio.