Key4biz

AI open source, se a lamentarsi dell’iper-regolamentazione dell’Ue è il campione europeo Spotify (e non solo Meta)

Deve far riflettere se, nell’articolo pubblicato sull’Economist di due giorni fa, il monito all’Unione Europea (“che rischia di rimanere indietro a causa della regolamentazione incoerente e complessa”, soprattutto nella corsa all’intelligenza artificiale) sia stato lanciato anche dal CEO di Spotify, società di streaming audio considerata un campione tecnologico europeo. 

Perché se fissiamo l’attenzione solo sul primo autore della lettera, Mark Zuckerberg, si pensa subito a una nuova critica di Meta nei confronti della regolamentazione europea, a partire dall’AI Act fino al GDPR.

Il CEO di Spotify, Daniel Ek, ci sta dicendo che la over regulation europea pensata per tenere a bada le big tech e le altre grandi aziende extra Ue può, invece, danneggiare – paradossalmente – le aziende tecnologiche e startup europee?

Una struttura normativa semplificata”, tra le indicazioni dei 2 CEO

“Spotify è orgogliosa di essere considerata un successo tecnologico europeo”, si legge nell’articolo, “ma siamo anche ben consapevoli di rimanere uno dei pochi. Guardando indietro, è chiaro che il nostro investimento iniziale nell’intelligenza artificiale ha reso l’azienda ciò che è oggi: un’esperienza personalizzata per ogni utente che ha portato a miliardi di scoperte di artisti e creatori in tutto il mondo. Mentre guardiamo al futuro dello streaming, vediamo un enorme potenziale nell’uso dell’intelligenza artificiale open source a vantaggio del settore. Ciò è particolarmente importante quando si tratta di come l’intelligenza artificiale può aiutare più artisti a farsi scoprire”. 

Una struttura normativa semplificata”, questa una prima richiesta del CEO di Spotify e del CEO di Meta,“non solo accelererebbe la crescita dell’intelligenza artificiale open source, ma fornirebbe anche un supporto cruciale agli sviluppatori europei e al più ampio ecosistema di creatori che contribuisce e prospera su queste innovazioni”.

Più che l’AI Act, i due CEO temono la sua diversa applicazione nei 27 Stati dell’Ue

Questo intervento di Ek e Zuckerberg può sembrare tardivo, perché ora l’AI Act è legge, il testo è in Gazzetta ufficiale dell’Ue e sarà pienamente applicabile da agosto 2026. Ma come è noto, la legge entrerà in vigore per gradi, il che significa che sono previste diverse deadline in base alle diverse disposizioni di legge.  

I due CEO hanno timore più che dell’AI Act, della sua interpretazione nei 27 Stati membri, ossia dell’attività di applicazione del Regolamento (“enforcement”), così come sta avvenendo, scrivono i due manager, per il GDPR.

“Prendiamo l’applicazione non uniforme del Regolamento generale sulla protezione dei dati (GDPR) dell’UE”, si legge nel loro articolo. “Questa direttiva fondamentale avrebbe dovuto armonizzare l’uso e il flusso dei dati, ma invece gli enti regolatori della privacy dell’UE stanno creando ritardi e incertezze e non riescono a concordare tra loro su come applicare la legge”.

Perché gli LLM open source considerati dall’AI Act tra i rischi sistemici?

La posizione dei CEO di Spotify e Meta è rivolta all’AI open source. Come si sa, la società di Zuckerberg ha deciso di rendere open source i suoi campioni di intelligenza artificiale generativa, come Llama. Secondo loro, l’AI Act rischia di bloccare lo sviluppo dell’AI open source, perché il Regolamento non prevede eccezioni per l’open source se con tale licenza si sviluppa un Large Language Model (LLM) che presenta “un rischio sistemico”. Nonostante i codici open source consentano di essere condivisi apertamente e che gli utenti possano liberamente consultare, utilizzare, modificare e ridistribuire, comprese le loro versioni modificate,
contribuendo alla Ricerca e all’Innovazione nel mercato e possono offrire notevoli opportunità di crescita per l’economia dell’Unione. (Qui perché l’AI ha bisogno dell’open source).

Per rischio sistemico si intende “un rischio specifico per le capacità di impatto elevato dei modelli di IA per finalità generali (LLM), avente un impatto significativo sul mercato dell’Unione a causa della sua portata o di effetti negativi effettivi o ragionevolmente prevedibili sulla salute pubblica, la sicurezza, i diritti fondamentali o la società nel suo complesso, che può propagarsi su larga scala lungo l’intera catena del valore”.

Regolamentare contro i danni noti è necessario”, scrivono i due CEO, “ma una regolamentazione preventiva dei danni teorici per le tecnologie nascenti come l’intelligenza artificiale open source soffocherà l’innovazione. La regolamentazione complessa e avversa al rischio dell’Europa potrebbe impedirle di capitalizzare le grandi scommesse che possono tradursi in grandi ricompense”.

Vedremo chi avrà ragione quando l’AI Act inizierà ad essere applicato nel mercato unico europeo.

Exit mobile version