Prosegue in Parlamento l’iter del Ddl Intelligenza Artificiale, con una pioggia di emendamenti che accompagna il nuovo testo dopo l’analisi del Senato. In particolare, sono emerse diverse tematiche che hanno attratto l’interesse della politica. Di seguito una selezione degli emendamenti fra consumi elettrici, istanze etiche, protezione dati personali e la proposta di più fondi (da 200 a 400 milioni nel triennio 2025-2027) e di una autorità dedicata.
Monitoraggio costi dell’energia dei data center
In primo luogo, fra le proposte quella di “valutare l’opportunità di prevedere un sistema di monitoraggio dei costi dell’energia sui data center nazionali”
Definire strategia uso AI in ambito giudiziario
A seguire, la proposta di “definire una strategia sull’utilizzo dell’intelligenza artificiale in ambito giudiziario monitorandone l’impatto, massimizzandone i benefici e contenendone i rischi derivanti dal relativo impiego”.
Vigilanza su diritti fondamentali e ambiente
E ancora, “Prevede efficaci strumenti di vigilanza che tutelino i diritti fondamentali delle persone dall’impatto con l’intelligenza artificiale e ne scongiurino i possibili rischi ambientali, economici e sociali”.
Garantire supervisione dell’intervento umano
In tutti i processi decisionali critici supportati da sistemi di intelligenza artificiale, “deve essere garantita la supervisione e l’intervento umano, al fine di preservare l’autonomia e la responsabilità decisionale delle persone”, “assicurando la sorveglianza e l’intervento umano”.
Parità di genere
“Lo sviluppo e l’adozione di sistemi di intelligenza artificiale devono promuovere la parità di genere. Le pubbliche amministrazioni e le imprese devono adottare misure per prevenire la riproduzione di ogni effetto distorsivo legato al genere nei sistemi di intelligenza artificiale e devono essere conformi con la classificazione del rischio stabilita dal Reg (Ue) 2024/1689 in materia di intelligenza artificiale e garantire che i sistemi ad alto rischio siano soggetti a controlli specifici per prevenire discriminazioni di genere”.
Promuovere la diversità linguistica
“I sistemi di intelligenza artificiale sviluppati o adottati in Italia devono supportare e promuovere la diversità linguistica del Paese e devono includere misure specifiche per assicurare che le minoranze linguistiche abbiano accesso a servizi e tecnologie in lingua madre, nel rispetto della classificazione del rischio e dei requisiti di trasparenza dell’AI Act».
Livelli occupazionali vanno garantiti
L’intelligenza artificiale “deve tener conto degli effetti sui livelli occupazionali, al fine di garantire il pieno rispetto dell’articolo 35 della Costituzione”.
Trattamento lecito dei dati
E ancora, “l’utilizzo di sistemi di intelligenza artificiale garantisce il trattamento lecito, corretto e trasparente dei dati personali e la compatibilità con le finalità per le quali sono stati raccolti, in conformità con il diritto dell’Unione europea in materia di dati personali e di tutela della riservatezza”.
Trasparenza su come funziona il modello AI
“Il rispetto degli obblighi di trasparenza impone che la piena conoscibilità debba intendersi riferita anche alle modalità di funzionamento del modello di IA utilizzato”.
Dati usati per addestramento AI? Srve il consenso informato dell’interessato
“Laddove i dati personali siano utilizzati per l’addestramento dei modelli di IA, la base giuridica legittimante tale trattamento deve essere costituita dal consenso espresso dell’interessato, ai sensi del Regolamento UE 2016/679, articolo 6 lettera a) e articolo 9 lettera a)”.
Uso dati conforme a GDPR e AI Act
“È vietato l’uso di sistemi di intelligenza artificiale che elaborano dati personali in modo discriminatorio o che possano pregiudicare i diritti e le libertà fondamentali dei cittadini, conformemente al GDPR e all’AI Act. Qualsiasi trattamento di dati personali deve essere accompagnato da un’analisi di impatto specifica, verificata dalle autorità competenti”.
Garantire diritto di opposizione
“La piena conoscibilità dei relativi rischi e il diritto di opporsi ai trattamenti autorizzati dei propri dati personali”.
Vietato lo scraping online
L’uso di sistemi di IA che creano o ampliano “banche dati attraverso attività di trattamento dei dati personali mediante scraping online è sempre vietato, salvo che non si dimostri che gli interessati attinti da tale trattamento abbiano manifestato un consenso specifico per il perseguimento di queste specifiche finalità”.
Consultazione pubblica delle PA per servizi a cittadini
Prima di implementare nuovi sistemi di intelligenza artificiale che possono avere un impatto significativo sulla vita dei cittadini, “le amministrazioni pubbliche devono indire una consultazione pubblica e garantire il consenso informato, nel rispetto delle norme sul rischio stabilite dall’AI Act”.
Privacy by design
Le tecnologie di intelligenza artificiale devono essere progettate in modo da “rispettare i principi di minimizzazione dei dati e privacy by design, conformemente al GDPR e all’AI Act. È vietata la raccolta e l’elaborazione di dati personali oltre quanto strettamente necessario per il funzionamento del sistema di IA.
Certificazione ISO/IEC 42001
“I fornitori di sistemi e modelli di intelligenza artificiale di cui al primo periodo, scelti dalle pubbliche amministrazioni, devono essere in possesso della certificazione ISO/IEC 42001 rilasciata da organismi di valutazione della conformità accreditati ai sensi dello standard UNI CEI EN ISO/IEC 17021-1 da enti di accreditamento sottoscrittori del IAF/EA Multilateral Agreement”.
AI per monitoraggio stradale, idrico e qualità dell’aria
Si promuove l’uso dell’intelligenza artificiale “per la valutazione e il monitoraggio della sicurezza strutturale di ponti, viadotti, cavalcavia e opere similari, esistenti lungo le strade e le autostrade al fine di garantire un controllo costante delle condizioni di sicurezza delle infrastrutture stradali esistenti e intervenire tempestivamente per prevenire criticità e rischi per la sicurezza pubblica”. Lo stesso vale in ambito idrico contro le perdite degli acquedotti e per il monitoraggio della qualità dell’aria.
Dati sensibili conservati su data center su territorio nazionale. Modelli nativamente in italiano
“Nelle attività di approvvigionamento di soluzioni di intelligenza artificiale generativa impiegate in un contesto connesso alla tutela degli interessi nazionali strategici devono essere previsti criteri di premialità per le proposte o per le offerte che contemplino l’uso di quelle soluzioni che garantiscono la conservazione e l’elaborazione dei dati critici presso data center posti sul territorio nazionale, nonché modelli fondativi nativamente allenati in lingua italiana in grado di assicurare elevati standard in termini di trasparenza nelle modalità di addestramento”.
AI non sia usato per realizzare armamenti offensivi
“Gli strumenti di intelligenza artificiale non sono utilizzati per il potenziamento o la realizzazione di armamenti offensivi”. ”Lo sviluppo e l’impiego di sistemi di intelligenza artificiale da parte delle Forze armate e degli organismi di sicurezza nazionale devono essere limitati a scopi puramente difensivi e di protezione delle infrastrutture critiche. È vietato l’impiego di sistemi di intelligenza artificiale che operano in maniera autonoma per la selezione e l’ingaggio di bersagli senza l’intervento diretto e il controllo umano”.
Comitato etico nazionale
“È istituito un comitato etico nazionale, composto da esperti in diritto umanitario, etica, tecnologia e rappresentanti della società civile, con il compito di monitorare e valutare lo sviluppo e l’uso di tecnologie di intelligenza artificiale nella difesa. Il comitato redige un rapporto semestrale presentato al Parlamento”.
Sperimentare l’uso dell’AI in ambito sanitario: avviare sperimentazione
“Al fine di promuovere e sostenere le politiche per la salute dei cittadini, la ricerca in materia sanitaria e di assicurare il diritto alla riservatezza, nonché di favorire il raccordo tra le istituzioni, gli enti di ricerca, i presidi sanitari, le autorità e gli operatori del settore, il Ministro della salute, sentito il Garante per la protezione dei dati personali, adotta, entro centoventi giorni dall’entrata in vigore della presente legge, un decreto per definire le modalità di svolgimento di una sperimentazione relativa all’utilizzo dei dati sanitari volta al perseguimento, mediante nuove tecnologie, della tutela della salute e dell’innovazione dei prodotti e dei servizi sanitari”.
Istituzione Autorità per l’intelligenza artificiale e le neurotecnologie, proposta di Basso e Nicita (Pd)
“ 1. Al fine di garantire l’applicazione e l’attuazione della normativa nazionale e dell’Unione europea in materia di intelligenza artificiale, viene istituita, con sede nella città di Genova, l’Autorità nazionale per l’intelligenza artificiale e le neurotecnologie, di seguito denominata «Autorità». L’Autorità opera in piena indipendenza di giudizio e valutazione, e con l’autonomia organizzativa, finanziaria e contabile, allo scopo di svolgere compiti di vigilanza, consulenza, sicurezza, sensibilizzazione, formazione e di presidio sanzionatorio, rivolti agli enti di diritto pubblico e privato per la corretta attuazione di tutta la normativa nazionale ed europea concernente il corretto utilizzo e lo sviluppo dei sistemi di intelligenza artificiale e neurotecnologie, operando con prontezza e precisione a tutela dei cittadini, del lavoro e dell’iniziativa economica. All’Autorità sono attribuite funzioni ispettive, di verifica, sanzionatorie e altre funzioni ad essa attribuite dalla normativa europea ad essa applicabile in materia di intelligenza artificiale e neurotecnologie.
2. L’Autorità, nel perseguire le finalità di cui alla presente legge, svolge le seguenti funzioni:
a) svolge indagini conoscitive e adotta atti di regolazione nel settore dell’intelligenza artificiale e delle neurotecnologie;
b) supervisiona l’applicazione, l’uso o la commercializzazione di sistemi che includono l’impiego di modelli di intelligenza artificiale e le neurotecnologie, in particolare, di quelli che possono comportare rischi significativi per la salute, la sicurezza, la parità di trattamento e la non discriminazione, nel pieno rispetto della normativa vigente, anche in materia delle procedure di consultazione, nonché esercita i poteri sanzionatori ad essa affidati sui soggetti che la violano;
c) definisce le procedure ed esercita i compiti in materia di notifica, consultazione, valutazione, accreditamento e monitoraggio dei soggetti incaricati di verificare la conformità dei sistemi di intelligenza artificiale e delle neurotecnologie;
d) vigila, svolgendo anche attività consultive, ispettive e sanzionatorie, sui sistemi di intelligenza artificiale e delle neurotecnologie, e sulla promozione e lo sviluppo dell’intelligenza artificiale e delle neurotecnologie relativamente ai profili di cybersicurezza;
e) promuove interventi e iniziative volte a ridurre al minimo i rischi che possono derivare dall’uso di software di intelligenza artificiale con l’obiettivo di eliminare o ridurre i rischi per l’integrità, la privacy, la parità di trattamento, in particolare tra donne e uomini, e altri diritti fondamentali che potrebbero essere compromessi dall’uso improprio dei sistemi di intelligenza artificiale;
f) promuove iniziative di sensibilizzazione, diffusione e promozione della formazione, nonché dello sviluppo, della partecipazione civica e dell’utilizzo responsabile, sostenibile e affidabile dell’intelligenza artificiale e delle neurotecnologie;
g) coordina e collabora con le altre autorità, nazionali, europee e sovranazionali, per la vigilanza sull’intelligenza artificiale e sulle neurotecnologie;
h) segnala al Governo e al Parlamento elementi di possibili criticità su atti legislativi in relazione alle normative vigenti e allo sviluppo tecnologico;
i) predispone ambienti di test per i sistemi di intelligenza artificiale e di neurotecnologie, al fine di rafforzare la tutela degli utenti ed evitare pregiudizi discriminatori;
j) tutela l’integrità del cervello dai progressi e dalle capacità sviluppate dalle neurotecnologie;
k) monitora gli sviluppi etici, legali e sociali delle nuove applicazioni di intelligenza artificiale e delle neurotecnologie;
l) coordina e monitora la tracciabilità e la qualità dei dati pubblici raccolti ed elaborati dai sistemi di intelligenza artificiali usati nei servizi pubblici.
m) acquisisce ogni altra funzione che potrebbe essere attribuita all’Autorità a causa dell’applicazione delle normative nazionali ed europee entrate in vigore in relazione all’uso sicuro ed affidabile dei sistemi di intelligenza artificiale e delle neurotecnologie;
3. Nello svolgimento delle funzioni di cui al comma 2, l’Autorità esercita i seguenti poteri:
a) stabilisce, previe idonee procedure di consultazione, i livelli qualitativi minimi che i soggetti sottoposti alla sua competenza sono tenuti a garantire e vigila sul loro rispetto;
b) contribuisce a rafforzare la fiducia nella tecnologia e nell’applicazione dell’intelligenza artificiale e delle neurotecnologie, attraverso la creazione di un quadro di certificazione volontaria per i soggetti privati, che consenta di offrire garanzie sulla progettazione responsabile di soluzioni digitali e garantire standard tecnici, evitando un’eccessiva regolamentazione e consentendo l’innovazione;
c) supervisiona la trasparenza dell’impiego di sistemi decisionali automatizzati all’interno della pubblica amministrazione, promuovendo una migliore comprensione dell’utilizzo dei dati e degli algoritmi, anche istituendo un registro algoritmico nazionale;
d) vigila sui sistemi di intelligenza artificiale e di neurotecnologie per garantire il rispetto della normativa, sia nazionale che europea;
e) promuove la redazione di codici deontologici e di norme di autoregolamentazione;
f) richiede ai soggetti vigilati le informazioni e l’esibizione dei documenti necessari per l’esercizio delle sue funzioni;
g) svolge ispezioni presso i soggetti vigilati qualora sussistano elementi che indicano possibili violazioni della regolazione negli ambiti di propria competenza;
h) svolge indagini conoscitive di natura generale, se opportuno in collaborazione con altre autorità di regolazione;
i) ordina la cessazione delle condotte in contrasto con gli atti di regolazione e ove ritenga che sussistano motivi di necessità e di urgenza, al fine di tutelare gli interessi degli utenti, può adottare provvedimenti temporanei di natura cautelare;
j) valuta i reclami, le istanze e le segnalazioni presentati dagli utenti e dai consumatori, singoli o associati, ai fini dell’esercizio delle proprie competenze;
k) irroga sanzioni amministrative pecuniarie in caso di violazione dei provvedimenti della stessa Autorità determinate in considerazione della gravità e della durata dell’infrazione. Gli introiti delle sanzioni di cui al presente articolo sono destinati a un fondo istituito presso la Presidenza del Consiglio dei Ministri finalizzato all’adozione di iniziative destinate al miglioramento della qualità e della sicurezza dei sistemi digitali nella PA;
l) sviluppa meccanismi di identificazione dei trend e di valutazione dell’impatto sociale, etico e legale degli sviluppi dell’intelligenza artificiale e delle neurotecnologie;
m) stimola l’allineamento e il coordinamento con iniziative di altri soggetti pubblici e privati legate all’applicazione di sistemi di intelligenza artificiale e neurotecnologie;
n) promuove accordi, convenzioni o qualsiasi altro strumento previsto dalla legge per sostenere l’esecuzione di programmi relativi all’intelligenza artificiale e neurotecnologie;
o) promuove la collaborazione pubblico-privato per favorire la creazione di quadri di sostegno nel settore dell’intelligenza artificiale e delle neurotecnologie al fine di favorire lo sviluppo umanistico e il corretto utilizzo da parte del tessuto produttivo-imprenditoriale;
p) segnala al Governo e al Parlamento elementi di possibili criticità su atti legislativi in relazione alle normative vigenti e allo sviluppo tecnologico;
q) sostiene la creazione di conoscenza, formazione e diffusione in relazione all’intelligenza artificiale e alle neurotecnologie, per mostrarne sia le potenzialità che le opportunità disviluppo socioeconomico, etico e di trasformazione del modello produttivo, nonché le sfide, i rischi e le incertezze che pone il loro sviluppo e la loro adozione.
4 Al fine di semplificare la compliance con la normativa italiana ed europea da parte di cittadini ed imprese, l’Autorità è designata quale interfaccia unica per l’utente in relazione alle funzioni di cui al comma 3. L’Agenzia per il digitale (AgID), l’Autorità nazionale per la Cybersicurezza (ACN), l’Autorità per le garanzie nelle Comunicazioni (Agcom), il Garante per la protezione dei dati personali (Garante privacy), l’Agenzia italiana del farmaco (AIFA), l’Agenzia nazionale per i servizi sanitari regionali (Agenas), l’Autorità di regolazione dei trasporti (ART), gli organi centrali della pubblica amministrazione e le altre pubbliche amministrazioni, nonché con enti ad essi collegati o dipendenti, nell’ambito delle rispettive competenze, assicurano ogni necessaria collaborazione ai fini dell’esercizio da parte dell’Autorità.
5. L’Autorità è organo collegiale composto dal Presidente e da due membri. Il Presidente e i membri sono nominati con decreto del Presidente della Repubblica, previa deliberazione del Consiglio dei ministri, su proposta del Presidente del Consiglio dei ministri. Possono essere designati con deliberazione del Consiglio dei ministri, su proposta del Ministro delle imprese e del made in Italy, nel rispetto dell’equilibrio di genere, soltanto soggetti che hanno presentato la loro candidatura nell’ambito di un’apposita procedura di sollecitazione pubblica avviata con la pubblicazione nella Gazzetta Ufficiale di un apposito bando predisposto dalla Presidenza del Consiglio dei ministri. I soggetti che presentano la candidatura sono inseriti in un apposito elenco dal quale sono estratti i nominativi del presidente dell’Autorità e dei due membri del collegio con meccanismo di sorteggio di carattere aleatorio. La candidatura a componente dell’Autorità può essere presentata da persone di indiscussa moralità e indipendenza e di comprovata professionalità e competenza nei settori in cui opera l’Autorità. Non possono essere nominati componenti coloro che nei cinque anni precedenti alla nomina abbiano ricoperto incarichi elettivi politici o che, in relazione alle cariche assunte nei tre anni precedenti alla nomina nelle imprese regolate o vigilate, permangano portatori di interessi in conflitto con l’esercizio della funzione di regolazione o dì vigilanza, nonché coloro che siano stati componenti del collegio di un’altra autorità indipendente. Restano ferme altresì le incompatibilità per i titolari di cariche di Governo previste dalla normativa vigente. I componenti dell’Autorità sono nominati per un periodo di 5 anni e non possono essere confermati nella carica. In caso di dimissioni o di impedimento del presidente o di un membro dell’Autorità, si procede alla sostituzione secondo le modalità di sorteggio, per la loro durata in carica e per la non rinnovabilità del mandato. In caso di gravi e persistenti violazioni della presente legge, di impossibilità di funzionamento o di prolungata inattività, il Consiglio dei ministri, su proposta del Presidente del Consiglio dei ministri, può deliberare, previo parere favorevole espresso a maggioranza dei due terzi dei componenti dalle competenti Commissioni parlamentari, la revoca motivata del collegio, che è disposta con decreto del Presidente della Repubblica. Per l’intera durata dell’incarico i componenti dell’Autorità non possono esercitare, a pena di decadenza, alcuna attività professionale o di consulenza, essere amministratori o dipendenti di soggetti pubblici o privati, né ricoprire altri uffici pubblici di qualsiasi natura, compresi gli incarichi elettivi o di rappresentanza nei partiti politici, né avere interessi nelle imprese operanti nei settori di competenza dell’Autorità. All’atto di accettazione della nomina, i componenti dell’Autorità sono collocati fuori ruolo o in posizioni analoghe, se dipendenti di pubbliche amministrazioni. Nei tre anni successivi alla cessazione dall’incarico, i componenti dell’Autorità non possono intrattenere, direttamente o indirettamente, rapporti di collaborazione, di consulenza o di impiego con imprese nei cui confronti sono state adottate misure regolatorie specifiche o aperte istruttorie di vigilanza da parte dell’Autorità, né esercitarvi funzioni societarie. La violazione di tale divieto è punita, ferma restando la responsabilità penale ove il fatto costituisca reato, con una sanzione amministrativa pecuniaria pari nel minimo a 25.000 euro e nel massimo alla maggiore somma tra 250.000 euro e l’importo del corrispettivo percepito. I componenti e i funzionari dell’Autorità, nell’esercizio delle proprie funzioni, sono pubblici ufficiali e sono tenuti al segreto d’ufficio. Con apposito regolamento, l’Autorità adotta il proprio codice deontologico, che stabilisce le regole di condotta dei componenti, dei dirigenti e del personale, anche con previsioni relative al biennio successivo alla cessazione del mandato o del rapporto di impiego.
6. L’Autorità ha autonomia organizzativa, contabile e amministrativa. Nelle materie riguardanti l’organizzazione interna dell’Autorità, il collegio di cui al comma 5, svolge le funzioni di indirizzo, programmazione e controllo. Le funzioni di gestione, ai sensi del decreto legislativo 30 marzo 2001, n. 165, sono attribuite ai servizi e agli uffici. Il collegio può attribuire al presidente o a singoli componenti la delega a svolgere attività specifiche o ad assumere determinazioni in ambiti di competenza specificamente individuati. All’amministrazione, al funzionamento dei servizi e degli uffici e all’organizzazione interna dell’Autorità è preposto un segretario generale. Il segretario generale è nominato dal collegio, su proposta del presidente dell’Autorità, tra i dirigenti della stessa Autorità in servizio e per un periodo non inferiore 3 anni e non superiore a 5 anni, salva la revoca per giusta causa. Ai rapporti del collegio con i servizi e con gli uffici può sovraintendere un capo di gabinetto, che svolge anche le funzioni di segretario del collegio. Il capo di gabinetto è nominato dal collegio, su proposta del presidente dell’Autorità. Per l’esercizio delle funzioni di controllo a carattere contenzioso e sanzionatorio, l’organizzazione interna dell’Autorità assicura la separazione tra funzioni istruttorie degli uffici e funzioni decisorie del collegio. Ferme restando le garanzie funzionali e procedurali previste dalla legge e dai rispettivi ordinamenti, l’Autorità, con appositi regolamenti, può individuare i casi in cui avvalersi, per lo svolgimento di attività preparatorie e strumentali, di altri soggetti pubblici secondo modalità definite in appositi accordi e convenzioni. L’Autorità provvede all’autonoma gestione delle spese per il proprio funzionamento nei limiti delle risorse finanziarie. Il bilancio preventivo e il rendiconto della gestione, soggetto al controllo della Corte dei conti, sono pubblicati nella Gazzetta Ufficiale. Entro sei mesi dalla data di entrata in vigore della presente legge, l’Autorità adotta i regolamenti concernenti l’organizzazione e il funzionamento, i bilanci, i rendiconti e la gestione delle spese, nonché il trattamento giuridico ed economico del personale addetto, nei limiti stabiliti dalla presente legge.
7. Alle dipendenze dell’Autorità è posto personale di ruolo, la cui pianta organica è inizialmente pari a 50 unità. Con regolamento dell’Autorità, nei limiti posti dagli stanziamenti ordinari di bilancio previsti per il suo funzionamento, si provvede alla fissazione definitiva della pianta organica del personale di ruolo, la cui consistenza può discostarsi da quella iniziale nel limite di 50 unità. Il trattamento giuridico ed economico del personale e l’ordinamento delle carriere sono determinati, in conformità a quanto previsto dall’articolo 2, comma 28, della legge 14 novembre 1995, n. 481, e successive modificazioni, nel termine previsto dal comma 6 dell’articolo 4 della presente legge. Il personale è selezionato per pubblico concorso tra i soggetti con competenze approfondite e multidisciplinari delle tecnologie di intelligenza artificiale, dei dati e dell’informatica, dei rischi per la salute e la sicurezza e la conoscenza della normativa, dei diritti fondamentali, nonché di esperti con competenze nelle scienze sociali ed umanistiche. Al fine di consentire l’immediato funzionamento dell’Autorità, l’Autorità può avvalersi, nel limite di un contingente di 30 unità, di personale in posizione di comando proveniente dalle pubbliche amministrazioni, che conserva il trattamento giuridico ed economico fondamentale e accessorio delle amministrazioni di provenienza, con oneri a carico delle medesime. L’Autorità può inoltre avvalersi, per motivate esigenze di carattere eccezionale, di un contingente di dipendenti dello Stato o di altre pubbliche amministrazioni collocati in posizione di comando o di fuori ruolo ovvero in aspettativa nelle forme previste dai rispettivi ordinamenti. Il contingente non può essere superiore, complessivamente, a un decimo della dotazione organica dell’Autorità. In aggiunta al contingente ordinario e nel limite di un quinto della dotazione organica iniziale, l’Autorità può assumere personale specializzato, con contratto a tempo determinato disciplinato dalle norme di diritto privato. Per particolari esigenze di natura tecnica, l’Autorità può avvalersi, in aggiunta al contingente ordinario e nel limite di un ventesimo della dotazione organica iniziale, di esperti assunti con contratto a tempo determinato disciplinato dalle norme di diritto privato. L’Autorità può altresì avvalersi di personale dipendente di altre autorità indipendenti in possesso delle competenze e dei requisiti di professionalità e di esperienza richiesti per l’espletamento delle singole funzioni, mediante collocamento fuori ruolo, nell’ambito di convenzioni concluse tra le autorità interessate. Con proprio regolamento, l’Autorità stabilisce le modalità di accesso per pubblico concorso al ruolo organico in conformità ai princìpi stabiliti dalla presente legge.
8. Ai maggiori oneri derivante dall’istituzione e dal funzionamento dell’Autorità, valutati in 10 milioni di euro per l’anno 2025 e in 15 milioni di euro a decorrere dall’anno 2026, si provvede a valere sul versamento da parte dei fornitori di servizi della società dell’informazione, con fatturato superiore ai cinquanta milioni di euro, di un contributo pari allo 0,035 per cento del fatturato medesimo. . Il contributo è versato con le modalità stabilite con apposito decreto del Ministro dell’economia e delle finanze, sentito il Dipartimento per l’innovazione tecnologica presso la Presidenza del Consiglio dei Ministri, entro il 31 luglio di ogni anno.
9. I regolamenti e gli atti a contenuto generale adottati dall’Autorità sono pubblicati nella Gazzetta Ufficiale e nel Bollettino dell’Autorità, nonché, con funzione meramente informativa, sul sito internet della stessa Autorità. L’Autorità redige annualmente una raccolta degli atti di cui al presente comma, nonché delle norme legislative e regolamentari dello Stato oggetto di attuazione da parte della stessa Autorità. Di tale raccolta, che ha valenza meramente informativa, deve essere garantita adeguata pubblicità, anche mediante il sito internet dell’Autorità. I regolamenti e gli atti a contenuto generale dell’Autorità, esclusi quelli attinenti all’organizzazione interna, devono essere motivati con riferimento alle scelte di regolazione e di vigilanza del settore o della materia su cui vertono. Essi sono accompagnati da una relazione che illustra le conseguenze dei medesimi atti sulla regolamentazione, sull’attività degli operatori e sugli interessi dei consumatori e degli utenti. L’Autorità consulta i soggetti interessati e i loro organismi rappresentativi e si avvale di forme di consultazione pubblica. . L’Autorità sottopone a revisione periodica, almeno ogni tre anni, il contenuto degli atti di regolazione da essa adottati, per adeguarli all’evoluzione delle condizioni di mercato e dei bisogni dei consumatori e degli utenti, nel rispetto del principio di proporzionalità. L’Autorità disciplina con propri regolamenti l’applicazione dei princìpi di cui al presente articolo, indicando i termini massimi per la conclusione dei procedimenti e i casi di necessità e di urgenza o le ragioni di riservatezza per cui è ammesso derogarvi con decisione motivata. L’Autorità può promuovere la redazione di codici deontologici o norme di autoregolamentazione da parte di soggetti regolati o vigilati. I procedimenti di controllo a carattere contenzioso e i procedimenti sanzionatori sono svolti dall’Autorità nel rispetto dei princìpi della piena conoscenza degli atti istruttori, del contraddittorio e della verbalizzazione, nonché della distinzione tra funzioni istruttorie degli uffici e funzioni decisorie del collegio.
10. L’Autorità riferisce alle Camere sull’attività svolta e sui risultati conseguiti presentando una relazione annuale. L’Autorità può presentare alle Camere e al Governo pareri e segnalazioni in ordine alle iniziative legislative o regolamentari in materia di intelligenza artificiale. L’Autorità collabora con le altre autorità autonome nelle materie di competenza concorrente, anche mediante la stipula di apposite convenzioni, e assicura la leale cooperazione, anche attraverso segnalazioni e scambi di informazioni, con le autorità e le amministrazioni competenti dell’Unione europea e degli altri Stati, al fine di agevolare le rispettive funzioni. Le pubbliche amministrazioni sono tenute a fornire all’Autorità, oltre a notizie e informazioni, la collaborazione necessaria per l’adempimento delle sue funzioni.
11. Entro novanta giorni dalla data di entrata in vigore della presente legge, è istituito, senza nuovi o maggiori oneri per la finanza pubblica, un Comitato composto da 20 membri della società civile e organizzazioni che si occupano di diritti umani digitali, con l’obiettivo di sostenere e supportare l’Autorità sulle sfide e i rischi legati all’impatto delle nuove tecnologie sui diritti fondamentali, evitare le pratiche discriminatorie e contrastare lo sfruttamento incontrollato dei dati personali. Il comitato riferisce direttamente al Collegio dell’Autorità
12. Entro novanta giorni dalla data di entrata in vigore della presente legge, è istituito, senza nuovi o maggiori oneri per la finanza pubblica, un Comitato di 20 membri composto da: 5 avvocati indicati dalle istituzioni forensi e 5 magistrati indicati dal Consiglio Superiore della Magistratura, nonché da 10 professori universitari in materie giuridiche, filosofiche e informatiche designati dal Governo su segnalazione delle Università interessate con l’obiettivo di sostenere e supportare l’Autorità sull’utilizzazione dell’Intelligenza Artificiale nell’ambito della giurisdizione, di formulare proposte in materia e di esprimere un parere preventivo e vincolante in ordine all’utilizzabilità nell’ambito della giurisdizione di ogni strumento di Intelligenza Artificiale destinato ad assistere un’autorità giudiziaria o un’autorità inquirente o di polizia giudiziaria, previo accertamento del rispetto dei diritti fondamentali della persona, della conformità ai principi etici e dell’insussistenza o della minimizzazione dei rischi. Il comitato riferisce direttamente al Collegio dell’Autorità”.
Istituzione del Fondo intelligenza naturale
Al fine di migliorare le competenze dei lavoratori, ridurre le disuguaglianze sociali e promuovere la competitività economica e la salvaguardia dei lavoratori, nello stato di previsione del Ministero del lavoro e delle politiche sociali è istituito il Fondo intelligenza naturale, con una dotazione iniziale pari a 400 milioni di euro per ciascuno degli anni 2025, 2026 e 2027.
Identificazione dei contenuti testuali, fotografici e audiovisivi prodotti da sistemi di intelligenza artificiale diffusi su ogni mezzo trasmissivo
“Qualunque contenuto informativo diffuso su ogni mezzo trasmissivo da fornitori di contenuti in qualsiasi modalità che sia stato completamente generato ovvero, anche parzialmente, modificato o alterato attraverso l’utilizzo di sistemi di intelligenza artificiale, in modo tale da presentare come veritieri dati, fatti, contestualizzazioni e informazioni che non lo sono, deve essere reso, a cura dell’autore o del titolare dei diritti di sfruttamento economico, se diverso dall’autore, chiaramente visibile e riconoscibile da parte degli utenti mediante inserimento di un elemento o segno identificativo, anche in filigrana o marcatura incorporata purché chiaramente visibile e riconoscibile, con l’acronimo “IA” ovvero, nel caso di contenuti audio, attraverso annunci audio ovvero con tecnologie adatte a consentire il riconoscimento. L’inserimento del segno identificativo è escluso quando il contenuto fa parte di un’opera manifestamente creativa, satirica o artistica, fatte salve le tutele per i diritti e le libertà dei terzi. L’Autorità per le garanzie nelle comunicazioni, con proprio regolamento, determina le caratteristiche dell’acronimo “IA” per ciascun mezzo trasmissivo e disciplina le modalità di monitoraggio, segnalazione, rimozione, ravvedimento e sanzione applicabili”.