SCARICA L’ INTERNATIONAL AI SAFETY REPORT
Pubblicato il primo “International AI Safety Report”
Online il primo Rapporto internazionale sulla sicurezza dell’Intelligenza artificiale (AI), sostenuto da 30 Paesi e dall’Organizzazione per la cooperazione e lo sviluppo economico (OCSE), le Nazioni Unite e l’Unione europea. Il rapporto riassume il punto di vista della comunità scientifica sui rischi legati all’intelligenza artificiale e su come mitigarli.
La sua realizzazione ha coinvolto 100 esperti indipendenti di AI di tutto il mondo, tra cui premi Nobel e vincitori del Turing Award.
Il documento mira a fornire ai responsabili e decisori politici un panorama il più possibile esaustivo dei rischi, delle soluzioni di mitigazione e delle sfide che l’AI ci pone. Non tutti i partecipanti vedono questa tecnologia allo stesso modo, ma nella sintesi finale c’è la volontà collettiva di sviluppare uno spirito collaborativo e cooperativo per aiutare Governi e società civile nel prendere le scelte migliori.
Il rapporto del 2025 sulla sicurezza analizza i rapidi progressi e i rischi crescenti legati all’AI a scopo generale. Il documento evidenzia l’aumento esponenziale della potenza di calcolo utilizzata per l’addestramento dei modelli, i miglioramenti nelle capacità dell’I, inclusi gli agenti autonomi, e i conseguenti rischi di manipolazione dell’opinione pubblica, di attacchi informatici e di violazioni della privacy.
Vengono inoltre esaminate le strategie di mitigazione dei rischi, le sfide normative e le disparità globali nello sviluppo della tecnologia. Infine, il rapporto sottolinea la necessità di una maggiore ricerca per comprendere e affrontare i rischi emergenti.
Lo sviluppo dell’AI general-purpose comporta diversi rischi sistemici, che vanno oltre i rischi posti dalle capacità dei singoli modelli. Di seguito ne approfondiremo alcuni.
Rischi per il mercato del lavoro
L’AI general-purpose ha il potenziale per automatizzare una vasta gamma di compiti, causando una significativa perdita di posti di lavoro. Molti economisti ritengono che queste perdite potrebbero essere compensate dalla creazione di nuovi posti di lavoro e dall’aumento della domanda in settori non automatizzati.
Tuttavia, la velocità di adozione dell’AI e la sua capacità di automatizzare compiti complessi potrebbero causare interruzioni rapide nel mercato del lavoro. La perdita involontaria del lavoro può avere gravi conseguenze per i lavoratori, come una diminuzione dei guadagni, problemi di salute fisica e mentale. Inoltre, potrebbe aumentare la disuguaglianza di reddito, poiché le persone con stipendi più alti potrebbero beneficiare maggiormente degli aumenti di produttività.
Divario globale nella ricerca e sviluppo dell’AI
Lo sviluppo di modelli di AI general-purpose è guidato principalmente da aziende situate in paesi con infrastrutture digitali e accesso al calcolo avanzati, creando un divario con i paesi a basso e medio reddito (LMIC).
I costi di addestramento dei modelli sono aumentati notevolmente, rendendo difficile per i paesi con risorse limitate competere in questo campo. Questo divario potrebbe peggiorare, poiché i paesi con infrastrutture e risorse avanzate avranno maggiori capacità di sviluppare e utilizzare l’AI general-purpose.
Concentrazione del mercato
Il mercato è dominato da un piccolo numero di aziende. Questa concentrazione potrebbe rendere le società più vulnerabili a diversi rischi sistemici. Se organizzazioni in settori critici, come la finanza o la sanità, dipendono da un piccolo numero di sistemi, un bug o una vulnerabilità in questi sistemi potrebbe causare guasti e interruzioni simultanee su vasta scala.
Un singolo modello potrebbe influenzare il processo decisionale in molte organizzazioni e settori. La dipendenza da poche aziende per i sistemi di AI general-purpose potrebbe portare a manipolazioni, persuasione, censura o controllo.
Rischi ambientali
L’uso crescente di risorse computazionali nello sviluppo e nell’implementazione dell’AI general-purpose ha rapidamente aumentato il consumo di energia, acqua e materie prime necessarie per costruire e gestire l’infrastruttura di calcolo.
Questa tendenza non mostra segni di rallentamento, nonostante i progressi nelle tecniche che consentono un uso più efficiente del calcolo. Questa AI ha anche una serie di applicazioni che possono sia beneficiare che danneggiare gli sforzi per la sostenibilità.
Rischi per la privacy
La capacità dell’AI general-purpose di elaborare grandi quantità di dati personali solleva preoccupazioni riguardo alla privacy. Le nuove funzionalità degli agenti aumentano le preoccupazioni sulla riservatezza dei dati, in quanto possono agire autonomamente per conto degli utenti.
L’AI general-purpose potrebbe essere utilizzata per sorvegliare o identificare gli utenti online. La protezione della privacy è anche resa difficile dalla mancanza di trasparenza delle pratiche di raccolta dati degli sviluppatori, con conseguenti problemi di responsabilità legale.
Rischi di violazione del copyright
L’uso di dati protetti da copyright per addestrare modelli di AI solleva preoccupazioni riguardo alla violazione del copyright. La mancanza di trasparenza sulle pratiche di raccolta dati e la mancanza di strumenti per identificare dati utilizzabili senza violazioni del copyright hanno disincentivato la condivisione di informazioni sui dati di addestramento dell’AI, rendendo più difficile la ricerca sulla sicurezza dell’IA. Inoltre, la possibilità che gli utenti generino contenuti simili a materiale protetto da copyright pone un rischio per le economie creative e dei media.
Questi rischi sistemici sono interconnessi e pongono complesse sfide per i responsabili politici. È necessario un approccio olistico alla gestione di questi rischi, considerando sia i potenziali benefici dell’IA general-purpose sia i possibili danni.
Le tecniche di mitigazione proposte
Il report discute diverse tecniche di mitigazione dei rischi associati all’IA a scopo generale, suddividendole in base alle diverse fasi del processo di gestione del rischio e alle diverse tipologie di rischio.
Si suggerisce un approccio sistematico che comprende l’identificazione, la valutazione, la mitigazione e il monitoraggio dei rischi. Questo approccio include l’applicazione di principi di ingegneria e di gestione per controllare i pericoli durante l’intero ciclo di vita del sistema AI, tenendo conto delle interazioni tra hardware, software, strutture organizzative e fattori umani. Viene anche raccomandata una strategia di “difesa in profondità”, con più livelli di misure di protezione.
Bisogna poi saper effettuare una efficace valutazione dei rischi: è fondamentale per identificare potenziali problemi prima che si verifichino. Le valutazioni esistenti, basate su “controlli a campione”, sono limitate e spesso non riescono a identificare tutti i pericoli. Il rapporto sottolinea l’importanza di migliorare i test e le valutazioni, includendo una vasta gamma di rischi, lingue, culture, modalità e casi d’uso.
C’è poi la formazione di modelli più affidabili, con cui si mira a limitare i comportamenti potenzialmente pericolosi dei sistemi di IA. Vengono utilizzate tecniche come l’apprendimento per rinforzo dal feedback umano (RLHF) per allineare i modelli ai valori umani, ma non garantiscono una sicurezza completa. La ricerca si sta muovendo verso approcci “safe-by-design” che potrebbero offrire garanzie quantitative di sicurezza. È anche importante valutare la qualità della supervisione umana e l’analisi dei modelli per i potenziali abusi.
Non ultimi il monitoraggio e l’intervento. Questi processi sono essenziali per individuare rischi e valutare le prestazioni dopo l’implementazione di un modello. Strumenti tecnici possono essere utilizzati per rilevare contenuti generati dall’IA e per tracciare le prestazioni del sistema. L’efficacia di questi metodi dipende dalla loro capacità di resistere agli aggiramenti da parte di utenti malintenzionati. Combinare il monitoraggio tecnico e le capacità di intervento con la supervisione umana migliora la sicurezza, ma può comportare costi e ritardi.