L’iniziativa contiene 10 misure che creano un quadro globale per sfruttare i vantaggi della tecnologia mitigando al tempo stesso i rischi, secondo il Dipartimento di Stato.
Lunedì scorso 45 paesi hanno aderito allo sforzo guidato dagli Stati Uniti per gettare le basi per un uso militare responsabile dell’intelligenza artificiale, una mossa che il Dipartimento di Stato ha salutato come “un passo importante” per mitigare i rischi potenziali di questa tecnologia.
Tra i paesi che sostengono la dichiarazione ci sono molti partner e alleati americani in Asia ed Europa – Australia, Gran Bretagna, Canada, Finlandia, Italia, Francia, Germania, Giappone, Paesi Bassi, Singapore e Corea del Sud. Non c’è invece la Cina, che non considera il concetto di “uso responsabile” abbastanza adeguato o sufficientemente oggettivo per definire il perimetro di utilizzo dell’AI. Ma i due paesi stanno negoziando.
Leggi anche: Usa-Cina cercano l’accordo contro l’uso dell’AI per armi nucleari e droni militari
Ma cosa prevede la dichiarazione politica degli Usa sull’AI?
Gli Stati firmatari ritengono che le seguenti misure dovrebbero essere attuate nello sviluppo, dispiegamento o utilizzo di capacità militari di IA, comprese quelle abilitanti funzioni e sistemi autonomi (droni e robot soldati ndr):
A. Gli Stati dovrebbero garantire che le loro organizzazioni militari adottino e implementino questi principi per lo sviluppo, implementazione e utilizzo responsabili delle capacità di intelligenza artificiale.
B. Gli Stati dovrebbero adottare misure appropriate, come revisioni legali, per garantire che la loro IA militare sia utilizzata in conformità con i rispettivi obblighi ai sensi del diritto internazionale, in particolare il diritto internazionale umanitario. Gli Stati dovrebbero anche considerare come utilizzare le capacità di intelligenza artificiale delle forze armate per migliorare l’attuazione del diritto internazionale umanitario e per migliorare la protezione dei civili e dei beni civili nei conflitti armati.
C. Gli Stati dovrebbero garantire che gli alti funzionari controllino in modo efficace e appropriato lo sviluppo e impiego di capacità di IA militare con applicazioni ad alto impatto, compresi, ma non limitati a, tali sistemi d’arma.
D. Gli Stati dovrebbero adottare misure proattive per ridurre al minimo i pregiudizi involontari nelle capacità militari dell’IA.
E. Gli Stati dovrebbero garantire che il personale interessato eserciti un’adeguata attenzione nello sviluppo, dispiegamento e uso delle capacità militari dell’IA, compresa l’integrazione di sistemi d’arma con tali capacità.
F. Gli Stati dovrebbero garantire che le capacità militari dell’IA siano sviluppate con metodologie e dati fonti, procedure di progettazione e documentazione trasparenti e verificabili da parte del personale della difesa interessato.
G. Gli Stati dovrebbero garantire che il personale che utilizza o approva l’uso delle capacità militari dell’IA sia formato in modo da comprendere sufficientemente le capacità e i limiti di tali sistemi, al fine di formulare giudizi appropriati e basati sul contesto sull’uso di tali sistemi e per mitigare il rischio di bias di automazione.
H. Gli Stati dovrebbero garantire che le capacità militari di intelligenza artificiale abbiano usi espliciti e ben definiti e che siano progettati per soddisfare le funzioni previste.
I. Gli Stati dovrebbero garantire la sicurezza, la protezione e l’efficacia delle capacità militari dell’IA soggetti a test e garanzie adeguati e rigorosi nell’ambito dei loro usi ben definiti e durante i loro interi cicli di vita. Per l’autoapprendimento o l’aggiornamento continuo della capacità militare dell’IA, gli Stati dovrebbero garantire che le caratteristiche critiche di sicurezza non siano state degradate da processi come il monitoraggio.
J. Gli Stati dovrebbero implementare garanzie adeguate per mitigare i rischi di fallimenti della capacità militare nell’IA, come la capacità di individuare ed evitare conseguenze indesiderate e l’abilità di rispondere, ad esempio disattivando i sistemi implementati, quando i sistemi dimostrino un comportamento non intenzionale.