La Cia ha sviluppato la gen AI Osiris
Utilizzare l’intelligenza artificiale (AI) significa acquisire notevoli vantaggi operativi, nel salvare delle vite umane, nel vincere una guerra o nell’evitare disastri di varia natura. Lo stesso vale per le agenzie governative di intelligence.
La celebre Central intelligence agency, più comunemente conosciuta con il suo acronimo inglese “Cia”, l’agenzia di intelligence civile del Governo degli Stati Uniti, ha da molti anni impiegato soluzioni di AI nei suoi piani operativi, almeno dal 2001.
In particolare, i principali ambiti di applicazione sono stati relativi all’elaborazione del linguaggio naturale, ad esempio nell’analisi di contenuti testuali, alla visione artificiale e all’analisi dei contenuti audiovisivi.
Per rimanere al passo con i tempi, la Cia ha voluto però sviluppare una propria AI generativa, qualcosa di molto simile a ChatGPT di OpenAI, e il suo progetto di punta si chiama “Osiris”.
In un’intervista rilasciata a TechCrunch, Lakshmi Raman, responsabile dell’Unità della Cia dedicata all’AI, ha spiegato che “pensando alle enormi quantità di dati che dobbiamo consumare all’interno dell’agenzia, il triage dei contenuti è un’area in cui l’intelligenza artificiale generativa può fare la differenza“.
L’AI Osiris è tarata proprio su questa esigenza ed è stata sviluppata con l’obiettivo di sintetizzare una sempre maggiore mole di dati, per ora solo non classificati, con la possibilità di affinare sempre di più ogni indagine.
In migliaia di analisti hanno già impiegato Osiris, non solo nella Cia, ma anche nelle altre 18 agenzie di intelligence degli Stati Uniti.
Le mani di aziende note nello sviluppo di Osiris
Tutto lavoro della Cia? Raman non ha rivelato niente di compromettente, ovviamente, non ha negato in maniera assoluta il coinvolgimento di aziende terze, ma ha precisato che la Cia sta lavorando a delle partnership con brand noti del settore tecnologico.
“Sfruttiamo servizi commerciali e dobbiamo essere in grado di lavorare a stretto contatto con l’industria privata, per essere in grado non solo di fornire i servizi e le soluzioni più avanzati di cui avete sentito parlare, ma anche per disporre di servizi di nicchia offerti da fornitori non tradizionali”, ha aggiunto Raman.
Si percepisce un senso di urgenza tra le agenzie di intelligence negli Stati Uniti, perché l’AI è considerata strategica nel monitoraggio e l’analisi degli scenari geopolitici mondiali ormai in stato permanente di tensione, ma anche nel contrasto e la lotta attiva alle organizzazioni terroristiche e le milizie armate che combattono contro i Paesi della sfera occidentale, fino alle campagne di disinformazione orchestrate da entità statali straniere, come Cina e Russia.
Nel 2023, lo Special Competitive Studies Project, un potente gruppo consultivo focalizzato sull’AI applicata alla sicurezza nazionale, ha dato due anni di tempo alle agenzie di intelligence nazionali per andare oltre la fase sperimentale e i progetti pilota, adottando le soluzioni fin qui sviluppate di AI generativa su larga scala.
La Cia fa ancora paura, come l’AI
Ovviamente i problemi non mancano, soprattutto legati ai timori crescenti dell’opinione pubblica che vede queste potenti tecnologie in mano ad entità come la Cia e altre agenzie di sicurezza ed intelligence, spesso percepite come ostili.
Nel febbraio 2022, i senatori Ron Wyden e Martin Heinrich hanno rivelato in una lettera pubblica che la Cia avrebbe un archivio dati segreto e non divulgato che includerebbe informazioni raccolte sui cittadini statunitensi.
L’anno scorso, un rapporto dell’Office of the Director of National Intelligence ha invece mostrato che le agenzie di intelligence statunitensi, inclusa la Cia, acquistano regolarmente dati sugli americani da broker di dati come LexisNexis e Sayari Analytics e con scarsi controlli da parte delle unità governative preposte a questo tipo di vigilanza.
Raman ha ribadito e sottolineato che la CIA non solo rispetta tutte le leggi degli Stati Uniti, ma “segue anche tutte le linee guida etiche” e utilizza l’intelligenza artificiale “in un modo che mitiga i pregiudizi”.
“Costruire un’IA responsabile significa che abbiamo bisogno che tutti gli stakeholder siano coinvolti; ciò significa sviluppatori di IA, ciò significa il nostro ufficio per la privacy e le libertà civili”, ha sottolineato il direttore della Cia.
Speriamo vivamente che tutto questo trovi riscontro nella realtà.