Dubbi e allarmi sul controverso obiettivo del DOGE di razionalizzare la spesa governativa con l’AI
Il DOGE (Department of Government Efficiency) guidato da Elon Musk non smette di occupare le prime pagine dei quotidiani americani e non solo. Secondo quanto riportato dal New York Times, Wired, 404.com e da altre fonti, il dipartimento mira a integrare l’intelligenza artificiale (AI) nei sistemi delle agenzie federali per analizzare contratti, valutare le spese e suggerire tagli.
L’iniziativa, denominata “AI First”, si inserisce in una più ampia strategia di modernizzazione tecnologica del governo, sulla scia di esperienze passate come la U.S. Digital Service voluta dall’ex Presidente degli Stati Uniti, Barack Obama.
L’idea di base è che l’AI possa velocizzare i processi burocratici, eliminare inefficienze e migliorare la gestione dei fondi pubblici. Tuttavia, l’entusiasmo per questa misura fortemente AI based nel settore governativo nasconde diversi rischi per la sicurezza pubblica, delle finanze dei dati sensibili, già individuati nei giorni scorsi da diverse testate giornalistiche.
I timori degli esperti: rischi di errori sistemici e discriminazioni
L’adozione dell’AI nel settore pubblico, senza adeguati test preliminari, potrebbe tradursi in decisioni errate e in un aumento delle inefficienze, anziché nella loro eliminazione. Donald Moynihan, professore di politiche pubbliche all’Università del Michigan e co-direttore del Better Government Lab, ha espresso forti preoccupazioni: “L’uso su larga scala dell’AI senza test approfonditi è una ricetta per il disastro”.
Secondo Meredith Broussard, docente alla NYU e autrice di “Artificial Unintelligence: How Computers Misunderstand the World”, un’intelligenza artificiale incaricata di ottimizzare la spesa pubblica potrebbe semplicemente fornire risposte automatiche senza comprenderne la reale validità: “La macchina darà sempre una risposta, ma non necessariamente quella corretta”.
Questa tendenza dell’AI a generare informazioni errate, spesso definite “allucinazioni”, potrebbe portare a decisioni potenzialmente devastanti, come il taglio indiscriminato di programmi essenziali per le fasce più deboli della popolazione.
Il DOGE alimenta preoccupazioni per la sicurezza e la trasparenza
Un altro nodo critico riguarda la sicurezza dei dati e la mancanza di trasparenza nel progetto DOGE. Al momento, non esiste un quadro chiaro su come il governo intenda implementare l’AI, quali siano i criteri di valutazione e quali misure di supervisione verranno adottate per evitare abusi e errori.
Dmitry Shevelenko, Chief Business Officer di Perplexity, ritiene che l’AI possa effettivamente migliorare l’efficienza governativa, ma solo se utilizzata con estrema cautela: “Non si dovrebbe mai bloccare il finanziamento a programmi pubblici basandosi esclusivamente su decisioni di un’intelligenza artificiale”.
Altri esperti hanno evidenziato come l’uso dell’AI per prendere decisioni su appalti pubblici e allocazione di risorse possa aprire nuove vulnerabilità informatiche, esponendo i dati sensibili del governo a rischi di hacking e manipolazione.
Il nodo politico e il futuro dell’AI nel governo
Le imprese che sviluppano modelli di intelligenza artificiale continuano a spingere per una maggiore adozione delle proprie tecnologie/soluzioni nel settore pubblico. OpenAI ha lanciato ChatGPT Gov, Google e Microsoft stanno già collaborando con diversi Stati per migliorare la gestione delle richieste di disoccupazione e altre funzioni amministrative, mentre Anthropic collabora con Palantir e Amazon Web Services per aiutare le agenzie di intelligence USA ad elaborare più rapidamente i dati.
Tuttavia, l’esperienza dimostra che i tentativi di modernizzare rapidamente la tecnologia governativa incontrano ostacoli enormi. Broussard sottolinea: “Se fosse davvero possibile ottimizzare il governo in poco tempo con la tecnologia, qualcuno lo avrebbe già fatto”.
L’idea di usare l’AI per eliminare gli sprechi governativi può sembrare attraente ed efficace, soprattutto leggendo i titoli dei giornali (o i post sui social), ma senza un’adeguata supervisione e test rigorosi, il progetto DOGE rischia di diventare un esperimento pericoloso con conseguenze imprevedibili.
La sfida principale non è solo tecnica e tecnologica, ma anche politica e sociale: senza trasparenza, sicurezza e una valutazione accurata dei rischi, l’adozione affrettata dell’AI nella gestione pubblica potrebbe rivelarsi più dannosa che utile e soprattutto difficile da affrontare nelle conseguenze peggiori (o inattese).
Al momento, l’unica cosa certa è che il futuro dell’efficienza governativa non può essere lasciato esclusivamente a un algoritmo. E questo ammonimento non vale solo per il Governo americano.