Il 26 luglio la Casa Bianca ha confermato che Apple si è unita a 15 aziende tecnologiche impegnate a seguire misure di sicurezza volte a ridurre i rischi dell’intelligenza artificiale. Tra i colossi figurano Amazon, Google, Microsoft e OpenAI. A ottobre dello scorso anno, Joe Biden dichiarò di aver raggiunto un accordo di massima “per contribuire a progredire verso uno sviluppo sicuro, protetto e trasparente della tecnologia dell’intelligenza artificiale”.
Le misure includono la simulazione da parte delle aziende tecnologiche di attacchi ai modelli di intelligenza artificiale tramite una tecnica di test denominata “red teaming” per evidenziare difetti o vulnerabilità. Secondo il governo Usa, i test sui modelli o sui sistemi di intelligenza artificiale devono includere rischi sociali e preoccupazioni per la sicurezza nazionale, come gli attacchi informatici e lo sviluppo di armi biologiche. Le organizzazioni che hanno sottoscritto la bozza dovranno collaborare alla condivisione di informazioni, anche tra di loro notoriamente rivali, così come con gli organi statali.
L’Intelligence di Apple
A giugno Apple ha presentato “Apple Intelligence”, la sua suite di funzionalità di intelligenza artificiale per i suoi dispositivi, nel tentativo di rassicurare gli utenti sul fatto che non intende restare indietro rispetto alla frenesia della concorrenza. Alla base c’è una partnership con OpenAI che renderà disponbile sugli iPhone l’AI di ChatGPT.
Il problema è la credibilità. Aziende come Apple, nonostante l’ingresso tardivo nello scenario dell’AI generativa, devono adesso monetizzare gli sforzi. Le prestazioni dei modelli, la necessità di addestrarli continuamente, richiede non solo costi in termini di risorse computazionali ma anche di team. Pensare che una multinazionale del genere, così come il resto delle 15 imprese parte del “patto” con Washington, possano ridurre le loro ambizioni per questioni di correttezza e beneficio universale, è un dubbio legittimo.
C’è poi un’ulteriore considerazione. Lo scorso 20 marzo, lo US Justice Department, ossia il Ministero della Giustizia degli Stati Uniti, ha accusato Apple di aver violato la normativa antitrust. È stata la terza volta negli ultimi 14 anni. Nell’ultimo caso, l’accusa riguarda il “walled garden” creato da Apple intorno a iPhone, iPad, Mac, Apple Watch. In attesa del giudizio, sembra che la Mela con la sua mossa voglia riavvicinarsi alla Casa Bianca, anche in attesa del prossimo presidente.
Il precedente di Biden
Alla fine del 2023, Biden ha firmato un ordine esecutivo che stabilisce nuovi standard di sicurezza per i sistemi di intelligenza artificiale e richiede agli sviluppatori di condividere i risultati dei test con il governo degli Stati Uniti. L’ordine è stato definito dalla Casa Bianca come “l’azione più radicale mai intrapresa per proteggere gli americani dai potenziali rischi dei sistemi di intelligenza artificiale”. Poco dopo la sua pubblicazione, la vicepresidente Kamala Harris ha tenuto un importante discorso sulla politica in materia di intelligenza artificiale durante un incontro di politici, personalità del settore tecnologico e accademici. L’evento si è concentrato sui crescenti timori sulle implicazioni dei modelli di intelligenza artificiale avanzati che hanno suscitato preoccupazioni su vari temi, dalle perdite di posti di lavoro agli attacchi informatici.
Rispetto al documento di Biden, quello più recente specifica in modo molto dettagliato ciò che ci si attende dai partecipanti di questa sorta di coalizione. In seguito all’ordine esecutivo e a una serie di inviti all’azione fatti dal vicepresidente Harris come parte del suo importante discorso politico prima del Global Summit on AI Safety, le agenzie di tutto il governo hanno agito con coraggio. Hanno adottato misure per mitigare i rischi per la sicurezza e la protezione dell’IA, proteggere la privacy degli americani, promuovere l’equità e i diritti civili, difendere i consumatori e i lavoratori, promuovere l’innovazione e la competizione, far progredire la leadership americana in tutto il mondo e altro ancora.
- In oltre 270 giorni, l’ordine esecutivo ha ordinato alle agenzie di adottare misure radicali per affrontare i rischi per la sicurezza e la protezione dell’AI, anche rilasciando linee guida di sicurezza essenziali e rafforzando la capacità di testare e valutare i software.
- Le nuove linee guida tecniche dell’AI Safety Institute (AISI) per i principali sviluppatori di IA nella gestione della valutazione dell’uso improprio dei modelli di fondazione a doppio uso spiegano in dettaglio come i principali sviluppatori di IA possono aiutare a impedire che sistemi sempre più capaci vengano utilizzati impropriamente per danneggiare gli individui, la sicurezza pubblica e la sicurezza nazionale, nonché come gli sviluppatori possono aumentare la trasparenza sui loro prodotti.
- Documenti del National Institute of Standards and Technology (NIST) forniranno ulteriori linee guida che si basano sull’AI Risk Management Framework del NIST, che ha offerto a individui, organizzazioni e società un framework per gestire i rischi dell’IA ed è stato ampiamente adottato sia negli Stati Uniti che a livello globale.
- Sono stati ampliati i test di intelligenza artificiale e strumenti di valutazione dei modelli presso il Dipartimento dell’energia (DOE). Il DOE, in coordinamento con partner interagenzia, sta utilizzando i suoi testbed per valutare la sicurezza e la protezione dei modelli di intelligenza artificiale, in particolare per i rischi che i modelli di intelligenza artificiale potrebbero rappresentare per infrastrutture critiche, sicurezza energetica e sicurezza nazionale.
- Il Dipartimento della Difesa (DoD) e il Dipartimento della Sicurezza Interna (DHS) hanno segnalato i risultati dei loro test per affrontare le vulnerabilità nelle reti governative utilizzate, rispettivamente, per scopi di sicurezza nazionale e per il governo civile. Questi passaggi si basano sul lavoro precedente per far progredire tali piloti entro 180 giorni dall’Ordine Esecutivo.
- Il governo ha anche lanciato un appello all’azione dal Gender Policy Council e dall’Office of Science and Technology Policy per combattere l’abuso sessuale basato sulle immagini, compresi i contenuti sintetici generati dall’AI. Questo appello è scaturito dalle osservazioni del vicepresidente Harris a Londra prima dell’AI Safety Summit, che ha sottolineato che l’abuso sessuale basato sulle immagini deepfake è una minaccia urgente che richiede un’azione globale.