13 esperti denunciano la scarsa attenzione alla sicurezza e la cultura del segreto nelle grandi aziende che si occupano di AI. Tra i firmatari della lettera aperta, pubblicata su Forbes, ci sono anche ex dipendenti di OpenAI e Google DeepMind.
Le accuse muovono su tre direttive. La prima: mancanza di attenzione alla sicurezza dei progetti di intelligenza artificiale. Le aziende mettono al primo posto la velocità di sviluppo e il profitto, trascurando i potenziali rischi per l’umanità, come la disinformazione, la manipolazione e la perdita di controllo sui sistemi di AI. Poi la scarsa trasparenza. Le imprese non condividono con governi e pubblico le informazioni cruciali sui loro sistemi, ostacolando una valutazione indipendente dei rischi. Infine la diffusa “cultura del silenzio”: ossia gli accordi di non divulgazione e il timore di ritorsioni impediscono ai dipendenti di parlare apertamente delle loro preoccupazioni.
Cosa dice la lettera sull’AI
Come si legge nella lettera, i firmatari invocano una gestione allargata dei progetti di AI: “Ci auguriamo che questi rischi possano essere adeguatamente mitigati con una guida sufficiente da parte della comunità scientifica, dei politici e del pubblico. Le aziende che sviluppano AI hanno forti incentivi finanziari per avanzare rapidamente e spesso evitano di condividere informazioni sulle misure di protezione e sui livelli di rischio”.
I dipendenti di OpenAI hanno anche espresso preoccupazione per il fatto che ai lavoratori sia stato chiesto di firmare accordi di non denigrazione legati alle loro azioni nella società, causando loro potenzialmente di perdere lucrosi accordi azionari se si esprimono contro la startup. Dopo alcune resistenze, OpenAI ha dichiarato che avrebbe liberato gli ex dipendenti dagli accordi.
In base alla lettera, i fautori chiedono la soddisfazione di quattro punti: fine degli accordi di non divulgazione che limitano le critiche; creazione di canali anonimi per segnalare i rischi ai vertici aziendali, ai regolatori e a organizzazioni indipendenti; promozione di una cultura aziendale aperta al dissenso; protezione di chi divulga informazioni sensibili per motivi di sicurezza, anche se in violazione delle regole aziendali.
Casi emblematici dell’approccio AI
Il caso appena sollevato contiene anche degli esempi emblematici. Daniel Kokotajlo, ex ricercatore di OpenAI, sostiene che l’azienda abbia ignorato i protocolli di sicurezza per accelerare lo sviluppo di un modello potenzialmente pericoloso. Proprio Kokotajlo è convinto che l’AI generativa arriverà entro il 2027 e che abbia il 70% di probabilità di distruggere o colpire in modo catastrofico l’umanità.
William Saunders, altro ex dipendente di OpenAI, descrive l’approccio aziendale come “lanciamo tutto, poi lo aggiusteremo”. Jan Leike, ex ricercatore di DeepMind, ha invece denunciato la priorità data ai “prodotti scintillanti” rispetto alla sicurezza.