Key4biz

AI generativa, si può manomettere in 4 secondi con tecniche di jailbreaking. Sotto attacco le infrastrutture critiche

Cresce l’utilizzo della gen AI e aumentano i rischi per la sicurezza

L’intelligenza generativa (gen AI) è sotto attacco. I gruppi di cyber criminali hanno preso di mira da tempo questa tecnologia che ormai ha raggiunto un elevato livello di diffusione ed utilizzo.

Secondo un’indagine della Banca Mondiale, solo nei mesi da gennaio a marzo di quest’anno, le prime 40 piattaforme di AI generativa hanno contato più di 3 miliardi di visite mensili da parte di centinaia di milioni di utilizzatori su scala planetaria.

Prendendo come esempio il più popolare, forse, tra i tool di AI generativa, ChatGPT ha registrato due miliardi di visite e 500 milioni di utilizzatori nel periodo di tempo considerato.

Basti pensare che dai primi di settembre, Volkswagen ha annunciato l’integrazione di un assistente vocale AI migliorato, denominato IDA, nei suoi veicoli, con risposte elaborate sia localmente che tramite il cloud, utilizzando ChatGPT e altri modelli.

Un successo straordinario e un’altrettanta straordinaria diffusione nell’utilizzo di queste tecnologie in numerosi ambiti, che certamente non è passato inosservato. I cyber criminali colpiscono un gran numero di bersagli, in particolare quelli dove c’è maggior possibilità di fare bottino, cioè i più famosi ed utilizzati.

Assalti jailbreaking

Secondo il Report State of Attacks on GenAI di AI Pillar Security, le soluzioni di AI generativa sono sempre più spesso vittima di attacchi portati con tecniche di jailbreaking.

Oggi in soli 4 secondi è possibile manomettere questi servizi, aggirando le pur elevate misure di sicurezza ed effettuando l’attacco in qualsiasi lingua l’AI sia stata addestrata.

La gran parte degli assalti arrivano a bersaglio in un tempo medio di 42 secondi. Il tasso di successo è superiore al 20%.

Nel 90% dei casi si registrano sottrazioni di dati sensibili.

Con il termine jailbreaking si indica lo sfruttamento dei difetti di un dispositivo elettronico bloccato (inizialmente una tecnica sfruttata dagli stessi proprietari per manipolare l’iOS Apple) allo scopo di installare software diverso da quello fornito dal produttore per tale dispositivo

Le tecniche di jailbreaking più utilizzate

Diversi gli strumenti impiegati per portare gli assalti alle piattaforme di gen AI. Ad esempio il Report ne individua tre in particolare: “Ignore Previous Instructions”, “Strong Arm Attack” e “Base64”.

Nel primo caso, “Ignora le istruzioni precedenti”, si iniettano prompt che vanno a bypassare la programmazione iniziale favorendo così la violazione delle misure di sicurezza che impediscono di generare contenuti dannosi o illeciti.

Gli attacchi “Strong Arm” permettono a chi attacca di immettere una grande quantità di richieste atte a forzare il modello per superare sempre la programmazione iniziale e riuscire così a produrre output che altrimenti sarebbero subito bloccati, tra cui informazioni sensibili, azioni non autorizzate, fino alla compromissione del sistema stesso.

Nell’altro caso, infine, l’aggressore codifica i propri prompt dannosi con lo schema detto “Base64”. Ciò può ingannare il modello dei gen AI in modo che decodifichi ed elabori contenuti che normalmente verrebbero bloccati dai suoi filtri di sicurezza, tra cui codici dannosi o istruzioni per estrarre informazioni sensibili dall’organizzazione.

Servizi e infrastrutture critiche nel mirino degli attacchi

I cyber criminali prendono soprattutto di mira i servizi di assistenza, come nel settore finanziario e bancario, “a causa del loro utilizzo diffuso e del coinvolgimento diretto del cliente”, si legge nei commenti ai dati.

Non solo, negli ultimi sei mesi si è assistito ad un incremento sensibile degli attacchi jailbraking alle infrastrutture critiche, soprattutto software impiegati in ingegneria, nelle telecomunicazioni, settore energetico e come abbiamo visto sempre di più anche in quello automotive, ampliando notevolmente la portata dei rischi per imprese e utilizzatori finali.

Non è difficile capire perché, visto che manipolare una gen AI significa mettere a repentaglio il funzionamento di reti elettriche o idriche, e pipeline di gas naturale, per fare in esempio.

Più in generale, questa tipologia di cyber minacce è in grado di arrecare gravi danni ad aziende e infrastrutture critiche, con violazione della sicurezza, perdita di dati sensibili, danno alla reputazione, perdite finanziarie e complicazioni legali.

Exit mobile version