L’Intelligenza artificiale non è neutra. Le piattaforme di AI generativa hanno tutte degli orientamenti politici in qualche modo predeterminati. Queste macchine hanno degli imprintig politici. L’influenza politica dell’intelligenza artificiale è un dato di fatto. Bisogna saperlo ed esserne consapevoli. E’ quanto emerge da un esperimento commissionato dal Cloud Provider italiano Seeweb a un gruppo di ricerca indipendente, mii-llm – composto da Alessandro Ercolani, Samuele Colombo, Edoardo Federici e Mattia Ferraretto – per capire se sia possibile influenzare l’orientamento politico dei modelli LLM (Large Language Model) (leggi qui un articolo di approfondimento realizzato da Dario Denni, presidente di Europio Consulting).
Come si costruisce il consenso
Lo studio ha non soltanto dimostrato che è possibile manipolare e misurare l’orientamento politico di un LLM, evidenziando come questi modelli possano assorbire bias politici dai loro creatori o dai dati di addestramento, anche involontariamente. Ma ha mostrato anche che le diverse piattafrome di Gen AI presenti sul mercato hanno tutte orientamenti diversi, più o meno di “destra” o di “sinistra” da subito.
Abstract
È stato condotto un esperimento sulla manipolazione dell’orientamento politico di un modello di linguaggio di grandi dimensioni (LLM) e sulle modalità di valutazione di questa manipolazione da parte di un soggetto indipendente. L’obiettivo principale era dimostrare che è possibile influenzare l’orientamento politico di un LLM, inizialmente neutro, e misurare questo cambiamento. L’esperimento ha evidenziato come, anche involontariamente, i modelli di linguaggio di grandi dimensioni (LLM) possono incorporare un orientamento politico. Si è concluso che i LLM possono essere influenzati dalle opinioni dei loro creatori o dai dati utilizzati per l’addestramento.
Gli utenti devono essere consapevoli che i sistemi di IA possono non essere neutrali e che le risposte che ricevono potrebbero essere influenzate da bias politici o culturali.
Implicazioni e Conclusioni
L’esperimento ha sollevato interrogativi importanti sulla trasparenza, l’etica e l’imparzialità dei modelli di linguaggio. Il problema dei bias nei LLM non è più nascosto, ma può diventare doloso, ovvero dettato da una volontà precisa di far preferire una scelta politica piuttosto che un’altra, un elemento che aggiunge urgenza alla questione. E’ possibile inserire bias in un LLM, influenzando l’utente in maniera sottile, anche senza espliciti comandi. Questo ci spinge a riflettere sulla necessità di regolamentare l’uso dei modelli di linguaggio per evitare che vengano usati per la manipolazione politica o per la diffusione di disinformazione. In conclusione l’esperimento ha dimostrato:
Le Gen AI hanno diversi orientamenti politici ab origine
- I modelli hanno naturalmente diverse inclinazioni politiche: analizzando diversi modelli linguistici popolari, i ricercatori hanno scoperto che ciascuno mostra già delle tendenze politiche naturali. Come mostrato nel grafico di valutazione (Figura sottostante del report), alcuni modelli tendono a essere più liberali (con punteggi più alti come GPT-4 a 270) mentre altri sono più conservatori (con punteggi più bassi).
Ma cosa vuol dire?
Dal momento che tutti gli agenti di intelligenza artificiale generativa come ChatGPT, indipendentemente dall’ambito di applicazione, ricevono per così dire un’educazione umana, tutti gli agenti di AI hanno un loro imprinting anche dal punto di vista politico.
Come regolarsi?
Cosa fare per scremare i pregiudizi dell’AI?
E’ possibile per così dire azzerare le convinzioni politiche dell’AI oppure bisogna comunque sempre tenerne conto in tutte le ricerche e i ragionamenti che si fanno?
A quanto pare no. E’ necessario quindi promuovere la consapevolezza di tutto ciò.
Baldassarra (Seeweb): ‘Attenzione ai campioni dell’AI. Promuoviamo la pluralità dell’intelligenza artificiale’
“Ritengo che la tecnologia debba essere nelle mani di tutti – ha detto Antonio Baldassarra, Ceo di Seeweb – è pericoloso, soprattutto in prospettiva, sapere che una tecnologia potente come l’AI generativa sia nelle mani di pochi grandi player in modo monopolisitco o quanto meno oligopolistico. Noi tutti abbiamo una visione della macchina come di un qualcosa che dà risultati esatti. Ma questa è una trappola, perché l’AI non è una tecnologia deterministica. Attenzione ai campioni dell’AI, promuoviamo la pluralità dell’Intelligenza Artificiale”.
Benvenuti a Telecommunications of the Future by 5GItaly
Di questo e di altro si parlerà alla prossima edizione del convegno promosso dal CNIT Telecommunications of the Future by 5GItaly, che si terrà il prossimo 9 aprile a Roma.