AI e scarsa trasparenza, un problema per il mondo dell’informazione
Un nuovo rapporto del Media and Journalism Research Center evidenzia come la maggior parte delle aziende dietro gli strumenti di intelligenza artificiale utilizzati dai giornalisti non sia sufficientemente trasparente in termini di proprietà, finanziamenti e altre informazioni critiche.
Lo studio, realizzato da Sydney Martin e curato da Marius Dragomir, ha esaminato 100 strumenti di AI comunemente usati nelle redazioni di tutto il mondo, evidenziando una preoccupante lacuna di trasparenza.
I numeri del Report
Secondo il rapporto, solo 24 aziende su 100 hanno condiviso informazioni sui propri ricavi, mentre 43 hanno reso noto il totale dei finanziamenti ricevuti. Complessivamente, solo il 33% delle aziende ha soddisfatto almeno 9 dei 12 criteri di trasparenza valutati, tra cui la localizzazione della sede, il nome degli investitori principali e l’entità dei fondi raccolti.
La scarsa disponibilità di dati solleva interrogativi sull’influenza che gli investitori potrebbero avere nello sviluppo e nell’utilizzo di questi strumenti.
Dal punto di vista geografico, 47 aziende hanno sede in Nord America, di cui 43 negli Stati Uniti, mentre solo 19 si trovano in Europa, 5 in Asia e 3 in Medio Oriente.
I Paesi del Global South risultano ampiamente sottorappresentati: solo 5 aziende hanno sede in questa area, mentre nessuna è localizzata in America Latina. Questo squilibrio rischia di rendere gli strumenti di IA culturalmente inadatti o inefficaci nel contesto delle regioni meno sviluppate.
L’uso dell’AI nel giornalismo e i rischi
Lo studio, pubblicato dal Reuters Institute for the Study of Journalism – University of Oxford, pone l’attenzione sull’utilizzo dell’IA da parte dei giornalisti per attività come la generazione di contenuti, il fact-checking e la traduzione. Tuttavia, emerge la necessità di una maggiore cautela, soprattutto quando questi strumenti vengono utilizzati per raccontare realtà del Global South. Sydney Martin sottolinea come i modelli di IA tendano a favorire fonti più visibili, spesso di provenienza occidentale, rischiando di oscurare esperienze e realtà meno rappresentate.
Inoltre, il rapporto mette in luce i possibili bias introdotti nei modelli di IA dai programmatori e dagli investitori che finanziano lo sviluppo di questi strumenti. “Le persone che pagano gli sviluppatori hanno, in un certo senso, il controllo sulla verità e sulla percezione della realtà“, spiega Martin, ribadendo l’importanza di comprendere chi finanzia questi strumenti utilizzati nelle redazioni.
Un problema di governance
Il rapporto cita esempi di aziende con standard di trasparenza più elevati, come quelle che rendono facilmente accessibili le politiche sulla privacy e i dettagli dei finanziatori. Tuttavia, si chiede se questa trasparenza sia genuina o solo un tentativo di allinearsi alle aspettative sociali.
Un caso esemplare riguarda Get Clarity, uno strumento di rilevamento dei deepfake, il cui CEO ha legami con il ramo militare israeliano. Lo studio esplora come questa proprietà possa influenzare l’utilizzo dello strumento nella verifica dei contenuti relativi al conflitto israelo-palestinese.
Un nuovo approccio per il futuro
Domenico Talia, qui su Key4biz, aveva già avviato una riflessione sul rapporto tra AI e redazioni giornalistiche: “Le aziende leader nel settore dell’IA come Google, OpenAI, Microsoft, Anthropic e Meta hanno da tempo avviato discussioni e collaborazioni con varie testate giornalistiche nel mondo sulle modalità concrete di introduzione e di uso efficace e permanente di soluzioni di intelligenza artificiale. I loro interessi sono economici e sanno di poter avere nuovi mercati importanti sui quali mettere il loro cappello. Alcuni giornali negli USA come il Washington Post, il Wall Street Journal e il New York Times stanno valutando seriamente come modificare i processi delle loro redazioni per inglobare totalmente all’interno di essi gli strumenti di data analytics, di machine learning e di IA generativa“.
Lo studio raccomanda un cambio di rotta, invitando le aziende a rendere pubblici dati chiave come sede, investitori e responsabili relativi agli strumenti di AI forniti. Martin propone anche un approccio più trasparente all’interno delle redazioni: giornalisti e testate dovrebbero dichiarare apertamente quali strumenti utilizzano e valutare le implicazioni di queste tecnologie nel processo editoriale.
Il rapporto si configura come un primo passo verso una maggiore chiarezza e invita a ulteriori studi per monitorare crescita, finanziamenti e proprietà delle aziende attive nel settore dell’IA applicata al giornalismo. “Rendere disponibili queste informazioni è semplice, ma essenziale per proteggere l’integrità del giornalismo e la fiducia del pubblico”, conclude Martin.
Ogni tecnologia inserita in un contesto di lavoro umano non va valutata soltanto sul piano tecnologico, occorre considerare gli aspetti culturali, organizzativi e anche psicologici, del suo impatto.