Il problema emergente dell’Intelligenza Artificiale è la troppa intelligenza. Se la lasciamo fare, la ‘AI’ è capace di scoprire cose che non vogliamo sapere, specialmente se sono, diciamo, ‘troppo vere’…
L’obiettività doveva essere il vantaggio di questi sistemi. Digeriscono vastissime quantità di informazioni, volumi di fatti che vanno oltre alla comprensione umana, per poi restituire dei modelli che permettono di fare delle previsioni in grado di rispecchiare fedelmente le esperienze accumulate nelle loro banche dati, ignorando le opinioni umane al riguardo.
Cosa succede quando giungono a conclusioni che non ci piacciono? Per esempio, quando rafforzano pregiudizi riguardanti, per dirne una, il maggiore rischio creditizio delle minoranze etniche o razziali rispetto alla popolazione dominante? Il problema è particolarmente sentito in questa nostra epoca ‘politically correct’, caratterizzata dalla convinzione che, cambiando i nomi che applichiamo ai fenomeni, possiamo cambiare la realtà sottostante.
Il rischio è che possa esserci un fondo di verità – sgradevole – nei pareri che esprimono le macchine, opinioni che, false o vere che siano, potrebbero essere offensive o semplicemente ‘inaccettabili’.
A giugno la Microsoft ha tolto dai suoi listini un prodotto software che doveva essere in grado di stabilire l’umore emotivo delle persone attraverso l’esame delle espressioni facciali. La motivazione dell’azienda è stata che il loro software poteva essere ‘discriminatorio’ nei confronti delle donne e delle minoranze razziali.
È diventata pertanto una concreta necessità trovare la maniera di ‘inquinare’ i dati sui quali vengono addestrati i sistemi AI di modo che ci diano le risposte desiderate, quelle ‘giuste’.
E siccome ogni problema è anche un’opportunità, la fornitura di ‘fake data’ – o, più elegantemente, ‘synthetic data’ – per taroccare i contenuti delle grandi banche dati è diventata uno dei settori specialistici in più rapida ascesa nel campo informatico.
Per dire, ‘contare balle’ – ora anche alle macchine – è per il momento “the next big thing”…