L’intelligenza artificiale, lo sa bene chi ci lavora, spesso commette errori che neanche un bambino farebbe.
La ragione è che le macchine devono impiegare grandi quantità di risorse computazionali per compiere attività sensomotorie – muoversi in maniera coordinata, afferrare qualcosa, guardare e riconoscere oggetti – che per noi umani sembrano molto facili.
E in effetti per noi lo sono, tanto che impieghiamo pochi mesi per affinarle, ma solo perché riceviamo alla nascita organi frutto di un processo di evoluzione e di selezione naturale già in atto da centinaia di milioni di anni.
Nel campo dell’AI questo si chiama paradosso di Moravec, dallo scienziato canadese che descrisse e argomentò questo divario fra uomo e macchina.
Si aggiunga a questo il fatto che un modello di machine learning generalmente non viene messo dentro un agente fisico (un robot) e portato a spasso nel nostro mondo per impararne gli usi e costumi, acquisendo informazioni e migliorando le proprie decisioni a ogni passo.
Come sempre accade, il modello viene addestrato su una serie di dati, quindi messo in produzione.
Il suo mondo è composto solo e unicamente da quei dati: tutto quello che non riesce a capire dovrà essere interpretato con quello che ha a disposizione. Ecco perché gli algoritmi di computer vision cadono così frequentemente in errore, con o senza attacchi adversarial.
Il caso in Scozia
L’ultimo esempio che ha fatto sghignazzare molti riguarda una partita di calcio, per la precisione quella fra l’Inverness Caledonian Thistle FC e l’Ayr United, nel campionato scozzese.
Il mese scorso il club di Inverness aveva annunciato con orgoglio l’attivazione di un sistema di telecamere “Pixellot” dotate di intelligenza artificiale, in grado di seguire da sole l’incontro di calcio tenendo l’inquadratura sempre fissa sul pallone.
Due prove sul campo avevano convinto il club della bontà del sistema, tanto da metterlo in produzione senza neanche un controllore umano per correggere al volo eventuali errori.
Ma come sempre accade, la rete neurale non aveva fatto i conti con le tante sfaccettature del mondo degli esseri umani, in particolare con l’esistenza di guardalinee calvi.
Così sabato scorso le telecamere dotate di intelligenza artificiale hanno scambiato la “crapa pelada” del guardalinee per il pallone, portando frequentemente la scena sull’incolpevole John McCrossan anziché sulle azioni delle due squadre di calcio.
Complice magari l’illuminazione, la palla a volte troppo lontana, oppure nascosta per qualche attimo dietro i giocatori (oltre all’evidente assenza di arbitri pelati durante i match usati per l’addestramento dell’algoritmo), ma in diverse occasioni la rete neurale ha deciso che una testa senza capelli aveva maggiori probabilità di essere un pallone al posto del pallone vero e proprio.
Calcio e AI
La decisione era evidentemente basata solo su quello che mostravano i pixel, senza tenere in considerazione la posizione della palla (se un attimo prima si trovava in un punto lontano del campo sarebbe impossibile ritrovarla improvvisamente a decine di metri di distanza), la dinamica del gioco (se dopo un tiro il pallone prende una certa traiettoria, sarebbe più logico seguire quella anziché un secondo “pallone” apparso ai bordi del campo)oltre ovviamente al fatto che un pallone di solito non è attaccato al collo di una persona, tranne che in rari casi e per pochi attimi di sovrapposizione.
Una raccolta di tutti gli errori dell’algoritmo, assieme a una colonna sonora non necessariamente sbagliata, è disponibile in questo video.
La situazione finale era per certi versi divertente, tranne per quei fan dell’Ayr che non hanno potuto vedere il goal segnato dai loro giocatori, e ci insegna che testare il più possibile nel “mondo reale” gli algoritmi di intelligenza artificiale è un passo fondamentale per mitigare questo tipo di scivoloni.
Avrebbero evitato all’AI di cascare in un errore che neanche un bambino avrebbe commesso. Perlomeno non involontariamente.