Se dopo tanti annunci sulle strade ancora non si vedono, se non prototipi, le automobili a guida autonoma la “colpa” è dell’intelligenza artificiale (IA), in particolare dell’incapacità dei suoi algoritmi, che si basano su calcoli statistici, di gestire l’enorme mole di variabili e incognite che si presentano sulle strade. Un esempio concreto dal quale emergono i limiti dell’IA, che secondo autorevoli ricercatori ancora non può essere definita “intelligenza” perché la tecnologia oggi è in grado di risolvere problemi per i quali è programmata, ma non è versatile e intuitiva come gli umani. Sarebbe meglio chiamarla “adattiva” e “auto-ottimizzante”, sostiene il filosofo e informatico Judea Pearl, vincitore del premio Turing nel 2011 per avere rivoluzionato l’approccio probabilistico all’intelligenza artificiale.
Pearl: “I Big Data non soluzione a tutti i problemi”
“Viviamo in un’era”, spiega Pearl, “nella quale i Big Data si pensa siano la soluzione a tutti i problemi. L’IA, oggi, è solo in grado, con molta ma molta più efficienza dell’uomo, di rilevare strutture significative all’interno di basi di dati anche molto ampie. Il fatto che vinca a scacchi, che sappia progettare farmaci a livello molecolare, o guidare auto o fingere di essere un servizio clienti umano, dimostra solo che la gamma di domini dove questa capacità di uso superficiale dei dati si può applicare in modi adattativi, è più ampia di quanto inizialmente si pensava”.
“Il giorno in cui, continua Pearl, “l’IA saprà approssimarsi all’intelligenza umana è vicino, ma le sue capacità vanno giudicate su tre livelli di abilità cognitivi: vedere (associazione), fare (intervento) e immaginare (controfattuali). L’IA oggi lavora solo al livello più basso, cioè vedere”.
Pearl: “Se algoritmi di IA non colgono differenza tra causa ed effetto non si avvicineranno mai all’intelligenza umana”
Infine Pearl sostiene che fino a quando gli algoritmi e le macchine da loro controllati non potranno ragionare su causa ed effetto, o almeno concettualizzare la differenza, la loro utilità e versatilità non si avvicineranno mai a quella umana.
Sostiene quindi il vincitore del premio Turing nel 2011 “che sarà impossibile avere un dialogo significativo con i robot fino a quando non saranno in grado di simulare l’intuizione umana, il che richiede la capacità di comprendere causa ed effetto insieme ad azioni e risultati alternativi che potrebbe aver preso”.
Dunque fino a quando gli algoritmi di IA non imparano a generalizzare e ad astrarre la conoscenza, proprio come facciamo noi umani possiamo stare tranquilli e non preoccuparci di robot superintelligenti che si ribellano agli esseri umani, scrive sulla Stampa Andrea Daniele Signorelli.
In che modo l’IA potrà diventare veramente intelligente?
- Quando sarà in grado di compiere progressi significativi nel ragionamento astratto.
- Di risolvere problemi anche solo leggermente diversi da quelli per cui sono stati programmati.
- Imparare a riutilizzare le competenze apprese in un campo e ad applicarle in uno nuovo, come facciamo noi umani.
Siamo di fronte inverno dell’intelligenza artificiale?
Se ai limiti sopra descritti aggiungiamo di trovarci di fronte a “inverno dell’intelligenza artificiale” forse a molti sta crollando un mito. Eppure, il rischio che l’intelligenza artificiale sia giunta, già, alla sua massima espressione è reale. Già nel 2016 il filosofo della Tecnologia Luciano Floridi ha detto: “Solo perché qualcosa cresce esponenzialmente per un certo lasso di tempo, non significa che continuerà a farlo per sempre”.
“La vera IA non è logicamente impossibile, ma è assolutamente non plausibile”, spiega Floridi, “perché non abbiamo idea di come potremmo iniziare a progettarla, anche perché abbiamo ben poca comprensione di come funzionano il nostro cervello e la nostra intelligenza”. E sul fallimento, al momento, dell’IA Floridi cita l’esempio di Microsoft quando nel 2016 ha creato su Twitter l’account automatico “Tay” – un profilo basato sull’intelligenza artificiale. L’azienda ha dovuto rimuoverlo solo 16 ore dopo, perché dal dover diventare sempre più intelligente mentre interagiva con gli umani, è finito per diventare un fan di Hitler, negando l’Olocausto e promuovendo anche il sesso incestuoso.
Come rendere l’IA utile per gli umani e l’ambiente
Infine il filosofo della Tecnologia Luciano Floridi indica 5 must per rendere l’IA intelligente e utile davvero agli umani e al pianeta
- Dovremmo rendere l’IA rispettosa dell’ambiente. Abbiamo bisogno delle tecnologie più intelligenti che possiamo costruire per affrontare i mali concreti che opprimono l’umanità e il nostro pianeta, dalle catastrofi ambientali alle crisi finanziarie, dal crimine, al terrorismo e alla guerra, alla carestia, alla povertà, all’ignoranza, alla disuguaglianza e agli spaventosi standard di vita.
- Dovremmo rendere l’intelligenza artificiale umana. Dovrebbe essere usata per trattare le persone sempre come fini, mai come semplici mezzi, per parafrasare Immanuel Kant.
- Dovremmo far funzionare la stupidità dell’IA per l’intelligenza umana. Milioni di posti di lavoro verranno interrotti, eliminati e creati; i benefici di questo dovrebbero essere condivisi da tutti e i costi sostenuti dalla società.
- Dovremmo far funzionare il potere predittivo dell’IA per la libertà e l’autonomia. Commercializzare prodotti, influenzare comportamenti, dare una spinta alle persone o combattere il crimine e il terrorismo non dovrebbe mai minare la dignità umana.
- E infine, dovremmo fare in modo che l’IA ci renda più umani. Il grave rischio è che potremmo abusare delle nostre tecnologie intelligenti, a scapito della maggior parte dell’umanità e dell’intero pianeta.