Da pioniere dell’intelligenza artificiale a critico dell’IA generativa. È la sintesi della storia di Geoffrey Hinton, 75 anni, che ha deciso di lasciare Google “per poter parlare dei rischi dell’Intelligenza artificiale”. La notizia ha fatto il giro del mondo, perché Hilton, nel 2012, insieme a due suoi studenti laureati all’Università di Toronto hanno dato vita alla tecnologia che poi è diventata la base intellettuale dell’intelligenza artificiale generativa, che oggi anima ChatGPT e GPT-4 di OpenAI e Bard della stessa Google.
Guarda il videocommento con l’esperto
“Mi consolo con la solita scusa: se non l’avessi fatto io, l’avrebbe fatto qualcun altro”, ha confidato Hinton al New York Times, ma, subito dopo l’intervista, lo scienziato in un tweet è stato costretto a precisare quanto riportato dal giornale.
In the NYT today, Cade Metz implies that I left Google so that I could criticize Google. Actually, I left so that I could talk about the dangers of AI without considering how this impacts Google. Google has acted very responsibly.
— Geoffrey Hinton (@geoffreyhinton) May 1, 2023
Quali sono i rischi dell’IA secondo il suo ‘padrino’?
Secondo Hinton, considerato il ‘padrino’ dell’IA, più le aziende migliorano le loro intelligenze artificiali, più i sistemi diventano sempre più pericolosi. “Guarda com’era cinque anni fa e com’è adesso”, ha detto dell’intelligenza artificiale. “Guarda la differenza e propagala in avanti. È spaventoso.”
Sono due i rischi dell’IA generativa che preoccupano lo scienziato informatico, vincitore anche, nel 2018, insieme a due collaboratori di lunga data, il Premio Turing, spesso definito “il Premio Nobel dell’informatica”, per il loro lavoro sulle reti neurali.
- “È difficile impedire ai cattivi attori di usarlo per cose cattive”, ha detto Hinton.
- “Può diventare più intelligente di noi umani. E ho pensato che fosse lontano. Pensavo che mancassero dai 30 ai 50 anni o anche di più. Ovviamente non lo penso più”.
Come evitare il primo rischio? Hinton non è favorevole alla sospensione dell’addestramento dell’IA generativa “perché rappresenterebbe un vantaggio per la Cina, che continuerebbe, invece, a sperimentarla e a svilupparla”. Per lo scienziato informatico “serve una regolamentazione a livello globale” per impedire anche la corsa senza regole di OpenAI, Microsoft e Google. Quest’ultima, fino ad ora, secondo Hinton, ha sviluppato l’intelligenza artificiale in modo “molto responsabile”, ma da quando Microsoft ha integrato chatGPT nel suo Bing, ha “sfidato il core business di Google, e così Big G sta correndo per implementare lo stesso tipo di tecnologia”.
Infine, perché l’IA generativa, secondo Hinton, sta diventando più intelligente di noi umani?
Nell’intelligenza artificiale, ha spiegato, le reti neurali sono sistemi simili al cervello umano nel modo in cui imparano ed elaborano le informazioni. Consentono alle IA di imparare dall’esperienza, come farebbe una persona. Questo si chiama deep learning.
Fa questo esempio. Spaventoso.
“Siamo sistemi biologici e questi sono sistemi digitali. E la grande differenza è che con i sistemi digitali hai molte copie dello stesso modello del mondo.
“E tutte queste copie possono imparare separatamente, ma condividono immediatamente le loro conoscenze. Quindi è come se avessi 10.000 persone e ogni volta che una persona ha imparato qualcosa, questo sapere si diffonde automaticamente anche a tutte le restanti. Ed è così che questi chatbot possono sapere molto di più di qualsiasi persona”.