Key4biz

AI, il premio Nobel Hinton: “Quando sarà più intelligente, non so come gli umani resteranno al potere”

Fresco di Nobel per la Fisica, il professor Hinton parla dei rischi dell’AI

L’intelligenza artificiale (AI) ci affascina, ci attrae e allo stesso tempo ci intimorisce. Servono etica, principi guida e regole per gestirne sviluppo e utilizzi, sentiamo dire da quasi due anni. La verità è che non possiamo già più farne a meno, perché sotto varie forme è praticamente ovunque. Rimane il problema serio dei rischi.

Ieri la Royal Swedish Academy of Sciences ha consegnato l’ambito Premio Nobel per la Fisica 2024 a John Hopfield e Geoffrey E. Hinton proprio per gli studi pioneristici sull’AI: “Per le fondamentali scoperte che hanno consentito l’apprendimento automatico con le reti neurali artificiali”.

Da tempo Hinton era già da considerato il “padrino dell’AI”, come ha ricordato Antonello Guerrera su La Repubblica, in un’intervista pubblicata oggi al professore emerito dell’Università di Toronto.

Sono preoccupato che un giorno sfugga al nostro controllo

La conosce bene, fin dagli anni ’80 del secolo scorso. “Sono preoccupato che tutto questa roba un giorno sfugga il nostro controllo”, ha detto HInton nell’intervista. “Il problema è semplice: l’AI sarà molto positiva per la medicina, l’ambiente e i nanomateriali…ma non c’è modo di fermarne lo sviluppo. E un giorno diventerà più intelligente di noi”, ha aggiunto.

Fresco di Nobel il professore parla subito male di questa tecnologia? In realtà è da tempo che affronta l’argomento, molto delicato, dei rischi (e i vantaggi) che l’intelligenza artificiale porta con sé.

Lo scorso anno abbandonò Google proprio “per poter parlare dei rischi dell’Intelligenza artificiale. La notizia ha fatto il giro del mondo, perché Hilton, nel 2012, insieme a due suoi studenti laureati all’Università di Toronto hanno dato vita alla tecnologia che poi è diventata la base intellettuale dell’intelligenza artificiale generativa, che oggi anima ChatGPT e GPT-4 di OpenAI e Bard della stessa Google.

Non abbiamo mai avuto a che fare con entità più intelligenti di noi

Il motivo? Lo ricorda anche su La Repubblica, “non abbiamo mai avuto a che fare con entità più intelligenti di noi. Al momento nessuno sa come queste potranno essere controllate”, richiamando gli scienziati ad un maggior impegno su questo aspetto: “capire in maniera urgente come noi umani possiamo restare al timone delle nostre esistenze”.

Alla domanda, ma possiamo davvero controllare l’AI? Il professore risponde: “Non lo so”.

L’unico modo è incoraggiare i migliori scienziati al mondo a dedicarsi alla sicurezza dell’AI e spingere i Governi ad assistere le grandi aziende tecnologiche affinché immettano sempre più risorse in questo obiettivo”, ha spiegato Hinton, precisando però che “purtroppo, non è quello che sta accadendo”.

Necessario maggior controllo sulla sicurezza, ma le Big Tech guardano solo ai profitti

Il Premio Nobel invita quindi gli Stati ad intervenire e costringere le Big Tech a fare qualcosa di concreto in questo senso: “I colossi dell’AI avevano detto che avrebbero dirottato molti fondi per la ricerca sulla sicurezza, ma non lo stanno facendo”.

Il motivo è semplice, ha ricordato nell’intervista, queste grandi compagnie tecnologiche “sono troppo guidate dai profitti per dedicare risorse sufficienti alla sostenibilità dell’AI”.

Di fatto Hinton ci ricorda che l’innovazione tecnologica è parte della nostra esistenza come specie e della nostra vita come individui, ma i rischi sono diversi.

Da anni parliamo della disinformazione come vettore di crisi sociale, economica e politica, con le fake news che minano addirittura gli equilibri democratici e le basi della convivenza civile in ogni Paese.

Hinton su questo è chiaro: “L’Ai avrà un forte impatto sulla politica. Ciò è piuttosto inquietante”. Questa tecnologia potrà facilitare l’insorgere di nuovi autoritarismi? “Sì, il pericolo c’è”, ha sottolineato il Premio Nobel.

Exit mobile version