Non ci sarebbe nessun rischio “profondo per la società e l’umanità”, come paventato da Musk&Co (e pochi scienziati) nell’evoluzioni di GPT-4, perché non sono altro che “pappagalli stocastici”. Così sono stati definiti in questo studio scientifico scritto, tra gli altri, da Timnit Gebru, poi licenziata da Google per aver denunciato lo sviluppo dell’intelligenza artificiale di Big G basata su pregiudizi di stampo razzista e sessista.
Secondo i firmatari della lettera, con cui si chiede a tutti i laboratori almeno uno stop di 6 mesi nella formazione dei sistemi di intelligenza artificiale più potenti di GPT-4, il Large Language Model (LLM), ChatGPT, ha “un’intelligenza umana competitiva”.
I modelli di linguaggio di grandi dimensioni intelligenti (LLM), come ChatGPT, è un tipo di modello di intelligenza artificiale addestrato per essere in grado di elaborare il linguaggio naturale umano e di produrre di conseguenza un testo. Per questo motivo GPT-4 ci mette paura: sembra intelligente o più intelligente di noi umani per i tanti output in grado di elaborare partendo da semplici prompt: sintetizza interi libri, realizza siti web da un semplice schizzo, scrive email e lettere, realizza loghi, dopo una videocall fa il riassunto della riunione con le attività da fare divise per lavoratore, come deciso durante il meeting, ecc…
“Usato come pappagalli stocastici”
Ma la scienziata Timnit Gebru e i suoi colleghi nel citato studio sono giunti alla conclusione che i Language Model nell’Intelligenza artificiale sono “usati come pappagalli stocastici”. Questi sistemi di Large Language Model non hanno alcuna comprensione del significato delle parole o delle espressioni che generano, perché non sono costruiti per averlo, ma piuttosto individuano, velocemente sul web, degli schemi verbali ricorrenti nei dati e li “ripetono”, proprio come pappagalli. Come dire, “No panic!”.
La stessa Timnit Gebru ha criticato aspramente la lettera, facendo notare che molti firmatari fanno parte della setta “Longtermism”, i cosiddetti razionalisti, che cercano di spronare il mondo a vedere il valore del futuro solo con la loro visione. Ma c’è chi considera la loro una “ideologia immensamente pericolosa”, perché, per esempio, sostengono che occorre “preoccuparci più delle persone nei Paesi ricchi che nei Paesi poveri, perché salvare vite nei Paesi poveri può avere effetti a catena significativamente più piccoli rispetto al salvataggio e al miglioramento delle vite nei Paesi ricchi”. Perché? “I Paesi più ricchi”, sostengono, “hanno sostanzialmente più innovazione e i loro lavoratori sono molto più produttivi dal punto di vista economico”. E ancora considerano il cambiamento climatico “non un rischio”.
Inoltre la ricercatrice Gebru nel suo commento alla lettera fa notare che ora tutti questi ricchi imprenditori proprio nel campo della tecnologia, dove per anni hanno investito per sviluppare sempre di più l’intelligenza artificiale, ora si pongono come i “salvatori dell’IA”? Come coloro che vogliono “mettere in sicurezza l’intelligenza artificiale”? Scrive “sono gli stessi stronzi…”
” robust public funding for technical AI safety research;”
— @timnitGebru@dair-community.social on Mastodon (@timnitGebru) March 30, 2023
THESE ARE THE SAME PEOPLE. The same assholes that got as here call themselves “AI safety” people. That’s what Open AI people called themselves and these bozos who wrote this paper highly influence those clowns.
In conclusione, Timnit Gebru, diversamente dai firmatari della lettera, spiega che non è sufficiente limitarsi allo stop di 6 mesi sullo sviluppo delle evoluzioni di GPT e poi lasciare che la società si adatti, ma occorre, da subito, creare strumenti di IA generativa che “funzionino per noi”.