Da poesie, saggi e ricette alla progettazione di robot, il salto può essere breve: lo ha compiuto ChatGpt, che ha progettato il suo primo robot insieme ai ricercatori, aiutandoli in tutte le fasi.
Il sistema basato sull’Intelligenza Artificiale ha collaborato alla progettazione di un braccio robotico in grado di raccogliere i pomodori, e i suoi consigli, idee e suggerimenti sono stati messi in pratica dal gruppo di ricerca dell’Università olandese di Delft, del quale fanno parte due italiani, e da una ricercatrice del Politecnico Federale di Losanna.
Pubblicato sulla rivista Nature Machine Intelligence, il risultato ha avuto esiti positivi, ma al momento uno scenario in cui ChatGpt possa progettare un robot in modo autonomo non è possibile e, secondo i ricercatori, neanche auspicabile.
“Volevamo che ChatGpt non progettasse un robot qualunque – osserva Cosimo Della Santina, co-autore dello studio guidato da Francesco Stella – ma uno che fosse davvero utile”. La scelta è quindi ricaduta su un robot-contadino per i pomodori, la coltura che secondo ChatGpt sarebbe economicamente più vantaggiosa da automatizzare.
I ricercatori hanno seguito i consigli del chabot relativi alla progettazione, particolarmente utili nella fase concettuale: “ChatGpt può ampliare le conoscenze degli ingegneri ad altre aree di competenza”, commenta Stella. Ma il sistema ha anche fornito suggerimenti interessanti nella fase di realizzazione vera e propria: “Costruite la pinza in silicone o in gomma, per evitare di schiacciare i pomodori”, oppure indicando il motore più adatto per far muovere il robot. Gli autori dello studio hanno trovato la collaborazione positiva e arricchente. “Tuttavia – aggiunge Stella – ci siamo resi conto che il nostro ruolo di ingegneri si è spostato verso l’esecuzione di compiti più tecnici”.
I ricercatori hanno anche esplorato i vari gradi di cooperazione tra esseri umani e sistemi linguistici basati sull’IA. Nello scenario più estremo, il sistema fornisce tutti gli input per la progettazione del robot e l’essere umano lo segue ciecamente. Ma uno scenario del genere ad oggi non è possibile, e non sarebbe neanche desiderabile: “le indicazioni delle Intelligenze Artificiali come ChatGpt possono essere fuorvianti, se non vengono verificate e convalidate. Questi sistemi sono progettati per generare la risposta più probabile a una domanda – osserva Della Santina – quindi c’è il rischio che portino disinformazione e pregiudizi all’interno della robotica”.
Lavorare con ChatGpt solleva anche altre questioni importanti, come il plagio e la proprietà intellettuale. “Una questione ancora aperta per quanto riguarda il futuro del nostro settore – conclude Stella – è come utilizzare i sistemi linguistici come ChatGpt per assistere gli sviluppatori di robot, senza limitare la creatività e l’innovazione necessarie per rispondere alle sfide del XXI secolo”.