Reuters lancia lo scoop. L’improvviso e temporaneo licenziamento di Sam Altman della scorsa settimana, ad opera del consiglio di amministrazione di OpenAI, sarebbe stato la conseguenza della scoperta di una Intelligenza Artificiale Generale (AGI) che Altman avrebbe voluto commercializzare prima di studiarne le conseguenze sull’umanità: il progetto Q* (Q-Star).
Reuters è venuta a conoscenza di una lettera che alcuni ricercatori di OpenAI avrebbero scritto al board della società prima del licenziamento di Altman, per avvisarli di quanto stava per accadere.
Progetto Q*: l’AI in grado di fare calcoli matematici
Per l’agenzia di stampa britannica il progetto Q* è basato su un nuovo modello, definito Artificial General Intelligence (AGI), ovvero intelligenza artificiale generale: un nuovo tipo di intelligenza artificiale che può, in potenziale, svolgere qualunque tipo di ragionamento e di operazione intellettuale, proprio come un essere umano.
Secondo una persona di OpenAI sentita da Reuters, usando vaste risorse di calcolo il modello AI di Q* è stato in grado di eseguire calcoli al livello di matematica di scuola elementare in modo deterministico. Il superamento di questi test ha creato un certo ottimismo nel futuro sviluppo di Q*.
Dall’AI generativa all’AI generale
L’intelligenza artificiale generativa è attualmente brava a scrivere e tradurre testi in cui le risposte possono variare ampiamente. Tuttavia, la capacità di risolvere problemi matematici in cui esiste una sola risposta corretta indica che l’IA è in grado di avvicinarsi al livello dell’intelligenza umana.
I ricercatori di Open AI che hanno firmata la lettera si dicono preoccupati dei possibili rischi per la società, anzi, per le possibili “minacce all’umanità” di questa nuova tecnologia. Una volta arrivata la lettera ai membri del CdA, questi hanno deciso di estromettere Altman, a cui però in un secondo tempo è stato proposto il ritorno sempre come Ceo.
Le varie teorie
Secondo un articolo di Vox, uscito ieri, le ragioni dell’allontanamento di Sam Altman in realtà sarebbero altre. Per il giornale statunitense il consiglio di amministrazione di OpenAI ha licenziato inizialmente Altman per proteggere l’integrità dell’azienda.
La strana struttura di governance di OpenAI è stata progettata per dare al consiglio di amministrazione il potere di controllare il suo ramo a scopo di lucro. Il compito principale dei membri del cda corrisponde alla missione con cui è stata fondata l’azienda: “Assicurare che l’intelligenza artificiale generale (AGI) vada a beneficio di tutta l’umanità”. Vox sostiene che nelle sue recenti interviste, il cofondatore e scienziato capo di OpenAI, Ilya Sutskever, si preoccupava che l’azienda stesse procedendo troppo velocemente, cercando di fare colpo e guadagnare sempre più investimenti a scapito della sicurezza. Da luglio, lui co-dirige il team “Superalignment” di OpenAI, che si propone di capire come gestire il rischio dell’intelligenza artificiale super intelligente.
Nel frattempo, spiega il giornale, Altman stava procedendo a piena velocità. Durante il suo mandato, OpenAI ha fatto più di qualsiasi altra azienda per catalizzare una dinamica di corsa agli armamenti, soprattutto con il lancio di ChatGPT lo scorso novembre. Più di recente, si è riferito che Altman stava raccogliendo fondi con regimi autocratici del Medio Oriente, come l’Arabia Saudita, per avviare una nuova azienda di produzione di chip per l’intelligenza artificiale. Ciò potrebbe sollevare preoccupazioni sulla sicurezza, poiché tali regimi potrebbero utilizzare l’intelligenza artificiale per potenziare la sorveglianza digitale o abusi dei diritti umani.
Le posizioni del cofondatore Ilya Sutskever
Lo stesso Sutskever è sembrato poi allontanare l’ipotesi che lui e il consiglio di amministrazione avessero agito per timore che Altman non fosse sufficientemente prudente. Il suo nome è infatti apparso accanto a quello di circa 500 dipendenti dell’azienda che hanno firmato una lettera in cui minacciano di licenziarsi in caso di mancato re-integro di Altman.
In un post su X, Sutskever ha anche scritto di essersi pentito del suo ruolo nella decisione del consiglio di amministrazione, ed è sembrato negare ancora una volta la tesi dell’esistenza di gravi problemi di sicurezza: “Mi pento profondamente della mia partecipazione alle azioni del consiglio di amministrazione. Non ho mai avuto intenzione di danneggiare OpenAI. Amo tutto quello che abbiamo costruito insieme e farò tutto il possibile per ricompattare l’azienda”, si legge nel post.
I deeply regret my participation in the board's actions. I never intended to harm OpenAI. I love everything we've built together and I will do everything I can to reunite the company.
— Ilya Sutskever (@ilyasut) November 20, 2023
La guerra sul controllo dell’AI è appena iniziata.