Key4biz

OpenAI lavora a GPT-5 e crea un team di sicurezza per capire se l’AI può davvero sterminarci

OpenAI sta lavorando al “prossimo modello di frontiera” del suo modello di intelligenza artificiale, GPT. Secondo l’organizzazione, le piattaforme che lo useranno “ci porteranno al prossimo livello delle capacità nel nostro percorso verso l’Intelligenza Artificiale Generale“, ossia l’AGI. In altre parole, OpenAI sta sviluppando GPT-5, che potrebbe essere precursore dell’AI definitiva, anche in termini di “distruttiva”.

Ragion per cui, l’azienda ha creato un comitato per valutare la sicurezza dei modelli di intelligenza artificiale, un cambiamento di governance apportato settimane dopo che il suo massimo dirigente in materia, Ilya Sutskever, si è dimesso, accelerando il processo di scioglimento del team dedicato.

I compiti del comitato

Il nuovo comitato trascorrerà 90 giorni a valutare le misure di salvaguardia della tecnologia OpenAI prima di fornire un rapporto. “A seguito della revisione dell’intero consiglio, OpenAI condividerà pubblicamente un aggiornamento sulle raccomandazioni adottate in modo coerente con la sicurezza e la protezione”, ha affermato la società in un post sul blog.

C’è da dire che non è un periodo semplice per la startup, che è stata sommersa letteralmente dai milioni di dollari investiti da Microsoft e dalla rapida integrazione dei suoi modelli di intelligenza artificiale per progetti indipendenti e in Copilot, su cui proprio Microsoft ha costruito una parte preponderante del proprio futuro di business. La scorsa settimana, OpenAI ha annullato una politica che cancellava il capitale degli ex dipendenti se si fossero espressi contro la società. Un portavoce ha affermato che la compagnia era a conoscenza delle critiche e che ne prevedeva altre, aggiungendo di star lavorando per affrontare le preoccupazioni.

Non è solo strategia

Preoccupazioni che si intrecciano tra quelle strategiche alle più tecniche, relative ai progetti di intelligenza artificiale veri e propri. Il Ceo, Sam Altman, pare sia stato allontanato mesi fa proprio per aver sollevato dei dubbi sulla sicurezza dei sistemi su cui OpenAI era impegnata.

Il nuovo comitato per la sicurezza di OpenAI sarà composto da tre membri del consiglio: il presidente Bret Taylor, il Ceo di Quora, Adam D’Angelo, e l’ex dirigente di Sony Entertainment, Nicole Seligman. Con loro, anche sei dipendenti, tra cui il co-fondatore John Schulman e lo stesso Altman. La società ha affermato che continuerà a consultare esperti esterni, come Rob Joyce, consigliere per la sicurezza nazionale di Donald Trump, e John Carlin, ex funzionario del Dipartimento di Giustizia sotto il presidente Joe Biden.

Exit mobile version