Key4biz

OpenAI lancia o1: l’intelligenza artificiale che ragiona come un umano

Screenshot

OpenAI ha svelato al mondo o1, una nuova serie di modelli di linguaggio che segna un importante passo avanti nel campo dell’intelligenza artificiale. Questi modelli, progettati per risolvere problemi complessi, si distinguono per la loro capacità di ragionare in modo approfondito prima di fornire una risposta.

La caratteristica distintiva di o1 risiede nella sua capacità di imitare il pensiero umano. A differenza dei modelli precedenti, o1 dedica più tempo alla riflessione, scomponendo i problemi in parti più piccole e valutando diverse soluzioni prima di arrivare a una conclusione. Questa metodologia, unita a un addestramento intensivo su dati scientifici e matematici, rende o1 particolarmente abile in discipline STEM.

I risultati ottenuti nei test interni sono, secondo OpenAI, sorprendenti. o1 ha dimostrato di poter competere con studenti universitari, risolvendo problemi complessi di matematica, fisica, chimica e biologia con un’accuratezza che supera di gran lunga i modelli precedenti. Ad esempio, in un esame qualificante per l’International Mathematics Olympiad, i modelli di ragionamento hanno risolto correttamente l’83% dei problemi, rispetto al 13% di GPT-4o. Nel coding, hanno raggiunto l’89esimo percentile nelle competizioni Codeforces.

Disponibilità e accesso di OpenAI o1

Per ora, i modelli o1-preview e o1-mini sono disponibili per gli utenti Plus e Team di ChatGPT. Tuttavia, OpenAI ha in programma di estendere l’accesso a un pubblico più ampio in futuro. Gli sviluppatori, inoltre, possono già sperimentare le potenzialità di o1 attraverso l’API.

Detto ciò, OpenAI ha detto di aver posto una grande attenzione alla sicurezza e all’affidabilità di questi nuovi modelli. o1 è stato sottoposto a rigorosi test per garantire che non possa essere utilizzato per scopi dannosi. Inoltre, l’azienda ha collaborato con istituzioni internazionali per sviluppare standard di sicurezza sempre più elevati. Il modello o1-preview ha ottenuto un punteggio di 84 su 100 nei test di sicurezza più rigorosi, superando di gran lunga il punteggio di GPT-4o.

Il futuro dell’intelligenza artificiale

OpenAI spiega anche la decisione di non rivelare i vari passaggi della catena di pensiero del modello. Ossia, non possiamo conoscere tutti i passaggi compiuti da AI per rispondere ai quesiti che vengono posti.

Riteniamo che una catena di pensiero nascosta rappresenti un’opportunità unica per il monitoraggio dei modelli. Supponendo che sia fedele e leggibile, la catena di pensiero nascosta ci consente di “leggere la mente” del modello e comprenderne il processo di pensiero. Ad esempio, in futuro potremmo voler monitorare la catena di pensiero per individuare segnali di manipolazione dell’utente. Tuttavia, affinché ciò funzioni, il modello deve avere la libertà di esprimere i propri pensieri in forma inalterata, quindi non possiamo addestrare alcuna conformità alle policy o preferenze dell’utente sulla catena di pensiero. Inoltre, non vogliamo rendere una catena di pensiero non allineata direttamente visibile agli utenti.

OpenAI

Sebbene o1 sia un passo avanti significativo, è solo l’inizio. OpenAI ha in programma di continuare a sviluppare l’AI, migliorandone le prestazioni e ampliandone le capacità. Possiamo aspettarci di vedere applicazioni sempre più innovative dell’intelligenza artificiale in diversi settori, dalla ricerca scientifica allo sviluppo di nuovi prodotti.

Exit mobile version