Zuckerberg e Huang nel salotto di SIGGRAPH 2024
L’intelligenza artificiale (AI) ha riunito a Denver per il SIGGRAPH 2024 due dei personaggi più importanti del circo tecnologico mondiale: il fondatore e CEO di Nvidia, Jensen Huang, e il fondatore e CEO di Meta, Mark Zuckerberg.
Uno scambio di giacche di pelle, aneddoti su come Zuckerberg taglia i pomodori a cena o su come si cuoce meglio la bistecca, fino al piatto forte della serata: i piani di sviluppo dell’AI da qui in poi.
Sì, perché fino ad ora tutti abbiamo avuto modo di misurarci con i vada modelli di AI, sicuramente con l’AI generativa, ma ora bisogna guardare avanti ed entrare in una fase di sviluppo che punti dritta agli agenti virtuali personalizzati.
Meta lancia l’AI Studio per sviluppare agenti virtuali personalizzati
Il CEO di Meta ha annunciato l’AI Studio, una nuova piattaforma che consente di raggiungere proprio questo obiettivo, anche se in modalità elementare: creare agenti virtuali personalizzati che ci conoscono più dei nostri famigliari (e già questo Meta lo faceva bene da anni), che ci possano consigliare su tutto, dai viaggi alla cena, dal vestiario agli spettacoli da andare a vedere il fine settimana, fino alla nostra carriera professionale e agli studi.
Ma non solo, l’AI creata potrà essere anche identificata con un personaggio di fantasia, esclusivamente nostra o da condividere con amici e conoscenti su tutti i canali Meta, da Facebook a Whatsapp, passando per Instagram.
Insomma, il primo passo da fare verso un agente AI che lavorerà per noi, gestendo i nostri pensieri verso l’esterno, rispondendo al posto nostro a messaggi e inviti.
Huang intervenendo ha chiarito il concetto: “Ogni sito web, ogni azienda, ogni ristorante, tutti in futuro avranno un agente virtuale che li rappresenterà”.
“Proprio come ogni impresa ha degli indirizzi mail identificativi e dei numeri di telefono ufficiali, così ogni sito web e account social disporrà di un AI personalizzato”, ha continuato Zuckerberg.
Open source centrale per l’innovazione
Da qui in poi, i due non fanno altro che riconoscersi grandi risultati. Il CEO di Nvidia ha detto all’amico (cenano assieme spesso a quanto pare): “Tu e la tua azienda siete leader mondiali nell’AI anche se in pochi se ne sono accorti fino ad ora”, mettendo in fila una serie di traguardi raggiunti dal fondatore di Facebook, che vede da tempo sé stesso come l’imperatore Augusto, dalla visione artificiale ai modelli linguistici alla traduzione in tempo reale, “usiamo tutti Pytorch che viene da Meta”.
Zuckerberg ha sottolineato l’importanza dell’open source nel progresso dell’AI, sottolineato con Huang la centralità delle piattaforme aperte per l’innovazione.
Il modello open source rappresenta un investimento significativo di tempo, risorse e formazione. La versione più grande di Llama vanta 405 miliardi di parametri ed è stata addestrata su oltre 16.000 GPU NVIDIA H100.
“Uno dei fattori chiave che determina il miglioramento della qualità è che in passato si utilizzava un modello diverso per ogni tipo di contenuto“, ha spiegato Zuckerberg.
“Man mano che i modelli diventano più grandi e più generici, questo aspetto cresce sempre di più. Quindi, in un certo senso, un giorno, Facebook o Instagram, immagino potranno diventare un singolo modello di intelligenza artificiale che unifichi i diversi tipi di contenuti e sistemi“, ha aggiunto.
Il rilascio di Llama 3.1 promette di essere un “punto di svolta” nell’adozione dell’open source nell’AI, secondo il CEO di Meta.
L’AI del futuro più fluida
Guardando al futuro, infine, Zuckerberg ha espresso ottimismo riguardo all’unione dell’AI con il mondo reale attraverso ad esempio strumenti tecnologici avanzati di uso comune, ad esempio gli occhiali di Meta (probabilmente sotto il marchio Ray-Ban), frutto della collaborazione con il famoso produttore di occhiali Luxottica fondata dall’italiano Leonardo Del Vecchio e oggi guidata da Francesco Milleri, che possono essere utilizzati per contribuire a creare nuovi servizi e nuove funzionalità da impiegare nell’istruzione, nell’intrattenimento e nel mondo del lavoro.
Il CEO di Nvidia vede invece nella comunicazione tra utente e AI dei cambiamenti storici da qui a poco tempo, soprattutto nell’interazione: “Non più solo uno scambio di domande e risposte testuali, ma qualcosa di più fluido e armonioso, di naturale, dove la stessa AI sia in grado di contemplare più opzioni ed elaborare, fino ad un’ampia capacità di simulazione dei risultati, che sicuramente faciliterebbe lo sviluppo di qualsiasi tipo di progetto”.