L’amministratore delegato di Meta Platforms, Mark Zuckerberg, ha rivelato che la sua azienda sta pianificando di acquistare circa 350mila unità di elaborazione grafica H100 di fascia alta da Nvidia per fornire la potenza di calcolo necessaria a portare avanti i propri obiettivi in una nuova area dell’intelligenza artificiale.
L’azienda sta cercando di diventare leader nel settore dell’intelligenza artificiale generale, o AGI, che è una potenziale intelligenza artificiale avanzata in grado di eguagliare l’intelligenza umana ed eseguire una vasta gamma di compiti diversi.
Le prospettive dell’AGI, AI generale
Zuckerberg ha detto in un video di Instagram Reels pubblicato ieri che l’AGI potrebbe finalmente essere in grado di alimentare un’ampia gamma di servizi e dispositivi all’avanguardia, inclusi assistenti digitali più avanzati, occhiali per realtà aumentata e altro ancora. L’obiettivo dell’azienda è quello di costruire “i migliori assistenti IA, IA per creatori, IA per le aziende e altro ancora”, ha detto Zuckerberg, aggiungendo che per farlo saranno necessari progressi in ogni area dell’IA.
Per arrivarci, Meta dovrà fare un investimento significativo nella sua infrastruttura informatica AI, da qui i suoi piani per acquisire montagne di potenti GPU H100 da Nvidia. Il chip H100 è il chip più avanzato mai realizzato da Nvidia e si dice che sia particolarmente abile nell’addestrare i modelli linguistici di grandi dimensioni che alimentano l’intelligenza artificiale generativa come ChatGPT.
“Stiamo costruendo una quantità assolutamente enorme di infrastrutture per supportare tutto questo”, ha detto Zuckerberg. “Entro la fine dell’anno, avremo circa 350mila Nvidia H100, o circa 600mila equivalenti H100 di calcolo se si includono altre GPU”.
Investimento miliardario
È un numero sconcertante, anche a causa dell’enorme spesa richiesta per acquistare tutto quel silicio. Anche se il Ceo non ha detto quanto l’azienda intende spendere per le sue GPU, è probabile che si tratti di una cifra sconcertante. Inoltre, è improbabile che Meta ne abbia accumulati così tanti finora, poiché l’H100 è stato messo in vendita solo alla fine del 2022 ed è stato in fornitura limitata.
Le stime degli analisti di Raymond James dicono che Nvidia vende l’H100 per un prezzo compreso tra 25mila e 30mila dollari, mentre su eBay possono raggiungere più di 40mila dollari. Anche se Meta otterrà sicuramente del credito per gli acquisti in blocco, è probabile che spenderà comunque oltre 9 miliardi di dollari sulle GPU.
Zuckerberg ha detto che le 350mila GPU H100 verranno aggiunte a un’infrastruttura che conterrà anche circa 600mila equivalenti H100, il che potrebbe significare che la società sta anche acquistando in massa chip rivali come il nuovo acceleratore AI Instinct M1300X di Advanced Micro Devices (AMD).
Priorità all’AI
Nvidia e i suoi azionisti saranno senza dubbio lieti di conoscere i piani di investimento nelle GPU di Meta, ma è meno chiaro cosa significhi realmente l’annuncio di Zuckerberg per la sua stessa azienda, ha detto a SiliconANGLE Charles King, un analista di Pund-IT. Ha sottolineato che non è passato molto tempo da quando Zuckerberg proclamava il metaverso come la prossima grande novità, investendo miliardi di dollari in quello che, almeno per ora, deve essere visto come uno sforzo fallito.
“L’intelligenza artificiale ha sicuramente più supporto nella tecnologia e in altri settori rispetto a quanto abbia mai avuto il metaverso”, ha aggiunto King. “Tuttavia, a questo punto, gli acquisti di GPU di Meta sono più indicativi della sua ricchezza relativa che del potenziale successo dei suoi piani”.
Zuckerberg: ‘AI più grande area di investimento nel 2024’
“In termini di priorità di investimento, l’intelligenza artificiale sarà la nostra più grande area di investimento nel 2024, sia in termini di risorse ingegneristiche che informatiche”, ha detto Zuckerberg in una teleconferenza con gli analisti.
Nel suo post su Instagram, Zuckerberg ha rivelato che le GPU di Meta sono già utilizzate con buoni risultati nell’addestramento di Llama 3, che è un’alternativa open source ai modelli ChatGPT di OpenAI. Tuttavia, la società sta adottando un approccio diverso rispetto al suo rivale e prevede di rendere open source il modello Llama 3, proprio come ha fatto con il suo predecessore, Llama 2.
“Questa tecnologia è così importante e le opportunità sono così grandi che dovremmo renderla open source e renderla disponibile il più ampiamente possibile”, ha insistito Zuckerberg.