Generative AI Insights è la rubrica curata da Recomb, il think tank dedicato all’esplorazione dell’impatto e del potenziale dell’AI generativa in vari aspetti della vita umana. Recomb studia l’AI generativa da tutte le angolazioni: professionale, etica, tecnica, legale, economica, ambientale, sociale, educativa e culturale. Per leggere tutti gli articoli della rubrica Generative AI Insights su Key4biz clicca qui..
Nvidia prevede di vendere chip per l’intelligenza artificiale in Cina per un valore di 12 miliardi di dollari quest’anno, nonostante i controlli sulle esportazioni imposti dagli Stati Uniti. La società della Silicon Valley, valutata 3 trilioni di dollari, consegnerà oltre 1 milione di chip H20, progettati per eludere le restrizioni statunitensi, secondo le previsioni degli analisti.
Questo numero è quasi il doppio rispetto ai chip rivali Ascend 910B prodotti da Huawei. Le tensioni tra Washington e Pechino hanno colpito Nvidia, con l’amministrazione Biden che mira a bloccare l’accesso ai chip più potenti, temendo che possano essere utilizzati per applicazioni militari AI.
La scarsità di chip AI ha ostacolato le capacità dei gruppi tecnologici cinesi come ByteDance, Tencent e Alibaba, che competono con aziende statunitensi come OpenAI, Microsoft, Meta e Google. Ogni chip H20 costa tra i 12.000 e i 13.000 dollari, suggerendo ricavi di oltre 12 miliardi di dollari per Nvidia.
Ciò supererebbe i 10,3 miliardi di dollari di entrate dall’intero mercato cinese dell’azienda nell’anno fiscale concluso a gennaio 2024. Nvidia ha avvertito che le restrizioni danneggiano il suo business in Cina, poiché i fornitori di cloud computing e le startup AI si rivolgono ad alternative locali come Huawei.
Nonostante le difficoltà, Nvidia continua a servire i clienti cinesi, con analisti che indicano una forte domanda per i chip H20. Tuttavia, la quota delle entrate dalla Cina è scesa dal 22% al 9% nell’ultimo anno fiscale, riflettendo la crescita del mercato AI statunitense.
Per maggiori informazioni, clicca per l’articolo originale.
‘Meta lancia una bomba AI: modelli di previsione multi-token ora aperti alla ricerca’
Meta ha recentemente annunciato un’importante innovazione nel campo dell’intelligenza artificiale: l’introduzione di modelli di previsione multi-token ora disponibili per la comunità di ricerca. Questi modelli avanzati sono progettati per prevedere sequenze di token, migliorando notevolmente le capacità di linguaggio naturale e di generazione di testo.
Meta ha aperto l’accesso a questi modelli, invitando ricercatori e sviluppatori a esplorarne le potenzialità e a contribuire al loro sviluppo. L’obiettivo principale è promuovere l’innovazione e accelerare il progresso nel campo dell’AI, offrendo strumenti più sofisticati per applicazioni come la traduzione automatica, l’analisi dei dati e la creazione di contenuti.
Questa iniziativa rappresenta un passo significativo verso una maggiore collaborazione nella comunità scientifica, permettendo agli esperti di lavorare insieme su progetti complessi e di sfruttare la potenza di calcolo di Meta per ottenere risultati più accurati e affidabili. I modelli di previsione multi-token di Meta sono basati su architetture avanzate che consentono di gestire grandi quantità di dati e di apprendere dai contesti più ampi, migliorando così la comprensione e la generazione del linguaggio naturale.
Questo approccio multi-token offre vantaggi significativi rispetto ai modelli tradizionali, in quanto permette una maggiore precisione nelle previsioni e una migliore gestione delle ambiguità linguistiche. Meta ha anche sottolineato l’importanza dell’accesso aperto a questi modelli per garantire che i benefici dell’AI siano condivisi equamente e che le tecnologie avanzate siano utilizzate in modo responsabile e etico.
L’apertura di questi modelli alla comunità di ricerca è vista come un’opportunità per esplorare nuovi orizzonti e per sviluppare applicazioni innovative che possono avere un impatto positivo su vari settori, dall’educazione alla sanità, dalla finanza alla comunicazione. Questo annuncio segna un momento cruciale per l’evoluzione dell’AI, con Meta che si pone come leader nel promuovere l’innovazione e la collaborazione globale.
L’AI ha tutte le risposte. Anche quelle sbagliate
I modelli di linguaggio di grandi dimensioni possono risolvere enigmi logici? Fernando Perez-Cruz e Hyun Song Shin hanno testato GPT-4 con il famoso enigma del compleanno di Cheryl. Sebbene GPT-4 abbia fornito risposte corrette e spiegazioni dettagliate, ha fallito quando l’enigma è stato modificato con nomi e mesi diversi.
Questo fenomeno suggerisce che GPT-4 potrebbe aver memorizzato il testo originale anziché risolvere effettivamente il problema. Anche con altri enigmi, come il problema di Monty Hall modificato, GPT-4 ha mostrato capacità logiche ma ha fallito nei dettagli cruciali. Questo comportamento evidenzia il rischio di utilizzare modelli di linguaggio che possono sembrare convincenti ma fornire risposte errate. Perez-Cruz e Shin sottolineano che, sebbene futuri modelli possano migliorare, l’affidamento su questi strumenti comporta rischi significativi.
I modelli di linguaggio possono creare errori logici plausibili e convincenti, rendendo difficile distinguere il corretto dal falso. La sfida è evitare di cadere nelle trappole cognitive create da risposte che, sebbene sembrino logiche, sono in realtà fallaci.
Per maggiori informazioni, clicca per l’articolo originale.