Generative AI Insights è la rubrica curata da Recomb, il think tank dedicato all’esplorazione dell’impatto e del potenziale dell’AI generativa in vari aspetti della vita umana. Recomb studia l’AI generativa da tutte le angolazioni: professionale, etica, tecnica, legale, economica, ambientale, sociale, educativa e culturale. Per leggere tutti gli articoli della rubrica Generative AI Insights su Key4biz clicca qui..
Secondo un rapporto di Menlo Ventures, le aziende hanno incrementato del 500% gli investimenti nell’AI generativa nel 2024, raggiungendo 13,8 miliardi di dollari rispetto ai 2,3 miliardi dell’anno precedente.
Nonostante OpenAI rimanga leader nel mercato con un utilizzo aziendale del 34%, ha perso terreno rispetto al 50% del 2023. Anthropic, invece, ha raddoppiato la propria quota, passando dal 12% al 24%.
Questa dinamica è favorita dall’avanzamento tecnologico di modelli come Claude 3.5 e dalla tendenza delle imprese a utilizzare più modelli AI in parallelo per soddisfare esigenze specifiche. I modelli linguistici avanzati, come ChatGPT di OpenAI, Gemini di Google e Claude di Anthropic, hanno attratto il 47% degli investimenti complessivi nel settore.
Tra gli ambiti principali di applicazione, la generazione di codice domina, seguita da chatbot per il supporto clienti, ricerca aziendale, estrazione e trasformazione dati e sintesi di riunioni. Il rapporto sottolinea come gli “AI agenti”, tecnologie più avanzate rispetto ai tradizionali chatbot, rappresentino un settore emergente di grande interesse, con potenzialità di aumentare la produttività e generare entrate significative per le imprese.
Aziende come Google, Microsoft e Amazon stanno investendo in questi strumenti, che promettono di automatizzare attività complesse senza necessità di supervisione continua da parte degli utenti.
Per maggiori informazioni, clicca per l’articolo originale.
Il database AI di Hollywood: impatti e controversie sull’uso di dialoghi per l’addestramento dell’AI
Il contributo creativo di Hollywood è stato ampiamente utilizzato per addestrare sistemi di AI, con dialoghi di oltre 53.000 film e 85.000 episodi televisivi inclusi in dataset come OpenSubtitles. Questi dati, estratti da sottotitoli, sono stati impiegati da aziende come Apple, Anthropic, Nvidia e Meta per sviluppare modelli di linguaggio avanzati.
Nonostante i sottotitoli rappresentino una risorsa utile per l’addestramento, grazie alla loro capacità di riprodurre la naturalezza del dialogo parlato, il loro uso solleva questioni legali ed etiche. Gli sceneggiatori e i creativi esprimono preoccupazione per la mancanza di trasparenza e consenso, temendo l’impatto negativo sulla loro professione.
Le controversie legate a tali pratiche riguardano anche l’applicazione delle leggi sul copyright. I sottotitoli, spesso considerati opere derivate, sono soggetti alla stessa protezione legale dei film e degli spettacoli televisivi dai quali provengono.
Numerose cause legali sono state intentate contro aziende tecnologiche per violazione del copyright, ma la questione rimane giuridicamente aperta. La mancanza di consenso esplicito da parte degli artisti solleva dubbi sul bilanciamento tra innovazione tecnologica e tutela dei diritti creativi.
Questo utilizzo di sottotitoli non solo rappresenta un’opportunità per l’espansione delle capacità delle AI, ma mette in evidenza la necessità di un dialogo più chiaro e regolamentato su come i dati creativi vengono raccolti e utilizzati. La questione del riconoscimento e della giusta remunerazione per gli artisti coinvolti rimane centrale nel dibattito in corso.
Per maggiori informazioni, clicca per l’articolo originale.
Jensen Huang prevede un aumento della potenza computazionale di un milione di volte in 10 anni
ensen Huang, CEO di Nvidia, ha dichiarato che la potenza computazionale necessaria per alimentare l’AI aumenterà di un milione di volte nei prossimi dieci anni, grazie a un tasso di crescita annuale quadruplicato.
Durante una conferenza ad Atlanta, Huang ha sottolineato come le “scaling laws” dimostrino miglioramenti prevedibili nelle prestazioni dei modelli AI con l’aumento di potenza e dati. Questo progresso consentirebbe significativi passi avanti nel campo dell’intelligenza artificiale generativa e delle sue applicazioni. Tuttavia, recenti rapporti hanno sollevato dubbi sull’efficacia continua di tali leggi di scalabilità.
OpenAI, per esempio, ha incontrato difficoltà nel migliorare sensibilmente il rendimento del suo modello AI di prossima generazione, Orion. Huang ha ribadito che queste leggi non si applicano solo all’addestramento dei modelli, ma anche all’inferenza, il processo attraverso cui le AI rispondono alle richieste degli utenti.
Nvidia, leader nel settore dei chip per l’AI, ha visto una crescita significativa, posizionandosi come uno dei protagonisti nell’era dell’AI generativa. La visione di Huang si concentra sull’accelerazione del progresso tecnologico per sostenere le esigenze future dell’AI, sia in fase di addestramento che di utilizzo.
Questo approccio potrebbe rappresentare una nuova frontiera per l’intelligenza artificiale, nonostante le attuali difficoltà segnalate dai principali laboratori tecnologici.
Per maggiori informazioni, clicca per l’articolo originale.