Generative AI Insights è la rubrica curata da Recomb, il think tank dedicato all’esplorazione dell’impatto e del potenziale dell’AI generativa in vari aspetti della vita umana. Recomb studia l’AI generativa da tutte le angolazioni: professionale, etica, tecnica, legale, economica, ambientale, sociale, educativa e culturale. Per leggere tutti gli articoli della rubrica Generative AI Insights su Key4biz clicca qui..
Il leggendario gruppo britannico The Beatles ha conquistato il suo ottavo Grammy competitivo grazie all’AI. Il brano ‘Now and Then’, pubblicato nel 2023, ha ottenuto il premio per la Miglior Performance Rock, superando concorrenti del calibro di Green Day, Pearl Jam e The Black Keys.
La particolarità di questa vittoria risiede nell’uso dell’intelligenza artificiale per recuperare e restaurare una demo registrata da John Lennon negli anni ’70.
Il progetto di completamento della traccia era stato inizialmente tentato negli anni ’90 da Paul McCartney, Ringo Starr e George Harrison, ma le limitazioni tecnologiche dell’epoca non permettevano di separare voce e pianoforte dalla registrazione originale a bassa qualità.
Solo nel 2021, grazie al regista Peter Jackson e al suo team, è stato possibile isolare e migliorare l’audio attraverso una tecnologia di machine learning avanzata. Sebbene non si tratti di una creazione musicale generata da AI, ma piuttosto di un restauro audio, il brano ha suscitato un acceso dibattito sul ruolo dell’intelligenza artificiale nella produzione musicale.
McCartney ha chiarito che nulla nel brano è stato sintetizzato o creato artificialmente, ma si è trattato di una pulizia audio di registrazioni preesistenti, una pratica comune nell’industria musicale da decenni. La vittoria del Grammy segna quindi un momento storico, poiché è la prima volta che una canzone restaurata con l’ausilio dell’AI riceve un riconoscimento di tale portata.
Per maggiori informazioni, clicca per l’articolo originale.
Tutti sono scossi dall’ascesa di DeepSeek, tranne Nvidia che l’ha resa possibile
L’ascesa della startup cinese DeepSeek ha messo in discussione la leadership occidentale nel settore dell’AI, causando un crollo del 17% delle azioni Nvidia in un solo giorno. DeepSeek ha dimostrato di poter sviluppare modelli AI avanzati utilizzando chip Nvidia meno potenti e soggetti a restrizioni statunitensi.
Tuttavia, Nvidia, guidata dal CEO Jensen Huang, ha adottato una strategia che punta a mantenere il controllo del mercato cinese, nonostante le pressioni del governo USA per limitare l’export di tecnologie critiche. Negli ultimi anni, Nvidia ha ripetutamente adattato i suoi chip per rispettare le normative statunitensi, creando versioni modificate come A800, H800 e H20, che sono ancora sufficientemente potenti per applicazioni AI avanzate.
Questa tattica ha frustrato i funzionari di Washington, che vedono Nvidia come un attore chiave nella corsa tecnologica tra USA e Cina. Le preoccupazioni politiche sono aumentate con l’amministrazione Trump, che sta valutando ulteriori restrizioni sui chip AI venduti in Cina. Tuttavia, Nvidia continua a sostenere che mantenere il mercato cinese sia essenziale per la sua competitività globale e che impedire le vendite spingerebbe Pechino a sviluppare alternative nazionali.
Nel frattempo, la Cina sta cercando di ridurre la dipendenza da Nvidia, mentre DeepSeek, con un accesso limitato ai chip più avanzati, potrebbe cercare soluzioni all’estero. Questa battaglia tra geopolitica e innovazione tecnologica determinerà il futuro del settore AI, con implicazioni economiche e strategiche di vasta portata.
Per maggiori informazioni, clicca per l’articolo originale.
Le protezioni di sicurezza di DeepSeek hanno fallito tutti i test effettuati dai ricercatori
I ricercatori di sicurezza di Cisco e dell’Università della Pennsylvania hanno testato il modello di AI DeepSeek R1 contro 50 jailbreak noti, rilevando che non è riuscito a bloccare nemmeno uno degli attacchi.
Questo risultato evidenzia le carenze delle misure di sicurezza di DeepSeek rispetto a competitor come OpenAI, che hanno investito maggiormente nella protezione contro attacchi basati su prompt injection. I test, condotti con il dataset standardizzato HarmBench, hanno verificato la vulnerabilità di DeepSeek in categorie critiche come disinformazione, cybercrime e attività illegali.
La capacità del modello di censurare contenuti sensibili è stata facilmente aggirata, e in alcuni casi ha generato risposte più dettagliate rispetto ad altri modelli su argomenti come la produzione di sostanze psicotrope.
Anche altre analisi, come quelle della società Adversa AI, hanno confermato la debolezza di DeepSeek di fronte a jailbreak noti, compresi quelli basati su caratteri speciali o codice eseguibile. Secondo gli esperti, eliminare completamente queste vulnerabilità è impossibile, ma i risultati suggeriscono che DeepSeek abbia investito meno nella sicurezza rispetto ad aziende concorrenti. La situazione è particolarmente preoccupante considerando l’uso crescente dei modelli AI in contesti critici.
Secondo Cisco, i rischi aumentano quando queste tecnologie vengono integrate in sistemi complessi, aumentando le responsabilità legali e i rischi per le aziende. Infine, gli esperti sottolineano che il costante ‘red teaming’ – ovvero il testing attivo delle vulnerabilità – è essenziale per mantenere i modelli sicuri, ma DeepSeek sembra essere indietro rispetto agli standard del settore.
Per maggiori informazioni, clicca per l’articolo originale.