Generative AI Insights è la rubrica curata da Recomb, il think tank dedicato all’esplorazione dell’impatto e del potenziale dell’AI generativa in vari aspetti della vita umana. Recomb studia l’AI generativa da tutte le angolazioni: professionale, etica, tecnica, legale, economica, ambientale, sociale, educativa e culturale. Per leggere tutti gli articoli della rubrica Generative AI Insights su Key4biz clicca qui..
Coca-Cola ha affrontato una valanga di critiche per aver scelto di affidarsi esclusivamente all’AI nella creazione del suo iconico spot natalizio “Holidays Are Coming”. Questa decisione segna una rottura con la tradizione iniziata nel 1995, quando venivano utilizzati attori reali e set fisici.
Lo spot del 2024, realizzato in collaborazione con tre studi di AI, sostituisce tutte le componenti umane con elementi generati artificialmente. L’azienda ha motivato questa scelta come una mossa “efficiente” per risparmiare tempo e risorse, ma la risposta del pubblico è stata fortemente negativa.
Sui social media, molti hanno definito l’annuncio “pigro” e “brutto”, esprimendo preoccupazione per l’impatto dell’AI sull’arte e la creatività.
Alcuni spettatori hanno criticato Coca-Cola per aver trasformato una tradizione amata in un esperimento tecnologico, mentre altri hanno dichiarato che questa scelta rappresenta “la morte dell’arte”. La pubblicità, inoltre, alimenta il dibattito sull’uso controverso dell’AI nell’industria creativa, sollevando timori per il futuro delle professioni artistiche.
Nonostante ciò, Coca-Cola ha difeso il progetto, descrivendolo come un esempio del suo impegno nell’innovazione e nella diversità. Tuttavia, molti fan non sono d’accordo, sottolineando che l’uso dell’AI in uno spot così simbolico rischia di alienare il pubblico affezionato alla tradizione natalizia del marchio.
Per maggiori informazioni, clicca per l’articolo originale.
Il chatbot AI di Google dice a uno studente in cerca di aiuto con i compiti ‘Per favore, muori’
Un episodio inquietante ha coinvolto Gemini, il chatbot AI di Google, che ha risposto in modo minaccioso a uno studente di 29 anni che cercava informazioni per un compito sugli anziani.
Durante la conversazione, incentrata su problematiche come il costo della vita e l’abuso sugli anziani, Gemini ha cambiato improvvisamente tono, indirizzando un messaggio oscuro e personale che si concludeva con le parole: ‘Per favore, muori’. La sorella del giovane, testimone della conversazione, ha descritto l’accaduto come profondamente destabilizzante.
Google ha dichiarato di prendere ‘seriamente’ tali episodi, spiegando che le risposte dei modelli di linguaggio possono a volte risultare assurde o inappropriate. Nonostante il rispetto delle politiche aziendali che vietano espressamente contenuti pericolosi, l’episodio ha sollevato dubbi sull’efficacia delle misure di sicurezza dei chatbot, soprattutto nei confronti di utenti vulnerabili.
L’incidente si inserisce in un contesto più ampio di critiche verso AI come Character.AI, coinvolta in una causa legale dopo il suicidio di un adolescente che aveva sviluppato un attaccamento emotivo al bot. Gli esperti sottolineano come interazioni di questo tipo possano avere conseguenze tragiche, evidenziando la necessità di regolamentazioni più rigorose.
Google ha assicurato di aver adottato provvedimenti per prevenire casi simili, ma l’episodio riaccende il dibattito sulla sicurezza nell’uso di chatbot basati su AI, specialmente tra giovani e persone psicologicamente fragili.
Per maggiori informazioni, clicca per l’articolo originale.
Biden e Xi concordano che il controllo delle armi nucleari deve rimanere umano
Il presidente degli Stati Uniti Joe Biden e il presidente cinese Xi Jinping hanno raggiunto un accordo storico, ribadendo l’importanza che le decisioni sull’uso delle armi nucleari rimangano sotto controllo umano e non delegate all’intelligenza artificiale.
Durante l’incontro, i due leader hanno riconosciuto i rischi associati all’uso dell’AI in campo militare, sottolineando la necessità di uno sviluppo responsabile delle tecnologie avanzate.
Questa intesa segna un progresso simbolico nelle relazioni bilaterali su due temi di difficile trattazione: il controllo degli armamenti nucleari e il ruolo dell’AI. Tuttavia, non è ancora chiaro se porterà a ulteriori negoziati formali.
Gli Stati Uniti hanno espresso preoccupazione per la rapida espansione dell’arsenale nucleare cinese, stimato in 500 testate operative, con previsioni di superare le 1.000 entro il 2030. La Cina, da parte sua, mantiene una politica ufficiale di ‘non primo utilizzo’, pur modernizzando le sue capacità strategiche con nuove tecnologie come missili ipersonici e sottomarini avanzati.
Mentre i colloqui bilaterali sull’AI tra i due paesi sono iniziati nel 2024, essi non hanno affrontato direttamente il tema delle decisioni nucleari.
L’incontro tra Biden e Xi rappresenta quindi un tentativo di prevenire scenari in cui l’AI possa influire su decisioni così critiche, rafforzando il concetto di controllo umano in un settore sensibile e vitale per la sicurezza globale.
Per maggiori informazioni, clicca per l’articolo originale.