Generative AI Insights è la rubrica curata da Recomb, il think tank dedicato all’esplorazione dell’impatto e del potenziale dell’AI generativa in vari aspetti della vita umana. Recomb studia l’AI generativa da tutte le angolazioni: professionale, etica, tecnica, legale, economica, ambientale, sociale, educativa e culturale. Per leggere tutti gli articoli della rubrica Generative AI Insights su Key4biz clicca qui..
In Ucraina, l’azienda Vyriy ha sviluppato un drone autonomo in grado di inseguire bersagli senza l’intervento umano, evidenziando un significativo progresso nella militarizzazione della tecnologia di consumo. Il drone, sebbene non armato durante la dimostrazione, potrebbe essere equipaggiato con esplosivi, rendendo il bersaglio incapace di sfuggire. Vyriy è solo una delle tante aziende ucraine che, sotto la pressione della guerra con la Russia e grazie a ingenti investimenti e contratti governativi, stanno trasformando l’Ucraina in una sorta di “Silicon Valley” per droni autonomi e altre armi. Questa tecnologia emergente, resa possibile dall’apprendimento profondo dell’AI, consente ai droni di prendere decisioni autonome basate su modelli interpretativi delle immagini.
Questo sviluppo sta sollevando importanti questioni etiche e legali a livello internazionale, in quanto le armi autonome possono operare senza il giudizio umano, rendendo tangenziale il ruolo umano nel processo di puntamento e tiro. I gruppi per i diritti umani e le Nazioni Unite sono preoccupati che tali innovazioni possano innescare una nuova corsa agli armamenti globale. In Ucraina, i droni autonomi sono già stati utilizzati in combattimento contro obiettivi russi, con il governo ucraino che finanzia le aziende per aumentare rapidamente la produzione. Nonostante le preoccupazioni etiche, per l’Ucraina, l’automazione è vista come una necessità per affrontare l’invasore. Secondo Mykhailo Fedorov, ministro della trasformazione digitale dell’Ucraina, queste tecnologie sono fondamentali per la vittoria del paese.
L’uso di queste tecnologie sta anche suscitando timori tra gli ufficiali statunitensi riguardo al loro potenziale utilizzo in attacchi terroristici. La facile disponibilità di dispositivi e componenti a basso costo potrebbe rendere queste armi accessibili a gruppi non statali. Gli esperti avvertono che le armi autonome potrebbero diventare armi di distruzione di massa economiche e facilmente reperibili nei mercati globali delle armi.
Per maggiori informazioni, clicca per l’articolo originale.
L’Industria Tecnologica Vuole Bloccare l’Energia Nucleare per l’AI
L’articolo di Jennifer Hiller e Sebastian Herrera, pubblicato sul Wall Street Journal, esplora il crescente interesse delle aziende tecnologiche per l’acquisto diretto di energia nucleare per alimentare i loro data center, cruciali per il boom dell’intelligenza artificiale (AI). Attualmente, un terzo delle centrali nucleari statunitensi sta negoziando con queste aziende, tra cui Amazon Web Services, che ha recentemente acquistato un data center alimentato da energia nucleare in Pennsylvania per 650 milioni di dollari. Questa tendenza, sebbene possa garantire energia pulita e continua, solleva preoccupazioni sulla stabilità della rete elettrica e sui costi per altri consumatori.
Gli esperti avvertono che il dirottamento delle risorse esistenti potrebbe aumentare i prezzi e rallentare gli obiettivi di riduzione delle emissioni, costringendo ad un maggiore uso del gas naturale. Patrick Cicero, avvocato dei consumatori della Pennsylvania, esprime preoccupazione per l’affidabilità e i costi se questi grandi consumatori di energia avranno la precedenza.
L’interesse delle aziende tecnologiche per l’energia nucleare rappresenta una svolta per le centrali, che hanno lottato per competere con le energie rinnovabili e il gas naturale. Le aziende sono disposte a pagare un premio per energia quasi ininterrotta e senza emissioni di carbonio, il che potrebbe anche sostenere gli investimenti necessari per prolungare la vita delle centrali nucleari. Tuttavia, la crescente domanda di energia per i data center solleva interrogativi su come bilanciare le esigenze economiche, la sicurezza della rete e gli obiettivi climatici.
Per maggiori informazioni, clicca per l’articolo originale.
Chatbot AI per le scuole di Los Angeles fallisce
Le scuole pubbliche di Los Angeles hanno collaborato con una startup per sviluppare un chatbot AI chiamato Ed, pensato per fungere da ‘amico educativo’ per mezzo milione di studenti. Ed avrebbe dovuto indirizzare gli studenti verso risorse accademiche e di salute mentale e informare i genitori sulla frequenza scolastica e sui risultati degli esami dei loro figli.
Tuttavia, appena due mesi dopo il lancio, la startup AllHere, responsabile dello sviluppo del chatbot, ha licenziato gran parte del suo staff a causa di problemi finanziari. Questo ha sollevato dubbi sulla sicurezza dei dati degli studenti e sull’efficacia dell’AI in ambito educativo. Nonostante il collasso di AllHere, una versione semplificata di Ed è ancora accessibile in alcune scuole del distretto, ma senza le funzionalità avanzate promesse.
L’episodio mette in luce i rischi di investire in tecnologie emergenti come l’AI, soprattutto quando si tratta di dati sensibili e della necessità di ridurre il tempo di schermata per gli studenti. Gli esperti consigliano un approccio prudente all’adozione di nuove tecnologie, evidenziando la necessità di una valutazione critica delle loro potenzialità e dei loro limiti.
Per maggiori informazioni, clicca per l’articolo originale.