pillole di ai

L’AI generativa sta imparando a fare spionaggio per l’esercito statunitense

di |

Durante un’esercitazione militare nel Pacifico, un’unità dei Marines americani ha testato l’impiego dell’AI generativa per analizzare, tradurre e sintetizzare grandi volumi di intelligence open-source.

Generative AI Insights è la rubrica curata da Recomb, il think tank dedicato all’esplorazione dell’impatto e del potenziale dell’AI generativa in vari aspetti della vita umana. Recomb studia l’AI generativa da tutte le angolazioni: professionale, etica, tecnica, legale, economica, ambientale, sociale, educativa e culturale. Per leggere tutti gli articoli della rubrica Generative AI Insights su Key4biz clicca qui..

Durante un’esercitazione militare nel Pacifico, un’unità dei Marines americani ha testato l’impiego dell’AI generativa per analizzare, tradurre e sintetizzare grandi volumi di intelligence open-source. Lo strumento, sviluppato da Vannevar Labs, ha dimostrato di poter offrire supporto in tempo reale, permettendo ai militari di redigere report più velocemente e monitorare il sentiment della stampa estera rispetto alle operazioni in corso.

Le capacità dell’AI includono la traduzione multilingue, l’analisi di immagini e video, e la rilevazione di minacce, il tutto gestito tramite un’interfaccia simile a un chatbot. Il Pentagono ha investito 99 milioni di dollari per diffondere questa tecnologia in altre unità, segnalando un’accelerazione nell’adozione dell’AI generativa anche per operazioni di sorveglianza e supporto decisionale.

Tuttavia, numerosi esperti mettono in guardia rispetto ai limiti strutturali di questi modelli: errori nell’analisi del sentiment, vulnerabilità alla disinformazione e la difficoltà per gli operatori umani di validare ogni output generato. Inoltre, l’uso di dati open-source espone i sistemi a manipolazioni da parte di bot e campagne orchestrate. I

l rischio principale identificato è quello di un’eccessiva fiducia nei risultati offerti dall’AI, che potrebbe portare a decisioni strategiche errate o a un’escalation ingiustificata in scenari delicati. Il dibattito resta aperto: queste tecnologie saranno solo strumenti di supporto o finiranno per sostituire l’analisi umana nelle decisioni critiche? L’efficienza è innegabile, ma a quale costo in termini di controllo, precisione e responsabilità?

Per la prima volta l’intelligenza artificiale viene utilizzata in una centrale nucleare

La centrale nucleare Diablo Canyon, situata a San Luis Obispo e destinata a iniziare il processo di dismissione nel 2029, è diventata teatro del primo impiego operativo di AI generativa all’interno di un impianto nucleare statunitense.

Il progetto nasce dalla collaborazione tra PG&E e la startup Atomic Canyon, che ha sviluppato Neutron Enterprise, un sistema avanzato di ricerca documentale alimentato da chip NVIDIA H100.

L’obiettivo immediato di questa tecnologia è supportare i lavoratori nell’accesso rapido e preciso a milioni di pagine normative e tecniche, ottimizzando un’attività che attualmente richiede circa 15.000 ore l’anno.

Sebbene non destinato a prendere decisioni operative, Neutron Enterprise rappresenta un primo passo verso l’integrazione dell’AI nel comparto nucleare, aprendo scenari che suscitano preoccupazioni tra legislatori e osservatori.

Alcuni richiedono l’introduzione urgente di regole più stringenti per garantire che la tecnologia non superi i limiti del controllo umano. Il software, che opera offline per questioni di sicurezza, è stato concepito per minimizzare i rischi e rafforzare la conformità agli standard della Nuclear Regulatory Commission. I rappresentanti locali e statali hanno espresso posizioni variegate: da un lato si riconosce il valore dell’AI per l’efficienza e la gestione della conoscenza, dall’altro emergono timori su un possibile ampliamento del suo utilizzo senza adeguata supervisione.

Atomic Canyon sta già dialogando con altri impianti e istituzioni, prospettando future applicazioni della propria tecnologia anche durante le fasi di dismissione. Il fondatore, Trey Lauderdale, insiste sulla necessità di ‘guardrail’ normativi solidi, ribadendo che non immagina un futuro prossimo in cui l’AI possa gestire autonomamente centrali nucleari.

Per maggiori informazioni, clicca per l’articolo originale.

Le assunzioni nel settore tech potrebbero rallentare a causa dei timori di recessione: può l’AI essere d’aiuto?

Con l’incombere di una possibile recessione, molte imprese stanno adottando strategie conservative per proteggere i margini di profitto, e il rallentamento nelle assunzioni nel settore tecnologico ne è una diretta conseguenza. Secondo i dati raccolti da CompTIA, a marzo si è registrata una perdita di 29.000 posti di lavoro nel comparto tech, spingendo le aziende a valutare con attenzione l’adozione dell’AI per colmare lacune operative. Il CEO di Shopify, Tobi Lutke, ha recentemente affermato che ogni nuova assunzione deve essere giustificata da un’incapacità dell’AI di svolgere quella funzione, dimostrando un cambio di paradigma nella gestione delle risorse umane. John Schneider, CMO di Betterworks, sottolinea come l’AI non sia ancora pronta per sostituire interamente la forza lavoro esistente, ma la sua capacità di aumentare l’efficienza potrebbe rallentare l’incremento del personale. Tuttavia, Schneider avverte dei rischi legati a una sostituzione spinta dell’elemento umano: una riduzione delle assunzioni oggi potrebbe compromettere la formazione dei leader tecnologici di domani. L’eliminazione di ruoli per neofiti potrebbe infatti indebolire la catena di crescita interna, privando le aziende di futuri esperti e ingegneri senior. Nonostante l’attrattiva dell’automazione, alcune abilità umane — come l’intelligenza emotiva, la comunicazione e la capacità decisionale — restano inimitabili. L’AI dovrebbe quindi essere vista non come un sostituto, ma come uno strumento per valorizzare il lavoro umano, integrando e potenziando le capacità delle persone esistenti.

Per maggiori informazioni, clicca per l’articolo originale.

Leggi le altre notizie sull’home page di Key4biz