pillole di ai

Il chatbot militare di Meta “Defense Llama” fornisce consigli ‘inutili’ per scenari di attacchi aerei

di |

Il chatbot ha sollevato preoccupazioni tra esperti militari, che hanno descritto le sue risposte come poco precise e potenzialmente pericolose.

Generative AI Insights è la rubrica curata da Recomb, il think tank dedicato all’esplorazione dell’impatto e del potenziale dell’AI generativa in vari aspetti della vita umana. Recomb studia l’AI generativa da tutte le angolazioni: professionale, etica, tecnica, legale, economica, ambientale, sociale, educativa e culturale. Per leggere tutti gli articoli della rubrica Generative AI Insights su Key4biz clicca qui..

Meta, attraverso una partnership con Scale AI, ha introdotto “Defense Llama”, un chatbot basato su Llama 3.0 destinato a scopi militari, inclusa la pianificazione di operazioni strategiche come attacchi aerei.

Presentato come un modello avanzato capace di aderire a norme e regolamenti internazionali, il chatbot ha sollevato preoccupazioni tra esperti militari, che hanno descritto le sue risposte come poco precise e potenzialmente pericolose.

Defense Llama è pubblicizzato come un prodotto che sfrutta l’AI per supportare decisioni complesse, ma i commentatori hanno sottolineato che le risposte del modello risultano generiche e spesso errate, rendendolo inadatto per l’utilizzo in situazioni reali.

Questa strategia di marketing è stata definita irresponsabile, poiché bypassa le metodologie consolidate per la pianificazione militare e il rispetto delle norme umanitarie. Gli errori mostrati nell’esempio, come l’errata indicazione di munizioni inesistenti o inappropriate, hanno suscitato dubbi sull’efficacia del prodotto e sul suo utilizzo sicuro.

Nonostante la promessa di un approccio etico e aderente alle linee guida del Dipartimento della Difesa, i critici mettono in guardia sull’adozione di strumenti automatizzati per decisioni militari, che potrebbero minare la responsabilità umana e amplificare il rischio di danni collaterali. Il dibattito riflette le sfide etiche e tecniche nell’integrazione di modelli AI nel contesto della difesa.

Per maggiori informazioni, clicca per l’articolo originale.

ChatGPT consuma quattro volte più acqua del previsto

Recenti studi hanno rivelato che i modelli di linguaggio AI, come ChatGPT, consumano una quantità di acqua significativamente superiore a quanto inizialmente stimato. Questo consumo è legato principalmente al raffreddamento dei data center che supportano i calcoli intensivi necessari per il funzionamento di tali modelli.

Secondo le analisi, il consumo di acqua risulta essere quattro volte superiore rispetto alle stime precedenti, generando crescenti preoccupazioni in merito all’impatto ambientale di queste tecnologie. L’utilizzo di enormi quantità di risorse idriche da parte di strutture tecnologiche di questo tipo solleva interrogativi sulla sostenibilità dell’AI in un contesto di crisi climatica globale.

La produzione di risposte rapide e l’elaborazione di enormi quantità di dati richiedono infrastrutture avanzate e potenti, il cui funzionamento genera calore che deve essere dissipato attraverso sistemi di raffreddamento che consumano acqua.

Gli esperti suggeriscono che le aziende del settore devono intraprendere azioni immediate per migliorare l’efficienza energetica e idrica dei loro sistemi. Possibili soluzioni includono l’implementazione di tecnologie di raffreddamento alternative e l’adozione di strategie di approvvigionamento idrico più sostenibili. Tuttavia, queste misure potrebbero comportare costi elevati e richiedere tempi significativi per essere implementate.

Questo scenario sottolinea la necessità di un dibattito più ampio sull’impatto ambientale dell’AI e sul bilanciamento tra progresso tecnologico e sostenibilità.

L’accento posto su questi aspetti potrebbe influenzare non solo le decisioni aziendali, ma anche le politiche di regolamentazione a livello globale.

Per maggiori informazioni, clicca per l’articolo originale.

La polizia britannica investe 20 milioni di sterline in tecnologia di riconoscimento facciale live

Il governo del Regno Unito ha avviato un bando del valore di 20 milioni di sterline per l’acquisto di software di riconoscimento facciale live (LFR) destinato a diverse forze di polizia. Attraverso BlueLight Commercial, consorzio senza scopo di lucro, è stato istituito un quadro multi-fornitore per agevolare l’adozione della tecnologia e ridurre i costi. Il sistema LFR, basato su flussi video in tempo reale, identifica persone di interesse confrontandole con una lista predefinita di sospetti, generando avvisi per potenziali corrispondenze.

La tecnologia ha il supporto del governo, con il primo ministro Keir Starmer favorevole al suo utilizzo per prevenire disordini e crimini in luoghi affollati. Tuttavia, la sua implementazione è oggetto di critiche per questioni di privacy e bias razziale. Organizzazioni come Big Brother Watch hanno denunciato un incremento nell’uso del LFR da parte della polizia metropolitana di Londra, definendolo ‘una minaccia alla privacy senza precedenti’.

Inoltre, studi hanno evidenziato discriminazioni nei risultati, in particolare nei confronti di individui di origine africana, quando i sistemi operano con parametri di bassa accuratezza. Nonostante queste preoccupazioni, il governo continua a promuovere il riconoscimento facciale sia live sia retrospettivo, ritenendo che possa essere un valido strumento per migliorare la sicurezza pubblica. Questo sviluppo si inserisce in un contesto più ampio di dibattito sulla legalità e sull’impatto sociale delle tecnologie di sorveglianza avanzate.

Per maggiori informazioni, clicca per l’articolo originale.

Leggi le altre notizie sull’home page di Key4biz