Key4biz

L’Australia vieta DeepSeek dalla tecnologia governativa per motivi di sicurezza

L’Australia ha deciso di vietare i servizi AI di DeepSeek da tutti i sistemi e dispositivi governativi, diventando una delle prime nazioni a prendere una posizione diretta contro una startup cinese che ha scosso il mercato tecnologico globale.

Il Ministro degli Affari Interni, Tony Burke, ha annunciato che tutti i prodotti e le applicazioni della società saranno rimossi immediatamente per motivi di sicurezza nazionale, dopo che le agenzie di intelligence hanno valutato la tecnologia come un rischio inaccettabile.

DeepSeek, fondata a Hangzhou meno di due anni fa, aveva guadagnato notorietà a gennaio grazie a un’applicazione mobile con un chatbot AI avanzato, capace di articolare il proprio processo di ragionamento prima di fornire una risposta.

L’innovazione aveva rapidamente scalato le classifiche di download globali, ma erano emerse preoccupazioni sulla sicurezza del servizio.

Burke ha sottolineato che la decisione del governo non è basata sull’origine nazionale della società, bensì su una valutazione oggettiva dei rischi. Anche se il divieto riguarda solo i dispositivi governativi, i cittadini australiani sono stati invitati a riflettere su come i loro dati vengono utilizzati online.

L’Australia non è l’unico paese ad aver preso provvedimenti contro DeepSeek: l’Italia ha già bloccato il servizio per proteggere i dati dei consumatori, mentre l’Irlanda ha richiesto maggiori informazioni alla società.

Anche molte aziende private hanno limitato l’accesso alla piattaforma. Questa decisione segue un precedente storico: nel 2018, l’Australia aveva vietato Huawei dalla sua rete 5G, una mossa che aveva innescato tensioni diplomatiche con la Cina.

Per maggiori informazioni, clicca per l’articolo originale.

Ex ingegnere di Google accusato di spionaggio per favorire l’AI in Cina

Un ex ingegnere di Google, Linwei Ding, è stato accusato dal Dipartimento di Giustizia degli Stati Uniti di spionaggio economico per aver sottratto segreti industriali al fine di favorire il settore dell’AI in Cina.

Secondo l’accusa, Ding, noto anche come Leon Ding, avrebbe rubato informazioni riservate su chip proprietari utilizzati da Google per addestrare modelli AI, tra cui Gemini, nonché su unità di elaborazione grafica.

L’ingegnere, assunto da Google nel 2019, aveva già ricevuto un’incriminazione a marzo, ma ora deve affrontare sette capi d’accusa per spionaggio economico e altrettanti per furto di segreti commerciali. Nel 2023, Ding avrebbe fondato una startup in Cina e presentato domanda a un programma di talenti con sede a Shanghai, che offre incentivi economici a chi riporta nel paese competenze tecniche acquisite all’estero.

Nei documenti presentati, Ding avrebbe dichiarato che la sua tecnologia avrebbe aiutato la Cina a sviluppare infrastrutture informatiche competitive a livello globale. Un memo interno della sua azienda rivelerebbe inoltre piani per fornire prodotti e servizi ad agenzie statali cinesi e università.

Se riconosciuto colpevole, Ding potrebbe affrontare fino a 15 anni di carcere per ciascun reato di spionaggio economico e fino a 10 anni per ogni accusa di furto di segreti commerciali. Gli avvocati dell’imputato non hanno rilasciato dichiarazioni ufficiali.

Per maggiori informazioni, clicca per l’articolo originale.

Google rivede le politiche sull’AI, aprendo all’uso in ambito militare e di sorveglianza

Google ha recentemente aggiornato i suoi principi sull’intelligenza artificiale, eliminando specifici impegni a non sviluppare tecnologie destinate a causare danni o a essere utilizzate come armi o per la sorveglianza invasiva.

Queste modifiche sono state evidenziate in una nota aggiunta a un post del 2018, in cui l’azienda aveva inizialmente delineato le sue linee guida etiche sull’AI. I nuovi principi enfatizzano ora la necessità di una supervisione umana appropriata, una due diligence accurata e l’allineamento con le leggi internazionali e i diritti umani, pur lasciando spazio all’esplorazione di applicazioni sensibili dell’AI.

Questa decisione ha suscitato preoccupazioni interne, con alcuni dipendenti che criticano la mancanza di coinvolgimento del personale e temono compromessi etici. In precedenza, Google aveva introdotto questi principi in risposta alle critiche per la sua partecipazione a un programma militare statunitense sui droni.

Nonostante le revisioni, l’azienda afferma di non consentire attività che violino la legge, come indicato nella sua Cloud Platform Acceptable Use Policy. Tuttavia, il controverso contratto Project Nimbus con il governo israeliano ha attirato l’attenzione per le sue implicazioni militari. Il cambiamento di Google rispetto agli impegni etici precedenti solleva interrogativi sul futuro sviluppo dell’AI e sottolinea la necessità di collaborare con entità che condividano valori democratici fondamentali.

Per maggiori informazioni, clicca per l’articolo originale.

Exit mobile version