Il presidente degli Stati Uniti Donald Trump ha annullato un ordine esecutivo firmato nel 2023 dal suo predecessore Joe Biden, che mirava a mitigare i rischi posti dall’AI per la sicurezza nazionale, i lavoratori e i consumatori.
L’ordine di Biden richiedeva ai sviluppatori di sistemi di AI, potenzialmente rischiosi per la salute pubblica o l’economia, di condividere i risultati dei test di sicurezza con il governo prima del rilascio commerciale.
La misura si basava sul Defense Production Act per garantire una supervisione più rigorosa. Durante il suo secondo giorno di mandato, Trump ha motivato la revoca sottolineando l’importanza di ridurre i vincoli normativi per favorire l’innovazione tecnologica.
Tuttavia, questo passo ha sollevato preoccupazioni tra gli esperti e i difensori della regolamentazione dell’AI, che temono che la mancanza di supervisione possa aumentare i rischi associati a tecnologie avanzate, specialmente in settori critici come la sicurezza informatica e l’economia.
L’atto simbolico di Trump riflette una svolta politica rispetto all’approccio più cauto dell’amministrazione precedente.
Mentre il dibattito sull’equilibrio tra innovazione e regolamentazione continua, questa decisione pone nuove sfide per l’industria dell’AI negli Stati Uniti, che potrebbe affrontare pressioni sia interne che esterne per stabilire standard etici e di sicurezza.
Per maggiori informazioni, clicca per l’articolo originale.
La FTC suggerisce che le partnership di AI potrebbero essere sottoposte a controlli antitrust
La Federal Trade Commission (FTC), in un recente rapporto, ha sollevato preoccupazioni su potenziali violazioni delle normative antitrust derivanti dalle collaborazioni tra aziende leader nell’intelligenza artificiale, come OpenAI e Anthropic, e grandi fornitori di servizi cloud, come Microsoft, Amazon e Google.
Secondo la FTC, tali partnership, basate su diritti esclusivi, investimenti significativi e condivisione di ricavi, potrebbero ostacolare la concorrenza, limitando l’accesso delle startup alle risorse necessarie per lo sviluppo di modelli di AI. Lina Khan, Presidente uscente della FTC, ha sottolineato l’importanza di vigilare contro strategie aziendali che potrebbero chiudere il mercato a nuovi attori, minando l’innovazione.
Nel corso del suo mandato, la Khan è stata al centro di controversie politiche per la sua ferma posizione contro il potere delle Big Tech. La sua preoccupazione principale riguarda l’impatto di queste partnership sull’equità del mercato, con potenziali conseguenze sia per lo sviluppo tecnologico che per l’accessibilità ai modelli di AI.
Il rapporto evidenzia che aziende come Microsoft e Google, già sotto inchiesta per comportamenti anticoncorrenziali, potrebbero affrontare ulteriori controlli. Ad esempio, Google è stata condannata per monopolio nel settore delle ricerche online e potrebbe essere costretta a cedere il browser Chrome come rimedio.
Nel contesto delle crescenti tensioni normative, la FTC ribadisce la necessità di regolamentazioni più rigide per garantire mercati aperti e sostenere l’innovazione.
Per maggiori informazioni, clicca per l’articolo originale.
Il potente strumento di AI che le forze dell’ordine (o gli stalker) possono usare per geolocalizzare foto in pochi secondi
GeoSpy è una nuova tecnologia di AI sviluppata da Graylark Technologies che consente la geolocalizzazione rapida di immagini basandosi su dettagli come suolo, architettura e vegetazione.
Utilizzata inizialmente da privati, la piattaforma è stata recentemente indirizzata verso forze dell’ordine e agenzie governative per scopi investigativi. Tuttavia, l’accesso al sistema ha sollevato preoccupazioni etiche e di sicurezza, poiché utenti non autorizzati l’hanno sfruttata per scopi controversi, come il tracciamento di persone senza il loro consenso.
Addestrato su milioni di immagini globali, GeoSpy si distingue per la capacità di identificare elementi specifici nelle fotografie e restringere le aree di ricerca a pochi chilometri. Mentre i professionisti dell’intelligence open source impiegano anni per sviluppare competenze simili, GeoSpy consente a chiunque, con poca formazione, di ottenere risultati comparabili.
L’azienda ha ricevuto critiche per la possibilità che questo strumento venga utilizzato per scopi illeciti o invasivi, con casi documentati di richieste inappropriate sulla community Discord legata al servizio. In risposta, GeoSpy ha ristretto l’accesso al sistema, rendendolo disponibile solo a enti qualificati. Tuttavia, restano aperte discussioni sull’accuratezza dei dati forniti e sulle implicazioni derivanti da errori nei risultati, specialmente in ambito investigativo.
Nonostante le controversie, GeoSpy ha ottenuto investimenti da aziende rinomate nel settore tecnologico, dimostrando il suo potenziale innovativo nel panorama delle applicazioni di AI. Il dibattito sulla necessità di regolamentare simili strumenti rimane centrale, evidenziando il rischio di abusi e violazioni della privacy.
Per maggiori informazioni, clicca per l’articolo originale.