Sam Altman, CEO di OpenAI, ha dichiarato che è impossibile sviluppare strumenti come ChatGPT senza utilizzare contenuti protetti da copyright. Tuttavia, una nuova ricerca pubblicata su Nature rivela che il 57% dei contenuti presenti su Internet è generato da AI, il che sta compromettendo la qualità delle risposte prodotte dai chatbot.
Il problema nasce dal fatto che l’AI si basa su dati presenti online per addestrarsi, ma se questi dati sono generati a loro volta da AI, la qualità delle risposte si deteriora progressivamente.
I ricercatori di Oxford e Cambridge hanno evidenziato un fenomeno chiamato “model collapse”, dove la precisione e la varietà delle risposte AI peggiorano nel tempo a causa della sovrabbondanza di contenuti generati artificialmente.
Questo circolo vizioso non solo riduce l’affidabilità delle risposte, ma esclude anche informazioni di nicchia, come razze canine rare, dall’ambito di conoscenza delle AI. In un contesto in cui è sempre più difficile distinguere tra contenuti reali e generati da AI, le implicazioni di questa dinamica sono significative per l’evoluzione della tecnologia e la qualità dei risultati di ricerca.
Per maggiori informazioni, clicca per l’articolo originale.
Cina e Iran utilizzano l’AI per influenzare le elezioni negli Stati Uniti, avvertono gli esperti
Secondo esperti, attori malevoli provenienti da Cina e Iran stanno cercando di manipolare l’opinione pubblica americana in vista delle elezioni presidenziali del 2024, utilizzando l’intelligenza artificiale per creare contenuti che suonano più naturali e convincenti per il pubblico statunitense. Un sito chiamato “Nio Thinker”, apparentemente gestito da liberali americani, si è rivelato essere parte di un’operazione di influenza iraniana.
Questi attacchi sono supportati da campagne di disinformazione che sfruttano strumenti come ChatGPT per generare testi in grande quantità e con pochi errori linguistici, aumentando l’efficacia di tali operazioni. Anche la Cina è coinvolta in simili sforzi, utilizzando profili falsi sui social media per diffondere messaggi a favore di Donald Trump, noti come “MAGAflage”.
La crescente sofisticazione di questi tentativi di manipolazione, alimentati dall’uso massiccio di AI generativa, segna una nuova fase nella disinformazione elettorale globale, rappresentando una sfida significativa per la sicurezza informatica e l’integrità delle elezioni.
Per maggiori informazioni, clicca per l’articolo originale.
La California approva una legge che richiede il consenso per l’uso di repliche digitali AI di attori deceduti
Il Senato della California ha approvato una nuova legge che richiede il consenso esplicito per l’utilizzo di repliche digitali AI di attori defunti, un passo significativo sostenuto da SAG-AFTRA per proteggere i diritti delle famiglie e degli eredi delle celebrità.
La legge, denominata AB 1836, stabilisce che chiunque intenda utilizzare le immagini o le voci di attori scomparsi in film, programmi televisivi, videogiochi, audiolibri o altre produzioni, dovrà prima ottenere l’autorizzazione dai rappresentanti legali degli attori. Questo provvedimento è parte di una strategia più ampia volta a rafforzare le protezioni legali contro l’uso non autorizzato delle immagini digitali dei performer, in un’era in cui la tecnologia AI è sempre più utilizzata per creare rappresentazioni realistiche e fedeli di persone decedute.
La legge AB 1836 si affianca a un’altra normativa, la AB 2602, che rafforza i requisiti di consenso per l’utilizzo dell’AI per replicare i performer viventi. Entrambe le leggi attendono ora la firma del Governatore Gavin Newsom per diventare operative. Questa legislazione mira a prevenire abusi e a garantire che la memoria e l’eredità degli artisti siano rispettate anche dopo la loro morte, stabilendo un importante precedente nel campo dell’intelligenza artificiale e dei diritti di immagine.
Per maggiori informazioni, clicca per l’articolo originale