Musk chiede agli utenti di X di addestrare l’AI Grok, sottovalutando i rischi per la privacy
L’imprenditore americano Elon Musk, proprietario di Tesla e SpaceX, ha chiesto agli iscritti della piattaforma social X di condividere i propri dati sanitari per accelerare l’addestramento del suo chatbot di intelligenza artificiale (AI) Grok. Un molti si sono chiesti che ne sarà della privacy degli utenti.
Un’iniziativa gravida di pericoli, infatti, soprattutto per i dati personali degli utenti e in particolare per quelli sanitari, estremamente sensibili e delicati ad ogni tipo di sfruttamento.
Non è la prima volta che l’imprenditore sottovaluta i rischi per la privacy delle sue attività. Per aver dato in pasto a Grok i dati degli iscritti della sua X (ex Twitter) la Commissione irlandese per la protezione dei dati personali ha avviato un procedimento giudiziario proprio contro Grok di xAI, altra società fondata da Musk.
In questi giorni Musk ci ha riprovato e ha chiesto agli utenti di “inviare radiografie, PET, MRI o altre immagini mediche” alla piattaforma AI per essere esaminate. “Siamo ancora in una fase iniziale, ma è già abbastanza accurato e diventerà estremamente efficiente. Fateci sapere dove Grok ha ragione o dove c’è bisogno di lavorare“, ha aggiunto su X.
I limiti di Grok
Descritto come “un assistente di ricerca AI con senso dell’umorismo e un pizzico di ribellione“, Grok è progettato per avere meno barriere di protezione rispetto ai suoi principali concorrenti, tra cui ChatGPT di OpenAI e Claude di Anthropic.
Non sorprende quindi che Grok sia incline ad allucinazioni e pregiudizi, con l’assistente AI accusato di aver diffuso disinformazione sulle elezioni del 2024.
Oltre a questi rischi piuttosto gravi, c’è da tenere sempre a mente che le AI si nutrono di dati e che questi devono essere protetti ai massimi livelli.
I pericoli per la privacy
Gli esperti concordano ampiamente sui pericoli che la condivisione di dati sensibili con sistemi di intelligenza artificiale può comportare per il pubblico di internet. Anche la politica sulla privacy di xAI scoraggia gli utenti dall’includere informazioni personali nei prompt. “Si prega di non condividere alcuna informazione personale (incluse informazioni sensibili) nelle domande a Grok“, si legge sul sito web.
Ryan Tarzy, CEO della startup tecnologica sanitaria Avandra Imaging, in un articolo pubblicato su fastcompany.com, ha affermato: “Musk sta cercando di accelerare lo sviluppo di Grok aggirando l’approvvigionamento diretto dei dati anziché ottenerli da una rete protetta in cui i dati dei pazienti sono stati resi anonimi”.
“Questo approccio presenta innumerevoli rischi, tra cui la condivisione accidentale delle identità dei pazienti“, ha aggiunto Tarzy. “La raccolta dei dati non sarà inoltre sistematica e, pertanto, il set di dati sarà pieno di pregiudizi e non rappresentativo della popolazione“, ha quindi sottolineato il CEO di Avanda Imaging.
Proteggiamo i nostri dati sanitari, lo dice anche ChatGPT
A questo punto abbiamo chiesto a ChatGPT, il grande rivale di Grok, perché è importante proteggere i propri dati sanitari e soprattutto perché è fondamentale fare molta attenzione alla condivisione di questi con le AI.
Ecco la risposta:
on condividere informazioni sanitarie con chatbot di intelligenza artificiale è essenziale per preservare la privacy e la protezione dei dati sensibili. Questi dati sanitari potrebbero essere esposti a rischi, come:
- Utilizzo improprio: Le informazioni condivise potrebbero essere memorizzate e analizzate per scopi diversi da quelli dichiarati, senza il consenso dell’utente.
- Violazioni della sicurezza: Non tutte le piattaforme garantiscono una protezione adeguata contro l’accesso non autorizzato.
- Impossibilità di anonimato: I dati sanitari possono identificare l’utente, esponendolo a discriminazioni o pregiudizi.
- Ambiguità legale: Alcuni servizi non rispettano appieno le normative su privacy e dati, come il GDPR in Europa, che protegge i dati sensibili e il diritto alla riservatezza.
L’adozione di sistemi certificati per gestire i dati sanitari è quindi fondamentale per evitare che queste informazioni vengano utilizzate senza il controllo dell’utente.
Non c’è anche un rischio di sfruttamento commerciale illecito di questi dati?
Sì, ha risposto ChatGPT, condividere dati sanitari con chatbot di IA comporta anche il rischio di sfruttamento commerciale illecito. Le informazioni sensibili potrebbero essere usate per profilare gli utenti e inviare pubblicità mirate, o, in alcuni casi, essere vendute a terzi senza il consenso dell’utente. I dati sanitari, infatti, sono particolarmente preziosi per aziende farmaceutiche, assicurative e di marketing, che potrebbero approfittare della loro divulgazione per guadagni economici. La protezione di questi dati è cruciale per evitare utilizzi non etici e garantire la riservatezza dell’utente.