Da Amazon a Uber, le Big tech oggi utilizzano sempre più algoritmi basati sul machine learning per personalizzare l’offerta di contenuti agli utenti. Queste aziende, secondo un team di ricercatori della Carnegie Mellon University (CMU), hanno il dovere morale di spiegare come funzionano i loro algoritmi e quali dati raccolgono.
Diversi informatici ed enti governativi hanno chiesto trasparenza sull’uso da parte delle aziende di algoritmi decisionali autonomi e sulla dipendenza dai dati degli utenti. Ad esempio, nel 2016 l’Unione Europea ha adottato il Regolamento generale sulla protezione dei dati (GDPR), parte del quale regola l’uso di sistemi decisionali automatici basati su algoritmi.
Nello studio intitolato Why a Right to an Explanation of Algorithmic Decision-Making Should Exist: A Trust-Based Approach il team ha evidenziato una certa ambiguità del GDPR nel porre obblighi di trasparenza per le aziende sulle modalità di profilazione, dando loro un modo per aggirare le responsabilità.
Quando le aziende non forniscono dettagli su come accedono ai profili degli utenti, da dove raccolgono i dati e con chi li scambiano, sono in gioco sia la correttezza che la fiducia, ha affermato il team.
Nell’era digitale, non è possibile ottenere un’autorizzazione preventiva alla divulgazione di informazioni con la piena consapevolezza di tutte le possibili conseguenze, ma ottenere un consenso informato è eticamente richiesto, ha affermato il team.
Diverse aziende hanno anche assunto data interpreters, professionisti che collegano il lavoro dei data scientist e le persone interessate dalle decisioni delle aziende per comprendere i problemi posti dalle decisioni automatizzate.
Non è chiaro se le richieste di una maggiore trasparenza sul funzionamento degli algoritmi impatterà negativamente sulle prestazioni delle aziende o porterà a risultati migliori, proprio come lo scontro sulla trasparenza tra Apple e Facebook. “Ma ancora più importante, il diritto alla spiegazione è un obbligo etico, al di là dell’impatto finale”, ha aggiunto il team.