Il decalogo del Garante Privacy
Il Garante per la protezione dei dati personali ha varato un nuovo decalogo per la realizzazione di servizi sanitari a livello nazionale attraverso sistemi di intelligenza artificiale (IA).
Un tema molto sentito, sia a livello nazionale, sia europeo (e globale), perché l’impiego dell’intelligenza artificiale sta crescendo in tutti i settori più vitali della nostra società, dall’industria alla finanza, passando per i servizi professionali e la sanità pubblica.
Per questo il Garante ha voluto indicare dei principi cardine sulla base del Regolamento e alla luce della giurisprudenza del Consiglio di Stato: trasparenza dei processi decisionali, decisioni automatizzate supervisionate dall’uomo, non discriminazione algoritmica.
Il paziente/cittadino, si legge nel comunicato del Garante Privacy, deve avere il diritto di conoscere, anche attraverso campagne di comunicazione, se esistono e quali sono i processi decisionali (ad esempio, in ambito clinico o di politica sanitaria) basati su trattamenti automatizzati effettuati attraverso strumenti di IA e di ricevere informazioni chiare sulla logica utilizzata per arrivare a quelle decisioni.
La centralità della supervisione umana per mitigare gli errori dovuti a cause tecnologiche o di altra natura
Il personale sanitario deve sempre essere messo in condizioni di controllare, validare o smentire l’elaborazione effettuata dagli strumenti di IA, onde evitare danni al paziente.
La supervisione umana può infatti mitigare potenziali effetti discriminatori che un trattamento di dati inesatti o incompleti potrebbe comportare sulla salute della persona.
L’esempio riportato dal Garante è il caso americano, richiamato anche nel decalogo, riguardante un sistema di IA utilizzato per stimare il rischio sanitario di oltre 200 milioni di americani: “Gli algoritmi tendevano ad assegnare un livello di rischio inferiore ai pazienti afroamericani a parità di condizioni di salute, a causa della metrica utilizzata, basata sulla spesa sanitaria media individuale che risultava meno elevata per la popolazione afroamericana, con la conseguenza di negare a quest’ultima l’accesso a cure adeguate”.
Entusiasmo e timori a livello mondiale sull’uso dell’IA in campo sanitario
Non molto tempo fa, l’Organizzazione mondiale della sanità (Oms) ha preso ufficialmente posizione sullo spinoso tema dell’impiego dell’Intelligenza artificiale (IA) e dei modelli linguistici di grandi dimensioni (LLM) da essa generati nell’innovazione dei servizi sanitari pubblici offerti ai cittadini e nella cura dei pazienti.
L’innovazione non si può fermare, ma sicuramente si può guidare, con principi etici all’altezza delle sfide che attendono noi tutti da qui in poi.
C’è un giusto entusiasmo attorno alle tecnologie di punta e in particolare all’IA come strumenti efficaci per promuovere il benessere umano e quindi anche la salute pubblica, ma proprio per questo, si legge in un documento dell’Oms: “è fondamentale che i rischi connessi siano esaminati in maniera attenta e approfondita”.
La paura, ad esempio, è che “la cautela che normalmente verrebbe esercitata per qualsiasi nuova tecnologia non venga esercitata in modo coerente con gli LLM. Ciò include un’adesione diffusa ai valori chiave di trasparenza, inclusione, impegno pubblico, supervisione di esperti e valutazione rigorosa”, si legge nel documento.
Secondo l’Oms, in sostanza, l’adozione precipitosa di sistemi non testati potrebbe portare a errori da parte degli operatori sanitari, causare danni ai pazienti, erodere la fiducia nell’intelligenza artificiale e quindi minare (o ritardare) i potenziali benefici e gli usi a lungo termine di tali tecnologie in tutto il mondo.
Sulla stessa posizione anche il nostro ministero della Salute: “Uno sviluppo incontrollato e non governato dell’IA non è scevro da potenziali rischi, derivanti, ad esempio, dall’uso di sistemi di IA privi di una rigorosa validazione scientifica, dalla mancanza di controllo sui dati processati dai sistemi esperti, da possibili violazioni della privacy degli utenti e da discriminazioni introdotte dalla programmazione degli algoritmi; senza dimenticare le aspettative illusorie e fuorvianti per sanitari e pazienti derivanti da un utilizzo improprio dei sistemi di IA”.