Il 19 ottobre 2023 l’Organizzazione Mondiale della Sanità rilasciava un testo (Regulatory considerations on artificial intelligence for health) in cui elencava le più importanti considerazioni normative in materia di linee guida sull’intelligenza artificiale in sanità. La pubblicazione evidenziava l’importanza di stabilire tanto la sicurezza quanto l’efficacia dei sistemi di IA, rendendo velocemente fruibili sistemi adeguati a chiunque ne necessiti e caldeggiando il confronto tra gli stakeholder coinvolti (dagli sviluppatori ai regolatori, dai produttori agli operatori sanitari ai pazienti).
Oggi, a tre mesi di distanza, l’OMS pubblica le nuove Linee guida sulla gestione e governance dei modelli multi-modali di grandi dimensioni (Ethics and governance ofartificial intelligence for health – Guidance on large multi-modal models), tecnologia di IA generativa in ascesa su piattaforme come ChatGPT, Bard, Bert e con numerose altre applicazioni nel campo della salute (nell’assistenza sanitaria, nella ricerca scientifica, nella salute pubblica, nello sviluppo di farmaci).
Raccomandazioni per garantire l’uso consono degli LMM
Il documento, che si basa sulle Linee guida sull’intelligenza artificiale in sanità elaborate il 28 giugno 2021, contiene oltre 40 coordinate che devono essere prese in considerazione da governi, aziende tecnologiche e fornitori di assistenza sanitaria per assicurare l’uso appropriato dei Large Language Models, con il fine ultimo di promuovere e proteggere la salute della popolazione mondiale.
Jeremy Farrar, Chief Scientist dell’OMS, spiega che “le tecnologie di IA generativa hanno il potenziale per migliorare l’assistenza sanitaria, ma soltanto se coloro che sviluppano, regolano e utilizzano tali tecnologie identificano e tengono completamente in considerazione i rischi correlati. Necessitiamo di informazioni e politiche trasparenti per gestire la progettazione, lo sviluppo e l’utilizzo dei LMM, per ottenere risultati sanitari migliori e superare le perduranti ineguaglianze sanitarie”.
Ma non è tutto. Poiché tra i vantaggi per la salute legati all’uso delle nuove tecnologie, sussistono anche potenziali rischi. In particolare, c’è il rischio fake news in sanità, ovvero la produzione di affermazioni non veritiere, generiche, parziali o incomplete, in grado di nuocere alle persone che usano le informazioni per assumere decisioni sulla salute (finanche il pericolo che vengano incautamente delegate a un Large Language Model decisioni complesse sulla salute delle persone).
Inoltre, sussiste il pericolo concreto legato alla sicurezza informatica, anche in termini di erogazione di assistenza sanitaria (tra le tematiche oggi più dibattute, solo per fare due esempi, ci sono gli attacchi ransomware agli ospedali e il rischio cyber nelle farmacie).
IA e salute: le 5 aree di applicazione
Dunque, l’Organizzazione Mondiale della Sanità stila nuove coordinate per “navigare” con “raziocinio” all’interno di un campo di applicazione particolarmente vasto e mutevole nel tempo. Le nuove Linee guida sull’intelligenza artificiale in sanità tratteggiano cinque aree di applicazione dei Large Language Models (è bene ricordare che il 16 maggio 2023, la stessa OMS aveva già messo in allerta e chiesto prudenza circa l’uso di strumenti linguistici di grandi dimensioni generati dall’IA) in materia di salute:
- Diagnosi e assistenza clinica (ad esempio, rispondendo ai quesiti espressi dai pazienti).
- Utilizzo “guidato” dal paziente (ad esempio, per analizzare i sintomi e il trattamento).
- Compiti amministrativi (come la documentazione e il compendio delle visite dei pazienti nelle cartelle cliniche elettroniche).
- Formazione medica e infermieristica (inclusa l’offerta ai tirocinanti di incontri simulati con i pazienti).
- Ricerca scientifica e sviluppo di farmaci (anche con l’obiettivo di individuare nuovi composti).
Spiega Alain Labrique, direttore dell’OMS per la salute digitale e l’innovazione nella divisione scientifica: “I governi di tutti i Paesi sono chiamati a collaborare per regolamentare in maniera efficace lo sviluppo e l’utilizzo delle tecnologie di intelligenza artificiale, come i LMM”.