Fino a poco tempo fa non a tutti era chiaro come funzionassero, sta di fatto che le Intelligenze Artificiali, presenti ormai da molti anni e in forme molto diverse da quelle attuali, si sono evolute esponenzialmente e oggi si stanno diffondendo a livello globale in vari contesti, in modo più dirompente rispetto all’avvento dei primi motori di ricerca su Internet.
Le principali ragioni “tecniche” di tale velocissima evoluzione sono da ricercarsi nell’utilizzo di tecniche di machine learning, ovvero metodi di apprendimento automatico di tali sistemi. Questa moderna acquisizione di conoscenza fa assorbire contenuti all’IA molto più velocemente (di fatto, auto-imparando).
Infatti, la tradizionale “programmazione” informatica è stata affiancata al nuovo sistema di apprendimento dell’IA che appare integrata in molti contesti della nostra realtà aumentata e quasi a suo agio.
I sistemi di Intelligenza Artificiale nascono per essere di ausilio all’uomo e una delle principali accortezze nella gestione di questi apparati è il rispetto e la tutela dei diritti umani, dei diritti delle minoranze e un costante controllo per evitare che bias del sistema possano causare discriminazioni.
Allora ci si è chiesti: e se l’IA fosse una opportunità per andare oltre il rischio di discriminazione? Se le Intelligenze Artificiali fossero un’occasione per sostenere proprio le minoranze, situazioni di difficoltà e alcune patologie?
Le Intelligenze Artificiali operano già nell’ambito del riconoscimento facciale e dello sguardo, nella traduzione plurilingue e nella risposta a quesiti complessi: e se potessero aiutare in modo serio anche in campo medico, aiutare pazienti e caregiver a gestire le difficoltà comunicative all’interno di alcune unicità come i disturbi dello spettro autistico?
Lo spettro autistico
Di cosa parliamo?
L’autismo non è un disturbo definito con certezza, in quanto è un insieme di alterazioni – con diverse intensità a seconda dei soggetti – dello sviluppo celebrale.
I bambini con problematiche legate allo spettro autistico hanno spesso difficoltà nella comunicazione e nell’interazione con gli altri, talvolta presentano delle difficoltà di comprensione del pensiero altrui e ad esprimersi con parole, attraverso la gestualità o con l’utilizzo dei movimenti facciali.
È molto importante il legame che la persona con disturbo autistico crea con la famiglia o con il caregiver perché tale figura è in grado di tradurre il suo linguaggio, la sua comunicazione – a volte anche gestuale – e riesce, quindi, intervenendo o meno, a calmare possibili crisi e paure della persona autistica.
Da questo punto di partenza, per creare uno strumento di decodificazione delle esigenze dei soggetti in questione, si è pensato di far interagire le Intelligenze Artificiali in tali situazioni, permettendo loro di “aiutare” le persone ed “imparare” dalle stesse, anche affiancandosi in modo virtuale al caregiver. Questo porterebbe delle implicazioni positive sia a livello sociale sia lavorativo – rispetto all’ambiente – del caregiver, della sua famiglia e dello stesso interessato.
Norme giuridiche a tutela dei dati sensibili sanitari
I dati sensibili sanitari richiedono una protezione particolare perché il loro contenuto, in questo caso riferito ad una persona autistica potrebbe essere utilizzato per discriminarlo o per comportamenti illeciti.
Per queste ragioni si ritiene che le IA che operano su tali dati costituiscano operatori IT ad alto rischio e pertanto in caso di BIAS o danni rispondano in modo oggettivo, a prescindere dall’esistenza di dolo o colpa ma semplicemente per responsabilità oggettiva e per il “trattare” dati ad alto rischio.
La legge prevede diverse misure di sicurezza a tutela di questo tipo di dati all’interno di sistemi di intelligenza artificiale, che si tratti di chat o di sistemi di aiuto in realtà aumentata, per percorrere piccoli tragitti in autonomia:
- Si devono attuare protocolli di sicurezza avanzati per proteggere le informazioni scambiate tra utenti e chat -IT, ad esempio tramite crittografia dei dati o la richiesta di autenticazione rinforzata basata su token per garantire che solo gli utenti autorizzati possano controllare i dati e chi ne abbia accesso;
- Si devono rispettare le norme del GDPR in materia di protezione dei dati personali, con il principio di minimizzazione dei dati raccolti, con l’anonimato dei dati dove possibile, con il diritto alla cancellazione e all’oblio del dato;
- Laddove previsto, alla disciplina europea si aggiunge il rispetto delle norme HIPAA, la normativa americana per le aziende che trattano dati sanitari chiamata “Health Insurance Portability and Accountability Act”.
Alcune sperimentazioni con ChatGPT e progetti per semplificare la comunicazione nella sfera dello spettro autistico
Recentemente sono stati interpellati alcuni terapeuti riguardo la possibilità di utilizzo di ChatGPT in ambito terapeutico e comunicativo in ausilio a persone con disturbi connessi allo spettro autistico. Si ritiene che l’Intelligenza Artificiale potrebbe imparare a comunicare con tali soggetti, tenuto conto delle sue “regole” lessicali, e ciò potrebbe essere di ausilio anche al suo caregiver.
Ancora più importante in questo caso, sarebbe il monitoraggio di una terza persona nell’inserimento e lettura dei dati, ed anche nella fase iniziale di apprendimento dell’IA che attraverso il machine learning potrebbe migliorare da sé la codificazione del linguaggio con la persona autistica.
E’ utile anche tenere conto di regole e normative che tutelano la sicurezza dell’utente, del fatto che ci si sta addentrando all’interno di un settore ad alto rischio e che talvolta le risposte della chat potrebbero non essere puntuali.
Nell’uso e sperimentazione di ChatGPT per semplificare la comunicazione delle persone con autismo, il programma ha risposto facilitando l’inserimento di tali soggetti nella comunicazione, esprimendosi per sensazioni connesse al tempo e al clima – di più facile comprensione per il soggetto in questione – perché collegato al mondo naturale.
Altre sperimentazioni di Intelligenza Artificiale di ausilio a problematiche cognitive, stavolta con delle ripercussioni fisiche e non solo legate al linguaggio, sono in corso presso le Università italiane, in cui si sta studiando la possibilità di sviluppo di un sistema di realtà aumentata e semplificata, per consentire delle piccole azioni in autonomia a ragazzi con problematiche connesse allo spettro autistico, dei piccoli sostegni in grado di aiutarli a superare i propri scogli, forse un po’ più visibili rispetto altri esseri umani ma non per questo più gravi o meno superabili.
Questa tipologia di progetti nasce dal presupposto che i principali “scogli” dei disturbi dello spettoro autistico sono costituiti da difficoltà adattativa, difficoltà nella comunicazione sociale e deficit del comportamento adattativo.
Così, tramite l’IA, è possibile che il ragazzo con problematiche legate allo spettro autistico possa riuscire a prendere la metropolitana e percorrere dei tratti di percorso in autonomia attraverso un training con l’aiuto di un personaggio che appare loro in monitor nella realtà aumentata, che guida e ripete le azioni e le modalità di comportamento per – ad esempio – obliterare un biglietto prima di accedere alla metro, oppure leggere un determinato cartello con le indicazioni stradali.
Lo sviluppo di questo tipo di software consentirebbe anche di avere degli stimoli audio e video, di essere chiamati per nome dalla stessa Intelligenza Artificiale, al fine di permettere a persone autistiche risposte più consapevoli e sicure allo svolgimento di piccole attività in autonomia come prendere un mezzo pubblico, andare al museo, muoversi in un centro commerciale.
Nello sviluppo di questa Intelligenza Artificiale ad hoc per lo spettro autistico si possono anche coinvolgere caregiver e terapisti che costituirebbero un ponte tra la persona che richiede aiuto e l’intelligenza artificiale.
Conclusioni
La realtà fisica e la realtà virtuale delle intelligenze artificiali stanno ormai confluendo e in molti ambiti già emerge l’urgenza di un controllo giuridico o una riconduzione del fenomeno a norme giuridiche già esistenti, in grado di disciplinare i rischi connessi all’utilizzo e ai diritti di tali prodotti.
Non solo è importante seguire le regole di protezione dei dati personali contenuti nelle AI, secondo la logica delle norme del GDPR (volte all’eliminazione o alla riduzione per quanto più possibile dei rischi) ma è anche opportuna una verifica dei dati immessi e della loro correttezza, un controllo sul corretto apprendimento della AI sia all’inizio sia durante la fase di apprendimento automatico, anche attraverso due diligence tecniche e giuridiche periodiche, ed infine serve un controllo mirato a scongiurare violazioni dei diritti umani e antidiscriminazione.
Si potrebbe pensare a differenti meccanismi di controllo in fase di utilizzo della IA, magari gestite attraverso un accesso autenticato del caregiver, o attraverso una serie di alert che vengono notificati al familiare nel caso in cui la chat viri su significati ambigui o pericolosi.
Ad ogni modo, il metodo più efficiente per valutare se i sistemi di IA possano essere efficacemente utilizzati in tali ambiti sanitari è sperimentarli e vedere se si ottengono risultati. Può valerne veramente la pena, soprattutto in assenza di strumenti alternativi, sempre che si tenga alto il monitoraggio umano!