L’IA, le emozioni umane e la depressione
Le nuove tecnologie sul mercato ci consentono di comprendere meglio i nostri comportamenti, a volte anche i nostri pensieri, ora, secondo molti esperti, ci aiuteranno a trovare il bandolo della matassa della nostra variabilità emotiva quotidiana.
Riconoscimento facciale, studio delle espressioni del viso e dei movimenti, analisi della scrittura e della parlata, più tutta una serie di sistemi per il monitoraggio dei comportamenti e degli atteggiamenti passivi, sono le soluzioni tecnologiche oggi più impiegate per la comprensione della nostra emotività e delle malattie ad essa collegate, tra cui la depressione (intesa come disturbo dell’umore).
Grandi aziende tecnologiche, come le cosiddette Big Tech, sono interessate a questo promettente settore ed Apple ha annunciato da poco uno studio, condotto in partnership con l’UCLA (University of California, Los Angeles), proprio dedicato al riconoscimento di uno stato di depressione condotto attraverso l’impiego di tecnologie sofisticate, tra cui l’intelligenza artificiale, che in campo scientifico è chiamata “emotion AI” o Affective Computing or Artificial Emotional Intelligence.
L’emotion AI non affidabile
Un articolo del Wall Street Journal ha affrontato in maniera approfondita questa ricerca targata Apple-UCLA, valutandone i rischi e gli aspetti più negativi.
Sfruttare un iPhone e un Apple Watch per misurare tutti i principali parametri vitali del nostro corpo (frequenza cardiaca e respiratoria, temperatura corporea, qualità del sonno, pressione e altro), associandoli a quanto scoperto dell’IA, che ne frattempo ha scrutato il resto dei nostri comportamenti e atteggiamenti sopra elencati, potrebbe non portarci sulla strada giusta nello studio della depressione.
L’emotion AI per lo studio del nostro stato umorale, infatti, si basa su presupposti errati, secondo molti studiosi e numerosi esponenti della comunità medica internazionale e americana.
“Le soluzioni tecnologiche impiegate non sembrano essere abbastanza precise e accurate nel lavoro di rilevamento delle emozioni e di valutazione della salute mentale di un individuo”, ha spiegato Hayley Tsukayama, legale della Electronic Frontier Foundation.
L’errore più grande che si commette nell’utilizzo di queste tecnologie, in un campo così delicato come quello delle emozioni, secondo Kate Crawford, ricercatrice della Annenberg School for Communication and Journalism della University of Southern California e autrice di “Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence”, è voler dedurre più informazioni possibili, dagli stati umorali interni e dai comportamenti esterni, rispetto a quanto le persone vogliano rivelare.
In un articolo del 2019 pubblicato sulla rivista accademica Psychological Science in the Public Interest, un gruppo di ricercatori ha affermato che tali soluzioni di emotion AI, al di là della potenza di calcolo e di quanto sofisticati siano gli algoritmi, semplicemente non sono affidabili, nel migliore dei casi offrono un panorama di informazioni incomplete, nel peggiore del tutto prive di validità.
Una minaccia per la nostra privacy
Rimane poi il problema gigantesco dei dati sanitari e sulla salute appartenenti solo ed esclusivamente alla persona. Queste tecnologie hanno modo di raccogliere i nostri dati personali sulla salute corporea e mentale, in che modo li tratteranno? Come saranno gestiti? In che modo? Dove? Con quali livelli di sicurezza? Chi vi potrà accedere oltre noi?
Sono domande a cui le Big Tech, tra cui Apple, devono dare risposte certe nell’immediato. Oggi l’emotion AI è un modello di valutazione del nostro status umorale impiegato in molte aziende, nelle carceri, nelle scuole e in molti altri ambiti.
Aziende come Dunkin’ Donuts, Unilever, Carnival Cruise Lines e IBM le usano per il reclutamento del personale. Le tecnologie Affective computing rappresentano già oggi un mercato mondale da 20 miliardi di dollari, ma entro il 2027 potrebbe raggiungere i 192 miliardi di dollari, secondo stime Grand View Research, .
Senza la legislazione sulla privacy che includa la protezione dei dati biometrici delle persone, i consumatori non hanno molta autorità su come i loro dati sono e saranno utilizzati, elaborati e archiviati.