Aiutare le aziende ad usare al meglio l’Intelligenza Artificiale, in modo semplice e corretto tramite i dati sintetici. Questa in sintesi la mission di Clearbox AI, una startup torinese specializzata in AI, la cui Ceo Shalini Kurapati è stata premiata dalla Commissione Ue come una delle principali ‘Lady Tech’ europee. Kurapati prenderà parte all’evento ‘State of Privacy ‘23’ organizzato dal Garante Privacy il 18 settembre a Roma, per parlare dell’impatto dell’AI sulla società.
Key4biz. Clearbox AI, start up di intelligenza artificiale, per fare cosa?
Shalini Kurapati. Clearbox AI è una startup tech italiana che aiuta le aziende a lanciare progetti di Intelligenza Artificiale attraverso l’utilizzo di Dati Sintetici. Nasciamo nel 2019 col supporto dell’Incubatore del Politecnico di Torino, abbiamo fondato la società con 4 co-fondatori, me compresa, che si sono uniti dopo una lunga esperienza di ricerca e professionale in molti paesi europei. La nostra missione: comprendere gli ostacoli che le aziende incontrano nello sviluppo di Intelligenza Artificiale.
Key4biz. Quali sono i principali ostacoli per le aziende?
Shalini Kurapati. Abbiamo scoperto che molto spesso queste sfide sono legate ai dati, quando questi sono sensibili e difficili da gestire a livello di privacy, la loro quantità non è sufficiente, o non sono abbastanza rappresentativi per tutte le fasce di popolazione per garantire risultati di successo.
Key4biz. E’ qui che entrano in gioco i Dati Sintetici?
Shalini Kurapati. Sì. I Dati Sintetici possono risolvere questi problemi. Sono generati artificialmente da algoritmi AI sulla base dei dati originali, dei quali mantengono le proprietà statistiche e il potere predittivo, risultando quindi realistici. Essendo simili ma non uguali ai dati reali, non contengono informazioni personali e possono essere condivisi rispettando i regolamenti di privacy, come il GDPR. Offriamo un prodotto/software basato sulla nostra tecnologia proprietaria che genera dati sintetici di alta qualità per le aziende che vogliono iniziare e accelerare il loro percorso di Intelligenza artificiale. Il nostro team ha una duplice anima: forti radici nel mondo R&D con lauree dalle migliori università tecnologiche in Europa, che vanno mano nella mano con un approccio ingegneristico e pratico nel risolvere i problemi dei clienti. Le strade professionali e personali dei componenti del gruppo hanno attraversato l’Europa per convergere a Torino, dove è nata la missione Clearbox AI: creare valore per le imprese attraverso le tecnologie IA, rispettandone i principi etici.
Key4biz. Ci può fare qualche esempio concreto di come i Dati Sintetici possono aiutare le aziende?
Shalini Kurapati. Oggi avere un modello di Intelligenza Artificiale è molto facile. Basta un download. Ma la sfida vera è avere dati giusti dal punto di vista dell’accesso privacy e della qualità. I dati sintetici sono una delle soluzioni a questo problema. Sono generati artificialmente tramite algoritmi. Noi produciamo dati sintetici per due motivi principali: la tutela della privacy e poi in molti casi i data set non sono rappresentativi per diversi motivi, il che può creare pregiudizi (bias) dell’algoritmo. Questo perché l’algoritmo pensa erroneamente che questo set di dati rappresenti la realtà, ma non è così. I dati sintetici possono aumentare questo data set sbilanciato in modo tale da far rappresentare la realtà.
Key4biz. Ad esempio?
Shalini Kurapati. Ad esempio, sviluppiamo un algoritmo per riconoscere un tumore sulla pelle. L’algoritmo deve capire cosa vuol dire un algoritmo sulla pelle. Noi forniamo diversi esempi di tumori. Ma se forniamo soltanto esempi con carnagione bianca questo algoritmo non funziona per altre carnagioni di pelle. Quindi funziona soltanto per questo tipo di pelle. Un dato non rappresentativo può danneggiare altre persone se usiamo questo algoritmo senza testare tutti i tipi di persone.
Key4biz. E ancora?
Shalini Kurapati. Storicamente le donne non erano tantissime nel mondo del lavoro. Quindi, se alleniamo un algoritmo soltanto con dati storici, se anche mettiamo in produzione con dati attuali, l’algoritmo pensa che i dati storici sono la realtà. Magari prende delle decisioni sulla base del fatto che 30 anni fa la percentuale di donne al lavoro erano meno e quindi prende decisioni in base a dati ormai superati. Qui vengono in soccorso i dati sintetici, che prendono sempre in considerazione la realtà.
Key4biz. Un altro esempio dal campo medico?
Shalini Kurapati. Per tanto tempo i dati della ricerca sono sempre stati presi su degli uomini. Per tante malattie i sintomi delle donne non sono presenti e sono troppo pochi. Per esempio, per un infarto i sintomi di un uomo sono male al cuore e al braccio. Per una donna, invece, può essere mal di schiena. Però, se alleniamo un modello è successo anche questo, che un’azienda che ha sviluppato un algoritmo di intelligenza artificiale per riconoscere una malattia dai sintomi, per un uomo ha detto di andare subito al pronto soccorso. Ma per una donna ha detto che era un attacco di panico, calmati! Invece era un infarto. Quando parliamo di responsabilità, un algoritmo soprattutto per una applicazione per prendere decisioni su un curriculum o prendere decisioni su un mutuo, o decisioni sulla salute, quindi un impatto grande, dobbiamo avere una metodologia per capire quali dati stiamo usando. Come possiamo migliorare questo. Lo stesso discorso vale anche per il riconoscimento di frodi per banche e assicurazioni. Qui il problema è che gli esempi di frodi non sono molto numerosi ed è quindi difficile per l’algoritmo riconoscerle. Grazie ai dati sintetici possiamo fornire all’algoritmo più esempi per riconoscere le frodi.
Key4biz. Quali sono le aree di competenza del team?
Shalini Kurapati. Le aree di competenza del team spaziano tra machine learning, data science, data privacy, uncertainty quantification, project management, innovazione e sviluppo software, e sono state fondamentali per creare una visione condivisa.
Key4biz. La Commissione Europea l’ha premiata come una delle 50 più geniali e innovative ‘Lady Tech’. Per questo motivo è entrata nel progetto pilota, voluto da Bruxelles, per supportare start up ad elevato contenuto tecnologico guidate da donne. Come considera l’approccio di Bruxelles sull’IA? (vedi AI ACT)
Shalini Kurapati. Sì, siamo molto contenti di essere stati selezionati tra i vincitori del progetto Women TechEU, finanziato dalla Commissione Europea. L’iniziativa ha come obiettivo il supporto alle startup deep-tech guidate da donne per valorizzare il talento e favorire un’innovazione più inclusiva nell’ecosistema tech europeo. In questo senso, i dati sintetici che produciamo giocano un ruolo fondamentale per gli obiettivi del bando, per i motivi di mitigazione bias che abbiamo raccontato. Anche la nostra missione aziendale è in linea con questi fini perché si colloca all’intersezione tra tecnologia ed etica dell’Intelligenza Artificiale. In particolare, utilizzeremo i finanziamenti della Commissione Europea per creare un modulo basato sui dati sintetici che punta a diminuire la presenza di bias nei progetti di Intelligenza Artificiale. Credo che a livello europeo si stiano facendo molti passi avanti nella promozione della conoscenza e creazione di framework legati all’AI. Uno su tutti è l’AI Act, apripista nell’istituzione di regole esaustive e realmente applicabili per garantire la sicurezza dell’IA e l’innovazione responsabile, attraverso un approccio basato sul rischio delle applicazioni IA. Nonostante alcuni limiti (se ne è parlato per anni e ci sono sempre discussioni in corso) e sebbene potrebbe richiedere da 2 a 3 anni per entrare in vigore, ci sono comunque molte ragioni per sostenerlo fortemente. Ha creato un punto di riferimento e un quadro per la cooperazione nella regolamentazione globale dell’IA. Ha attivato opportunità per adottare codici di condotta e patti sull’IA per iniziare a mettere in pratica i principi della regolamentazione mentre aspettiamo che entrino in vigore e per cominciare ad adattarsi all’evoluzione della tecnologia IA. A complicare il tentativo dell’Ue, però, è anche la portata di una norma che, per essere efficace, deve essere riconosciuta a livello globale. Altrimenti rischia di essere agevolmente aggirata. Infatti le principali società che sviluppano l’AI nel mondo sono oggi Microsoft/Open AI, Google, Meta, Tesla, solo per citarne alcune: un panorama che coinvolge gli Stati Uniti, ma che inizia a coinvolgere anche la Cina. E gli Stati Uniti, per il momento, non hanno alcuna intenzione di frenare la ricerca e lo sviluppo: per quanto l’amministrazione Biden sia consapevole dei rischi, dopo tanti discorsi tutto ciò che è stato fatto ad oggi – di fatto – sono una serie di misure non legislative che suggeriscono ai colossi dell’AI come dovrebbero comportarsi per auto-regolare la propria tecnologia. Dobbiamo tutti essere molto interessati e proattivi nell’implementare i requisiti dell’AI Act, non solo per essere conformi, ma per garantirci un futuro responsabile!
Key4biz. Come governare i rischi dell’AI e come l’Italia, secondo lei, dovrebbe sostenere di più lo sviluppo dell’AI in Italia?
Shalini Kurapati. Spesso si parla dell’Italia come terra di cultura e di buon cibo, il che è assolutamente vero, ma dovremmo considerare che l’Italia ha già una lunga storia e saper-fare nell’industrializzazione e soprattutto nell’automazione industriale. In termini di robot density (un’importante indicatore dell’automazione industriale), l’Italia è davanti a Francia e Canada. Tuttavia, anche se non si può dire lo stesso dell’adozione delle applicazioni di IA e dell’innovazione guidata dai dati, l’Italia ha un grande potenziale. Abbiamo bisogno di una bella spinta nella giusta direzione in termini di creazione di maggiore consapevolezza e di cambiamento di mentalità. Ad oggi siamo molto felici di riscontrare sempre più interesse da parte delle aziende italiane nell’approfondire come si può implementare l’AI in maniera efficiente all’interno dei processi e, da parte nostra, cerchiamo da sempre di diffondere messaggi precisi per aiutarle a beneficiarne. Ad esempio, che l’AI non è appannaggio solo delle grandi aziende. Allo stesso tempo, però, bisogna avere una conoscenza precisa degli obiettivi per i quali si vuole usare l’AI, affidarsi a delle professionalità specifiche e ridimensionare le aspettative dell’AI come “panacea di tutti i mali”.
“State of Privacy ’23”, il 18 settembre l’evento del Garante. Scopri il programma