il documento

L’IA sarà sicura. La promessa di Google, Microsoft, Meta e Amazon alla Casa Bianca. Ecco il documento

di |

Sette Big Tech, tra cui OpenAI e Anthropic, hanno sottoscritto l’impegno con il Presidente Joe Biden di ridurre i rischi legati all'intelligenza artificiale in termini di prevenzione dei rischi e delle minacce, ma anche di sicurezza nazionale.

LEGGI IL DOCUMENTO FIRMATO ALLA CASA BIANCA DAL TITOLO “ENSURING SAFE, SECURE, AND TRUSTWORTHY AI”

L’impegno con l’amministrazione Biden per un’IA sicura e affidabile

Sette grandi Big Tech americane hanno preso l’impegno ufficiale davanti al Presidente degli Stati Uniti, Joe Biden, di sviluppare un’intelligenza artificiale (IA) più sicura, accessibile e affidabile, sottoscrivendo il documento dal titolo “Ensuring Safe, Secure, and Trustworthy AI“.

Google, Microsoft, Meta, OpenAI, Amazon, Anthropic e Inflections hanno incontrato l’inquilino della Casa Bianca a Washington per concordare i piani di sviluppo dell’IA, soprattutto generativa, come ChatGPT, centrandoli sui concetti di sicurezza pubblica, di prevenzione dei rischi e di rispetto dei diritti individuali e democratici.

Le società elencate hanno concordato diverse linee di intervento, secondo quanto riportato da Corinne Reichert su cnet.com.

Prima di tutto, si sono impegnate a testare la sicurezza e le potenzialità dei propri sistemi di IA, sottoponendoli a diverse valutazioni, anche da parte di enti terzi, cercando di stimare i possibili rischi in termini di sicurezza personale e sociale, ma anche informatica, con l’impegno di rendere pubblici i risultati.

Ancora in termini di prevenzione dei rischi, è prevista la condivisione di best practice e standard per evitare l’uso improprio della tecnologia, riducendo i rischi per i singoli e le comunità e individuando eventuali pericoli per la sicurezza nazionale.

Altro punto chiave è l’affidabilità dell’IA e il livello di fiducia delle persone nella tecnologia stessa. Gli utenti di rete devono subito poter distinguere se un contenuto è stato prodotto o modificato da esseri umani o da IA.

Le società devono inoltre garantire che l’IA non discriminerà mai nessuno, in termini etnici, culturali, di genere e per le opinioni politiche, proteggendo infine i più deboli e i minori da ogni forma di pregiudizio e violenza di linguaggio e contenuti.

Ma non solo, lo stesso Biden, nel suo discorso davanti ai rappresentanti delle aziende invitate alla Casa Bianca, ha precisato che non bisogna sottostimare la paure che circolano tra la popolazione, come la disoccupazione tecnologica e le minacce alla privacy.

L’IA, infine, sarà impiegata anche per sviluppare nuovi modelli di business, per migliorare le strategie d’azione di contrasto ai cambiamenti climatici e nella cura di particolari malattie, tra cui i tumori.

L’innovazione è veloce, servono risposte adeguate ai rischi

L’amministrazione americana ha chiesto alle principali società del settore di impegnarsi seriamente in questo nuovo percorso di regolamentazione dell’intelligenza artificiale generativa, proprio per la rapidità con cui la tecnologia ha preso piede dal suo lancio a fine 2022.

L’arrivo di ChatGPT di OpenAI è stato a dir poco roboante, in termini di eco mediatica e popolarità raggiunta a livello mondiale. Da quel momento in poi società tecnologiche di fascia alta e anche startup del settore hanno rovesciato sul mercato un gran numero di strumenti di IA generativa e non. A metà marzo è arrivata ChatGPT-4, un altro grande successo globale.

Fin da subito si è capito che i problemi non sarebbero mancati, non solo per il singolo utente finale, ma anche a livello sociale e pubblico. La tecnologia ha un enorme appeal, ma spesso fornisce risposte errate, ambigue e anche false, o poco attendibili. Motivo per cui, in molti hanno puntato il dito contro l’IA generativa per la disinformazione che alimentava, o per i numerosi casi di discriminazione razziale e sessuale riscontrati, che andavano a rafforzare le preesistenti disuguaglianze.

Al lavoro per la giusta governance dell’IA

Sviluppando i nuovi modelli di IA le aziende dovrebbero assicurare livelli elevati di trasparenza relativi al funzionamento dei sistemi, collaborando attivamente con il Governo, l’industria, il mondo accademico e la società civile”, ha dichiarato Nick Clegg, Presidente Global Affairs di Meta, parlando del nuovo modello di linguaggio di ultima generazione LLaMA 2 che la società sta sviluppando.

Questo accordo con il Governo è un’assicurazione sul futuro dell’IA, che non dovrà mai rappresentare un rischio, o peggio una minaccia, per la nostra società”, ha affermato Brad Smith, Vice Chair and President di Microsoft, che è partner di Llama 2 e che ha integrato soluzioni IA nel suo motore di ricerca Bing, che utilizza ChatGPT, ma anche in Microsoft 365 e il browser Edge.

Stessa linea per Amazon e OpenAI, che chiedono maggiori sforzi da parte delle aziende e delle Istituzioni per individuare la giusta governance della tecnologia, che comunque avrà un impatto enorme sul mondo del lavoro, delle imprese, della politica, nonché a livello culturale, sociale e finanziario.

La parola d’ordine condivisa dalle sette Big Tech, infine, è guidare l’innovazione per crescere e allo stesso tempo proteggere consumatori e cittadini.

Il Governo americano pronto ad un provvedimento ad hoc

Su questo il Governo americano sta da tempo lavorando per un prossimo provvedimento proprio teso a migliorare i livelli di sicurezza e affidabilità dell’IA a livello nazionale, cercando ovviamente un percorso di approvazione bipartisan.

L’Office of Management and Budget degli Stati Uniti, infine, è al lavoro per rilasciare a breve delle nuove linee guida per tutte le agenzie federali che acquistano o utilizzano sistemi di intelligenza artificiale.

Durante l’anno sono state diverse le iniziative tese a sottolineare a livello pubblico il problema della sicurezza di questa tecnologia: dalla lettera dei 1000, tra cui Elon Musk, al documento firmato da centinaia di scienziati ed esperti, tra cui Sam Altman (OpenAI) e Demis Hassabis (DeepMind), sui rischi che si nascondono dietro l’uso di questi strumenti.

Il progetto europeo Solaris

L’intelligenza artificiale è qui per aiutare l’umanità oppure per creargli problemi sempre maggiori? Con il successo e la diffusione crescenti di questa tecnologia, il dibattito sul suo utilizzo sembra sempre più polarizzato tra pro e contro, tra entusiasti e catastrofici.

In che modo riusciremo ad affrontare questa sfida? “Contrariamente agli avvertimenti apocalittici dei magnati della tecnologia, l’IA non è un nemico fantascientifico che vuole distruggere il suo creatore – ha spiega all’Ansa Andrew McIntyre, ricercatore post-dottorato presso l’Università di Amsterdam (UvA) e membro del Progetto SOLARIS – Piuttosto, l’IA riflette e amplifica lo stato di fragilità della nostra società e queste paure esagerate non fanno altro che distrarre dai problemi reali e complessi che la tecnologia pone: dai pregiudizi alla discriminazione, dalla disinformazione al disimpegno democratico”.

SOLARIS è un progetto di ricerca europeo che nei prossimi tre anni punta e definire metodi e strategie per gestire i rischi, le minacce ma anche le opportunità che le intelligenze artificiali generative portano alla democrazia, all’impegno politico e alla cittadinanza digitale.

L’IA al momento non rappresenta solamente rischi e minacce, perché è una tecnologia e come tale il valore che gli attribuiamo, positivo o negativo, è legato esclusivamente al suo impiego e al modello di sfruttamento. Se riusciremo a regolare al meglio tale aspetto, l’IA rappresenterà invece per noi uno strumento straordinario che garantirà al mondo delle imprese, dell’economia, della ricerca e della cultura (e delle amministrazioni pubbliche) grandi opportunità di crescita e di miglioramento della qualità di servizi e prodotti, in ogni settore.

Leggi le altre notizie sull’home page di Key4biz