Generative AI Insights è la rubrica curata da Recomb, il think tank dedicato all’esplorazione dell’impatto e del potenziale dell’AI generativa in vari aspetti della vita umana. Recomb studia l’AI generativa da tutte le angolazioni: professionale, etica, tecnica, legale, economica, ambientale, sociale, educativa e culturale. Per leggere tutti gli articoli della rubrica Generative AI Insights su Key4biz clicca qui..
Centinaia di cittadini statunitensi sono stati arrestati in seguito a identificazioni effettuate da software di riconoscimento facciale, secondo un’indagine condotta dal Washington Post. Tuttavia, molti di questi non sono stati informati della presenza della tecnologia nei procedimenti contro di loro, limitando la possibilità di contestare la legittimità delle prove.
Le forze dell’ordine in 15 stati hanno fornito al giornale i documenti che testimoniano l’uso del riconoscimento facciale in oltre 1.000 indagini negli ultimi quattro anni. In molti casi, però, i sospettati non sono stati informati dell’impiego di questa tecnologia controversa, spesso soggetta a errori, soprattutto quando coinvolge persone di colore. I dipartimenti di polizia hanno omesso l’uso del riconoscimento facciale nei rapporti pubblici, indicando genericamente di aver identificato i sospetti “attraverso metodi investigativi” o tramite fonti umane.
La mancanza di trasparenza è stata criticata dagli avvocati difensori e dai gruppi per i diritti civili, che sostengono il diritto dei cittadini di conoscere gli strumenti utilizzati contro di loro. Inoltre, non vi sono leggi federali che regolamentano l’uso del riconoscimento facciale, lasciando ampi margini di discrezione agli organi di polizia. Le autorità giudiziarie stanno iniziando a esprimere perplessità sull’affidabilità del riconoscimento facciale, che ha già portato a diversi arresti errati. La revisione delle politiche di divulgazione è in corso in alcuni stati e città, ma rimane una questione di grande dibattito legale ed etico.
Per maggiori informazioni, clicca per l’articolo originale.
Candidato al Congresso della Virginia crea chatbot AI per sostituire l’avversario in un dibattito
L’articolo riporta l’iniziativa di Bentley Hensel, candidato indipendente per l’8° distretto congressuale della Virginia, che ha creato un chatbot basato su AI per sostituire l’avversario Don Beyer, deputato in carica, in un dibattito online programmato per il 17 ottobre.
Il chatbot, denominato DonBot e sviluppato utilizzando l’API di OpenAI, è stato addestrato sui contenuti ufficiali di Beyer, come dichiarazioni stampa e dati della Commissione Elettorale Federale. Hensel afferma che il bot non ha l’intento di ingannare il pubblico, ma piuttosto di garantire trasparenza e offrire agli elettori la possibilità di ascoltare il punto di vista di tutti i candidati, anche se Beyer non partecipa.
Tuttavia, l’iniziativa solleva questioni legali ed etiche riguardo l’uso delle tecnologie AI nelle campagne elettorali. Tre avvocati della Virginia e un gruppo di sorveglianza elettorale hanno sottolineato che Beyer avrebbe poche possibilità di impedire il dibattito, a meno che il chatbot non venga utilizzato per scopi commerciali o per ingannare deliberatamente gli elettori.
Il dibattito sarà trasmesso online e vedrà la partecipazione di Hensel, David Kennedy (un altro candidato indipendente), e, in mancanza di altri partecipanti, un’eventuale replica AI di Jerry Torres, candidato repubblicano che non ha confermato la sua partecipazione.
La vicenda mette in luce i potenziali rischi e i limiti della regolamentazione sull’uso delle AI in contesti politici e l’impatto di queste tecnologie sulla trasparenza e l’informazione elettorale.
Per maggiori informazioni, clicca per l’articolo originale.