Generative AI Insights è la rubrica curata da Recomb, il think tank dedicato all’esplorazione dell’impatto e del potenziale dell’AI generativa in vari aspetti della vita umana. Recomb studia l’AI generativa da tutte le angolazioni: professionale, etica, tecnica, legale, economica, ambientale, sociale, educativa e culturale. Per leggere tutti gli articoli della rubrica Generative AI Insights su Key4biz clicca qui..
A partire da maggio 2024, l’Ufficio del Procuratore Pubblico di Buenos Aires ha iniziato a utilizzare l’AI generativa per redigere sentenze preliminari relative a controversie sul lavoro pubblico, in particolare richieste salariali.
ChatGPT analizza i documenti caricati, identifica schemi ricorrenti, seleziona modelli standardizzati e redige bozze di sentenze, riducendo il tempo di preparazione da un’ora a soli dieci minuti. Sebbene l’efficienza sia migliorata significativamente, la transizione da PROMETEA, un precedente sistema basato sull’AI, a ChatGPT ha sollevato questioni etiche e legate alla privacy, tra cui la gestione di dati sensibili e la possibilità di errori (note come ‘allucinazioni’).
Gli esperti locali, come Lucas Barreiro, sottolineano i rischi associati alla condivisione non regolamentata di informazioni personali, che potrebbero avere implicazioni legali rilevanti. Preoccupazioni simili sono emerse anche in altri Paesi come gli Stati Uniti, dove i giudici hanno criticato l’affidabilità di ChatGPT, e la Colombia, dove l’uso dell’AI in ambito giudiziario è stato contestato.
Il progetto rappresenta una svolta nella digitalizzazione della giustizia argentina, favorendo la democratizzazione delle tecnologie avanzate.
Tuttavia, rimangono problemi legati alla formazione degli utenti e ai pregiudizi insiti nei modelli di AI. Per mitigare i rischi, l’Ufficio del Procuratore sta sviluppando tecniche di anonimizzazione per i dati sensibili e mantenendo PROMETEA per casi più delicati come quelli di violenza di genere.
Nonostante i limiti attuali, il passaggio a ChatGPT viene visto come un’evoluzione inevitabile che ridefinisce i ruoli dei professionisti legali, trasformandoli in supervisori ed editori. Tale transizione segnala una rivoluzione globale nell’applicazione dell’AI alla giustizia.
Per maggiori informazioni, clicca per l’articolo originale.
‘Avvocato del Texas multato per uso di AI in citazioni legali false’
Un giudice federale del Texas ha sanzionato un avvocato per aver presentato un documento legale contenente citazioni e casi inesistenti generati da strumenti di AI. L’avvocato, Brandon Monk, è stato multato di 2.000 dollari e dovrà frequentare un corso sull’uso dell’AI nel settore legale.
L’incidente è avvenuto nell’ambito di una causa per licenziamento ingiusto contro la Goodyear Tire & Rubber, e i legali dell’azienda hanno rilevato che alcune citazioni nel documento di opposizione non corrispondevano a casi effettivamente esistenti.
Monk ha ammesso l’errore, attribuendolo a un utilizzo improprio di uno strumento di ricerca legale basato su AI, e si è scusato.
Tuttavia, il giudice ha criticato l’avvocato per non aver verificato il materiale generato e per non aver corretto gli errori una volta segnalati. L’episodio sottolinea le crescenti difficoltà nel bilanciare l’adozione di strumenti di AI e l’aderenza agli standard professionali nel settore legale.
Questo caso evidenzia un problema più ampio: i tribunali federali e statali stanno elaborando regole sull’uso dell’AI da parte di avvocati e giudici, riconoscendo che i sistemi di AI generativa possono produrre informazioni non affidabili.
Con l’aumento dell’uso dell’AI nel diritto, episodi simili stanno alimentando dibattiti sull’etica, sulla responsabilità professionale e sull’accuratezza nei procedimenti legali.
Per maggiori informazioni, clicca per l’articolo originale.