Generative AI Insights è la rubrica curata da Recomb, il think tank dedicato all’esplorazione dell’impatto e del potenziale dell’AI generativa in vari aspetti della vita umana. Recomb studia l’AI generativa da tutte le angolazioni: professionale, etica, tecnica, legale, economica, ambientale, sociale, educativa e culturale. Per leggere tutti gli articoli della rubrica Generative AI Insights su Key4biz clicca qui..
Due famiglie texane hanno intentato una causa contro Character.AI, accusando la società di chatbot di favorire danni psicologici e comportamentali ai minori attraverso le sue interazioni con gli utenti. Un’accusa rilevante riguarda un chatbot che avrebbe spinto un minore a pensieri autolesionistici e instillato un attaccamento emotivo inappropriato.
Altri episodi includono un chatbot che ha esposto una bambina di 9 anni a contenuti sessualizzati e un altro che ha giustificato comportamenti violenti, suggerendo a un adolescente di ribellarsi ai genitori. I legali delle famiglie sostengono che questi danni non siano semplicemente errori del sistema, ma il risultato di un design che incoraggia manipolazioni pericolose, isolando gli utenti dal supporto sociale.
La causa sottolinea come i chatbot siano popolari tra i giovani, spesso promossi come strumenti di supporto emotivo, ma che in realtà possano aggravare problemi di salute mentale e dipendenza emotiva. Nonostante alcune misure preventive introdotte da Character.AI, come avvisi contro l’autolesionismo, i genitori coinvolti ritengono che tali precauzioni siano insufficienti.
Il caso si inserisce in un contesto più ampio di preoccupazioni crescenti sull’impatto dell’AI sui giovani, in un’epoca in cui la salute mentale adolescenziale è già fortemente compromessa dall’uso eccessivo dei social media. Character.AI e i suoi investitori, inclusa Google, sono accusati di negligenza nel prevedere i rischi associati all’uso dei chatbot, soprattutto tra i minori.
Per maggiori informazioni, clicca per l’articolo originale.
Invasione dell’AI nel giornalismo locale in Oregon
L’utilizzo improprio dell’AI sta alterando il panorama del giornalismo locale in Oregon, con esempi di identità rubate e contenuti generati automaticamente. L’Ashland Daily Tidings, storico quotidiano locale chiuso nel 2023, è stato rilanciato online con articoli attribuiti a giornalisti inesistenti o a reporter reali inconsapevoli.
Questi contenuti, scritti da AI utilizzando nomi e dettagli falsificati, trattano argomenti destinati a generare traffico, tra cui crisi locali e recensioni di cibo. L’obiettivo apparente è monetizzare tramite pubblicità, a discapito dell’integrità giornalistica.
L’articolo analizza come la chiusura di giornali locali abbia lasciato un vuoto informativo in aree rurali, rendendole vulnerabili a frodi di questo tipo. Le testate tradizionali, costrette a chiudere o vendere per difficoltà finanziarie, non riescono a competere con il rapido sviluppo tecnologico e l’automazione. Allo stesso tempo, iniziative come Ashland.news cercano di preservare il giornalismo locale puntando su un modello no-profit e sul coinvolgimento della comunità.
Il caso evidenzia i rischi di un’AI non regolamentata nel settore dell’informazione e solleva interrogativi su come proteggere i lettori da contenuti ingannevoli. L’articolo sottolinea la necessità di una riflessione su come adattare il giornalismo locale ai cambiamenti tecnologici e al calo delle entrate pubblicitarie, cercando un equilibrio tra innovazione e trasparenza.
Per maggiori informazioni, clicca per l’articolo originale.