Key4biz

Pillole di AI. Energia, entro il 2026 i data center dedicati all’AI richiederanno 90 trilioni di wattora

L’intelligenza artificiale (AI) comporta un rischio ambientale crescente a causa dell’enorme richiesta energetica dei data center. Secondo l’Agenzia Internazionale dell’Energia, entro il 2026 i data center dedicati all’AI richiederanno 90 trilioni di wattora di elettricità a livello globale, oltre dieci volte l’energia utilizzata nel 2022. L’espansione esponenziale dei modelli di AI sta aumentando l’uso di energia e le emissioni di carbonio, accelerando fenomeni climatici estremi come incendi, alluvioni e eventi meteorologici violenti. Sebbene le query su AI come ChatGPT possano sembrare leggere dal punto di vista energetico, in realtà consumano molto più elettricità rispetto a una ricerca tradizionale su Google. Anche la generazione di immagini tramite AI richiede un’elevata quantità di energia. Ad esempio, un’immagine generata con AI può consumare energia equivalente a 522 ricariche di smartphone.

Di fronte a questi dati, molti esperti sottolineano la necessità di una maggiore attenzione ai costi climatici dell’AI, che fino ad ora sono stati in secondo piano rispetto ad altre preoccupazioni come la violazione del copyright e la perdita di posti di lavoro. Alcune delle principali aziende tecnologiche stanno cercando di ridurre il loro impatto ambientale utilizzando fonti di energia rinnovabile e sviluppando chip più efficienti dal punto di vista energetico.

Tuttavia, le normative che limitano l’uso di energia e acqua o le emissioni di carbonio dei data center sono ancora scarse, specialmente in Asia. Alcuni suggeriscono che l’industria dovrebbe concentrarsi su modelli di AI più piccoli e più efficienti, che non richiedano calcoli su cloud e che riducano il consumo energetico complessivo.

Per maggiori informazioni, clicca per l’articolo originale.

I rilevatori di AI stanno causando il licenziamento ingiustificato di scrittori freelance

I rilevatori di AI stanno causando il licenziamento ingiustificato di scrittori freelance. Kimberly Gasuras, giornalista con 24 anni di esperienza, ha perso il lavoro su una piattaforma di scrittura freelance dopo che i suoi lavori sono stati falsamente identificati come generati da AI tramite uno strumento chiamato ‘Originality’. Nonostante abbia dimostrato la sua innocenza, non ha ricevuto risposta. Questo problema sta crescendo mentre sempre più aziende adottano rilevatori di AI come Copyleaks, GPTZero e Originality.AI, che però sono spesso inaccurati.

Esperti come Bars Juhasz e Debora Weber-Wulff criticano la bassa affidabilità di questi strumenti, sottolineando che non possono risolvere problemi sociali complessi. Molte università hanno già bandito l’uso di rilevatori di AI a causa dei numerosi falsi positivi. I rilevatori di AI valutano fattori come la “burstiness” e la “perplessità” del testo, ma nessuno di questi metodi è infallibile.

La disinformazione sul funzionamento di questi strumenti porta a malintesi e decisioni errate da parte dei clienti. Google ha chiarito che non penalizza i contenuti generati da AI se sono di alta qualità, contrariamente a quanto creduto da molte aziende. Nonostante ciò, gli scrittori continuano a perdere lavori e redditi a causa di false accuse, mettendo in discussione l’affidabilità e l’utilità di questi rilevatori.

Per maggiori informazioni, clicca per l’articolo originale.

La SoftBank Corp. ha annunciato lo sviluppo di una tecnologia di alterazione vocale per proteggere i dipendenti dei call center dalle molestie dei clienti

La SoftBank Corp. ha annunciato lo sviluppo di una tecnologia di alterazione vocale per proteggere i dipendenti dei call center dalle molestie dei clienti. Questa innovazione, denominata “cancellazione delle emozioni”, utilizza l’AI per trasformare le voci arrabbiate in toni più calmi, riducendo lo stress psicologico degli operatori. L’idea è nata da Toshiyuki Nakatani, un dipendente di SoftBank, ispirato da un programma TV sulle molestie ai clienti.

La tecnologia, che ha richiesto tre anni di studi e l’addestramento con oltre 10.000 dati vocali, non modifica le parole ma solo il tono e l’inflessione delle voci, rendendo le interazioni meno intimidatorie. La SoftBank spera di commercializzare questa tecnologia dal 2025.

Sebbene l’AI possa gestire le lamentele dei clienti per lunghi periodi, la difficoltà di sostituire completamente gli operatori umani rimane, poiché molti clienti cercano un’apologia umana. Pertanto, l’obiettivo è che l’AI funzioni come uno scudo mentale per prevenire l’eccessivo stress degli operatori.

Per maggiori informazioni, clicca per l’articolo originale.

Exit mobile version