È vero, l’intelligenza artificiale ha rapidamente trasformato il panorama tecnologico globale, rivoluzionando non solo il lavoro creativo e l’informatica, ma anche settori come la medicina, l’industria automobilistica e la finanza. Ma il progresso – soprattutto questo progresso – ha un costo energetico (e non solo) molto elevato. I modelli di deep learning che costituiscono il cuore delle applicazioni AI richiedono enormi quantità di energia elettrica per l’addestramento e l’implementazione; nei data center, questa esigenza di calcolo si traduce in un consumo energetico impressionante, con notevoli implicazioni per l’ambiente.
Per capirci, gli studi più recenti dimostrano che l’addestramento di modelli AI avanzati consuma energia equivalente al fabbisogno annuale di migliaia di abitazioni. L’addestramento di GPT-3 ha utilizzato 1287 megawattora di elettricità, cioè 552 tonnellate di anidride carbonica. Consumi che non solo aumentano i costi operativi, ma che soprattutto contribuiscono significativamente alle emissioni globali di CO2: secondo David Patterson dell’Università di Berkeley, GPT-3 ha una carbon footprint stimata in oltre 550.000 kg di anidride carbonica.E non è tutto: oltre all’elettricità, i data center consumano grandi quantità di acqua per il raffreddamento (700.000 litri solo per l’addestramento di GPT-3). Una situazione che diventa particolarmente pressante per le GPU di fascia alta, che richiedono un raffreddamento costante per mantenere le temperature operative.
L’espansione dei data center, va sottolineato, non riguarda solo le emissioni di carbonio e il consumo di acqua, ma ha anche impatti locali significativi. Ad esempio, in Virginia, il progetto Digital Gateway prevede la costruzione di trentasette nuovi data center su oltre duemila acri di terra, con prevedibili conseguenze sulla comunità locale, dal consumo di risorse idriche alla gestione dei rifiuti. Proprio la scarsa trasparenza nel rapportarsi all’uso delle falde acquifere e alle risorse idriche locali è uno dei problemi più rilevanti in questo senso, e c’è il rischio che un bene prezioso ma universale come l’acqua possa andare incontro a regolamentazioni nelle zone più adatte alla costruzione di data center.
I costi della connessione
Le grandi aziende tecnologiche come Google, Microsoft e Amazon stanno cercando di affrontare questi problemi investendo in energie rinnovabili e migliorando l’efficienza energetica. Google si è impegnata a utilizzare solo energia senza carbonio entro il 2030, mentre Microsoft ha annunciato un investimento di oltre 10 miliardi di dollari nello sviluppo di energia rinnovabile. Ma la domanda energetica continua a crescere e resta una sfida enorme: le emissioni di Google sono aumentate di quasi il 50% negli ultimi cinque anni, in parte a causa dell’uso intensivo dell’AI, e per molti le pezze messe dai colossi dell’hi-tech non possono essere sufficienti.
Anche perché poi ci sono i costi umani: l’industria dell’AI si affida spesso a lavoro a basso costo per la raccolta e l’annotazione dei dati, a volte in condizioni di vero e proprio sfruttamento nei paesi del Sud del mondo. Lavoratori in Kenya e nelle Filippine, ad esempio, sono stati pagati meno di due dollari l’ora per addestrare modelli AI come ChatGPT, spesso dovendo avere a che fare con continui ritardi nei pagamenti e furti salariali. Secondo Nick Couldry e Ulises Mejias, autori del libro The Costs of Connection, questo fenomeno può essere considerato un vero e proprio “colonialismo dei dati”: un modello economico basato sull’estrazione e la mercificazione dei dati rafforza le strutture di potere esistenti, aggravando le disuguaglianze di razza, genere e classe.
L’AI che si cura da sé: l’esempio di Phaidra
Naturalmente, ormai nessuno pensa sia possibile, o desiderabile, rinunciare del tutto a quanto di buono può dare l’intelligenza artificiale, a portata di mano per rispondere a tutte le nostre domande ormai su qualsiasi smartphone (per chi cerca le occasioni più convenienti per Internet mobile c’è sempre il comparatore di SOSTariffe.it). Qual è dunque la soluzione per non peggiorare ulteriormente il gap già altissimo tra i più ricchi del pianeta e i più poveri, e al tempo stesso non farci precipitare ancor di più nella crisi climatica? Per ironia della sorte, l’AI può anche svolgere un ruolo importante nella mitigazione dei propri danni. Utilizzando metodi di machine learning, è infatti in grado di analizzare enormi quantità di dati su cambiamenti climatici, eventi meteorologici estremi e migrazioni umane, contribuendo a soluzioni più sostenibili e efficaci.
E ogni tanto arrivano anche soluzioni innovative sul fronte della sostenibilità: Phaidra, ad esempio. Fondata nel 2019 da ex membri di Google DeepMind, la startup utilizza l’intelligenza artificiale per ottimizzare l’efficienza energetica nei data center. Il sistema di Phaidra impiega una rete di sensori per monitorare in tempo reale parametri come temperature e pressioni, utilizzando algoritmi per ottimizzare automaticamente i sistemi di raffreddamento e ridurre il consumo energetico.
Jim Gao, CEO di Phaidra, ha applicato con successo questa tecnologia nei data center di Google, riducendo il consumo energetico per il raffreddamento del 40%. Oggi Phaidra offre soluzioni anche per altri settori industriali, come quello farmaceutico ed energetico. Il sistema di controllo AI di Phaidra si integra con i sistemi di gestione esistenti, analizzando i dati raccolti dai sensori e identificando la strategia ottimale per il funzionamento dei sistemi di raffreddamento.
L’adozione di soluzioni come quelle offerte da Phaidra è cruciale per affrontare la crescente crisi energetica nei data center e nell’industria in generale. Man mano che l’intelligenza artificiale continua a espandersi, diventa sempre più urgente trovare modi per rendere questa tecnologia sostenibile.
Il quadro normativo
Infine, va ricordato che un altro aspetto fondamentale per mitigare l’impatto ambientale e sociale dell’AI è l’adozione di un quadro normativo rigoroso. L’Unione Europea sta infatti negoziando l’AI Act, una legislazione che mira a regolamentare l’uso dell’AI in modo trasparente e responsabile, includendo la valutazione degli impatti ambientali e sociali delle tecnologie AI e l’adozione di misure per ridurre il loro impatto negativo. Non sempre però le risposte delle aziende significano un radicale cambiamento di politica, anzi. Google, ad esempio, ha recentemente aggiornato la sua politica sulla privacy per dire espressamente che qualsiasi contenuto disponibile pubblicamente su Internet sarà utilizzato come dato di addestramento, posizione questa che solleva preoccupazioni sulla trasparenza e sulla responsabilità delle aziende tecnologiche nei confronti dell’ambiente e della società. E non pare proprio che, in futuro, le cose diventeranno più semplici.