Stando alla previsione di uno studio condotto da Alex de Vries, ricercatore presso la Vrije Universiteit Amsterdam, entro quattro anni il settore dell’intelligenza artificiale consumerà una quantità di energia pari a quella di uno stato delle dimensioni dei Paesi Bassi. Costo energetico dell’intelligenza artificiale: premesso che portare avanti la ricerca – fondata sull’ipotesi che taluni parametri restino invariati (dalla crescita dell’IA alla disponibilità di chip per l’intelligenza artificiale ai server che lavorano incessantemente al massimo delle loro peculiarità) – è stato tutt’altro che agevole, soprattutto in rapporto alla poca chiarezza con cui i diretti interessati (ChatGPT su tutti, che è stato il focus del 2023) rilasciano dati in merito, il risultato che emerge fa da eco alle apprensioni già espresse da molti accademici.
Come nel caso di Kate Crawford, ricercatrice e docente statunitense specializzata in IA, co-fondatrice dell’AI Now Institute della New York University e autrice del volume “Né intelligente né artificiale” (Mulino editore). Secondo Crawford “abbiamo creato una nuova industria estrattiva”, al pari di quella mineraria che si pensava fosse ancorata al passato. Quindi la studiosa esorta: “Dobbiamo fare qualcosa. L’impatto rischia di essere devastante per l’uomo e le democrazie”.
Quanto consuma l’intelligenza artificiale
Nello scenario tratteggiato da De Vries – che di recente ha condotto uno studio in cui è stato calcolato che, per ogni transazione di bitcoin, nel 2021 si sono consumati mediamente 16 mila litri di acqua (6,6 milioni di volte in più rispetto ad ogni passaggio di carta di credito) –, in materia di costo energetico dell’intelligenza artificiale, se si procede con l’attuale sviluppo, entro il 2027 i server utilizzati per l’IA nel mondo potrebbero giungere a consumare da 85 a 134 Terawatt per anno. Più o meno l’energia che occorre a mandare avanti, ogni dodici mesi, uno stato come quello dei Paesi Bassi.
Un ulteriore elemento da prendere in esame: a prescindere dal fatto che le tecnologie mirate e i chip dedicati stiano acquisendo uno spazio sempre più rilevante, di fatto nel comparto tecnologico oggi permane un monopolio centrato su Nvidia. Ragione per cui, in assenza di dati ChatGpt o Google, De Vries ha condotto una stima calcolata sulle vendite dei chip dedicati dall’azienda leader nel settore delle schede grafiche (fondata nel 1993 a Santa Clara) all’intelligenza artificiale e del loro consumo di energia da una base di 6.5 KW/ora per il modello base fino a 10.2 KW/ora per il modello maggiormente “performante”. Il totale di una proiezione di vendite con il consumo di ogni chip ha restituito la cifra complessiva indicata, che si aggira sullo 0.5% dell’utilizzo attuale di energia elettrica a livello mondiale.
Costi energetici per generare le immagini
È inutile girarci attorno: ogni volta che si utilizza l’intelligenza artificiale per scrivere un testo, generare un’immagine o rivolgere un interrogativo a un chatbot, c’è un costo che il pianeta sosterrà (per fare un esempio: Microsoft, che sta investendo in modo massiccio nello sviluppo dell’IA, ha rivelato in un recente report sulla sostenibilità che il suo consumo d’acqua ha subito un incremento del 34% tra il 2021 e il 2022).
All’atto pratico – secondo lo studio dei ricercatori della startup di IA Hugging Face e della Carnegie Mellon University di Pittsburgh – generare un’immagine utilizzando un potente modello di intelligenza artificiale richiede tanta energia quanto caricare completamente il proprio smartphone. Nel dettaglio, i ricercatori hanno condotto una serie di analisi su numerosi modelli, ed è emerso come quello meno efficiente sia Stable Diffusion (modello di deep-learning lanciato nel 2022): generare una singola immagine con quest’ultimo determina infatti un consumo di energia pari a quella utile per ricaricare fino al 100% uno smartphone. Ne è conseguito che generare 1000 immagini con Stable Diffusion ha la stessa impronta in emissioni di carbonio di un’auto media a benzina che percorre poco più di 6,5 chilometri.