Intelligenza artificiale e criprotvalute: consumi energetici in crescita esponenziale

Il problema di sostenere la domanda a fronte del rilevantissimo impatto ambientale.

0
337
Intelligenza artificiale e criprotvalute

L’intelligenza artificiale e criptovalute hanno innescato una nuova crescita degli investimenti tecnologici in chip e server sempre più potenti, sorvolando su un aspetto tutt’altro secondario connesso con la crescita esponenziale della domanda di energia elettrica, perché produrre bitcoin o immagini artificiali non è gratis, tutt’altro.

A misurare l’impatto del cosiddettomining”, i processi necessari a produrre con le blockchain Bitcoin, Ethereum e similia, è uno studio realizzato da Kaveh Madani, dell’Università delle Nazioni Unite, il braccio accademico delle Nazioni Unite, che si è concentrato in particolare sui Bitcoin, la prima criptomonete e di gran lunga la più diffusa.

I dati relativi al periodo 2020-2021 indicano che la produzione dei Bitcoin ha consumato 173,42 Terawattore di elettricità (l’Italia ne consuma 295 in un anno), se fosse una nazione sarebbe la 27esima al mondo, sopra al Pakistan in cui vivono 230 milioni di persone.

L’impronta ambientale in termini di emissioni di carbonio è equivalente a 190 centrali elettriche a gas naturale che dovrebbero essere compensate dalla piantumazione di 3,9 miliardi di alberi, il 7% della foresta amazzonica, e un consumo di acqua pari all’uso che ne farebbero 300 milioni di persone dell’Africa subsahariana. Lo studio sottolinea che la gran parte dell’energia usata per il mining dei Bitcoin arriva da fonti fossili, il 45% dal carbone e il 21% da gas naturale e il grosso delle attività si concentra in Cina.

Non va meglio l’intelligenza artificiale, i cui consumi sono ancora contenuti, ma attesi in decisa crescita man mano che si diffonderà, sia relativamente alla produzione dei server necessari per la sua gestione, che per le attività di istruzione e produzione delle risposte alle domande impartite.

Ti piace “Lo Schiacciasassi”? Iscriviti qui sul canale YouTube di “ViViItalia Tv”

Ti piace “ViViItalia Tv”? Sostienici!

Secondo l’Agenzia internazionale per l’energia (Iaea), la sola produzione delle macchine dei centri di calcolo vale tra l’1 e l’1,5% dei consumi globali di energia. Per David Groarke, amministratore delegato del consulente Indigo Advisory Group, in una recente intervista a S&P, ha rivelato che «in termini di numeri macro, entro il 2030 l’intelligenza artificiale potrebbe rappresentare dal 3% al 4% della domanda globale di energia. Google ha affermato che in questo momento l’intelligenza artificiale rappresenta dal 10% al 15% del loro consumo energetico, ovvero 2,3 TWh all’anno». I potenziali 1,5 milioni di server dedicati all’intelligenza artificiale previsti entro il 2027, a piena potenza, potrebbero consumare almeno 85,4 Terawattora di elettricità all’anno: più di quello che molti piccoli paesi consumano in un anno.

L’analisi è stata condotta da Alex de Vries, data scientist presso la banca centrale dei Paesi Bassi e Ph.D. alla Vrije University Amsterdam, dove studia i costi energetici delle tecnologie emergenti. In precedenza de Vries era diventato famoso per aver lanciato l’allarme sugli enormi costi energetici del mining e delle transazioni di criptovalute.

De Vries ha stimato che l’utilizzo dell’intelligenza artificiale generativa come ChatGPT in ogni ricerca su Google richiederebbe più di 500.000 server A100 HGX di Nvidia, per un totale di 4,1 milioni di elaborazioni unità grafiche o GPU. Con una richiesta di potenza di 6,5 kW per server, ciò comporterebbe un consumo giornaliero di elettricità di 80 GWh e un consumo annuale di 29,2 TWh. Ma un’adozione così diffusa con gli attuali hardware e software è improbabile a causa dei vincoli economici e della catena di fornitura dei server. Il cui costo per produrne un numero simile potrebbe arrivare fino a 100 miliardi di dollari.

«Dal 2023 al 2030, prevediamo un aumento dell’80% circa nella domanda di energia dei data center statunitensi, passando da circa 19 GW a circa 35 GW», ha affermato Stephen Oliver, vicepresidente del marketing aziendale e delle relazioni con gli investitori di Navitas Semiconductor.

La domanda di energia iniziale per l’addestramento dell’intelligenza artificiale è elevata ed è più concentrata rispetto alle applicazioni tradizionali dei data center.

«Un tipico rack server che consuma da 30 kW a 40 kW, con i processori AI, come Nvidia Grace Hopper H100, è 2-3 volte la potenza nello stesso rack, quindi abbiamo bisogno di una nuova tecnologia nei convertitori di potenza» sottolinea Oliver.

Le fasi più energivore dell’intelligenza artificiale sono quelle dell’apprendimento: Constance Crozier, assistente professore presso la H. Milton Stewart School of Industrial and Systems Engineering della Georgia Tech, ha affermato che l’addestramento di qualcosa come ChatGPT utilizza circa 1 miliardo di volte la potenza necessaria per eseguirlo, ma per usi finali così popolari, la potenza aggregata consumata dall’esecuzione può diventare significativo o addirittura più grande.

Ma quanto consumano in termini energetici i vari Gemini Advanced, Gpt4 o Microsoft Copilot e le risposte fornite ai prompt degli utenti? L’addestramento di un modello linguistico di grandi dimensioni come GPT-3, ad esempio, si stima utilizzi poco meno di 1.300 Megawattora (MWh) di elettricità, circa la stessa energia consumata annualmente da 130 case americane. A titolo di confronto, lo streaming di un’ora di Netflix richiede circa 0,8 kWh (0,0008 MWh) di elettricità, ovvero significa che si dovrebbero guardare 1.625.000 ore per consumare la stessa quantità di energia necessaria per addestrare GPT-3.

Quanto consuma generare un testo o delle immagini? Secondo alcuni studi, il consumo di energia è molto più alto nella produzione di immagini rispetto a quella di testo. Il testo richiede 0,002 kWh per classificare e 0,047 kWh per generare testo. Utilizzando come paragone lo streaming di Netflix, equivale all’energia consumata guardando rispettivamente nove secondi o 3,5 minuti. I consumi aumentano a 0,12 kWh per generare un’immagine.

Quanto consuma il settore dell’intelligenza artificiale? Entro il 2027 l’intera industria dell’intelligenza artificiale potrebbe consumare tra gli 85 e i 134 Terawattora all’anno, mentre secondo l’Agenzia Internazionale dell’Energia ha calcolato la domanda di elettricità nei data center il consumo energetico passerebbe dai circa 460 Terawattora nel 2022 ad una forchetta compresa tra i 620 e i 1.050 TWh nel 2026, equivalenti al fabbisogno energetico rispettivamente di Svezia o Germania.

Per rimanere sempre aggiornati con le ultime notizie de “Il NordEst Quotidiano” e “Dario d’Italia”, iscrivetevi al canale Telegram per non perdere i lanci e consultate i canali social della Testata. 

Ti piace “Lo Schiacciasassi”? Iscriviti qui sul canale YouTube di “ViViItalia Tv”

Ti piace “ViViItalia Tv”? Sostienici!

YouTube

https://youtu.be/lEGveAoAFHY?sub_confirmation=1

Telegram

https://t.me/ilnordest

https://t.me/ViviItaliaTv

Linkedin

https://www.linkedin.com/company/ilnordestquotidiano/

Facebook

https://www.facebook.com/ilnordestquotidian/

https://www.facebook.com/viviitaliatvwebtv

X

https://twitter.com/nestquotidiano

© Riproduzione Riservata