Si fa presto a dire Intelligenza Artificiale, ma poi ci vuole l’energia per farla funzionare

Attualmente i centri di elaborazione dati operanti a livello mondiale contribuiscono già al 3% dei consumi energetici mondiali. La diffusione dei servizi legati all’intelligenza artificiale (IA) porterà ad una crescita considerevole delle richieste energetiche, ponendo problemi non banali a livello di sostenibilità.

Lo spunto per questo post mi è stato dato dalla notizia pubblicata dalla Stampa relativa al lancio di AndesGPT, il nuovo sistema di intelligenza artificiale generativa che la cinese Oppo metterà a disposizione dei clienti dei suoi cellulari di nuova generazione. Per il momento il servizio sarà limitato al territorio cinese, ma l’intenzione è quello di estenderlo progressivamente a tutti i suoi clienti mondiali. Oppo è solo quarta nella classifica mondiale dei produttori di smartphone, ma c’è da immaginare che i suoi numerosi concorrenti non stiano con le mani in mano e stiano sviluppando analoghe iniziative.

Per far funzionare AndesGPT, Oppo sta costruendo a Dongguan (Cina) un enorme centro dati destinato ad ospitare i server che dovranno rispondere alle richieste pervenute dagli utilizzatori dei suoi cellulari. Il centro sarà costruito ricorrendo a tecniche che ottimizzano l’utilizzo di energie rinnovabili e minimizzano i consumi.

Una particolarità del progetto sarà quella di eliminare i sistemi convenzionali di raffreddamento (basati sulla ventilazione forzata) sostituendoli con un nuovo sistema che prevede l’immersione dei server in contenitori riempiti con un fluido isolante che fungerà da scambiatore di calore. Il nuovo sistema consentirà di dimezzare il consumo di energia legato al raffreddamento dei server (anche se comporterà un aumento della complessità di talune operazioni come – ad esempio – la sostituzione di una scheda difettosa).

Ovviamente il taglio incide sui consumi energetici necessari per raffreddare i server, ma non su quelli necessari per alimentarli. In un centro dati tradizionale, i consumi per il raffreddamento contribuiscono tipicamente al 30% dei consumi totali. Stimo conseguentemente che il miglioramento introdotto da Oppo potrebbe ridurre di circa il 15% i consumi complessivi, un dato ottimo, ma – come vedremo più avanti – non sufficiente per arrivare alla soluzione definitiva dei problemi energetici che sono potenzialmente legati ad un forte aumento dei servizi informatici legati all’IA.

Spesso la cosa ci sfugge, ma tutti i nostri sistemi informatici dipendono criticamente da centri dati dispersi per il pianeta che gestiscono la rete, garantiscono lo scambio di dati tra i nostri cellulari e computer, permettono di controllare da remoto le nostre abitazioni, preservano i nostri archivi ed elaborano i nostri dati sulla base di specifiche richieste.

Anche questo piccolo blog è fisicamente installato nel centro dati di una nota società italiana che ne garantisce la manutenzione e la continuità di esercizio.

Complessivamente i centri dati esistenti a livello mondiale consumano già una quantità di energia corrispondente al 3% dei consumi globali (ci sono stime inferiori – fino all’1% – ma personalmente ritengo che siano poco attendibili). Parliamo comunque di una quantità di energia enorme, destinata a crescere, che non comprende ovviamente i consumi dei nostri cellulari, computer e di tutti gli altri dispositivi che colleghiamo alla rete.

L’avvento dei servizi basati sull’intelligenza artificiale generativa è visto dalle aziende come una straordinaria opportunità di business, ma la capacità di elaborazione computazionale necessaria per l’utilizzo di tali tecnologie è ancora fuori dalle possibilità di uno smartphone o di un comune notebook. Prima o poi usciranno modelli abbastanza potenti per fornire servizi IA in autonomia, ma – almeno per il momento – l’unica soluzione praticabile è quella di inoltre la richiesta ad un server molto più potente localizzato in un centro dati accessibile attraverso la rete. Questo determinerà un forte aumento dell’attività svolta dai centri per l’elaborazione dei dati con conseguente aumento dei consumi energetici associati. Assisteremo ad un boom di consumi, analogo e forse ancora più impetuoso di quello che c’è stato con l’avvento delle cosiddette valute “virtuali“.

Aldilà della proposta di Oppo, se anche fosse possibile dimezzare – a parità di utilizzo – i consumi energetici dei centri dati, saremmo comunque lontani dalla soluzione. Rischiamo infatti che – nel frattempo – le richieste di utilizzo crescano di almeno un ordine di grandezza e che i consumi dei centri dati salgano dall’attuale 3% dei consumi energetici mondiali fino ad una percentuale a 2 cifre.

Oggi si sta giustamente discutendo sui danni che potrebbero essere provocati da un uso maldestro dell’intelligenza artificiale. Quella dei consumi energetici associati ad un uso sempre più esteso dell’IA non sarà forse la preoccupazione principale, ma nel momento in cui l’IA dovesse assorbire più del 10% di tutta l’energia consumata dall’Umanità potremmo trovarci di fronte al dilemma se usare l’energia disponibile per i server dell’intelligenza artificiale o per i poveri esseri umani che di intelligenza possiedono solo quella naturale (talvolta solo in modica quantità). Non vorrei che alla fine il più intelligente avesse la priorità.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.