LA RIVOLUZIONE ALGORITMICA

Quanto inquina davvero l’IA?

a cura di Francesco D'Isa
Quanto inquina davvero l’IA?

Capita spesso di sentire persone che criticano l’uso di intelligenze artificiali generative “perché inquinano”; altri invece sostengono che sarà grazie a queste tecnologie che faremo avanzamenti scientifici in grado di farci uscire dalla crisi climatica. L’opinione corrente è dunque scissa tra l’entusiasmo acritico dei promotori della tecnologia, che in genere glissano sui costi materiali del progresso, e il catastrofismo dei critici, che annunciano una rovina ecologica globale alimentata dai datacenter. Di recente, ad esempio, un membro del celebre gruppo di scrittura collettiva Wu Ming (WM1) ha dichiarato che quello delle IA è “un modello industriale fra i più energivori, sperequatori di risorse ed ecocidi mai esistiti nel capitalismo”. Chi ha ragione? Quanto inquinano davvero? Sebbene dati alla mano sia facile classificare l’affermazione di Wu Ming 1 come una roboante iperbole non supportata dai fatti, il problema dell’inquinamento dell’industria delle IA è una questione reale.

Me ne ero occupato in queste pagine in passato, ma per avere una visione più aggiornata mi sono rifatto al recente rapporto dell’Agenzia Internazionale dell’Energia intitolato “Energy and IA”. Il lungo documento restituisce un panorama molto articolato e per farsene un’idea non basta leggere il riassunto sul sito. Iniziamo dal presente: l’impatto elettrico dei datacenter si attesta su una soglia vicina all’1,5% del consumo elettrico mondiale. Considerato che attualmente le IA generative sono circa il 15% del consumo dei datacenter, il loro attuale impatto globale è relativamente basso, lo 0,225%, paragonabile al consumo dei videogiocatori in USA nel 2019. Per il consumo idrico vale un discorso analogo, ma lo farò in un secondo momento.

Sebbene tale valore possa apparire modesto rispetto ad altri settori industriali, la statistica globale rischia di offuscare l’urgenza di criticità locali. Il problema principale infatti si concentra sulla pressione esercitata su territori circoscritti e sulle loro reti elettriche e idriche; un problema a cui le letture globali non rendono giustizia. Inoltre il consumo energetico per le IA è prevedibilmente in ascesa assieme al loro utilizzo globale – già, ma quanto?

Immagine via Google Creative Commons.

Prevederlo con esattezza è un esercizio di estrema complessità, un po’ come stimare il consumo di una flotta della quale ignoriamo il numero di navi, la potenza dei motori e la velocità che i conducenti decideranno di mantenere. Le variabili in gioco sono così numerose da generare proiezioni con scarti che possono raggiungere (a detta dello stesso rapporto) una magnitudine di sette volte tra le diverse ipotesi; si tratta di congetture che dipendono strettamente dall’incognita dell’efficienza algoritmica e dalla rapidità con cui questa tecnologia permeerà il tessuto economico.

Il rapporto della IEA delinea uno scenario mediano in cui i consumi raddoppieranno entro il 2030, per poi tendere verso una fase di stabilizzazione nei cinque anni successivi. Tale prospettiva suggerisce la progressiva trasformazione dell’intelligenza artificiale in un’industria matura, soggetta a processi simili a quelli che hanno interessato altri settori produttivi in passato.

Una criticità del settore risiede nella profonda asincronia temporale che intercorre tra lo sviluppo del calcolo e quello della distribuzione energetica; se un centro di elaborazione dati può essere reso operativo in soli due anni, l’adeguamento delle infrastrutture elettriche necessarie a sostenerlo richiede spesso oltre un decennio di pianificazione e lavori. Questa discrepanza cronologica genera tensioni logistiche che mettono a rischio la stabilità delle reti locali.

In questo contesto, le strategie nazionali divergono sensibilmente per approccio e lungimiranza. Parlando delle grandi potenze dell’IA, negli Stati Uniti le recenti spinte verso una deregolamentazione spregiudicata favoriscono l’insediamento di questi impianti nei pressi dei centri urbani; si tratta di zone del tutto inadatte a sopportare il carico di quella che è diventata un’industria pesante, con conseguenze potenzialmente devastanti per l’equilibrio dei servizi cittadini. La Cina sembra invece percorrere una via più strutturata e attenta all’impatto territoriale, attraverso una pianificazione che sposta i grandi nodi di calcolo verso le regioni occidentali, dove la disponibilità energetica è maggiore e il peso sulle popolazioni residenti è minore; a questa accortezza geografica si affianca una ricerca costante dell’efficienza algoritmica e una maggiore apertura al codice, segno di una strategia che mira alla vittoria tecnologica attraverso la sostenibilità del sistema e la resilienza delle infrastrutture.

L’evoluzione tecnologica sta inoltre ridefinendo le gerarchie della dipendenza globale, spostando il fulcro delle preoccupazioni strategiche dai combustibili fossili alla disponibilità dei minerali critici. Se la stabilità del secolo scorso è stata dettata in larga parte dal controllo dei giacimenti petroliferi, la competizione odierna si gioca sulla reperibilità di elementi quali il gallio, indispensabile per i semiconduttori ad alte prestazioni; si tratta di una risorsa la cui raffinazione è oggi quasi totalmente appannaggio della Cina, che ne detiene il monopolio pressoché assoluto. Tale squilibrio introduce una variabile geopolitica particolarmente complessa, poiché affida a una singola potenza il potere di regolare, attraverso il controllo delle materie prime, il ritmo dell’innovazione dei propri concorrenti.

Immagine via Google Creative Commons.

Il progressivo incremento dell’efficienza computazionale, che permette la diffusione di modelli relativamente piccoli su sistemi locali, rappresenta un’importante conquista per la sovranità digitale e la tutela della privacy; disporre di strumenti che non dipendono dai grandi nodi di calcolo centralizzati garantisce infatti una libertà d’azione e una protezione dei dati altrimenti precluse. Questa efficienza però potrebbe non risolvere il problema energetico, perché introduce una dinamica controintuitiva nota come paradosso di Jevons; secondo tale principio, il miglioramento tecnico nell’impiego di una risorsa ne abbatte il costo marginale, finendo tuttavia per favorire un incremento della domanda complessiva che spesso annulla il risparmio energetico iniziale. Nel settore dell’intelligenza artificiale, la riduzione della potenza necessaria per singola elaborazione rischia di tradursi in un utilizzo talmente capillare da appesantire, anziché alleggerire, il bilancio energetico globale. Tale frammentazione del calcolo sposterebbe tuttavia l’impronta energetica verso la periferia della rete, distribuendo il consumo su una moltitudine di dispositivi personali e alleggerendo le criticità locali.

Al di là del dibattito sul suo fabbisogno energetico diretto, secondo il report l’intelligenza artificiale si configura come un fattore determinante per la razionalizzazione dei consumi in altri settori produttivi. Le proiezioni della IEA indicano che un’integrazione efficace di questi sistemi potrebbe favorire una riduzione delle emissioni globali pari a 1,4 gigatonnellate di anidride carbonica entro il 2035; tale risparmio, superiore di cinque magnitudini all’impatto più pessimista previsto dei centri di calcolo, scaturisce dalla capacità degli algoritmi di ottimizzare la gestione delle reti elettriche e di accelerare la ricerca scientifica verso materiali più performanti per le batterie. Annullerebbe alla grande l’impatto ecologico di queste tecnologie, ma non sarebbe la panacea capace di risolvere la crisi ambientale come sognano i tecno ottimisti. Inoltre, l’implementazione di queste misure non è immediata e senza dei vincoli legali è improbabile che venga adottata dalle grandi aziende energetiche.

Emerge inoltre la rilevanza del cosiddetto “disimpegno dei consumi”, una prospettiva che invita a misurare non solo quanto l’intelligenza artificiale assorba, ma soprattutto quali emissioni essa permetta di evitare rendendo obsoleti processi meno efficienti. Valutare l’impronta digitale senza considerare il risparmio indotto in ambito analogico equivarrebbe a osservare un bilancio contabile privo della voce dei ricavi; è necessario riconoscere che l’adozione di processi algoritmici può sostituire attività il cui costo ambientale è più gravoso. Questa forma di efficienza indiretta rappresenta il contributo più prezioso della tecnologia, a condizione che lo sviluppo rimanga ancorato a obiettivi di sostenibilità reale.

La morale che propongo è di rifuggire la polarizzazione che caratterizza l’attuale dibattito politico. Alcune proposte di moratoria totale sui nuovi datacenter, pur muovendo da una comprensibile preoccupazione ambientale, sono risposte anacronistiche e prive di pragmatismo; oltre a non essere praticabili per motivi geopolitici, rischierebbero di rallentare lo sviluppo di strumenti molto utili. I richiami al boicottaggio individuale sono altrettanto sterili, perché alimentano un clima di colpevolizzazione dell’utente che non incide sulla natura strutturale del problema. Considerato che gli utenti delle IA sono in continua ascesa, l’unico impatto dello stigma è l’aumento di persone che usa le IA di nascosto (al momento al 54%). Ancor più pericolosi sono i progetti di sviluppo basati su una deregolamentazione selvaggia, pronti a sacrificare le tutele ambientale in nome di un primato tecnologico muscolare e di una competizione geopolitica esasperata.

Una proposta diversa potrebbe essere mettere in primo piano la salute delle reti locali e l’integrazione vincolante con fonti rinnovabili, così da minimizzare l’impatto climatico senza rinunciare alla sovranità tecnologica. Per farlo servirebbe promuovere un’implementazione prudente, focalizzata sulla gestione delle frizioni logistiche e sulla trasparenza dei dati di consumo attraverso una pianificazione territoriale rigorosa. Non accontenterà né chi è in preda al panico mediatico né chi è in corsa nella maratona tecnologica, ma forse potrebbe aiutare la collettività.

Francesco D’Isa