21 Febbraio 2024

Intelligenza artificiale: l’energia e l’acqua di cui ha bisogno

LinkedInTwitterFacebookEmailPrint

In attesa del numero di marzo di ENERGIA in cui parleremo, tra le altre cose, di Intelligenza Artificiale, pubblichiamo un’analisi sul suo consumo di energia ed acqua. L’intelligenza artificiale generativa utilizza enormi quantità di energia per il calcolo e l’archiviazione dei dati e milioni di litri d’acqua per raffreddare le apparecchiature nei data center. I legislatori e i regolatori negli Stati Uniti e nell’Unione Europea stanno iniziando a chiedere responsabilità.

Due mesi dopo il suo lancio nel novembre 2022, ChatGPT di OpenAI contava 100 milioni di utenti attivi e improvvisamente le aziende tecnologiche si sono affrettate per offrire al pubblico un’IA ancor più “generativa”. Gli esperti hanno paragonato l’impatto della nuova tecnologia a Internet, all’elettrificazione, alla rivoluzione industriale o alla scoperta del fuoco.

Il tempo ci dirà se le aspettative diverranno realtà, ma una conseguenza dell’esplosione dell’intelligenza artificiale è chiara: il suo impatto ambientale è ampio e in crescita.

L’IA è direttamente responsabile delle emissioni di carbonio derivanti da elettricità prodotta da fonti non rinnovabili e del consumo di milioni di litri di acqua dolce. Indirettamente, aumenta inoltre gli impatti derivanti dalla costruzione e dalla manutenzione delle apparecchiature assetate di energia che utilizzano l’intelligenza artificiale.

Le aziende tecnologiche che cercano di incorporare l’IA in tutto – dalla scrittura ai trapianti di rene, dalla scelta del cibo per cani alla modellistica climatica – non perdono occasione di esaltare i molteplici modi in cui l’intelligenza artificiale potrebbe contribuire a ridurre l’impronta ambientale dell’umanità. Ma i legislatori, i regolatori, gli attivisti e le organizzazioni internazionali ora vogliono assicurarsi che i pro non siano superati dai crescenti contro.

Il supporto dell’IA per i compiti scolastici impatterà sulle emissioni o sulle riserve di acqua dolce? Al momento non è dato saperlo

“Lo sviluppo degli strumenti della prossima generazione di IA non può andare a scapito della salute del nostro Pianeta”, ha detto la settimana scorsa a Washington il senatore (democratico) del Massachusetts Edward Markey, dopo che con altri senatori e rappresentanti ha presentato un disegno di legge che richiede al governo federale di valutare l’attuale impronta ambientale dell’intelligenza artificiale e di sviluppare un sistema standardizzato per la rendicontazione degli impatti futuri. Sulla stessa linea, nell’Unione Europa il programma “A.I. Act”, approvato dagli Stati membri la scorsa settimana, richiederà che gli  “high-risk A.I. systems”  (che includono i potenti “modelli di base” che alimentano ChatGPT e IA simili) rendicontino il consumo di energia, l’uso delle risorse e altri impatti durante tutto il loro ciclo di vita. Legge che entrerà in vigore l’anno prossimo in Europa.

Nel frattempo, Organizzazione internazionale per la normazione (International Organization for Standardization, ISO), una rete globale che sviluppa standard per produttori, regolatori e altri enti, afferma che entro l’anno emetterà criteri per un’intelligenza artificiale “sostenibile”. Questi includeranno standard per misurare l’efficienza energetica, l’uso delle materie prime, il trasporti e il consumo di acqua, nonché pratiche per ridurre gli impatti dell’IA. durante tutto il suo ciclo di vita, dal processo di estrazione dei materiali e di produzione dei componenti del computer all’elettricità consumata per i suoi calcoli. L’ISO vuole consentire agli utilizzatori dell’IA di prendere decisioni informate sul loro uso dell’intelligenza artificiale.

Al momento, non è possibile dire come il supporto dell’IA per i compiti a casa o la creazione di un’immagine di un astronauta a cavallo influirà sulle emissioni di carbonio o sulle riserve di acqua dolce. Questo è il motivo per cui la raccolta di proposte per un’IA “sostenibile” nel 2024 mostra i diversi modi per ottenere maggiori informazioni sui suoi impatti.

In assenza di standard e regolamenti – afferma Shaolei Ren, professore associato di ingegneria elettrica e informatica alla UC Riverside, che ha studiato i costi idrici dei sistemi di calcolo negli ultimi dieci anni – le aziende tecnologiche riportano quel che vogliono circa gli impatti della loro intelligenza artificiale. Partendo dal calcolo degli utilizzi annui di acqua per i sistemi di raffreddamento di Microsoft, Ren stima che una persona che rivolge 10-15 domande a GPT-3 causa un consumo di mezzo litro di acqua dolce. “Una stima che varia in base alla regione e che potrebbe essere maggiore con un’intelligenza artificiale più grande”. Resta tuttavia ancora molto da scoprire, dice Ren, sui milioni di litri d’acqua utilizzati per raffreddare i computer che eseguono i calcoli.

Lo stesso vale per il carbonio.

“Gli scienziati dei dati oggi non hanno un accesso facile o affidabile alle misurazioni [dell’impatto dei gas serra dell’intelligenza artificiale], il che preclude lo sviluppo di tattiche attuabili”, ha affermato in un paper del 2022 un gruppo di 10 eminenti ricercatori sull’intelligenza artificiale. Da quando hanno presentato il loro articolo, le applicazioni dell’IA e i suoi utenti sono proliferati, ma il pubblico è ancora ignaro di questi impatti, afferma Jesse Dodge, ricercatore presso l’Allen Institute for Artificial Intelligence di Seattle, uno dei coautori dello studio.

1.000 terawatt, il consumo di elettricità previsto dei data center nel 2026, pari circa al consumo totale del Giappone

L’IA può funzionare su molti tipi dispositivi. Una sua versione semplice in grado di correggere l’ortografia dei messaggi funzionerà sugli smartphone. Ma il tipo di IA che la maggior parte delle persone desidera utilizzare è troppo grande per la maggior parte dei dispositivi personali, afferma Dodge. “I modelli in grado di scrivere una poesia o un’e-mail sono molto grandi”, afferma. “Le dimensioni sono vitali affinché abbiano queste capacità”.

Le grandi IA devono eseguire un numero enorme di calcoli molto rapidamente, di solito su unità di elaborazione grafica specializzate: processori originariamente progettati per calcoli intensivi che elaborino grafiche sugli schermi dei computer. Rispetto ad altri chip, le GPU (graphics processing unit) sono più efficienti dal punto di vista energetico per l’intelligenza artificiale e lo sono ancora di più quando vengono eseguite in grandi “data center cloud”, edifici appositi pieni di computer dotati di tali chip. Quanto più grande è il data center, tanto più efficiente può essere dal punto di vista energetico. I miglioramenti nell’efficienza energetica dell’intelligenza artificiale negli ultimi anni sono in parte dovuti alla costruzione di “hyperscale data center”, che contengono molti più computer e possono espandersi rapidamente. Laddove un tipico data center cloud occupa circa 100.000 piedi quadrati, un centro su vasta scala può essere di 1 o addirittura 2 milioni di piedi quadrati.

Le stime del numero di data center cloud in tutto il mondo vanno da circa 9.000 a quasi 11.000. Altri sono in costruzione. L’Agenzia internazionale per l’energia (IEA) prevede che il consumo di elettricità dei data center nel 2026 sarà il doppio di quello del 2022: 1.000 terawatt, più o meno equivalente all’attuale consumo totale del Giappone.

Tuttavia, come esempio di problema nel modo in cui vengono misurati gli impatti dell’IA, la stima dell’AIE include tutta l’attività del data center, che va oltre la sola IA includendo molti aspetti della vita moderna. Anche l’esecuzione dell’interfaccia di Amazon, la distribuzione dei video di Apple TV, l’archiviazione delle e-mail di milioni di persone su Gmail e il “mining” di Bitcoin vengono eseguiti dai data center. (Altri rapporti IEA escludono le operazioni crittografiche, ma raggruppano comunque tutte le altre attività dei data center.)

La maggior parte delle aziende che gestiscono data center non rivela quale percentuale dei loro consumi energetici sia imputabile all’IA. L’eccezione è Google, che afferma che il “machine learning” – la base per un’intelligenza artificiale simile a quella umana – rappresenti poco meno del 15% del consumo energetico dei suoi data center.

Un’altra complicazione è il fatto che l’intelligenza artificiale, a differenza del mining di Bitcoin o dello shopping online, può essere utilizzata per ridurre l’impatto dell’umanità. L’IA può migliorare i modelli climatici, trovare modi più efficienti per realizzare tecnologie digitali, ridurre gli sprechi nei trasporti e tagliare in altro modo l’uso di carbonio e acqua. Ad esempio, una stima ha rilevato che le case smart connesse all’IA potrebbero ridurre il consumo di CO₂ delle famiglie fino al 40%. E un recente progetto di Google ha scoperto che un’IA in grado di elaborare rapidamente i dati atmosferici consentirebbe ai piloti di aerei di percorrere traiettorie di volo che lasceranno il minor numero di scie.

+20% il consumo di acqua dei data center di Google nel 2022 vs 2021, +34% quello di Microsoft

Poiché le scie di condensazione rappresentano più di un terzo delle emissioni di carbonio dell’aviazione globale, “se l’intera industria aeronautica ne facesse ricorso”, afferma Dave Patterson, professore emerito di informatica alla UC Berkeley e ricercatore di Google, “questa singola rivoluzionaria scoperta farebbe risparmiare più CO₂e (compresivi di altri gas serra) di tutta quella prodotta dai sistemi di intelligenza artificiale nel 2020”.

L’analisi di Patterson prevede che l’impronta di carbonio dell’IA raggiungerà presto un plateau per poi iniziare a ridursi, grazie ai miglioramenti di efficienza energetica di software e hardware. Un esempio di questi miglioramenti riguarda Google: al crescere dell’utilizzo dell’IA dal 2019, la sua quota sui consumi energetici dei data center è rimasta inferiore al 15%. E mentre il traffico Internet globale è aumentato di oltre venti volte dal 2010, la quota di elettricità mondiale utilizzata dai data center e dalle reti è aumentata molto meno, secondo l’IEA.

Tuttavia, i dati sul miglioramento dell’efficienza non convincono alcuni scettici, che citano un fenomeno sociale chiamato “paradosso di Jevons”: rendere una risorsa meno costosa a volte ne aumenta il consumo nel lungo termine. “È un effetto di rimbalzo”, afferma Ren. “Se rendi l’autostrada più ampia, le persone usano meno carburante perché il traffico si muove più velocemente, ma poi arrivano più auto. Il consumo di carburante è maggiore rispetto a prima”. Se il riscaldamento domestico fosse più efficiente del 40% grazie all’intelligenza artificiale, ha scritto di recente un critico, le persone potrebbero finire per mantenere le loro case più calde per più ore della giornata.

“L’IA è un acceleratore per tutto”, afferma Dodge. “Rende tutto ciò che stai sviluppando più veloce”. All’Allen Institute, dice Dodge, l’IA ha contribuito a sviluppare programmi migliori per i modelli climatici, monitorare le specie in via di estinzione e frenare la pesca eccessiva. Ma a livello globale l’IA potrebbe anche supportare “molte applicazioni che potrebbero accelerare il cambiamento climatico. Qui è dove entri in questioni etiche su che tipo di IA vuoi”.

Se l’uso globale dell’elettricità può sembrare un po’ astratto, l’uso dell’acqua da parte dei data center è un problema più locale e tangibile, in particolare nelle aree colpite dalla siccità. Per raffreddare i delicati componenti elettronici nei data center, l’acqua deve essere priva di batteri e impurità. In altre parole, i data center spesso competono “per la stessa acqua con cui le persone bevono, cucinano e si lavano”, afferma Ren.

Nel 2022, afferma Ren, i data center di Google hanno consumato circa 5 miliardi di galloni (quasi 20 miliardi di litri) di acqua dolce per il raffreddamento (il conteggio non include l’acqua che scorre attraverso un edificio e poi ritorna alla fonte). Secondo un recente studio di Ren, i data center di Google hanno utilizzato il 20% in più di acqua nel 2022 rispetto al 2021, mentre quello di Microsoft nello stesso periodo è aumentato del 34%. (I data center di Google ospitano il suo chatbot Bard e altre IA generative; i server Microsoft ospitano ChatGPT così come i suoi fratelli maggiori GPT-3 e GPT-4. Tutti e tre sono prodotti da OpenAI, in cui Microsoft è un grande investitore.)

Proteste in Cile e Uruguay contro la progettazione di data center che avrebbero sfruttato acqua potabile

Man mano che vengono costruiti o ampliati sempre più i data center, chi vive nelle vicinanze si trova in difficoltà nel sapere quanta acqua consumano. Ad esempio, a The Dalles, Oregon, dove Google gestisce tre data center e ne progetta altri due, il governo della città ha aperto una causa nel 2022 per mantenere segreto l’utilizzo dell’acqua da parte di Google agli agricoltori, agli ambientalisti e alle tribù di nativi americani preoccupati per i suoi effetti sull’agricoltura, sugli animali e sulle piante della regione. La città ha ritirato la causa all’inizio dello scorso anno. I dati poi resi pubblici mostrano che i tre data center esistenti di Google utilizzano più di un quarto della fornitura idrica della città. E in Cile e Uruguay sono scoppiate proteste contro la progettazione di data center di Google che attingerebbero agli stessi bacini che forniscono acqua potabile.

Ciò che serve, dicono i ricercatori, è in prima istanza un cambiamento culturale nel mondo rarefatto dello sviluppo dell’IA. I creatori di intelligenza artificiale generativa devono concentrarsi oltre i passi da gigante sul piano tecnico delle loro creazioni più recenti ed essere meno vincolati circa i dettagli dei dati, dei software e degli hardware che utilizzano per crearli.

Un giorno nel futuro, dice Dodge, un’IA. potrebbe essere in grado – o essere legalmente obbligato – a informare un utente sull’impatto sull’acqua e sul carbonio di ciascuna richiesta distinta che fa. “Sarebbe uno strumento fantastico che aiuterebbe l’ambiente”, afferma. Per ora, però, i singoli utenti non hanno molte informazioni o potere per conoscere l’impatto della propria intelligenza artificiale, tanto meno prendere decisioni al riguardo.

“Purtroppo non c’è molto che i singoli individui possano fare”, afferma Ren. In questo momento puoi giusto “provare a utilizzare il servizio con giudizio”.


Questa storia è stata originariamente pubblicata da Yale Environment 360.

David Berreby scrive la newsletter Robots for the Rest of Us. Il suo lavoro sull’intelligenza artificiale e sulla robotica è apparso su New York Times, National Geographic, Slate e altre pubblicazioni. Gli altri suoi scritti scientifici includono Us and Them: The Science of Identity e lavori su The New Yorker, Nature e molte altre pubblicazioni.


Foto: Google. Il vapore si innalza dalle torri di raffreddamento del data center di The Dalles, nell'Oregon. Questi pennacchi di vapore acqueo formano una nebbiolina al crepuscolo.


0 Commenti

Nessun commento presente.


Login