Quanta acqua usa l'intelligenza artificiale?

Quanta acqua usa l'intelligenza artificiale?

Scommetto che avete sentito di tutto, da "L'intelligenza artificiale beve una bottiglia d'acqua ogni poche domande" a "in pratica sono poche gocce". La verità è più sfumata. L'impronta idrica dell'intelligenza artificiale varia notevolmente a seconda di dove viene eseguita, della durata del prompt e di come un data center raffredda i suoi server. Quindi sì, il dato principale esiste, ma è avvolto in un groviglio di avvertenze.

Di seguito analizzo numeri chiari e pronti per una decisione, spiego perché le stime non concordano e mostro come costruttori e utenti comuni possono ridurre il consumo di acqua senza trasformarsi in monaci della sostenibilità.

Articoli che potrebbero interessarti dopo questo:

🔗 Che cos'è un set di dati di intelligenza artificiale
Spiega come i set di dati consentono l'addestramento dell'apprendimento automatico e lo sviluppo di modelli.

🔗 Come l'intelligenza artificiale prevede le tendenze
Mostra come l'intelligenza artificiale analizza i modelli per prevedere cambiamenti e risultati futuri.

🔗 Come misurare le prestazioni dell'IA
Analizza le metriche essenziali per valutare accuratezza, velocità e affidabilità.

🔗 Come parlare con l'intelligenza artificiale
Fornisce strategie di sollecitazione efficaci per migliorare chiarezza, risultati e coerenza.


Quanta acqua usa l'intelligenza artificiale? Numeri rapidi che puoi usare davvero 📏

  • Per ogni richiesta, l'intervallo tipico odierno è: da meno di un millilitro per una richiesta di testo media su un sistema mainstream, fino a decine di millilitri per una risposta più lunga e con maggiore potenza di calcolo su un altro. Ad esempio, la contabilità di produzione di Google riporta una richiesta di testo media di circa 0,26 mL (con l'overhead di servizio completo incluso) [1]. La valutazione del ciclo di vita di Mistral stima una risposta dell'assistente di 400 token a circa 45 mL (inferenza marginale) [2]. Il contesto e il modello sono molto importanti.

  • Addestramento di un modello su scala di frontiera: può arrivare a milioni di litri, principalmente per il raffreddamento e l'acqua incorporata nella generazione di elettricità. Un'analisi accademica ampiamente citata ha stimato circa 5,4 milioni di litri per addestrare un modello di classe GPT, inclusi circa 700.000 litri consumati in loco per il raffreddamento, e ha sostenuto la necessità di una programmazione intelligente per ridurre l'intensità idrica [3].

  • Data center in generale: i siti di grandi dimensioni gestiscono centinaia di migliaia di galloni al giorno presso i principali operatori, con picchi più elevati in alcuni campus a seconda del clima e della progettazione [5].

Siamo onesti: a prima vista, queste cifre sembrano incoerenti. Lo sono. E ci sono buone ragioni.

 

IA assetata

Metriche AI ​​sull'uso dell'acqua ✅

Una buona risposta alla domanda "Quanta acqua usa l'intelligenza artificiale?" dovrebbe soddisfare alcuni requisiti:

  1. Chiarimento dei confini:
    include solo di raffreddamento in loco o anche esterna utilizzata dalle centrali elettriche per generare elettricità? Le migliori pratiche distinguono il prelievo di acqua dal consumo di acqua e dagli ambiti 1-2-3, in modo simile alla contabilizzazione del carbonio [3].

  2. Sensibilità alla posizione Il consumo
    di acqua per kWh varia a seconda della regione e del mix di rete, quindi lo stesso avviso può avere impatti idrici diversi a seconda di dove viene erogato: un motivo fondamentale per cui la letteratura raccomanda una programmazione che tenga conto del tempo e del luogo [3].

  3. Realismo del carico di lavoro
    Il numero riflette i prompt di produzione mediani, inclusa la capacità inattiva e il sovraccarico del data center, o solo l'acceleratore al picco? Google sottolinea l'importanza della contabilità dell'intero sistema (inattivo, CPU/DRAM e sovraccarico del data center) per l'inferenza, non solo la matematica TPU [1].

  4. Tecnologia di raffreddamento
    Il raffreddamento evaporativo, il raffreddamento a liquido a circuito chiuso, il raffreddamento ad aria e gli approcci emergenti direct-to-chip modificano drasticamente l'intensità dell'acqua. Microsoft sta implementando progetti volti a eliminare l'uso dell'acqua di raffreddamento per alcuni siti di nuova generazione [4].

  5. Ora del giorno e stagione
    Il calore, l’umidità e le condizioni della rete elettrica modificano l’efficacia dell’uso dell’acqua nella vita reale; uno studio influente suggerisce di programmare i lavori più importanti quando e dove l’intensità dell’acqua è inferiore [3].


Prelievo idrico vs consumo idrico, spiegato 💡

  • Prelievo = acqua prelevata da fiumi, laghi o falde acquifere (in parte restituita).

  • Consumo = acqua non restituita perché evapora o viene incorporata nei processi/prodotti.

principalmente consumano acqua tramite evaporazione. La generazione di elettricità può prelevare grandi volumi (a volte consumandone una parte), a seconda dell'impianto e del metodo di raffreddamento. Un numero AI-water credibile indica che sta segnalando [3].


Dove va l'acqua nell'intelligenza artificiale: i tre secchi 🪣

  1. Ambito 1 - raffreddamento in loco
    La parte visibile: l'acqua evaporata nel data center stesso. Scelte progettuali come evaporazione rispetto ad aria o liquido a circuito chiuso stabiliscono la linea di base [5].

  2. Ambito 2 - generazione di elettricità
    Ogni kWh può avere un'etichetta idrica nascosta; la miscela e la posizione determinano il segnale litri per kWh che il carico di lavoro eredita [3].

  3. Ambito 3 - catena di approvvigionamento
    La produzione di chip si basa sull'acqua ultrapura nella fabbricazione. Non lo vedrai in una metrica "per richiesta" a meno che il confine non includa esplicitamente gli impatti incorporati (ad esempio, un LCA completo) [2][3].


Fornitori in cifre, con sfumature 🧮

  • Google Gemini richiede
    un metodo di distribuzione full-stack (inclusi i tempi di inattività e i costi generali dell'impianto). Il prompt di testo mediano richiede circa 0,26 ml di acqua insieme a circa 0,24 Wh di energia; le cifre riflettono il traffico di produzione e i limiti complessivi [1].

  • Ciclo di vita Mistral Large 2
    Un raro LCA indipendente (con ADEME/Carbone 4) rivela ~281.000 m³ per l'addestramento + l'utilizzo iniziale e un margine di inferenza ~45 mL per una 400 token risposta assistente di

  • L'ambizione di Microsoft di un raffreddamento a zero acqua
    I data center di nuova generazione sono progettati per non consumare acqua per il raffreddamento, basandosi su approcci diretti al chip; gli usi amministrativi richiedono ancora un po' d'acqua [4].

  • Scala generale dei data center
    I principali operatori dichiarano pubblicamente centinaia di migliaia di galloni al giorno in media nei singoli siti; il clima e la progettazione spingono i numeri verso l'alto o verso il basso [5].

  • La precedente analisi accademica
    di riferimento “thirsty AI” stimava milioni di litri per addestrare modelli di classe GPT e che 10-50 risposte medie potevano equivalere approssimativamente a una da 500 ml , a seconda di quando/dove venivano eseguite [3].


Perché le stime sono così discordanti 🤷

  • Confini diversi
    Alcune cifre considerano solo il raffreddamento in loco; altre aggiungono l'acqua dell'elettricità; le LCA possono includere la produzione di chip. Mele, arance e macedonia di frutta [2][3].

  • Carichi di lavoro diversi
    Un breve prompt di testo non è una lunga esecuzione multimodale/di codice; batching, concorrenza e obiettivi di latenza modificano l'utilizzo [1][2].

  • Climi e reti differenti
    Il raffreddamento evaporativo in una regione calda e arida ≠ raffreddamento ad aria/liquido in una regione fresca e umida. L'intensità dell'acqua della rete varia ampiamente [3].

  • Metodologie dei fornitori
    Google ha pubblicato un metodo di distribuzione a livello di sistema; Mistral ha pubblicato un LCA formale. Altri offrono stime puntuali con metodi sparsi. Un'affermazione di alto profilo di "un quindicesimo di cucchiaino" per richiesta ha fatto notizia, ma senza dettagli sui confini, non è comparabile [1][3].

  • Un obiettivo in movimento
    Il raffreddamento si sta evolvendo rapidamente. Microsoft sta sperimentando un sistema di raffreddamento senza acqua in alcuni siti; la sua implementazione ridurrà l'acqua in loco anche se l'elettricità a monte trasporta ancora un segnale idrico [4].


Cosa puoi fare oggi per ridurre l'impronta idrica dell'IA 🌱

  1. Dimensionare correttamente il modello.
    I modelli più piccoli e ottimizzati per il compito spesso raggiungono la stessa precisione consumando meno risorse di calcolo. La valutazione di Mistral sottolinea le forti correlazioni tra dimensioni e ingombro e pubblica i numeri di inferenza marginali in modo da poter ragionare sui compromessi [2].

  2. Scegliere regioni a basso consumo idrico
    Preferire regioni con climi più freddi, raffreddamento efficiente e reti con minore intensità idrica per kWh; il lavoro sull'“IA assetata” mostra che consapevole del tempo e del luogo è d'aiuto [3].

  3. Spostare i carichi di lavoro nel tempo
    Pianificare l'allenamento/l'inferenza di batch pesanti per le ore in cui si risparmia acqua (notti più fresche, condizioni di rete favorevoli) [3].

  4. Chiedi al tuo fornitore parametri trasparenti
    sulla domanda di acqua per richiesta, definizioni dei confini e se i numeri includono la capacità inutilizzata e i costi generali dell'impianto. I gruppi politici stanno spingendo per una divulgazione obbligatoria per rendere possibili confronti tra sistemi simili [3].

  5. La tecnologia di raffreddamento è importante.
    Se utilizzi hardware, valuta il raffreddamento a circuito chiuso/diretto al chip; se sei sul cloud, preferisci le regioni/i provider che investono in progetti leggeri ad acqua [4][5].

  6. Utilizzare le acque grigie e riutilizzare le opzioni
    Molti campus possono sostituire le fonti non potabili o riciclarle all'interno dei circuiti; i grandi operatori descrivono il bilanciamento delle fonti idriche e le scelte di raffreddamento per ridurre al minimo l'impatto netto [5].

Un esempio rapido per renderlo concreto (non una regola universale): spostare un corso di formazione notturno da una regione calda e secca in piena estate a una regione più fresca e umida in primavera, e svolgerlo durante le ore di minor consumo e più fresche, può modificare sia in loco il consumo idrico esterno (dalla rete). Questo è il tipo di vantaggio pratico e senza intoppi che una pianificazione oculata può offrire [3].


Tabella comparativa: consigli rapidi per ridurre il consumo d'acqua dell'IA 🧰

attrezzo pubblico prezzo perché funziona
Modelli più piccoli e ottimizzati per le attività Team ML, responsabili di prodotto Basso-medio Meno elaborazione per token = meno raffreddamento + elettricità e acqua; dimostrato nella rendicontazione in stile LCA [2].
Selezione della regione in base all'acqua/kWh Architetti cloud, approvvigionamento Medio Passare a climi più freddi e reti con minore intensità idrica; abbinare a un instradamento basato sulla domanda [3].
Finestre di allenamento in base all'ora del giorno MLOps, pianificatori Basso Le notti più fresche e le migliori condizioni della rete elettrica riducono l’intensità effettiva dell’acqua [3].
Raffreddamento diretto al chip/a circuito chiuso Operazioni del data center Medio-alto Evita le torri evaporative ove possibile, riducendo drasticamente i consumi in loco [4].
Controlli di lunghezza e batch dei prompt Sviluppatori di app Basso Limita i token in fuga, raggruppali in modo intelligente, memorizza i risultati nella cache; meno millisecondi, meno millilitri [1][2].
Lista di controllo per la trasparenza del fornitore CTO, responsabili della sostenibilità Gratuito Impone chiarezza sui confini (in loco vs. fuori sede) e reporting comparativo [3].
Acque grigie o fonti recuperate Strutture, comuni Medio La sostituzione dell’acqua non potabile riduce lo stress sulle forniture potabili [5].
Partnership per il riutilizzo del calore Operatori, consigli locali Medio Una migliore efficienza termica riduce indirettamente la domanda di raffreddamento e crea buona volontà a livello locale [5].

(Il "prezzo" è incerto per definizione, le implementazioni variano.)


Analisi approfondita: il ritmo della politica si fa più forte 🥁

Gli enti di ingegneria chiedono la divulgazione obbligatoria dei dati relativi al consumo di energia e acqua dei data center, in modo che acquirenti e comunità possano valutare costi e benefici. Le raccomandazioni includono definizioni di ambito, reportistica a livello di sito e linee guida per la localizzazione, perché senza metriche comparabili e basate sulla posizione, stiamo discutendo alla cieca [3].


Analisi approfondita: i data center non consumano tutti allo stesso modo 🚰

Esiste un mito persistente secondo cui "il raffreddamento ad aria non utilizza acqua". Non proprio. I sistemi ad aria richiedono spesso più elettricità, che in molte regioni trasporta acqua nascosta dalla rete; al contrario, il raffreddamento ad acqua può ridurre il consumo di energia e le emissioni a scapito dell'acqua in loco. I grandi operatori bilanciano esplicitamente questi compromessi sito per sito [1][5].


Analisi approfondita: un rapido controllo della realtà sulle affermazioni virali 🧪

Potreste aver visto affermazioni audaci secondo cui un singolo prompt equivale a "una bottiglia d'acqua" o, all'estremo opposto, a "solo poche gocce". Un atteggiamento migliore: umiltà con la matematica. Gli estremi credibili di oggi sono ~0,26 mL per un prompt di produzione mediano con overhead di servizio completo [1] e ~45 mL per una risposta di assistente di 400 token (inferenza marginale) [2]. L'affermazione molto diffusa di "un quindicesimo di cucchiaino" non ha un limite/metodo pubblico; trattatela come una previsione del tempo senza la città [1][3].


Mini-FAQ: quanta acqua usa l'intelligenza artificiale? Di nuovo, in parole povere 🗣️

  • Quindi, cosa dovrei dire durante una riunione?
    "A seconda del prompt, la quantità varia da poche gocce a qualche sorso, a seconda del modello, della lunghezza e del contesto. La formazione richiede un approccio completo, non superficiale." Poi citare uno o due esempi di quanto detto sopra.

  • L'IA è un male unico?
    È un problema: i chip ad alta potenza stipati insieme creano grandi carichi di raffreddamento. Ma i data center sono anche i luoghi in cui le tecnologie più efficienti tendono ad arrivare per prime [1][4].

  • E se spostassimo tutto sul raffreddamento ad aria?
    Potremmo ridurre in loco e aumentare quello esterna tramite l'elettricità. Gli operatori più esperti valutano entrambe le soluzioni [1][5].

  • E per quanto riguarda la tecnologia del futuro?
    Progetti che evitino il raffreddamento ad acqua su larga scala rappresenterebbero un punto di svolta per lo Scope 1. Alcuni operatori si stanno muovendo in questa direzione; l’elettricità a monte trasporta ancora un segnale idrico finché le reti non cambieranno [4].


Osservazioni finali - Troppo lungo, non l'ho letto 🌊

  • Per prompt: pensa a sub-millilitri fino a decine di millilitri, a seconda del modello, della lunghezza del prompt e di dove viene eseguito. Prompt mediano ~0,26 mL su uno stack principale; ~45 mL per una risposta di 400 token su un altro [1][2].

  • Formazione: milioni di litri per modelli di frontiera, rendendo cruciali la programmazione, l'ubicazione e la tecnologia di raffreddamento [3].

  • Cosa fare: dimensionare correttamente i modelli, scegliere regioni che sappiano gestire l’acqua in modo efficiente, spostare i lavori pesanti in orari più freddi, preferire fornitori che forniscano progetti che riducano l’acqua e richiedere confini trasparenti [1][3][4][5].

Metafora leggermente imperfetta per concludere: l'intelligenza artificiale è un'orchestra assetata: la melodia è calcolo, ma i tamburi sono acqua di raffreddamento e di rete. Accordate la band e il pubblico sentirà comunque la musica senza che gli irrigatori si accendano. 🎻💦


Riferimenti

  1. Blog di Google Cloud - Quanta energia consuma l'IA di Google? Abbiamo fatto i calcoli (metodologia + ~0,26 mL di mediana di richiesta, costi generali di erogazione completa). Link
    (Documento tecnico in PDF: Misurare l'impatto ambientale dell'erogazione di IA su scala Google.) Link

  2. Mistral AI - Il nostro contributo a uno standard ambientale globale per l'IA (LCA con ADEME/Carbone 4; ~281.000 m³ di training + utilizzo iniziale; ~45 mL per da 400 token risposta Link

  3. Li et al. - Rendere l'IA meno "assetata": scoprire e affrontare l'impronta idrica nascosta dei modelli di IA (addestramento di milioni di litri, basata su tempo e luogo , prelievo vs. consumo). Link

  4. Microsoft - I data center di nuova generazione non consumano acqua per il raffreddamento (progettazioni direct-to-chip che mirano al raffreddamento senza acqua in determinati siti). Link

  5. Google Data Center - Operare in modo sostenibile (compromessi di raffreddamento sito per sito; reporting e riutilizzo, comprese acque recuperate/grigie; ordini di grandezza tipici di utilizzo giornaliero a livello di sito). Link

Trova l'ultima intelligenza artificiale nello store ufficiale di AI Assistant

Chi siamo

Torna al blog