Quanta acqua usa l'intelligenza artificiale?

Quanta acqua usa l'intelligenza artificiale?

Scommetto che avete sentito di tutto, da "L'intelligenza artificiale beve una bottiglia d'acqua ogni poche domande" a "in pratica sono poche gocce". La verità è più sfumata. L'impronta idrica dell'intelligenza artificiale varia notevolmente a seconda di dove viene eseguita, della durata del prompt e di come un data center raffredda i suoi server. Quindi sì, il dato principale esiste, ma è avvolto in un groviglio di avvertenze.

Di seguito analizzo numeri chiari e pronti per una decisione, spiego perché le stime non concordano e mostro come costruttori e utenti comuni possono ridurre il consumo di acqua senza trasformarsi in monaci della sostenibilità.

Articoli che potrebbero interessarti dopo questo:

🔗 Che cos'è un set di dati di intelligenza artificiale
Spiega come i set di dati consentono l'addestramento dell'apprendimento automatico e lo sviluppo di modelli.

🔗 Come l'intelligenza artificiale prevede le tendenze
Mostra come l'intelligenza artificiale analizza i modelli per prevedere cambiamenti e risultati futuri.

🔗 Come misurare le prestazioni dell'IA
Analizza le metriche essenziali per valutare accuratezza, velocità e affidabilità.

🔗 Come parlare con l'intelligenza artificiale
Fornisce strategie di sollecitazione efficaci per migliorare chiarezza, risultati e coerenza.


Quanta acqua usa l'intelligenza artificiale? Numeri rapidi che puoi usare davvero 📏

  • Per prompt, l'intervallo tipico oggi: da sub-millilitri per un prompt di testo mediano su un sistema mainstream, fino a decine di millilitri per una risposta più lunga e con un calcolo più elevato su un altro. Ad esempio, la contabilità di produzione di Google riporta un prompt di testo mediano di circa 0,26 mL (con overhead di servizio completo incluso) [1]. La valutazione del ciclo di vita di Mistral fissa una risposta dell'assistente di 400 token a circa 45 mL (inferenza marginale) [2]. Contesto e modello sono molto importanti.

  • Addestramento di un modello su scala di frontiera: può arrivare a milioni di litri , principalmente per il raffreddamento e l'acqua incorporata nella generazione di elettricità. Un'analisi accademica ampiamente citata ha stimato circa 5,4 milioni di litri per addestrare un modello di classe GPT, inclusi circa 700.000 litri consumati in loco per il raffreddamento, e ha sostenuto la necessità di una programmazione intelligente per ridurre l'intensità idrica [3].

  • Data center in generale: i siti di grandi dimensioni gestiscono centinaia di migliaia di galloni al giorno presso i principali operatori, con picchi più elevati in alcuni campus a seconda del clima e della progettazione [5].

Siamo onesti: a prima vista, queste cifre sembrano incoerenti. Lo sono. E ci sono buone ragioni.

 

IA assetata

Metriche AI ​​sull'uso dell'acqua ✅

Una buona risposta alla domanda "Quanta acqua usa l'intelligenza artificiale?" dovrebbe soddisfare alcuni requisiti:

  1. Chiarimento dei confini:
    include solo di raffreddamento in loco o anche esterna utilizzata dalle centrali elettriche per generare elettricità? Le migliori pratiche distinguono il prelievo di acqua dal consumo di acqua e dagli ambiti 1-2-3, in modo simile alla contabilizzazione del carbonio [3].

  2. Sensibilità alla posizione
    L'acqua per kWh varia in base alla regione e alla combinazione della rete, quindi lo stesso prompt può avere impatti idrici diversi a seconda di dove viene servito, un motivo fondamentale per cui la letteratura raccomanda una programmazione basata su tempo e luogo [3].

  3. Realismo del carico di lavoro
    Il numero riflette i prompt di produzione mediani , inclusa la capacità inattiva e il sovraccarico del data center, o solo l'acceleratore al picco? Google sottolinea l'importanza della contabilità dell'intero sistema (inattivo, CPU/DRAM e sovraccarico del data center) per l'inferenza, non solo la matematica TPU [1].

  4. Tecnologia di raffreddamento
    Il raffreddamento evaporativo, il raffreddamento a liquido a circuito chiuso, il raffreddamento ad aria e gli approcci emergenti direct-to-chip modificano drasticamente l'intensità dell'acqua. Microsoft sta implementando progetti volti a eliminare l'uso dell'acqua di raffreddamento per alcuni siti di nuova generazione [4].

  5. Ora del giorno e stagione
    Il calore, l’umidità e le condizioni della rete elettrica modificano l’efficacia dell’uso dell’acqua nella vita reale; uno studio influente suggerisce di programmare i lavori più importanti quando e dove l’intensità dell’acqua è inferiore [3].


Prelievo idrico vs consumo idrico, spiegato 💡

  • Prelievo = acqua prelevata da fiumi, laghi o falde acquifere (in parte restituita).

  • Consumo = acqua non restituita perché evapora o viene incorporata nei processi/prodotti.

consumano principalmente tramite evaporazione. La produzione di energia elettrica può prelevare grandi volumi (a volte consumandone una parte), a seconda dell'impianto e del metodo di raffreddamento. Un numero credibile di AI-water etichetta ciò che sta segnalando [3].


Dove va l'acqua nell'intelligenza artificiale: i tre secchi 🪣

  1. Ambito 1 - raffreddamento in loco
    La parte visibile: l'acqua evaporata nel data center stesso. Scelte progettuali come evaporazione rispetto ad aria o liquido a circuito chiuso stabiliscono la linea di base [5].

  2. Ambito 2 - generazione di elettricità
    Ogni kWh può avere un'etichetta idrica nascosta; la miscela e la posizione determinano il segnale litri per kWh che il carico di lavoro eredita [3].

  3. Ambito 3 - catena di fornitura
    La produzione di chip si basa sull'utilizzo di acqua ultrapura durante la fabbricazione. Non lo si vedrà in una metrica "per prompt" a meno che il confine non includa esplicitamente gli impatti incorporati (ad esempio, un LCA completo) [2][3].


Fornitori in cifre, con sfumature 🧮

  • Google Gemini richiede
    un metodo di distribuzione full-stack (inclusi i tempi di inattività e i costi generali dell'impianto). Il prompt di testo mediano richiede circa 0,26 ml di acqua insieme a circa 0,24 Wh di energia; le cifre riflettono il traffico di produzione e i limiti complessivi [1].

  • Ciclo di vita di Mistral Large 2
    Un raro LCA indipendente (con ADEME/Carbone 4) rivela ~281.000 m³ per l'addestramento + utilizzo precoce e un'inferenza marginale di ~45 mL per una risposta dell'assistente da 400 token

  • L'ambizione di Microsoft di un raffreddamento a zero acqua
    I data center di nuova generazione sono progettati per consumare zero acqua per il raffreddamento , basandosi su approcci diretti al chip; gli usi amministrativi richiedono ancora un po' d'acqua [4].

  • Scala generale dei data center
    I principali operatori dichiarano pubblicamente centinaia di migliaia di galloni al giorno in media nei singoli siti; il clima e la progettazione spingono i numeri verso l'alto o verso il basso [5].

  • La precedente base accademica
    L’analisi seminale dell’“intelligenza artificiale assetata” ha stimato milioni di litri per addestrare modelli di classe GPT e che 10–50 risposte medie potrebbero equivalere approssimativamente a una da 500 ml , in larga misura a seconda di quando/dove vengono eseguite [3].


Perché le stime sono così discordanti 🤷

  • Confini diversi
    Alcune cifre contano solo il raffreddamento in loco ; altre aggiungono l'acqua dell'elettricità ; le LCA possono aggiungere la produzione di chip . Mele, arance e macedonia di frutta [2][3].

  • Carichi di lavoro diversi
    Un breve prompt di testo non è una lunga esecuzione multimodale/di codice; gli obiettivi di batching, concorrenza e latenza cambiano l'utilizzo [1][2].

  • Climi e griglie diversi
    Raffreddamento evaporativo in una regione calda e arida ≠ raffreddamento aria/liquido in una regione fredda e umida. L'intensità dell'acqua della griglia varia ampiamente [3].

  • Metodologie dei fornitori:
    Google ha pubblicato un metodo di distribuzione a livello di sistema; Mistral ha pubblicato un LCA formale. Altri offrono stime puntuali con metodi sparsi. Un'affermazione di alto profilo, "un quindicesimo di cucchiaino" per prompt, ha fatto notizia, ma senza dettagli sui confini, non è confrontabile [1][3].

  • Un obiettivo in movimento
    Il raffreddamento si sta evolvendo rapidamente. Microsoft sta sperimentando un sistema di raffreddamento senza acqua in alcuni siti; la sua implementazione ridurrà l'acqua in loco anche se l'elettricità a monte trasporta ancora un segnale idrico [4].


Cosa puoi fare oggi per ridurre l'impronta idrica dell'IA 🌱

  1. Dimensionare correttamente il modello.
    I modelli più piccoli e ottimizzati per le attività spesso raggiungono la precisione pur consumando meno risorse di calcolo. La valutazione di Mistral sottolinea forti correlazioni tra dimensioni e ingombro e pubblica numeri di inferenza marginali in modo da poter ragionare sui compromessi [2].

  2. Scegliere regioni che fanno un uso consapevole dell’acqua
    Preferire regioni con climi più freddi, raffreddamento efficiente e reti con una minore intensità idrica per kWh; il lavoro sull’“intelligenza artificiale assetata” mostra che basata sul tempo e sul luogo aiuta [3].

  3. Spostare i carichi di lavoro nel tempo
    Pianificare l'allenamento/l'inferenza di batch pesanti per le ore in cui si risparmia acqua (notti più fresche, condizioni di rete favorevoli) [3].

  4. Chiedi al tuo fornitore parametri trasparenti
    sulla domanda di acqua per richiesta , definizioni dei confini e se i numeri includono la capacità inutilizzata e i costi generali dell'impianto. I gruppi politici stanno spingendo per una divulgazione obbligatoria per rendere possibili confronti tra sistemi simili [3].

  5. La tecnologia di raffreddamento è importante
    Se gestisci hardware, valuta il raffreddamento a circuito chiuso/diretto al chip ; se sei sul cloud, preferisci regioni/fornitori che investono in progetti water-light [4][5].

  6. Utilizzare le acque grigie e riutilizzare le opzioni
    Molti campus possono sostituire le fonti non potabili o riciclarle all'interno dei circuiti; i grandi operatori descrivono il bilanciamento delle fonti idriche e le scelte di raffreddamento per ridurre al minimo l'impatto netto [5].

Un esempio rapido per renderlo concreto (non una regola universale): spostare un lavoro di formazione notturna da una regione calda e secca in piena estate a una regione più fresca e umida in primavera, e gestirlo durante le ore più fresche e non di punta, può modificare sia in loco che esterna (rete). Questo è il tipo di pianificazione pratica e poco drammatica delle vittorie che può sbloccare [3].


Tabella comparativa: consigli rapidi per ridurre il consumo d'acqua dell'IA 🧰

attrezzo pubblico prezzo perché funziona
Modelli più piccoli e ottimizzati per le attività Team ML, responsabili di prodotto Basso-medio Meno elaborazione per token = meno raffreddamento + elettricità e acqua; dimostrato nella rendicontazione in stile LCA [2].
Selezione della regione in base all'acqua/kWh Architetti cloud, approvvigionamento Medio Passare a climi più freddi e reti con minore intensità idrica; abbinare a un instradamento basato sulla domanda [3].
Finestre di allenamento in base all'ora del giorno MLOps, pianificatori Basso Le notti più fresche e le migliori condizioni della rete elettrica riducono l’intensità effettiva dell’acqua [3].
Raffreddamento diretto al chip/a circuito chiuso Operazioni del data center Medio-alto Evita le torri evaporative ove possibile, riducendo drasticamente i consumi in loco [4].
Controlli di lunghezza e batch dei prompt Sviluppatori di app Basso Limita i token in fuga, raggruppali in modo intelligente, memorizza i risultati nella cache; meno millisecondi, meno millilitri [1][2].
Lista di controllo per la trasparenza del fornitore CTO, responsabili della sostenibilità Gratuito Impone chiarezza sui confini (in loco vs. fuori sede) e reporting comparativo [3].
Acque grigie o fonti recuperate Strutture, comuni Medio La sostituzione dell’acqua non potabile riduce lo stress sulle forniture potabili [5].
Partnership per il riutilizzo del calore Operatori, consigli locali Medio Una migliore efficienza termica riduce indirettamente la domanda di raffreddamento e crea buona volontà a livello locale [5].

(Il "prezzo" è incerto per definizione, le implementazioni variano.)


Analisi approfondita: il ritmo della politica si fa più forte 🥁

Gli enti di ingegneria richiedono la divulgazione obbligatoria dei dati energetici e idrici dei data center, in modo che acquirenti e comunità possano valutarne costi e benefici. Le raccomandazioni includono definizioni di ambito, report a livello di sito e linee guida per la scelta del sito, perché senza parametri comparabili e basati sulla posizione geografica, stiamo discutendo al buio [3].


Analisi approfondita: i data center non consumano tutti allo stesso modo 🚰

Esiste un mito persistente secondo cui "il raffreddamento ad aria non utilizza acqua". Non proprio. I sistemi ad aria compressa spesso richiedono più elettricità , che in molte regioni trasporta acqua nascosta dalla rete; al contrario, il raffreddamento ad acqua può ridurre energia ed emissioni a scapito dell'acqua in loco. I grandi operatori bilanciano esplicitamente questi compromessi sito per sito [1][5].


Analisi approfondita: un rapido controllo della realtà sulle affermazioni virali 🧪

Potresti aver visto affermazioni audaci secondo cui un singolo prompt equivale a "una bottiglia d'acqua" o, all'altro estremo, a "solo poche gocce". Una postura migliore: umiltà con la matematica . I limiti credibili di oggi sono ~0,26 mL per un prompt di produzione mediano con sovraccarico di servizio completo [1] e ~45 mL per una risposta dell'assistente di 400 token (inferenza marginale) [2]. La tanto condivisa "un quindicesimo di cucchiaino" manca di un confine/metodo pubblico; trattala come una previsione del tempo senza la città [1][3].


Mini-FAQ: quanta acqua usa l'intelligenza artificiale? Di nuovo, in parole povere 🗣️

  • Quindi, cosa dovrei dire in una riunione?
    "Per suggerimento, si va da gocce a qualche sorso , a seconda del modello, della lunghezza e del luogo in cui viene erogato. L'allenamento avviene in piscina , non in pozzanghere". Poi cita uno o due esempi di cui sopra.

  • L'intelligenza artificiale è particolarmente dannosa?
    È particolarmente concentrata : chip ad alta potenza raggruppati insieme creano grandi carichi di raffreddamento. Ma i data center sono anche il luogo in cui le tecnologie più efficienti tendono a diffondersi per prime [1][4].

  • E se spostassimo tutto sul raffreddamento ad aria?
    Potremmo ridurre in loco e aumentare quello esterna tramite l'elettricità. Gli operatori più esperti valutano entrambe le soluzioni [1][5].

  • E per quanto riguarda la tecnologia del futuro?
    Progetti che evitino il raffreddamento ad acqua su larga scala rappresenterebbero un punto di svolta per lo Scope 1. Alcuni operatori si stanno muovendo in questa direzione; l’elettricità a monte trasporta ancora un segnale idrico finché le reti non cambieranno [4].


Osservazioni finali - Troppo lungo, non l'ho letto 🌊

  • Per prompt: pensa a sub-millilitri fino a decine di millilitri , a seconda del modello, della lunghezza del prompt e di dove viene eseguito. Prompt mediano ~0,26 mL su uno stack principale; ~45 mL per una risposta di 400 token su un altro [1][2].

  • Formazione: milioni di litri per i modelli di frontiera, rendendo la programmazione, la localizzazione e la tecnologia di raffreddamento critiche [3].

  • Cosa fare: dimensionare correttamente i modelli, scegliere regioni che sappiano gestire l’acqua in modo efficiente, spostare i lavori pesanti in orari più freddi, preferire fornitori che forniscano progetti che riducano l’acqua e richiedere confini trasparenti [1][3][4][5].

Metafora leggermente imperfetta per concludere: l'intelligenza artificiale è un'orchestra assetata: la melodia è calcolo, ma i tamburi sono acqua di raffreddamento e di rete. Accordate la band e il pubblico sentirà comunque la musica senza che gli irrigatori si accendano. 🎻💦


Riferimenti

  1. Blog di Google Cloud - Quanta energia consuma l'intelligenza artificiale di Google? Abbiamo fatto i calcoli (metodologia + ~0,26 mL prompt mediano, overhead di servizio completo). Link
    (PDF del documento tecnico: Misurazione dell'impatto ambientale della distribuzione dell'intelligenza artificiale su scala Google ). Link

  2. Mistral AI - Il nostro contributo a uno standard ambientale globale per l'intelligenza artificiale (LCA con ADEME/Carbone 4; ~281.000 m³ di addestramento + utilizzo iniziale; ~45 mL per risposta da 400 token Link

  3. Li et al. - Rendere l'intelligenza artificiale meno "assetata": scoprire e affrontare l'impronta idrica segreta dei modelli di intelligenza artificiale (addestramento di milioni di litri , basata su tempo e luogo , prelievo vs. consumo). Link

  4. Microsoft - I data center di nuova generazione non consumano acqua per il raffreddamento (progettazioni direct-to-chip che mirano al raffreddamento senza acqua in determinati siti). Link

  5. Google Data Center - Operare in modo sostenibile (compromessi di raffreddamento sito per sito; reporting e riutilizzo, comprese acque recuperate/grigie; ordini di grandezza tipici di utilizzo giornaliero a livello di sito). Link

Trova l'ultima intelligenza artificiale nello store ufficiale di AI Assistant

Chi siamo

Torna al blog