I data centre hanno sempre prodotto molto calore, ma la crescita dell’addestramento dell’IA, l’aumento della densità dei rack GPU e l’adozione di CPU ad alta potenza hanno cambiato completamente l’ordine di grandezza del problema. Nel 2025 è normale vedere singoli chip assorbire 500–1.000W, mentre alcuni rack moderni sono progettati per carichi molto più elevati rispetto a quanto l’aria, da sola, riesca a gestire in modo efficiente. Per questo il raffreddamento a liquido è passato dall’essere una soluzione di nicchia per ambienti HPC a diventare una scelta concreta nella progettazione di nuove strutture e nei retrofit più importanti. In parallelo, cresce la pressione affinché il calore di scarto venga trattato come una risorsa e non come un semplice effetto collaterale, soprattutto in Europa, dove requisiti di reporting e aspettative ambientali sono diventati più rigorosi.
Perché il raffreddamento ad aria sta raggiungendo i suoi limiti nel 2025
Il raffreddamento ad aria funziona ancora bene per molti carichi di lavoro aziendali standard, ma diventa inefficiente quando la densità termica aumenta più rapidamente di quanto il flusso d’aria possa realisticamente crescere. Il limite è legato alla fisica: l’aria ha una bassa capacità termica, quindi per spostare abbastanza calore attraverso rack ad alta densità servono ventole grandi, pressioni statiche elevate e soluzioni di contenimento sempre più complesse. Il risultato è che l’energia necessaria per il raffreddamento cresce velocemente, aumentando i costi operativi e rendendo difficile mantenere stabile l’indice di efficienza complessiva dell’impianto.
Le implementazioni IA ad alta densità aggiungono un ulteriore vincolo: la stabilità della temperatura a livello di chip. Anche se la temperatura della sala appare accettabile, hotspot intorno a GPU, VRM e memoria possono causare throttling termico. Questo non è solo un problema di prestazioni: può compromettere la prevedibilità dei carichi e complicare la pianificazione della capacità. Per questo molti operatori oggi progettano pensando alla “prestazione per rack” più che ai “server per sala”, e ciò spinge naturalmente verso sistemi in grado di rimuovere il calore più vicino alla sorgente.
Contano anche i vincoli legati all’acqua e alla sostenibilità. Il raffreddamento evaporativo tradizionale può essere molto efficiente dal punto di vista energetico, ma consuma acqua, talvolta in quantità che diventano sensibili in aree soggette a stress idrico. Diversi operatori hanno dichiarato pubblicamente di voler ridurre l’uso di acqua tramite sistemi a circuito chiuso, e il raffreddamento a liquido è una parte fondamentale di questa strategia.
Cosa rende il raffreddamento a liquido diverso da un semplice “raffreddamento ad aria migliorato”
Il raffreddamento a liquido non è semplicemente “aria con un chiller più potente”. Cambia il percorso del calore. Invece di raffreddare l’intera sala sperando che l’aria porti via il calore dai componenti, il liquido lo cattura direttamente sul chip o molto vicino ad esso. Questo significa meno energia sprecata per raffreddare parti del server che non ne hanno davvero bisogno e molta meno potenza utilizzata per forzare l’aria attraverso spazi ristretti.
Poiché i liquidi trasportano molto più calore dell’aria, possono rimuovere lo stesso carico termico con differenze di temperatura più piccole. Ciò apre la possibilità di usare temperature del fluido più elevate (a seconda del progetto), riducendo l’impiego dei compressori e ampliando le ore annuali in cui è possibile sfruttare il free cooling. In pratica, si può ridurre la domanda elettrica per il raffreddamento e, allo stesso tempo, aumentare la densità IT supportabile.
Un vantaggio spesso sottovalutato è la “qualità” del calore. L’aria esausta di una sala tradizionale è spesso troppo a bassa temperatura e troppo dispersa per essere riutilizzata facilmente. I circuiti a liquido, invece, possono fornire calore più concentrato e controllabile, condizione essenziale se si vuole alimentare il riscaldamento di un edificio, una rete di teleriscaldamento o un processo industriale.
Principali approcci di raffreddamento a liquido: direct-to-chip e immersione
Nel 2025 la maggior parte dei progetti rientra in due categorie principali: direct-to-chip (detto anche raffreddamento a piastra fredda) e raffreddamento a immersione. Il direct-to-chip utilizza piastre a contatto con componenti ad alta dissipazione—tipicamente CPU e GPU, talvolta anche memoria e VRM. Il fluido scorre attraverso queste piastre, rimuovendo il calore in modo estremamente efficiente. Il resto del server può continuare ad essere raffreddato ad aria, il che rende questo approccio pratico anche per adozioni graduali.
L’immersione segue una logica diversa: i server (o i componenti) vengono immersi in un fluido dielettrico. Il calore si trasferisce dalle superfici direttamente al fluido, che poi viene fatto circolare verso uno scambiatore. L’immersione può essere molto efficace per il calcolo ad alta densità, ma spesso richiede scelte hardware più specifiche e procedure operative diverse (manutenzione, compatibilità, gestione del fluido e sicurezza).
Esiste poi una realtà “ibrida” che molti operatori considerano ormai normale: non è necessario scegliere un unico metodo per un intero sito. È sempre più comune vedere sale miste, con raffreddamento ad aria per rack legacy o a bassa densità, direct-to-chip per i nuovi cluster IA e, in alcuni casi, immersione per carichi molto specifici o ambienti di ricerca.
Criteri pratici di scelta: cosa valutano per primo gli ingegneri
La prima domanda riguarda quasi sempre la densità termica prevista. Se si progetta per rack ad altissima potenza, il direct-to-chip è spesso la scelta più lineare perché si integra con formati server noti e offre prestazioni termiche elevate. L’immersione diventa più interessante quando l’obiettivo è massimizzare la densità e quando il modello operativo dell’organizzazione è compatibile con questo tipo di gestione.
Il secondo fattore è l’integrazione con l’impianto. Il direct-to-chip si collega di norma a un circuito secondario tramite una CDU (Coolant Distribution Unit). Questo può essere inserito in molte strutture anche in retrofit, con una corretta progettazione di tubazioni, ridondanza e rilevamento perdite. L’immersione, invece, può modificare layout del pavimento, flussi di manutenzione e persino la strategia di procurement, perché il sistema di raffreddamento è strettamente legato all’hardware IT.
Infine si valuta l’economia nel lungo periodo: costo dell’energia, vincoli idrici, crescita della capacità e ciclo di vita delle apparecchiature. Il raffreddamento a liquido può aumentare i costi iniziali (CDU, manifold, tubazioni, monitoraggio), ma può ridurre i costi operativi abbassando il consumo delle ventole, aumentando la densità IT utilizzabile e migliorando le opportunità di riuso del calore. Non esiste una scelta valida per tutti: dipende dalla roadmap di potenza, dai vincoli dell’edificio e dalla velocità con cui i carichi di lavoro tenderanno ad intensificarsi.

Trasformare il calore di scarto in una risorsa: modelli di riutilizzo che funzionano
Il riutilizzo del calore non è più solo un argomento di sostenibilità. Nel 2025 sta diventando un obiettivo di progetto misurabile, in particolare in Europa, dove obblighi di rendicontazione e strategie di decarbonizzazione spingono gli operatori a dimostrare efficienza oltre la sola PUE. Il punto chiave è trattare il calore di scarto come un prodotto con specifiche: livello di temperatura, affidabilità, stagionalità e modalità di consegna.
Il raffreddamento a liquido rende più facile il riutilizzo perché può fornire calore più caldo e controllabile rispetto all’aria esausta tradizionale. A seconda del circuito, gli operatori possono consegnare acqua a temperature adatte al preriscaldamento dell’acqua sanitaria, all’alimentazione di pompe di calore o all’integrazione con reti di teleriscaldamento. Anche quando serve una pompa di calore, partire da un calore di qualità superiore migliora l’efficienza e rafforza il business case.
Esistono diversi percorsi di riuso concreti. Il più comune è fornire calore a edifici vicini—uffici, complessi residenziali, ospedali o università—dove la domanda è più continua. Un altro modello è la sinergia industriale, in cui il calore supporta processi a bassa temperatura. Nei climi più freddi, l’integrazione con il teleriscaldamento è particolarmente interessante, ma richiede coordinamento con utility locali e contratti di lungo periodo per giustificare gli investimenti infrastrutturali.
Progettare per il riuso: cosa va pianificato fin dal primo giorno
Per riutilizzare il calore in modo efficace, il sistema termico deve essere progettato pensando alla consegna stabile. Ciò significa andare oltre il semplice raffreddamento: obiettivi di temperatura in mandata, buffer, ridondanza e monitoraggio diventano elementi critici. Una rete di teleriscaldamento, ad esempio, richiede disponibilità prevedibile e parametri prestazionali chiari. Spesso si impiegano scambiatori di calore per separare i circuiti, migliorando sicurezza e conformità senza perdere efficienza nel trasferimento energetico.
La struttura commerciale conta quanto l’ingegneria. I progetti di riuso di successo prevedono accordi chiari su prezzo, manutenzione e gestione delle variazioni di domanda. Alcuni operatori considerano il calore una fonte di ricavo, altri lo vedono come leva per autorizzazioni, riduzione delle emissioni o benefici per la comunità. In ogni caso, senza chiarezza contrattuale, questi progetti sono difficili da sostenere nel tempo.
Infine, il riuso va misurato correttamente. Nel 2025 è comune monitorare non solo la PUE, ma anche indicatori legati al consumo d’acqua, al recupero energetico e all’impatto sul carbonio. Molti operatori pubblicano dati di sostenibilità e in alcune aree dell’UE sono richiesti report standardizzati. Se il riutilizzo del calore fa parte della strategia, il sito deve prevedere misurazioni e reportistica fin dall’inizio, non come aggiunta successiva.