Thermomanagement in Rechenzentren: Flüssigkühlung und Wärmenutzung

Abwärmerückgewinnung

Rechenzentren haben schon immer viel Wärme erzeugt, doch der Aufstieg von KI-Training, dichten GPU-Racks und leistungsstarken CPUs hat das Ausmass des Problems verändert. Im Jahr 2025 sind Leistungsaufnahmen von 500–1.000W pro Chip keine Seltenheit, während manche modernen Racks für deutlich höhere Lasten ausgelegt sind, als klassische luftgekühlte Konzepte effizient bewältigen können. Genau deshalb hat sich Flüssigkühlung von einer Lösung für spezielle HPC-Bereiche zu einem festen Bestandteil der Planung neuer Standorte und grosser Modernisierungen entwickelt. Gleichzeitig steigt der Druck, Abwärme als nutzbare Ressource zu betrachten – besonders in Europa, wo Nachhaltigkeitsanforderungen und Berichtspflichten spürbar strenger geworden sind.

Warum Luftkühlung 2025 an ihre Grenzen stösst

Luftkühlung funktioniert für viele klassische Unternehmens-Workloads weiterhin gut, wird jedoch ineffizient, sobald die Wärmedichte schneller steigt als der Luftstrom realistisch mitwachsen kann. Der Engpass ist physikalisch: Luft hat eine geringe Wärmekapazität. Um genug Wärme aus hochdichten Racks abzutransportieren, braucht es starke Lüfter, hohen statischen Druck und immer komplexere Containment-Konzepte. Dadurch wächst der Energieaufwand für die Kühlung, Betriebskosten steigen und es wird schwieriger, eine stabile Power Usage Effectiveness (PUE) zu halten.

Hinzu kommt bei KI-Umgebungen eine weitere Herausforderung: eine gleichmässige Temperatur auf Chip-Ebene. Selbst wenn die Raumtemperatur im grünen Bereich liegt, können Hotspots rund um GPUs, Spannungswandler oder Speicher auftreten und zu thermischem Throttling führen. Das ist nicht nur ein Performance-Problem, sondern wirkt sich auch auf die Planbarkeit von Workloads aus und erschwert die Kapazitätsplanung. Viele Betreiber denken heute eher in „Leistung pro Rack“ als in „Server pro Halle“ – und das erhöht den Druck, Kühlmethoden zu nutzen, die Wärme möglichst nahe an der Quelle abführen.

Auch Wasser und Nachhaltigkeit spielen eine Rolle. Verdunstungskühlung kann energetisch sehr effizient sein, verbraucht jedoch Wasser – teils in Mengen, die in wasserarmen Regionen politisch und betrieblich heikel sind. Mehrere grosse Betreiber haben öffentlich auf stärker geschlossene Kreisläufe umgestellt, um Verdunstungswasser zu reduzieren oder ganz zu vermeiden. Flüssigkühlung ist dabei ein zentraler Baustein.

Was Flüssigkühlung von „besserer Luftkühlung“ unterscheidet

Flüssigkühlung ist nicht einfach „Luftkühlung mit einem stärkeren Kältesystem“. Sie verändert den Wärmepfad grundlegend. Anstatt den gesamten Raum zu kühlen und darauf zu hoffen, dass Luft die Wärme aus den Komponenten abführt, wird die Wärme direkt am oder nahe am Chip aufgenommen. Dadurch sinkt der Energieverlust, der entsteht, wenn Bereiche gekühlt werden, die gar nicht im Fokus stehen, und es wird deutlich weniger Strom benötigt, um Luft durch enge Gehäuse und Rack-Strukturen zu pressen.

Weil Flüssigkeiten wesentlich mehr Wärme transportieren können als Luft, lässt sich dieselbe thermische Last mit geringeren Temperaturdifferenzen abführen. Das ermöglicht je nach System höhere Kühlmitteltemperaturen, reduziert den Kompressorbetrieb und erweitert die Zeiträume, in denen „Free Cooling“ genutzt werden kann. In der Praxis senkt das häufig den Strombedarf für Kühlung und unterstützt zugleich höhere Rack-Dichten.

Ein oft unterschätzter Vorteil liegt in der Qualität der Wärme. Abluft aus klassischen Rechenzentrumsräumen ist meist zu niedrigtemperiert und zu verstreut, um sie sinnvoll weiterzuverwenden. Flüssigkeitskreisläufe liefern Wärme dagegen konzentriert und kontrolliert – genau das, was erforderlich ist, um sie in Heizsysteme von Gebäuden, Fernwärmenetze oder bestimmte industrielle Anwendungen einzuspeisen.

Wichtige Flüssigkühlungsansätze: Direct-to-Chip und Immersion

Im Jahr 2025 werden die meisten Projekte in zwei Hauptkategorien geplant: Direct-to-Chip-Kühlung (auch Cold-Plate-Kühlung genannt) und Immersion-Kühlung. Bei Direct-to-Chip werden Kühlplatten an wärmeintensive Komponenten montiert – typischerweise CPUs und GPUs, teilweise auch Speicher oder Spannungswandler. Ein Kühlmittel zirkuliert durch diese Platten und führt Wärme sehr effizient ab. Der Rest des Servers kann weiterhin luftgekühlt bleiben, was diesen Ansatz besonders geeignet für schrittweise Umstellungen macht.

Immersion-Kühlung verfolgt einen anderen Weg: Server oder Komponenten werden in ein Bad aus dielektrischer Flüssigkeit getaucht. Die Wärme wird direkt von allen Oberflächen an das Fluid übertragen, das anschliessend über einen Wärmetauscher geführt wird. Immersion kann für sehr dichte Compute-Umgebungen ausserordentlich leistungsfähig sein, erfordert jedoch häufig spezialisiertere Hardware-Entscheidungen und angepasste Betriebsabläufe – etwa bei Wartung, Handling, Materialverträglichkeit und Fluid-Management.

Viele Betreiber akzeptieren inzwischen eine hybride Realität: Man muss nicht für den gesamten Standort eine einzige Methode wählen. Gemischte Hallen werden häufiger – Luftkühlung für Legacy- oder Low-Density-Racks, Direct-to-Chip für neue KI-Cluster und Immersion punktuell für sehr spezifische Workloads oder Forschungsumgebungen.

Praktische Auswahlkriterien: worauf Ingenieurteams zuerst achten

Die erste Frage lautet meist: Welche Wärmedichte wird angestrebt? Wer sehr hohe Rack-Leistungen plant, entscheidet sich oft für Direct-to-Chip, weil es sich in bekannte Server-Formfaktoren integrieren lässt und gleichzeitig hohe thermische Leistung liefert. Immersion wird attraktiver, wenn maximale Dichte im Vordergrund steht und das Betriebsmodell zur Organisation passt.

Der zweite Faktor ist die Integration in die Gebäudetechnik. Direct-to-Chip wird meist über eine Kühlmittelverteilereinheit (CDU) an einen sekundären Wasserkreislauf angebunden. Das kann sich in vielen Gebäuden nachrüsten lassen, sofern Rohrführung, Redundanz und Leckage-Überwachung sauber geplant sind. Immersion verändert häufig die Flächenplanung, Wartungsprozesse und mitunter sogar die Beschaffungsstrategie, weil das Kühlsystem stärker mit der Hardware verknüpft ist.

Als drittes wird die Langzeitökonomie betrachtet: Energiepreise, Wasserrestriktionen, Wachstum der IT-Lasten und Lebenszyklen der Ausstattung. Flüssigkühlung kann die Anfangsinvestitionen erhöhen (CDUs, Verteiler, Rohrleitungen, Sensorik, Monitoring), senkt aber oft die Betriebskosten, weil Lüfterstrom sinkt, mehr IT-Dichte pro Fläche möglich wird und sich Chancen für Wärmenutzung verbessern. Eine universell richtige Wahl gibt es nicht – sie hängt vom Leistungsfahrplan, den baulichen Rahmenbedingungen und der erwarteten Intensivierung der Workloads ab.

Abwärmerückgewinnung

Abwärme als Ressource nutzen: Wiederverwendungsmodelle, die funktionieren

Wärmenutzung ist längst nicht mehr nur ein Nachhaltigkeitsversprechen. Im Jahr 2025 wird sie zunehmend zu einem messbaren Planungsziel – besonders in Europa, wo Reporting-Anforderungen und Dekarbonisierungsziele Betreiber dazu drängen, Effizienz über PUE hinaus zu belegen. Der entscheidende Punkt ist, Abwärme als Produkt mit Spezifikationen zu verstehen: Temperaturniveau, Verfügbarkeit, Saisonalität und Art der Übergabe.

Flüssigkühlung verbessert die Machbarkeit der Wärmenutzung, weil sie wärmere und kontrolliertere Wärme liefert als klassische Abluft. Je nach Kreislaufdesign können Betreiber Wasser auf Temperaturniveaus bereitstellen, die für die Vorwärmung von Warmwasser, die Versorgung von Wärmepumpen oder die Einspeisung in Fernwärmenetze geeignet sind. Selbst wenn Wärmepumpen nötig sind, erhöht eine höhere Ausgangstemperatur die Effizienz und verbessert die Wirtschaftlichkeit.

Es gibt mehrere realistische Wege der Wiederverwendung. Häufig wird Wärme an nahegelegene Gebäude geliefert – Büros, Wohnanlagen, Krankenhäuser oder Universitäten – sofern dort kontinuierlicher Bedarf besteht. Ein weiteres Modell ist industrielle Symbiose, bei der Abwärme für Niedertemperaturprozesse genutzt wird. In kälteren Klimazonen kann die Einbindung in Fernwärme besonders attraktiv sein, setzt jedoch Abstimmung mit Versorgern und langfristige Verträge voraus, um Investitionen in Infrastruktur zu rechtfertigen.

Für Wiederverwendung planen: was von Anfang an bedacht werden muss

Damit Wärmenutzung wirklich funktioniert, muss das Thermalsystem auf stabile Lieferung ausgelegt sein. Es geht nicht nur um Kühlung, sondern um Temperaturziele, Pufferspeicher, Redundanz und präzises Monitoring. Ein Fernwärmenetz benötigt verlässliche Verfügbarkeit und klare Leistungsparameter. Betreiber setzen dafür häufig Wärmetauscher ein, um Kreisläufe aus Sicherheits- und Compliance-Gründen zu trennen und dennoch Energie effizient zu übertragen.

Die wirtschaftliche Struktur ist ebenso wichtig wie die Technik. Erfolgreiche Projekte basieren auf klaren Vereinbarungen zu Preisbildung, Wartungsverantwortung und Szenarien bei veränderten Lasten oder Nachfrage. Manche Betreiber sehen Abwärme als zusätzliche Einnahmequelle, andere eher als Hebel für Genehmigungen, CO₂-Reduktion oder regionale Akzeptanz. In jedem Fall gilt: Ohne vertragliche Klarheit lassen sich Wiederverwendungsprojekte schwer dauerhaft betreiben.

Schliesslich muss die Nutzung sauber gemessen werden. 2025 ist es üblich, neben PUE auch Kennzahlen zu Wasserverbrauch, Energierückgewinnung und CO₂-Wirkung zu erfassen. Viele Betreiber veröffentlichen inzwischen Nachhaltigkeitsberichte, und in Teilen der EU werden standardisierte Reportings verlangt. Wenn Wärmenutzung Teil der Strategie ist, braucht der Standort daher Mess- und Reporting-Fähigkeiten von Anfang an – nicht erst im Nachhinein.