Künstliche Intelligenz (KI) kann uns auf vielfältige Weise unterstützen. Von der Navigation durch den Straßenverkehr über das Verfassen von Reden bis zur Analyse von Geschäftszahlen – entsprechende Systeme sind aus unserem Alltag nicht mehr wegzudenken.
Doch es gibt auch die andere Seite der Medaille. KI bringt zwar großen Nutzen, doch die Technologie benötigt dafür enorme Rechenleistung und somit viel Energie. Die Internationale Energieagentur (IEA) prognostiziert, dass sich der Strombedarf von Rechenzentren bis 2030 verdoppeln wird. Vor allem angetrieben durch die wachsende KI-Nutzung werde die Nachfrage weltweit auf 945 Terawattstunden ansteigen, was etwas mehr als dem Stromverbrauch Japans entspreche, heißt es in dem IEA-Bericht.
Damit wächst der Druck, die Informationstechnik möglichst stromsparend zu betreiben. Dieser wird noch erhöht durch das Energieeffizienzgesetz (EnEfG), das die Betreiber von Rechenzentren zu umfassenden Maßnahmen zur Steigerung der Energieeffizienz verpflichtet. So dürfen unter anderem neu gebaute Rechenzentren, die nach dem 1. Juli 2026 in Betrieb genommen werden, einen PUE-Wert von 1,2 nicht überschreiten. Die PUE (Power Usage Effectiveness) ist die Kennzahl, die das Verhältnis des Gesamtenergieverbrauchs eines Rechenzentrums zum Energiebedarf für den Betrieb der IT-Infrastruktur angibt. Je niedriger die PUE, desto höher ist die Energieeffizienz.
Klimatisierung ist der Energiefresser
Ein wichtiger Hebel für eine gute PUE ist die Klimatisierung. Auf die Kühl- und Umluftsysteme können 25 Prozent oder bei nicht optimal ausgelegter oder veralteter Technik sogar bis zu 50 Prozent des Gesamtenergieverbrauchs eines Rechenzentrums entfallen. Dabei gibt es mehrere Herausforderungen zu bewältigen. Die eine ist der hohe Energieverbrauch der Kühlanlagen selbst. Eine andere ist die hohe Wärmedichte, die durch die kompakte Anordnung der Server entsteht.
Für die Kühlung stehen mehrere Methoden zur Verfügung. Am weitesten verbreitet ist zurzeit noch Luftkühlung. Besonders effizient ist die direkte freie Kühlung, bei der Außenluft vor die Server geleitet wird. Die warme Luft, die von den Servern abgegeben wird, wird nach draußen abgeführt. Eine weitere Methode stellt die indirekte freie Kühlung dar. Dabei gelangt die Außenluft nicht direkt in das Rechenzentrum. Stattdessen wird die Wärme über einen Wärmetauscher abgeführt.
Durch die Aufteilung des Rechenzentrums in Kalt- und Warmgänge findet keine Vermischung von Zu- und Abluft statt. Das bedeutet: Die kalte Luft wird aus einem Gang von den Servern angesaugt. Die erwärmte Luft hingegen strömt anschließend von den Servern in einen anderen getrennten Gang, von wo sie nach draußen transportiert wird.
Diese Verfahren funktionieren auch noch bei 28 Grad Celsius Außentemperatur. Somit lässt sich ein Rechenzentrum auf diese Weise in gemäßigtem Klima die meiste Zeit des Jahres kühlen. Bei höheren Außentemperaturen kann die adiabate Verdunstungskühlung Vorteile biete. Dabei wird die angesaugte Zuluft über einen mit Wasser besprühten Wärmeüberträger abgekühlt. Damit lässt sich auch bei 40 Grad Celsius Außentemperatur noch eine Zuluft mit 26 Grad Celsius erreichen.
Betreiber Firstcolo beispielsweise nutzt für seine Rechenzentren direkte und indirekte freie Kühlung und erreicht damit PUE-Werte von bis zu 1,25, wie Gründer und Geschäftsführer Jerome Evans berichtet. Im Durchschnitt liege die PUE bei circa 1,5.
Rechenleistung wird immer größer
Die Zukunft gehört aber einer anderen Kühltechnik. Denn zwei Entwicklungen führen dazu, dass die Leistungsdichten der Chips extrem zunehmen und dadurch das Kühlen mit Luft zunehmend schwieriger wird. Dazu zählt die schon erwähnte wachsende Nutzung von KI. Der andere Grund ist das Mooresche Gesetz, das vom Intel-Mitgründer Gordon Moore erstmals formuliert wurde. Es besagt, dass sich aufgrund des technologischen Fortschritts die Transistoranzahl auf integrierten Schaltkreisen etwa alle zwei Jahre verdoppelt. Die Rechenleistung wird somit also immer größer. Die Stromaufnahme der Chips steigt deutlich. Schon 60 Kilowatt pro Rack – also Serverschrank – überfordern jedoch die Luftkühlsysteme. Nvidia, der größte Produzent der für KI-Anwendungen notwendigen Grafikprozessoren, plane mit 100 bis 150 Kilowatt pro Rack, berichtet Evans.
Zur Kühlung der Infrastruktur wird daher künftig mit Wasser gearbeitet. Gemeint ist das sogenannte Liquid Cooling. Bei der gängigsten Methode – dem sogenannten Direct-to-Chip (DTC) – sitzt eine von Flüssigkeit durchströmte Kühlplatte direkt auf den Hauptwärmequellen der Server. Üblicherweise wird dafür Wasser verwendet. Die Wärme wird dabei über geschlossene Kühlkreisläufe abgeführt.
Da Flüssigkeiten Wärme besser leiten als Luft, kann die Wärme schneller und effektiver abgeleitet werden. So lassen sich deutlich mehr Server auf einer kleinen Fläche unterbringen, ohne dass Überhitzung droht. Im Vergleich zur Luftkühlung ermöglicht Liquid Cooling laut Firstcolo eine bis zu dreifach höhere Energieeffizienz in der Kühlung. Dadurch lasse sich der PUE-Wert signifikant verbessern. Nach Meinung von Evans ist Flüssigkeitskühlung der nächste technologische Sprung, der die Energieeinsparung im Rechenzentrum entscheidend voranbringt.
An Liquid Cooling führt kein Weg vorbei
Für die Betreiber von Rechenzentren wird auf lange Sicht wohl kein Weg an Liquid Cooling vorbeiführen. Da die Grafikprozessoren deutlich mehr Wärme produzieren als herkömmliche Chips, legen sie die Hersteller gleich für die Flüssigkeitskühlung aus. Nvidia stellt seine Produktion schon entsprechend um. 80 Prozent der ausgelieferten Serverchips sollen künftig liquid-gekühlt sein.
„Dass man im KI-Rechenzentrum nicht mehr mit Luft weiterkommt, ist jedem in der Branche mittlerweile klar“, sagt Philipp Guth im Interview mit dem Magazin IT Director. „So gut wie in jedem neuen Projekt geht es um Wasserkühlung.“ Guth ist Technikvorstand des Rechenzentrumsausrüsters Rittal, der jetzt seine Strategie auf die entsprechende Kühltechnologie ausgerichtet hat. Sein Unternehmen hat im vergangenen Jahr ein Liquid-Cooling-System auf den Markt gebracht, das eine Kühlleistung von über einem Megawatt erbringt. Rittal setzt dabei auf Standards und einen modularen Aufbau, um die Lösung bei Bedarf erweitern zu können. Das Rack besitzt standardisierte Anschlüsse, um die zentralen Zu- und Abläufe des Wasserkreislaufs koppeln zu können.
Der Trend zum Liquid Cooling bedeutet aber nicht, dass die Luftkühlung ein Auslaufmodell ist. „Grundsätzlich vertragen sich Wasser und Elektronik nicht so gut“, sagt Guth. „Daher nutzt man diese Art der Kühlung nur dort, wo es sein muss.“ Die Prozessoren würden zwar wassergekühlt. Die Restwärme der umliegenden Komponenten müsse aber ebenfalls abgeführt werden. Und dies geschieht laut Guth weiterhin mit Luft. So wird man in den Rechenzentren künftig wohl zunehmend Kombinationen aus den verschiedenen Kühltechnologien sehen, um die verschiedenen Vorteile zu nutzen.
Wasserkühlung besser im Neubau
Zudem ist die Flüssigkeitskühlung mit mehr Kosten verbunden. Die Systeme sind in der Anschaffung aktuell deutlich teurer als die herkömmlichen Luftkühllösungen – aufgrund der größeren Komplexität der Technik und der noch geringeren Stückzahlen. Liquid Cooling erfordert zudem eine sorgfältigere Planung. Die vorhandene Infrastruktur muss beispielsweise die Verlegung der notwendigen Rohre ermöglichen. Evans geht davon aus, dass sich in vielen Bestandsrechenzentren ein entsprechendes Kühlkonzept gar nicht umsetzen lässt. Stattdessen würden auf absehbare Zeit viele neue Rechenzentren entstehen, so seine Prognose.
Ein Neubau kann dann direkt auf die speziellen Anforderungen durch die KI-Server und die dazugehörige Klimatisierung ausgelegt werden. Das gelte etwa auch für die Statik des Gebäudes. „Das Dach ist einer hohen Belastung ausgesetzt, denn es muss die tonnenschweren Rückkühler für die Liquid-Systeme tragen können“, erklärt Evans. Sein Unternehmen baut daher gerade in Rosbach in der Nähe von Frankfurt ein spezielles KI-Rechenzentrum auf.
Herausforderungen in der Zukunft
Guth geht von einem anhaltenden Trend zur DTC-Kühlung aus. Auch wenn die Chipleistungen weiter steigen, könne mit dieser Technologie die Klimatisierung eines Rechenzentrums gewährleistet werden. Zu erwarten sind seiner Meinung nach Rack-Leistungen jenseits von 250 Kilowatt. Dann müssen laut Guth allerdings noch zwei Fragen beantwortet werden: Wie gelangt bei diesem hohen Strombedarf die Energie ins Rack? Und: Wie bringt man die Wärme nach draußen? Denn mehr Wärmeleistung benötigt auch höhere Volumenströme an Wasser und somit größere Rohrdurchmesser.
Ob und wann noch eine andere Methode der Flüssigkeitskühlung künftig eine Rolle spielen könnte, lässt sich aus Sicht des Rittal-Technikchefs derzeit nicht beantworten. Gemeint ist die Immersionskühlung. Dabei werden die Server in eine nicht leitende Kühlflüssigkeit getaucht. Laut Guth gibt es dabei aktuell noch viel technologische Unsicherheit. Sein Unternehmen beobachte aber die Entwicklung dieses Verfahrens.
Evans hält Immersionskühlung für eine sehr interessante Technologie. Allerdings sieht er deren praktische Anwendung eher in der Zukunft: „Es ist mir aktuell kein großes Rechenzentrum bekannt, das die Technik nutzt.“ Stattdessen werde vor allem in Testprojekten oder kleineren spezifischen Anwendungen mit Immersionskühlung gearbeitet. Ob im Tauchverfahren oder mit Kühlplatten - für die Energieeffizienz werden Elektronik und Flüssigkeit im Rechenzentrum langfristig miteinander auskommen müssen.

Bild: Rittal

Bild: Firstcolo
Smarte Steuerung
Zur Energieeffizienz trägt nicht nur die Wahl der passenden Kühltechnik bei, sondern auch deren Steuerung. Dank moderner Softwarelösungen für das Energiemanagement ist es zum Beispiel möglich, die Kühlung stets an der aktuellen Außentemperatur auszurichten – und dies minutengenau. Die Kühlung arbeitet dann exakt, wie sie benötigt wird. „So lässt sich die Anzahl der Stunden, in denen die Kompressoren in den Klimageräten laufen, deutlich reduzieren“, erklärt Jerome Evans, Gründer und Geschäftsführer von Firstcolo. „Das führt dazu, dass weniger Strom verbraucht wird.
Doch KI ist nicht nur Energiefresser, sie kann Teil der Lösung sein. Denn mithilfe von künstlicher Intelligenz lassen sich solche automatisierten Lösungen umsetzen. Beispiel dafür ist das System White Space Cooling Optimization (WSCO) von Siemens. Es nutzt KI, um die richtige Menge an Kühlung zum richtigen Zeitpunkt und an der richtigen Stelle in die Racks zu bringen. Dafür verarbeitet es unter anderem Sensorinformationen von den Servern und Temperaturdaten.
Verwendet wird WSCO zum Beispiel in dem französischen Rechenzentrum Thésée Datacenter Tier IV in Aubergenville in der Nähe von Paris. Dort sorgt es für einen optimierten Betrieb der Kühlleistungen, für die 30 Prozent der im Rechenzentrum benötigten Energie verwendet werden. Die Lösung arbeitet selbstständig und reagiert, wenn etwa ein Gerät ausfällt oder sich die Temperaturbedingungen in den Serverräumen ändern.
Energieeffizienzgesetz kurz gefasst
Grenzwerte für den PUE-Wert, die das Energieeffizienzgesetz für Rechenzentren vorgibt:
- ab dem 1. Juli 2027 eine PUE von kleiner oder gleich 1,5 und
- ab dem 1. Juli 2030 eine PUE von kleiner oder gleich 1,3
im Jahresdurchschnitt dauerhaft erreichen.