Der Klimawandel erfordert von Verantwortlichen in der Industrie, ihre bisherigen Ansätze und Verfahrensweisen zu überdenken. Auch Rechenzentren sind gefordert, insbesondere das Thema Kühlung steht dabei im Fokus.
Laut Prognosen von Scaleway wird die weltweite Datennutzung bis 2040 um 60 Prozent steigen. Damit einher geht jedoch ein jährlicher Ausstoß von 24 Millionen Tonnen an Treibhausgasen. Ein wesentlicher Treiber dieser Entwicklung ist der zunehmende Trend in Richtung Cloud. Für viele Unternehmen spielt daher mittlerweile, neben Kosten, Sicherheit und der Flexibilität ihres Cloud-Anbieters, auch das Thema Nachhaltigkeit eine immer größere Rolle. Faktoren wie eine verstärkte Workload-Flexibilität, bessere Auslastungsraten der Server sowie energie- und wassersparende Infrastrukturen können dazu beitragen, die Public Cloud umweltfreundlicher zu machen.
Dabei variieren die Standards in den Rechenzentren beziehungsweise bei den Cloud-Anbietern hinsichtlich der Energieeffizienz jedoch oftmals, da Betreiber unterschiedlichen Ansätzen in Bezug auf Nachhaltigkeit folgen. Diese bestimmen wiederum, wie das Rechenzentrum geplant, gebaut, mit Strom versorgt, betrieben und – zum Schluss – stillgelegt wird. Im Schnitt sind dabei vor allem Server und Kühlsysteme für den größten Stromverbrauch in Rechenzentren verantwortlich, gefolgt von Laufwerken zur Datenspeicherung und den Netzwerkgeräten. Auf Server, die älter als fünf Jahre sind, entfallen 66 Prozent des Energieverbrauchs, wobei sie nur sieben Prozent der gesamten Rechenkapazität bereitstellen, so aktuelle Zahlen einer Untersuchung des Uptime Institute.
Es gibt viele Möglichkeiten, Energieeinsparungen zu erzielen, die wichtigste und einfachste davon ist, den Ursprung des Energieverbrauchs in den Blick zu nehmen und das Infrastruktur-Design entsprechend zu überdenken. Auf diese Weise können es Betreiber erreichen, nur dann Energie zu verbrauchen, wenn sie auch tatsächlich benötigt wird.
Zum Beispiel können Server und Racks Hardware-seitig modernisiert werden, um ein höheres Maß an Effizienz, Flexibilität und Skalierbarkeit zu erreichen. In der Industrie gab es in den letzten Jahren einen Trend in Richtung einer gesteigerten Energieeffizienz von Rack-Hardware wie Servern und Switches. Die Einführung energieeffizienterer CPUs sowie deren Steuerung machen es wiederum möglich, die Zeiten zu reduzieren, in der die Systeme unter voller Last laufen, ohne dass Kunden auf die gewohnte Leistung verzichten müssten.
Über die IT-Komponenten hinaus benötigen besonders Klimaanlagen hohe Energiemengen – kommen aber nach wie vor in großem Umfang zum Einsatz. Die Folge: Zwischen 30 und 40 Prozent der Energie eines einzelnen Rechenzentrums werden allein für die Kühlung aufgewendet. Kühlaggregate unterliegen zudem technischen Beschränkungen wie Spitzen im Energieverbrauch, dem Risiko ungeplanter Ausfallzeiten sowie geringerer Effizienz bei steigenden Außentemperaturen. Die meisten Klimaanlagen sind für eine maximale Außentemperatur von 40 Grad Celsius ausgelegt, hohe Temperaturen – wie in den letzten Jahren häufiger zu beobachten – wirken sich daher auf ihre Energy-Efficiency-Ratio (EER) aus. Und auch der Einsatz von Kühltürmen gilt als veraltete Praxis; sie sind ineffizient, unsicher und in modernen Hochleistungsrechenzentren unnötig.
Ein Grund, warum Klimaanlagen dennoch weiterhin in großem Umfang eingesetzt werden, ist, dass Rechenzentrums-Kunden finanzielle Strafen drohen, wenn ihre Server eine Temperatur von 20 Grad Celsius überschreiten. Allerdings können moderne Server gemäß den AHRAE-Normen Temperaturen von 30 Grad Celsius standhalten, manche sogar bis 40 Grad Celsius. Hier klafft also eine Lücke. Ein anderer Grund ist, dass die Wahrscheinlichkeit eines Server-Ausfalls bei höheren Temperaturen zwar größer ist, jedoch sind Hardware-Ausfälle bei weitem nicht mehr so schwerwiegend wie früher. Dank Software-Defined-Strategien kann es einfacher sein, Komponenten softwareseitig abzusichern und so einem Datenverlust oder einem Betriebsstillstand entgegenzuwirken.