Effizienz heißt Energiebedarf nach Performance
Von Sabine Philipp und Eduard Heilmayr
Von der Arbeit an Standards zur Energieeffizienzbewertung von Rechenzentren berichtete auf der 3. IT2Green-Jahrestagung der Beitrag „Gesetzliche Anforderungen an Energieeffizienz in Europa – Beiträge der Industrieinitiative The Green Grid“. Dr. Bernd Kosch, Leiter Environmental Technology bei Fujitsu Technology Solutions und Deutschland-Repräsentant von The Green Grid stellte in Berlin u.a. den Standard Power Usage Effectiveness (PUE) vor.
PUE soll sich nach Angaben des internationalen Verbands als Messwert für die Energieeffizienz der Gebäudetechnik eines Rechenzentrums etablieren. PUE bezeichnet das Verhältnis des gesamten elektrischen Energiebedarfes eines Rechenzentrums zum elektrischen Energiebedarf der IT-Ausrüstung. Der Standard „ist für uns ein Kriterium um die internen Rechenzentren zu vergleichen“, erklärte Dr. Kosch. Auf die Frage von IT und Energieeffizienz ging Dr. Kosch noch näher ein: „Wir haben in den letzten Jahren eine sehr starke Verbesserung von Energieeffizienz in Serversystemen beobachtet. Allein vom Gesichtspunkt der Energiekosten würde sich der Einsatz moderner Hardware sehr schnell amortisieren.“
Ein Exkurs drehte sich daher um einen besonderen Typ von Memory-Bauteilen, die sogenannten PCM-Speicher (Phase-Change Memory). Das Funktionsprinzip der Informationsspeicherung beruht auf dem Phasenwechsel zwischen den Materialzuständen amorph und kristallin. Das habe eine Reihe von Vorteilen: Die Lesegeschwindigkeit sei vergleichbar mit DRAM (Dynamic Random Access Memory), die Schreibgeschwindigkeit liege jedoch dramatisch höher als bei NAND-Flash-Speichern. Eigentlich, so Dr. Kosch, sei das ein altes Konzept, das durch neue Physik konkurrenzfähig werde.
Energiebedarf nach IT-Performance
An der anschließenden Podiumsdiskussion unter dem Motto „Gestaltung einer nachhaltigen effizienten Cloud“ nahmen die Referenten Harald Summa, Dr. Thomas Steffen und Dr. Bernd Kosch sowie die Repräsentanten der durch IT2Green geförderten Verbundvorhaben, Bernd Hanstein (AC4DC), Bernhard Barz (GGC-Lab), Dr. Jörg Leukel (Migrate!) und Dr. Lars Kemper (GreenPAD) teil. Sehr heftig wurde u.a. über die Signifikanz des Wertes PUE diskutiert.
So stellte sich die Frage, ob PUE bei heterogenen Rechenzentrumslandschaften überhaupt anwendbar sei. Auf Kritik stieß z.B., dass der Wert nicht den Auslastungsgrad der Rechenzentren berücksichtige, ebenso wenig die Frage, wie man die einzelnen Komponenten optimieren könne. Denn häufig seien Rechenzentren nicht so modular aufgebaut, dass man sie an den jeweiligen Lastbedarf anpassen könne. Man müsse über das gesamte Jahr die monatliche Auswertungen betrachten, um zu aussagekräftigen Werten zu kommen. Auch wurde die Meinung vertreten, dass PUE eine Kennzahl sei, mit der man weniger involvierten Beteiligten einfach die Thematik kommunizieren könne. Damit ließen sich etwa Faktoren ansprechen, die Stromkosten verursachen. Um komplexe Algorithmen abzubilden, müsse man jedoch eine Stufe tiefer gehen.
Im Zusammenhang mit Kennzahlen ist noch der Vortrag „Messung der Energieeffizienz in Rechenzentren“ hervorzuheben, den Marc Wilkens von der Technischen Universität Berlin am zweiten Veranstaltungstag hielt. Sein Fazit, das er aus dem Projekt GGC-Lab zog, an dem vier Rechenzentren beteiligt sind, lautet: PUE reicht nicht aus, „um Effizienzen im Rechenzentrum abzubilden“. Es werde nur der Aufwand, also ein durchschnittlicher Energiebedarf abgebildet. Die große Herausforderung bestehe aber darin, Energiebedarf in Abhängigkeit zur IT-Performance darzustellen und zu steuern.
Die Gebäudetechnik spielt mit
Wie aber soll das in der Praxis aussehen? „Wir haben“, sagte Wilkens, „eine bunte Monitoring-Landschaft in den Rechenzentren mit verschiedensten Schnittstellen, die zueinander mehr oder weniger – meist: weniger – kompatibel sind.“ Das liege nicht zuletzt daran, dass im Rechenzentrum zwei Welten aufeinandertreffen: Gebäudetechnik und IT-Infrastruktur – „wobei beim IT-Monitoring die zusätzliche Herausforderung besteht, dass die einzelnen Bereiche wie Server, Netzwerktechnik oder Speicher isoliert betrachtet werden“. Diese verschiedenen Systeme gelte es, zusammenzubringen, um den ganzen Energiebedarf zu erfassen und zeitgleich die Auslastung der IT-Systeme zu messen. Im GGC-Lab-Modellrechenzentrum liefert die IT-Werte das Monitoring-Tool Nagios, die Gebäudetechnikmessungen kommen aus der Gebäudeleittechnik. Die klare Erkenntnis, so Wilkens: „IT-Technik- und Gebäudetechnikmesswerte müssen mit einem einheitlichen RZ-Management-Tool beobachtet und gesteuert werden.“
Einen ersten Beitrag dazu hat der Projektpartner regio iT in das Projekt eingebracht. Das Aachener IT-Unternehmen entwickelte auf Basis der bestehenden Energiemanagementsoftware der Gebäudetechnik eine erste RZ-Management-Software (NRG 2.0), bei der RZ-Leistungsdaten mit integriert werden.
Die Vermessung der Cloud
Im weiteren Verlauf kam die Diskussion auch noch einmal auf das Thema der höheren Temperaturen in Rechenzentren zurück, wodurch massiv Energiekosten eingespart werden könnten. Die „heiße“ Frage war, ob die Geräte besser oder nur die Nutzer mutiger geworden sind. In jedem Fall besteht die Gefahr, dass ein Betreiber seinen Garantieschutz verliert, wenn er mit höheren Temperaturen als vorgegeben sein Rechenzentrum betreibt. Anklang fand der Gedanke, dass es wünschenswert sei, wenn Betreiber bewusst Tests für höhere Temperaturen vorsehen könnten. Daneben wurde festgehalten, dass in einem Rechenzentrum oft Geräte unterschiedlicher Hersteller betrieben werden, die unterschiedliche Ansprüche an Temperatur, Kühlung und Luftfeuchtigkeit haben.
Auch Cloud Computing musste sich der Diskussion stellen. Kritisch angefragt wurde, ob die Technologien tatsächlich per se energieeffizienter bzw. ressourceneffizienter seien. Dabei wurde angemerkt, dass die Energieeffizienz auch ohne Cloud Computing gesteigert werden könne – einzig durch den Einsatz neuer Hardwaregenerationen. Insgesamt machte das Gespräch deutlich, dass bei diesem Thema sehr viele Faktoren eine Rolle spielen. Das reicht vom Argument der Flexibilität für Cloud-Nutzer (die bei dieser Form des Outsourcing fixe Personalkosten in variable Kosten wandeln können) bis zur puren Masse an Hardware. Schließlich benötigt man insgesamt weniger Systeme um die gleiche Zahl an Nutzern zu versorgen.
Fazit: IT2Green im Endspurt auf 2014
Am Ende betonte Robert Gremse vom verantwortlichen Projektträger im Deutschen Zentrum für Luft und Raumfahrt, dass man gerade verdeutlicht bekommen habe, wie wichtig es sei, die Energieeffizienz der Rechenzentren zu steigern – insbesondere wegen der hohen Stromkosten. Gleichzeitig sehe man den Trend, dass immer mehr IT-Anwendungen auf Rechenzentren verlagert werden, was aus Energieeffizienzaspekten sicherlich positiv zu bewerten sei. Es sei klar herausgearbeitet worden, dass Investitionen in Energieeffizienz unabdingbar seien. „Dabei muss die gesamte Kette der IT-Nutzung, von der Übertragung, zum Betrieb bis hin zur Anwendung berücksichtigt werden“, sagte Gremse. Insbesondere auf der CeBIT 2014 werde man die Ergebnisse aller IT2Green-Projekte überzeugend darstellen können.
Entsprechend zuversichtlich war auch das Schlusswort von Dr. Andreas Goerdeler, Unterabteilungsleiter beim BMWi: „Dadurch dass Sie so intensiv in dem Thema gearbeitet haben, sind wir ein gutes Stück vorangekommen. Ich bin mir sicher, dass wir in den verbleibenden Monaten interessante Entwicklungen und Ergebnisse sehen werden.“ Er hob auch noch einmal das Ausmaß der aktuellen Anstrengungen hervor: dass an IT2Green 40 Player beteiligt sind, darunter 28 Unternehmen, elf große und mittelgroße Anwender, eine Behörde sowie 20 Forschungsinstitute, davon zehn Universitäten. Gleichzeitig erinnerte er daran, dass unabhängig von der Projektddauer der Faktor Zeit mitspiele: Man beobachte allenthalben, dass der Traffic exponentiell wächst. Insofern, so Gördeler, sei es nur gut, „dass wir zehn Projekte auf den Weg gebracht haben“.
Nützliche Links
Die Vortragspräsentationen der 3. Jahrestagung gibt es Bei IT2Green kostenfrei als PDFs zum Herunterladen.