Green IT kämpft mit vielen Widrigkeiten Ecocompute: Der Teufel steckt im Detail

Von lic.rer.publ. Ariane Rüdiger 5 min Lesedauer

Anbieter zum Thema

Häufig geht es beim Thema Green IT um Energieversorgung und Kühlung von Rechenzentren. Bei der Tagung „Ecocompute“, die Ende April in München stattfand, standen die Details von Infrastrukturen im Vordergrund. Denn hier lässt sich viel bewegen.

Die Veranstaltung „Ecocompute“ in München hat geezigt: Mit Arbeit am Detail lässt sich der Energieteufel beim Rechnen bekämpfen. (Bild:  frei lizenziert: cliff1126 (KI-Generiert) /  <a href="https://pixabay.com/de/service/terms/#license" target="_blank" rel="license noopener">Pixabay</a>)
Die Veranstaltung „Ecocompute“ in München hat geezigt: Mit Arbeit am Detail lässt sich der Energieteufel beim Rechnen bekämpfen.
(Bild: frei lizenziert: cliff1126 (KI-Generiert) / Pixabay)

Dass das Thema grünes Computing aus der Nische kommt, zeigte sich wieder einmal auf der in München ausgerichteten Konferenz Ecocompute. Mehrere Hundert interessierte IT-Spezialisten und -Spezialistinnen waren zusammengekommen.

In der Konferenz ging es nicht darum, den hohen Kohlendioxid-Ausstoß der IT zu beklagen und dann auf der Datacenter-Infrastrukturseite anzusetzen, sondern ums Eingemachte der IT, um Fragen, die weit tiefer ins Detail abtauchen. Dort warten bislang ungenutzte Chancen, den Energieverbrauch zu senken, ohne die Arbeitsergebnisse zu beeinträchtigen.

Wichtige Fragen

Einige Beispiele für solche Themen:

  • Wie baut man Infrastrukturen so auf, dass sie möglichst wenig Energie verbrauchen, die gekühlt gehört?
  • Wie optimiert man die Settings von Betriebssystemen hinsichtlich der Energie-Effizienz?
  • Wie programmiert man Software von Anfang an so, dass sie die beteiligte Hardware nicht mehr als unbedingt nötig aktiviert, um die anstehende Aufgabe zu bewältigen?
  • Und wie misst man das alles wirklich genau?

Dazu gab es nicht nur Vorträge, sondern auch Workshops, bei denen die Teilnehmerschaft selbst an praktischen Beispielen sehen konnte, wie solche Mechanismen funktionieren. Schließlich, so Arne Tarara, Mitorganisator der Konferenz und Gründer der Softwareschmiede Green Coding Solutions: „Wir wollen Action und einen Unterschied machen.“

IEEE wird aktiv

Irene Kitsara, Direktorin der europäischen Standardisierungsinitiative bei der Standardisierungsorganisation IEEE, verwies auf das von der IEEE gegründete neue Technology Climate Center der IEEE in Wien. Das Zentrum gehört zu den Sponsoren der Konferenz. Kitsara betonte: „Die Zeit wird knapp, wir müssen vorwärts kommen!“

Ganz in diesem Sinn ging es vor allem um sehr pragmatische Themen. So berichteten einige große Unternehmen wie UBS, Siemens und Lufthansa Systems von ihren Bemühungen, mit Hilfe digitaler Mittel Kohlendioxid und Energie zu sparen und ein realistisches Reporting aufzubauen. Gleichzeitig wird oft auch die IT optimiert.

AI funktioniert auch mit weniger Energie

Sehr eindrucksvoll war der Bericht von Adesso zum Vorgehen bei der Optimierung eines energiefressenden AI-Systems. Yelle Lieder, Green IT Lead bei Adesso SE, konnte auf 34 Prozent Kosteneinsparung, 48 Prozent weniger Kohlendioxid und 30 Prozent weniger verwendete Daten verweisen. Zusätzlich sank die mittlere Fehlerwahrscheinlichkeit von 22 auf 7 Prozent.

Auf der münchner Veranstaltung „Ecocompute“ haben sich im April viele IT-Spezialisten getroffen, die die IT Energie-effizienter hinbekommen wollen.(Bild:  Rüdiger)
Auf der münchner Veranstaltung „Ecocompute“ haben sich im April viele IT-Spezialisten getroffen, die die IT Energie-effizienter hinbekommen wollen.
(Bild: Rüdiger)

Um das zu erreichen, wurden beispielsweise die Rhythmen des Modell- Retrainings angepasst: Nur, was sich entsprechend schnell ändert, wird wöchentlich retrainiert, die übrigen Module je nach Bedarf seltener. Außerdem werden Modell-Nachtrainingsläufe in Zeiten gelegt, in denen Ressourcen brachliegen, statt in Spitzenzeiten dafür neue Ressourcen zuzukaufen.

Bei den Modellen wurde auf die Auswahl solcher geachtet, die weniger Energie verbrauchen, aber trotzdem für die Anwendung tauglich sind. Bei den Daten wurden sorgfältig obsolete Daten markiert und beseitigt. Nur nachweislich fürs Thema nützliche Daten wurden verwendet.

Zudem scheint noch mehr drin zu sein. Denn der Kauf Energie-effizienter Hardware wurde in dem bisherigen Vorgehen noch gar nicht berücksichtigt.

Optimierungspotentiale in Linux

Interessant für den Rechenzentrumspraktiker ist sicher, wie man das in Datacenter weit verbreitete Betriebssystem Linux auch in Embedded-Systemen so optimieren kann, dass es möglichst wenig Energie verbraucht. Hagen Paul Pfeifer, Chief Software Architect beim Messtechnik-Anbieter Rohde & Schwarz, benannte die dazu möglichen Grundmethoden: „Teile abschalten, also: CPU-Cores aus, Teile runterschalten, also: CPU-Cores heruntertakten und Algorithmen optimieren.“

Um die Energieverbräuche einzelner Komponenten und den Einfluss solcher Maßnahmen zu messen, gebe es inzwischen diverse Messlösungen, etwa den „Xiolix Power Estimator“. Andere Hersteller bieten Ähnliches an.

Ohne gute Hardware nutzt Software nichts

Der Kern sei aber, von Anfang an sorgfältig entwickelte Hardware auszuwählen. „Denn schlecht entwickelte Hardware kann kein Software-Stack kompensieren“, betonte Pfeifer.

Wichtige Faktoren sind die IT- beziehungsweise Prozessorarchitektur (hier kommen bei Embedded Anwendungen auch FPGAs und ASICs in Frage) beziehungsweise sie zu bewerten, etwa anhand der Werte für GFlops/Watt. Weitere Faktoren sind die unterschiedlichen Energiemodi einer CPU, zum Beispiel unterschiedliche Sleep-Modi oder dynamische Spannungs- und Frequenzanpassung, DVFS).

Weitere Themen sind die Interconnects, die fürs Deep Learning verwendet werden, Art und Konfiguration des Arbeitsspeichers, die verwendete Vernetzung, ob ein Transformator vorhanden ist und wie ein System gekühlt wird. Denn je heißer ein System wird, desto höher sind die Leckstöme.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Energie-Management-Tools in Linux

Für die Energie-Analyse bietet Linux selbst mehrere Tools an:

  • „Powertop“ zeigt eine dynamische Echtzeitsicht des Stromverbrauchs eines Systems und schlägt geeignete Optimierungsmethoden vor.
  • „Perf“ bietet besonders detaillierte Daten auch für die Task-Analyse.
  • „Sysfs“, das virtuelle Filesystem, exportiert Informationen über Devices und ihre Treiber. Außerdem eröffnet diese Standardschnittstelle Zugriff auf viele Linux-Subsysteme für das Energie-Management.

Besonders wichtig ist laut Pfeifer die Erfassung der Stromverbräuche einzelner Tasks. Denn Jobs werden als Tasks auf der CPU ausgeführt. Das heißt: Um den Stromverbrauch eines Jobs zu verstehen, muss man wissen, wann die einzelnen Tasks auf welcher CPU ablaufen.

Lastverteilung der Tasks kann Energieverbrauch reduzieren

Die Verteilung der Lasten auf die einzelnen Cores kann dann erhebliche Energie-Effekte haben. So verbrauchen Tasks, die oft hochfahren, aber nur kurz rechnen, viel Energie, die sich durch einen geschickteren Ablauf einsparen ließe.

„Kernelshark“ zeigt, wie die Tasks einer Last auf einzelne Prozessoren verteilt werden. Diese Verteilung lässt sich optimieren, um Energie zu sparen.(Bild:  Rohde & Schwarz)
„Kernelshark“ zeigt, wie die Tasks einer Last auf einzelne Prozessoren verteilt werden. Diese Verteilung lässt sich optimieren, um Energie zu sparen.
(Bild: Rohde & Schwarz)

Die dynamische Anpassung von Frequenz und Spannung kann man aus Linux heraus über den „CPUFreq Driver“ und den „CPUFreq Governor“ steuern. Dabei interagiert der Treiber mit der Harrdware, während der Governor die Regeln setzt. Die Arbeit mit diesen Tools erfordert viel Detailwissen und -analyse, kann sich aber am Ende energetisch erheblich lohnen, etwa wenn unnützes Idlen von Systemkomponenten durch geschickte Task-Verteilung vermieden wird.

Microservices sind Energieverschwender

Ein Vortrag von David Kopp, basierend auf einer Masterarbeit an der Uni Stuttgart in Kooperation mit Envite Consulting GmbH, verglich den Energieverbrauch der Nutzung eines Multi-Komponenten-Monolithen mit denen einer Mikroservice-basierten Kubernetes-Plattform. Das sicherlich für viele überraschende Ergebnis: Mikroservices sind energetisch durchaus nicht vorteilhaft.

Mikroservices versus modularer Monolith: Die Mikroservice-Architektur verbraucht wegen des Kommunikationsaufwandes mehr Energie.(Bild:  Universität Stuttgart/Envite/Kopp)
Mikroservices versus modularer Monolith: Die Mikroservice-Architektur verbraucht wegen des Kommunikationsaufwandes mehr Energie.
(Bild: Universität Stuttgart/Envite/Kopp)

Simuliert wurde für die Mikroservices ein Online-Teeladen entsprechend dem „T2-Projekt“. Der modulare Monolith hatte dieselben Module wie die Webservices-Architektur. Als Messumgebung wurden das „Green Metrics“ Tool von Green Coding und für die Kubernetes-basierte Mikroservice-Umgebung „Kepler“ (Kubernetes Efficient Power Level Exporter) verwendet.

Zu viel Kommunikation

Der Grund dafür ist der erhebliche Kommunikationsaufwand, den die Mikroservice-basierte Architektur verursacht. Sie lohnt sich wegen ihres höheren Durchsatzes, so das Ergebnis, energetisch nur bei ebenfalls hohem Durchsatz der entsprechenden Anwendung. Ansonsten entsteht durch die Kommunikation bei Microservices ein erheblicher energetischer Overhead.

Fazit: Schon die wenigen Beispiele zeigen, dass energiebewusstes Design und energiebewusster Betrieb vor allem eins erfordern: Zeit und Sorgfalt. Beides kostet Geld, aber dieses wird man irgendwann sowieso investieren müssen - entweder in sorgfältige Entwicklung und Konfiguration von Hard- und Software oder in Kohlendioxid-Abgaben und Stromkosten.

Artikelfiles und Artikellinks

(ID:50044516)