Das Potenzial der Software bleibt ungenutzt Effizienz-Klasse statt Hardware-Masse

Ein Gastbeitrag von Peter Dümig* |

Anbieter zum Thema

Performance, Konnektivität und hohe Datendurchsätze sind die wichtigsten Leistungskennzahlen heutiger Rechenzentren. Das olympische Motto „schneller, höher, weiter“ erreichen die meisten Unternehmen in der Regel dadurch, dass sie immer performantere Hardware kaufen. Stellschrauben an anderen Stellen, allen voran der Software, werden dagegen gerne übersehen – mit negativen Folgen für den Energieverbrauch und damit die CO2-Bilanz.

Die Energie-Effizienz von Rechenzentren hat in den vergangenen Jahren deutlich zugenommen. Trotzdem bedeutet jede neue Hardware auch mehr Stromverbrauch.
Die Energie-Effizienz von Rechenzentren hat in den vergangenen Jahren deutlich zugenommen. Trotzdem bedeutet jede neue Hardware auch mehr Stromverbrauch.
(Bild: (C) Dell Inc.)

Der Bedarf an leistungsstarker Hardware wird immer größer. Getrieben wird die Nachfrage unter anderem durch den hohen Rechenbedarf für Enterprise-Anwendungen, High-Performance-Computing (HPC), Künstliche Intelligenz, Automatisierung und IoT. Massen an Daten müssen verarbeitet, gespeichert und ausgewertet werden. Gleichzeitig steigt aber der Druck, die durch die Digitalisierung stetig wachsenden CO2-Emissionen zu reduzieren, damit dem Klimawandel entgegenzuwirken und angesichts explodierender Energiepreise den eigenen wirtschaftlichen Interessen nachzukommen.

Auf Seiten der Hardware liegt die Antwort darauf in einer deutlich zunehmenden Leistungsverdichtung. So lassen sich durch die Virtualisierung Ressourcen wie Server, Storage oder Netzwerk effizienter nutzen. Anstelle eines Serverparks, der früher aus Dutzenden von Rechnern bestand, verrichten heute wenige Hosts mit virtuellen Servern die gleichen Aufgaben.

Die Chancen sind da

Dies verringert zum einen maßgeblich den Energieverbrauch, zum anderen erreicht man eine höhere Verfügbarkeit und einfachere Skalierung. Darin liegt auch das größte Potenzial des Cloud Computing: Hochkomplexe Infrastrukturen lassen sich relativ leicht und kostengünstig aufbauen. Zudem können Unternehmen innerhalb kürzester Zeit eine neue Serverinstanz starten, die auch erst ab diesem Zeitpunkt abgerechnet wird.

So haben auch kleinere Firmen mit schmalem Budget und innovativen Ideen die Chance, diese zu verwirklichen. Da sich zudem Hunderte, wenn nicht sogar Tausende Kunden die Ressourcen teilen, wird die zugrunde liegende Hardware in der Regel deutlich effizienter genutzt, was wiederum zu einem geringerem Energieverbrauch führt.

Neue Hardware: der vermeintlich einfachste Weg

Kommt es in der IT-Landschaft zu Performance-Engpässen, versuchen die meisten Unternehmen dieses Problem jedoch nach wie vor über die Hardware zu lösen. Doch das ist oft überhaupt nicht nötig, denn durch reine Software-Optimierung kann die Leistung des Gesamtsystems deutlich gesteigert werden.

Dieses Potenzial bleibt allerdings in der Regel ungenutzt. Schlimmer noch:

Viele Firmen scheuen den Aufwand und das Risiko, Anwendungen auf den aktuellen Stand zu bringen und damit von den Einsparpotenzialen durch bessere Nutzung der Hardware-Features zu profitieren.

Anstatt die vorhandenen Systeme also besser zu nutzen, kaufen sie lieber neue, leistungsfähigere Rechner. Eine zu groß dimensionierte Konfiguration bedeutet aber immer auch nicht ausgelastete Kapazitäten, die die Bilanz verschlechtern.

Wenn die Software nicht passt

Ein anderes Problem taucht auf, wenn die Software mit der vorhandenen Hardware nicht klarkommt. Viele Legacy-Systeme sind nicht in der Lage, mit Multithreading umzugehen, geschweige denn moderne Instruktionen auszuführen.

Künstliche Intelligenz ist ein Beispiel dafür. Diese Anwendungen setzen Prozessoren mit einer eingebetteten Befehlssatzarchitektur voraus. VNNI (Vector Neural Network Instructions) etwa beschleunigt komplexe Berechnungen, wie sie für Convolutional Neural Networks (CNN) und andere Deep Neural Networks (DNN) typisch sind. Damit lässt sich dann ein bis zu 30-mal höherer Inferenzdurchsatz erreichen, ohne den Serverpark unnötig vergrößern zu müssen.

Gleichzeitig lassen sich KI-Workloads nicht allein mit konventionellen Prozessoren bewältigen. So genannte FPGAs (Field Programmable Gate Arrays) versprechen hier Abhilfe. Zwar arbeiten auch GPUs hochparallelisiert und bandweitenoptimiert, aber erst diese vor Ort programmierbaren Hardwarebeschleuniger liefern die notwendig hohe Anpassungsfähigkeit bei gleichzeitig niedrigeren Kosten und einem geringeren Energieverbrauch. FPGAs werden jedoch von älteren Systemen nicht unterstützt.

Die gesamte Energiekette im Blick behalten

Monolithische und teils über Jahrzehnte gewachsene Anwendungen werden spätestens dann zum Problem, wenn veränderte Markt- und Fachanforderungen nicht mehr abgebildet werden können. Eigenentwicklungen, mit denen sich im Laufe der Zeit keiner mehr auskennt, sind eine andere Herausforderung. Einen grundsätzlichen Stolperstein stellt zudem proprietäre Software dar, bei der Unternehmen keinen Einfluss auf einzelne Funktionen und damit im weiteren Sinne auf den Energiebedarf haben.

Im Gegensatz dazu steht das sogenannte Green Coding. Der Begriff fasst eine Vielzahl von Maßnahmen zusammen, die helfen können, Software emissionsärmer und nachhaltiger zu entwickeln. Legen Anwendungsentwickler beispielsweise beim Rendering ein Augenmerk darauf, wie ihre programmierten Datensätze visualisiert und umgewandelt werden, lässt sich Energie einsparen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Softwareentwicklung und DevOps

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Ähnliches gilt für den Programmcode, der so entwickelt ist, dass die CPU-Auslastung auf das erforderliche Minimum reduziert wird. Ein anderes Beispiel ist die Trainingsoptimierung bei KI. So fanden Forscher von Google und der Universität Berkeley heraus, dass sich durch den Einsatz von GPT-3, einem autoregressiven Sprachmodell, ein Großteil der CO2-Emissionen in Vergleich zu einem Standard-Training einsparen lässt.

Peter Dümig, Senior Product Manager Server bei Dell Technologies Deutschland: „Wer die Optimierungspotenziale der Software für sich nutzt, muss Performance-Probleme nicht mit zusätzlicher Hardware kompensieren. Gerade in Zeiten explodierender Energiepreise ist es ein teures Vergnügen, die vorhandenen Möglichkeiten brach liegen zu lassen. “
Peter Dümig, Senior Product Manager Server bei Dell Technologies Deutschland: „Wer die Optimierungspotenziale der Software für sich nutzt, muss Performance-Probleme nicht mit zusätzlicher Hardware kompensieren. Gerade in Zeiten explodierender Energiepreise ist es ein teures Vergnügen, die vorhandenen Möglichkeiten brach liegen zu lassen. “
(Bild: Dell Technologies)

Grundsätzlich ist es wichtig, die gesamte Energiekette im Auge zu behalten. Ein schönes Rechenbeispiel besagt, dass ein Watt Einsparung bei einem Endgerät im gesamten Rechenzentrum zu Einsparungen von mehreren Watt führen kann.

Einen wirksamen Hebel bietet das „Right Sizing“ – was bedeutet, wirklich nur die Systeme im Betrieb zu haben, die benötigt werden. Wer zudem die Optimierungspotenziale der Software für sich nutzt, muss Performance-Probleme nicht mit zusätzlicher Hardware kompensieren. Gerade in Zeiten explodierender Energiepreise ist es ein teures Vergnügen, die vorhandenen Möglichkeiten nicht auszunutzen.

(ID:48726121)