Doppelt hält besser, oder? Anwendungsmodernisierung statt Hardware-Redundanz

Ein Gastbeitrag von Peter Dümig* |

Anbieter zum Thema

Redundant ausgelegte IT-Systeme garantieren bei kritischen Vorfällen in der Regel die Geschäftskontinuität. Die wenigsten Unternehmen nutzen jedoch die Möglichkeiten, die sich durch eine Anwendungsmodernisierung ergeben. Doppelt vorgehaltene Komponenten kommen aber nicht nur teuer, sie verschlechtern auch die CO2-Bilanz.

Cloud-Ressourcen sind nicht nur in sich redundant. Sie lassen sich auch dafür nutzen, um on-premises betriebene Workloads abzusichern.
Cloud-Ressourcen sind nicht nur in sich redundant. Sie lassen sich auch dafür nutzen, um on-premises betriebene Workloads abzusichern.
(Bild: gemeinfrei: Hnas / Pixabay)

Ausfallsicherheit ist immer auch eine Abwägungssache. Viele Unternehmen können problemlos eine halbe Stunde lang auf E-Mails, Internet oder Datenzugriff verzichten, ohne dass es zu ernsthaften Einschränkungen im Geschäftsbetrieb kommt. Ganz anders sieht es beispielsweise im Handel aus, also bei hoch frequentierten Online-Shops oder Finanztransaktionen. Da zählt buchstäblich jede Minute.

Die dafür unbedingt erforderliche Hochverfügbarkeit beginnt bei den magischen fünf Neunen. Bei diesen 99,999 Prozent rechnet das Bundesamt für Sicherheit in der Informationstechnik (BSI) mit einer jährlichen Ausfallzeit von weniger als sechs Minuten.

Das Problem einer ineffizienten Hardware

Zu einem Ausfall kann es schnell kommen, sei es nun wegen eines Hardwaredefekts, eines menschlichen Bedienfehlers oder wegen Stromausfällen, Cyber-Attacken und Naturkatastrophen. Um sich gegen Störungen jeder Art abzusichern, setzen die meisten Unternehmen auf Redundanz. Das heißt, alle wichtigen IT-Systeme sind in ihren Funktionen doppelt ausgelegt, so dass bei einem Ausfall von Komponenten die anderen die Arbeit übernehmen können.

Streng genommen müssen dafür sämtliche Komponenten von Systemen über Stromversorgung und USV bis hin zu den Notstromaggregaten mindestens doppelt vorhanden sein – wenn nicht sogar das komplette Rechenzentrum. Eine solche hohe Redundanz, um sich vor Betriebsunterbrechungen und damit dem Stillstand der Geschäftsprozesse zu schützen, kostet allerdings Geld und ist in der Regel nicht notwendig.

Erschwerend kommt eine andere Tatsache hinzu: Viele IT-Infrastrukturkomponenten im Rechenzentrum wurden vor längerer Zeit installiert, sind also veraltete Technologie und damit nicht unbedingt effizient. Zudem neigen viele Firmen aus Angst vor Ausfällen zu einer Überdimensionierung bei ihren Redundanzmaßnahmen, so dass Komponenten nicht nur doppelt, sondern gleich mehrfach vorhanden sind.

All diese Komponenten müssen jedoch regelmäßig gewartet, erneuert und getestet werden. Das alleine führt schon zu einem enormen Kostenblock. Viele Unternehmen kennen zudem die Risiken, die sich bei einem Stresstest für Ausfallszenarien ergeben.

Nicht jedes Mal lässt sich die Infrastruktur auf einen sauberen Stand zurückführen. Aber auch aus Umweltsicht sind mache Maßnahmen für Hochverfügbarkeit bedenklich: Die Diesel-Aggregatoren in den Rechenzentren beispielsweise, die der Notstromversorgung dienen, stehen rein rechnerisch nahezu das ganze Jahr nutzlos herum, kosten dennoch viel Geld und verbrauchten Ressourcen bei der Herstellung.

Die Lösung liegt so nah – in der Cloud

Diese Struktur für Ausfallsicherheit ist in den meisten Fällen der Vergangenheit und nicht den Anforderungen an die aktuelle Ausfallsicherheit geschuldet. Denn heute lassen sich mit Hilfe von modernen Applikationen Redundanzen in der Software abbilden, so dass in der Regel keine Notwendigkeit besteht, eine komplexe und damit arbeitsaufwändige Hardware-Redundanz durch lokal vorgehaltene Systemkomponenten herzustellen.

Unternehmen können viele Hochverfügbarkeitsszenarien problemlos in die Cloud verlagern, um sich für den Notfall kurzfristig Rechen- und Speicherkapazitäten zu sichern. Die Cloud-Anbieter selber treffen zahlreiche Vorkehrungen, um ihre Computing-Architekturen in sich redundant zu gestalten.

So sind wichtige Systemkomponenten gedoppelt, Daten mehrfach gespeichert und Services an verschiedenen Cloud-Standorten gehostet. Sie garantieren damit eine sehr hohe Betriebssicherheit für ihre Nutzer und sind in der Regel auch über eine sehr schnelle Internet-Verbindung angeschlossen, so dass es zu keinerlei unnötigen Latenzzeiten bei geschäftskritischen Applikationen kommt.

Hybrid

Werden nun Cloud-Ressourcen eingesetzt, um lokale Rechenzentren und on-premises betriebene Workloads abzusichern, übernehmen bei einem Ausfall die über die Cloud bereitgestellten Ressourcen und Services deren Arbeit. Mit Cloud Computing lassen sich dabei verschiedene Disaster-Recovery-Szenarien abdecken.

Das Geschäftsmodell der Hyperscaler zahlt darüber hinaus in die Entwicklung hin zu einer emissionsfreien IT-Anwendungslandschaft ein. Allein durch Skaleneffekte erzielen die Cloud-Anbieter eine optimale Serverauslastung und damit eine bessere Energie-Effizienz.

Zugleich verbessern sie ständig ihre Hardware-Komponenten, Kühltechnologien und Workload-Bereitstellungsmuster, um so wenig Strom wie nur möglich zu verbrauchen – denn jede eingesparte Kilowattstunde hat sofort auch Auswirkungen auf den eigenen Gewinn. Diverse Studien belegen, dass Unternehmen durch die Nutzung Cloud-basierter Lösungen erheblich CO2 einsparen können.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Softwareentwicklung und DevOps

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Ohne Anwendungsmodernisierung „verpuffen“ die Vorteile

Firmen dürfen bei aller Euphorie aber nicht vergessen, dass die Cloud eine völlig neue Art ist, IT-Infrastruktur zu betreiben, und gerade Legacy-Applikationen sich nicht so einfach migrieren lassen. Der gängigste Ansatz für eine Integration ist die Verbindung über APIs und Konnektoren. Das Grundproblem bleibt aber die Behäbigkeit monolithischer Applikationen und deren zugrundeliegender Datenbanken.

Um zu einer modernen Plattform zu kommen, die Vorteile von Cloud-Ansätzen zu nutzen und die Kostenziele des Managements zu erreichen, ist eine Anwendungsmodernisierung unumgänglich. Die Marktforscher von IDC schätzen, dass bis 2024 die Mehrheit der Legacy-Applikationen zumindest in gewissem Umfang modernisiert sein wird. Etwa zwei Drittel davon werden Cloud-Dienste nutzen, um die Funktionalität zu erweitern oder ineffizienten Code zu ersetzen.

Im Rahmen eines reinen „Lift-and-shift“-Ansatzes führt die Verlagerung von IT-Ressourcen in die Cloud aber weder zu den erhofften Effizienzsteigerungen noch zu einer signifikanten Verringerung der CO2-Emissionen. Eine größere Wirkung lässt sich durch eine ganzheitliche Strategie erzielen: Denn im Gegensatz zu herkömmlichen Applikationen sind Cloud-native Anwendungen grundsätzlich anders strukturiert.

Statt einer monolithischen Architektur ist jede funktionale Einheit ein eigener unabhängiger Microservice, der in einem Container läuft. Und statt der Abstimmung über gemeinsame Bibliotheken, kommunizieren die einzelnen Microservices über APIs. Sie bilden damit ein Netzwerk aus Komponenten, in dem jeder Microservice unabhängig von den anderen weiterentwickelt werden kann. Die Applikationen werden zudem nicht mehr nach Spitzenlast ausgelegt – im Falle von Serverless Computing wird die Anwendung sogar erst gestartet, wenn es eine Anfrage gibt.

Eine interessante Alternative: As-a-Service-Angebote

Nun wird nicht jedes Unternehmen schnell seine Applikationen auf Cloud-native umstellen können. Eine andere Option ist die Bereitstellung der kompletten IT-Landschaft über einen As-a-Service-Anbieter. Neben dem damit einhergehenden verbesserten Ausfallschutz bieten professionelle Provider auch Services rund um Wartung und Pflege der IT-Systeme an, was bereits im Vorfeld sicherheitstechnischen Schwachstellen vorbeugt und durch Skaleneffekte die Umweltbilanz verbessert.

Peter Dümig, Senior Product Manager Server bei Dell Technologies Deutschland: „Viele Firmen neigen aus Angst vor Ausfällen zu einer Überdimensionierung bei ihren Redundanzmaßnahmen, so dass Komponenten nicht nur doppelt, sondern gleich mehrfach vorhanden sind.“
Peter Dümig, Senior Product Manager Server bei Dell Technologies Deutschland: „Viele Firmen neigen aus Angst vor Ausfällen zu einer Überdimensionierung bei ihren Redundanzmaßnahmen, so dass Komponenten nicht nur doppelt, sondern gleich mehrfach vorhanden sind.“
(Bild: Dell Technologies)

Die Möglichkeit, Redundanz durch moderne Anwendungen und Programmiersprachen herzustellen, sollten Unternehmen so gut wie möglich nutzen. Zwar stehen die meisten bei der Modernisierung im Gegensatz zu Start-ups nicht auf der „grünen Wiese“. Dennoch müssen sie neue Wege gehen, wenn sie weiterhin wettbewerbsfähig bleiben wollen und sollten die Zukunftssicherheit in den Anforderungskatalog aufnehmen.

* Peter Dümig ist Senior Server Product Manager bei Dell Technologies.

(ID:48833780)