Von DevSecOps bis Automatisierung Monitoring- und Observability-Trends 2022
Anbieter zum Thema
Der Markt für Application Performance Management, kurz APM, gehört zu den schnellst wachsenden in der IT-Branche. Doch welche Trends prägen das Monitoring in Zukunft? Wir werfen einen Blick auf die wichtigsten Entwicklungen.

Der Umgang mit einer gestiegenen Komplexität infolge zunehmend heterogener und verteilter Anwendungslandschaften gehört aktuell zu den wichtigsten Einflussfaktoren auf die Entwicklung im APM-Umfeld. Datenzuwachs, Sicherheit und fehlende Standards stellen neue Anforderungen an Monitoring- und Observability-Lösungen, auf die Hersteller und Anwender neue Antworten finden müssen.
Vor diesem Hintergrund lassen sich fünf zentrale Trends beobachten:
Trend 1: APM goes Security
Die zunehmende Verknüpfung von APM und Cybersicherheit ist kein ganz neues Phänomen. Nicht zuletzt durch den Log4Shell-Vorfall hat die Frage, wie sich kritische Sicherheitslücken möglichst schnell identifizieren und beheben lassen allerdings neue Relevanz gewonnen. Immer mehr APM- bzw. Monitoring-Tools integrieren deshalb Security-Features in ihre Produkte, mit denen sicherheitsrelevante Schwachstellen in den verwendeten Libraries bereits im Entwicklungsprozess erkannt werden können.
Dazu werden die Artefakte bei jedem neuen Deployment automatisch zur Laufzeit analysiert, mit Schwachstellen-Datenbanken online abgeglichen und geben dem Dev-Team Echtzeitfeedback zu möglichen Sicherheitslücken. Die unmittelbare Rückmeldung im Rahmen der Realtime-Analyse unterstützt eine schnelle Behebung der kritischen Probleme ohne zusätzliche Schleifen über Security im Sinne eines DevSecOps Ansatzes.
Trend 2: Smart Storage statt Datenexplosion
Befeuert durch den Trend zu Microservice-Architekturen, gehen Experten davon aus, dass sich die Datenvolumina im Monitoring aktuell jedes Jahr verdoppeln. Denn wo bei Monolithen in der Vergangenheit an wenigen Stellen Logdaten und Metriken anfielen, stößt man heute zunehmend auf Microservice-Welten mit verteilten Multi-Cloud Systemen, die jeweils diverse Log-Informationen, Metriken und Traces erzeugen und dadurch zu einem exponentiellen Anstieg der zu speichernden Datenmenge führen.
Vor diesem Hintergrund wächst der Bedarf nach intelligenten Speicherlösungen, die diese Daten nicht nur vorhalten, sondern die von verschiedenen Cloudlösungen stammenden, unterschiedlichen Datentypen normieren, vereinheitlichen und miteinander in eine Korrelation bringen können. Wenn ein Problem auftritt, können so bei der APM-Analyse alle notwendigen Daten herangezogen werden, um die Ursache eindeutig herauszukristallisieren, anstatt unverknüpfte Daten vorzuhalten, die keinen echten Mehrwert für die Problemlösung bieten, sondern lediglich Speicherkosten nach oben treiben.
Trend 3: Automate or Die
Die Zunahme von Multi-Cloud Ansätzen und eine wachsende Autonomie der Entwicklungsteams bei der Auswahl von eingesetzten Technologien sorgt für immer heterogenere Anwendungslandschaften. In weltweit verteilen Applikationen stößt man heute auf immer breitete Technologie-Stacks, was es einer Ops-Mannschaft immer schwerer macht, (manuell) Fehler zu finden und zu verstehen.
Die einzige Möglichkeit, um dieser gewachsenen Komplexität zu begegnen, besteht in einer stärkeren Automatisierung. Tool-Anbieter setzen deshalb verstärkt auf intelligente Self-Remediation bzw. -Healing-Mechanismen, die Probleme nicht nur erkennen, sondern durch hinterlegte Events und eine entsprechende Kopplung der Toolchain (z.B. Deployment-Toolchains, CI/CD Pipeline) automatisiert Gegenmaßnahmen einleiten, wie etwa das Deployen zusätzlicher Ressourcen bei Lastspitzen. Solche ereignisgesteuerte Automatisierungslogiken im Zusammenspiel mit Machine Learning bzw. KI-Komponenten, werden in den kommenden Jahren weiter an Bedeutung gewinnen.
Trend 4: End User Centricity
Ein zentraler Baustein von APM ist die End User Experience, die mehr und mehr in den Vordergrund rückt. Die Anforderungen von Endkunden an die digitalen Nutzererlebnisse sind in den letzten zwei Jahren der Pandemie deutlich gestiegen. Daraus ergibt sich die Notwendigkeit, die bereitgestellten digitalen Services stärker von der Kundenseite her zu denken.
Im Sinne von APM ist dabei wichtig, Störungen end-to-end zu bewerten, den Impact auf das digitale Erlebnis der Endanwender zu verstehen und davon abgeleitet die notwendigen Maßnahmen zur Behebung ergreifen zu können. Zudem geben die Informationen über das Verhalten der Nutzer wichtige Einblicke in sensible Punkte der Customer Journey die dabei helfen, die Geschäftsprozesse abzusichern.
Trend 5: OpenTelemetry
Gerade vor dem Hintergrund zunehmend komplexer, verteilter Anwendungslandschaften und unterschiedlicher Datentypen spielt die Frage nach einheitlichen Standards für Telemetriedaten, wie Logs, Metriken oder Traces eine immer wichtigere Rolle. Hierbei zeichnet sich in letzter Zeit eine Entscheidung ab: Laut Gartner werden bis 2025 sieben von zehn „Cloud Native App“-Anbietern OpenTelemetry (OTL) als Format implementiert haben. OTL ist ein herstellerneutrales Open-Source-Datenformat, das von allen Systemen gelesen und verarbeitet werden kann.
Zwar befindet sich OpenTelemetry noch in der Entwicklung, allerdings sollten sich Anbieter und Anwender von Observability-Lösungen schon jetzt aktiv mit dem neuen Standard auseinandersetzen und Proof of Concepts (PoC) starten, um geeignete Ansätze für die Implementierung zu identifizieren: Setzt man beispielsweise auf Agenten, die automatisiert Metriken einsammeln oder nutzt man besser manuelle Implementierungen im Code?
Bei Fragen wie diesen ist jetzt der richtige Zeitpunkt, um Erfahrungen zu sammeln und die Strategie für die Zukunft zu legen. Denn eines scheint klar: OpenTelemetry wird wohl in der Zukunft ein sehr wichtiger Baustein sein wird, wenn es darum geht, Metriken einzusammeln.
Das Monitoring wird smart
Nach Jahren des starken Wachstums und kurzzyklischen Weiterentwicklungen scheint der Monitoring- und Observability-Markt aktuell in eine neue Reifephase einzutreten, in der es vor allem darum geht, den zunehmenden Grad an Komplexität in modernen Anwendungslandschaften beherrschbar zu machen. Automatisierung und Intelligenz in der Datenverarbeitung und die Verknüpfung der Daten mit den Geschäftsanforderungen nehmen dabei eine Schlüsselrolle ein.
In Zukunft unterscheiden sich APM-Lösungen weniger darin, wie sie die Daten einsammeln, als durch die Intelligenz, die sie einsetzen, um die Daten miteinander zu korrelieren und damit nutzbar zu machen. Offene Standards, wie OpenTelemetry, werden dabei gerade bei stark verteilten Systemen ein wichtiger Baustein, um eine Durchgängigkeit des Monitoring auch über Technologie- und Werkzeuggrenzen hinweg sicherzustellen.
* Stephanie Köhnlein ist Senior APM Consultant bei der iteratec GmbH.
(ID:48046476)