Operational Intelligence Splunk und Application Performance Management kombinieren
Splunk kann große Mengen an maschinengenerierten Daten aus vielen verschiedenen Quellen sammeln, verarbeiten und analysieren. Doch nur in Kombination mit einer Application-Performance-Management-Lösung (APM) erhalten Unternehmen umfassende Einblicke in Nutzer-Transaktionen.
Anbieter zum Thema
Das Ziel von Operational Intelligence ist, kurz gesagt, eine fundierte Entscheidungsbasis aus Einblicken in die Geschäftsaktivitäten zu gewinnen. Die Datenquellen reichen dabei von Anwendungen über die Infrastruktur bis zu Social-Media-Plattformen. Splunk verarbeitet und vereint zuverlässig sowie mit geringer Latenzzeit große Datenvolumen von kontinuierlich gestreamten oder zeitdiskret versendeten Event-Daten mit historischen Daten. Damit können Unternehmen kontinuierlich ihre Prozesse verbessern, Anomalien und Fehler entdecken sowie neue Geschäftschancen erkennen.
Zum Beispiel nutzen Finanzunternehmen Splunk, um Analysen von Infrastruktur-Logfiles über lange Zeiträume durchzuführen. Damit erkennen sie Trends, um bessere Entscheidungen zu treffen. Denn, wenn Anwendungen mehrere Milliarden Euro pro Tag transferieren, hat dies geschäftskritische Auswirkungen.
Doch Finanzinstitute sind nicht die einzigen, die von Log-Analysen profitieren. SaaS-Unternehmen analysieren mit Splunk Log-Daten von vielen verschiedenen Apps, die sie für ihre Kunden hosten. Daraus entwickeln sie individuelle Dashboards mit Einblicken und Alarmmeldungen für alle ihre separaten Anwendungsinfrastrukturen.
Warum reicht Splunk alleine nicht aus?
Viele Unternehmen glauben, dass Splunk im Handumdrehen umfassende Einsicht in ihre Daten ermöglicht. Doch das ist nicht der Fall, da Lösungen wie diese zum Großteil auf der Verarbeitung maschinengenerierter Daten aufbauen, also von Daten, die autonom von Computer-Prozessen generiert werden. Sie entstammen zum Beispiel Anwendungen, Anwendungsservern, Webservern oder Firewalls und entsprechen daher üblicherweise herkömmlichen Log-Daten.
Jedoch sind Log-Daten nicht besonders als Basis für eine weitreichende Analyse geeignet. Da Log-Daten per se unstrukturiert sind, muss der Lösung zunächst mittels Muster beigebracht werden, wie sich wertvolle Informationen für spätere Such- und Analyse-Prozesse identifizieren lassen.
Doch Einsichten können nur dort generiert werden, wo auch Daten vorhanden sind. Auch wenn Unternehmen kaum beeinflussen können, wie ihre Firewall Daten loggt, so werden Sie zumindest in das Design und die Wartung ihrer Logging-Strategie viel Aufwand investieren müssen, um alle potentiell relevanten Daten zur Verfügung stellen zu können. Dabei gibt es jedoch eine Vielzahl an Hürden:
Konzepte wie „Semantisches Logging“ sind zwar geeignet, um Informationen für spätere Analysezwecke in der Log-Nachricht vorzustrukturieren und allgemein die Lesbarkeit zu verbessern. Jedoch verbessert das nur das Logging des eigenen Codes und funktioniert natürlich nicht bei Bibliotheken von Drittanbietern.
Lösungen für Operational Intelligence erwarten von ihren Kunden, dass sie den Kontext einer Transaktion innerhalb ihrer Log-Daten zur Verfügung stellen. Nur mittels dieses essenziellen Zusammenhangs lassen sich Events einer bestimmten Nutzertransaktion identifizieren und die vom Nutzer gegangenen Pfade verstehen. Auch hier kann der Kontext über die eigenen Codegrenzen hinaus nicht einfach erhalten werden.
Der Aufwand für die Entwicklung und Aktualisierung einer Logging-Strategie muss mit den laufenden Entwicklungsaktivitäten abgeglichen werden. Unternehmen haben gleichzeitig sicherzustellen, dass die Strategie den Erwartungen (definierten Mustern) der Analyselösung entspricht. Im Zweifel sollte automatisches Testen als Teil der Gesamtlösung eingesetzt werden, um diese Annahmen regelmäßig zu verifizieren.
Hoher Aufwand für Unternehmen
Was bedeutet das für Unternehmen? Die Etablierung und Wartung einer umfassenden Logging-Strategie für ihre Applikation, die ihre Analyselösung mit den richtigen Daten versorgt, erfordert von zahlreichen Abteilungen viel Aufwand:
- Entwickler müssen eine Logging-Strategie warten, deren Nachrichten über die gesamte Code-Basis hinweg verteilt sind. Wann auch immer Funktionalität ergänzt oder verändert wird, sind verschiedene, nicht unmittelbar von dieser Funktionalität betroffene, Teile der Anwendung zu verändern. Die so geschaffenen komplexen Abhängigkeiten sind umständlich durchzuführen, zeitraubend und sehr fehleranfällig.
- Tester sollten automatisierte Tests einführen, um sicherzustellen, dass die Annahmen der Analyselösung zum Inhalt der Log-Daten passen.
- Produktverantwortliche und Software-Architekten müssen eine geringere Geschwindigkeit in der Entwicklung akzeptieren, wenn sie eine gründliche Logging-Strategie aufbauen und warten möchten.
- Betriebsverantwortliche müssen kontinuierlich die korrekte Funktionalität der Gesamtlösung prüfen und verifizieren.
Umfassende Lösung
Mit Splunk alleine haben viele Unternehmen Schwierigkeiten, erkenntnisbringende Einsichten in ihre Applikationen zu gewinnen, da der essenzielle Kontext fehlt, um Log-Daten miteinander korrelieren zu können. Daher können sie auch eine der wichtigsten Fragen im Ernstfall nicht beantworten: „Wie viele Nutzer sind von einem bestimmten Anwendungsfehler betroffen?“
Durch eine ergänzende APM-Lösung wie Dynatrace lassen sich diese Herausforderungen durch bereits einsatzbereite Funktionen lösen: Mitarbeiter können sich ausschließlich auf die wichtigen Fragen rund um Entwicklung, Test und Betrieb des eigenen Produkts konzentrieren, da sie keinen Code ändern müssen – zusätzliches Loggen, Testen und Verifizieren entfällt. Sie können schnell die Ursache eines Performance-Problems feststellen, da sie den vollständigen Kontext für alle Nutzer-Interaktionen erhalten, Einsichten in Code von Drittanbietern inklusive. Dies ermöglicht vollständige Transparenz über Transaktionen inklusive Methoden-Argumente, HTTP Header oder HTTP-Query-String-Parameter. Zudem erhalten Unternehmen die Möglichkeit, flexibel zu entscheiden, welche Daten mit der Analyselösung geteilt werden sollen und welche nicht.
Fazit
Der Weg zu umfassender Operational Intelligence kann schwierig sein – muss aber nicht. Durch die Integration einer modernen APM-Lösung mit Splunk brauchen sich Unternehmen nicht mehr auf ihre Logging-Strategie zu verlassen oder ihren Code zu ändern. Stattdessen beschleunigen sie ihr Business durch echten Einblick in die Applikationen, unabhängig davon ob es sich um eigene Maschinen und Codes handelt oder nicht. Dieses Niveau an Endnutzer-Transparenz ermöglicht es Unternehmen, die Kundenerfahrung wesentlich zu verbessern.
(ID:44379638)