Kurzinterview mit Alexander Weber von DataDog „Selbst ein kleiner Container-Cluster kann unüberschaubar werden“
Klassische Monitoring-Lösungen müssen in zunehmend komplexen IT-Strukturen zwangsläufig an ihre Grenzen stoßen, meint Alexander Weber. Was das für moderne Infrastrukturen bedeutet, erläutert der Regional Vice President Central Europe von DataDog im Gespräch mit Dev-Insider.
Anbieter zum Thema

Dev-Insider: Hi Alex, in deinem Gastbeitrag „Container-Probleme mit Security und Monitoring“ wirfst du die Frage nach der Sicherheit in modernen Infrastrukturen auf. Für welche Infrastrukturen eignen sich klassische Monitoring-Ansätze überhaupt noch und wo sind sie – oder auch die, die den Überblick behalten müssen – maßlos überfordert?
Alexander Weber: Eigenständige, monolithische Anwendungen werden nach wie vor häufig eingesetzt, vor allem in sich langsam entwickelnden Branchen, so dass die klassischen Ansätze bis heute überleben konnten. Da jedoch der Druck wächst, neue Werte zu liefern und das Unternehmen in hart umkämpften Märkten über Wasser zu halten, nimmt auch die Komplexität der unterstützenden Softwaresysteme zu, und die klassischen Werkzeuge können nicht mehr mithalten.
Zunächst einmal erfordern sie viel manuelle Arbeit, die sich nicht gut skalieren lässt. Darüber hinaus sind mittlerweile nicht mehr nur Anwendungen gefährdet, da Angreifer jetzt zum Beispiel auch die zugrunde liegenden Infrastrukturen und Delivery-Pipelines angreifen können. Klassische Tools konzentrieren sich in der Regel nur auf einen Teil des Systems und können moderne Architekturen nicht unterstützen, bei denen die vollständige Beobachtung des Stacks für den erfolgreichen Betrieb von Softwaresystemen, die Ursachenanalyse oder die Threat-Evaluation erforderlich ist.
Mit der Umstellung auf die Cloud werden die Ressourcen der Unternehmen noch dünner, denn der Aufwand muss nun verdoppelt werden, um die gesamte Landschaft abzudecken. Insbesondere im Bereich der Sicherheit, der schon immer als ein spezielles Silo innerhalb einer Organisation betrachtet wurde, muss das inzwischen weithin akzeptierte DevOps-Modell erweitert werden, um auch dieses Silo abzubauen.
Wir brauchen also DevSecOps. Moderne Tools müssen diesen Ansatz verfolgen und umsetzen, verschiedene Datenquellen aus allen Teilen des Systems korrelieren sowie eine Threat-Erkennung (möglicherweise mit Hilfe von KI) und Analyse-Dashboards out-of-the-box bieten, damit sich die Teams auf die Schaffung neuer Werte konzentrieren können.
Dev-Insider: Ab welcher Ausprägung oder Größe wird es in einem Container-Cluster denn eurer Meinung nach richtig unübersichtlich?
Weber: Wie bei allen technischen Fragen ist die Antwort sehr einfach: „Es kommt darauf an!“ Nicht jeder Cluster ist gleich aufgebaut und organisiert, und es können viele verschiedene Container eingesetzt werden. Glücklicherweise sind Container-Technologien mit bekannten Best Practices bereits gut etabliert und ermöglichen sehr effiziente Lösungen.
Wenn es jedoch um das Monitoring geht, kann selbst ein kleiner Cluster mit nur einer Handvoll Knoten unüberschaubar werden, wenn ein Entwickler viel manuelle Arbeit leisten muss, etwa die Ausführung vieler kubectl-Befehle. Ein intelligenter Ansatz ist es, diesen Prozess zu automatisieren.
Eine inhärente Eigenschaft von DevOps ist aber, dass jeder dafür verantwortlich ist, dass sein Microservice wie erwartet läuft, was auch das Monitoring einschließt. Dies kann zu einem sehr komplexen Ökosystem von Tools führen. Daher wird es schwieriger, Einblicke gerade auf Entscheiderebene zu gewinnen. Die Daten sind zwar vorhanden, lassen sich aber nur schwer zusammenbringen und auswerten.
Um dieses Problem zu lösen, ist es notwendig, ein umfassendes Monitoring-Tool zu haben, das – auch unter Verwendung von Autodiscovery – eine einheitliche Sicht auf alle Teile eines Systems bietet. Letztlich muss es dem Team ermöglichen, zusammenzuarbeiten, ihre Daten zu korrelieren, Erkenntnisse zu gewinnen und geschäftskritische Entscheidungen zu treffen.
Dev-Insider: In Microservice-Strukturen kann ja jederzeit irgendwo ein Dienst oder Container „aufploppen“. Wie funktioniert das Aufspüren von Containern genau bzw. welche Mittel und Wege gibt es?
Weber: Container-Orchestrierungstechnologien wie Docker, Kubernetes oder OpenShift legen ihre APIs offen, so dass Monitoring-Tools mit ihnen interagieren und verschiedene Metriken in ihren der Plattform erfassen können. Auf dieselbe Weise können wir diese APIs nutzen, um neue Container (und auch andere Architekturelemente) zu entdecken. Um die Aufgaben für die Teams noch einfacher zu machen, ist es auch möglich, diesen Prozess anzupassen, zum Beispiel durch die Bereitstellung von Benennungsregeln oder die automatische Zuweisung von Tags für eine einfachere Analyse später.
Dev-Insider: Datadog fährt ja gerade eine Expansionsstrategie im deutschsprachigen Raum. Liegt hier noch mehr Potenzial als in anderen Märkten?
Weber: Die deutschsprachige, also DACH- Region bietet ein großes Potenzial in Europa, weshalb wir sie zu einem wichtigen strategischen Schwerpunktgebiet gemacht haben. Weltweit wachsen wir schnell, sowohl in Bezug auf die Mitarbeiterzahl als auch auf den Umsatz, und das gilt auch für Europa und die deutschsprachige Region.
Dev-Insider: Wer oder was sind im Observability-Markt die größten Treiber?
Weber: Der Wettbewerbsdruck verlangt nach immer mehr und immer digitaleren Services für die Endkunden. Diese Services müssen sehr agil aufgesetzt und anpassbar sein und hohe Stabilität aufweisen. Genau hier kommt Datadog ins Spiel. In den Unternehmen sehen wir die Entwickler als größten Treiber, denn diese haben natürlich eine hohe Neigung, entsprechende Lösungen einzusetzen. Aber auch im Top-Management ist das Thema inzwischen durchaus angekommen.
Alexander Weber ist Regional Vice President Central Europe bei Datadog, der Überwachungs- und Sicherheitsplattform für Cloud-Anwendungen. Weber, der über knapp 20 Jahre Vertriebs- und Managementerfahrung verfügt, zeichnet in der Rolle das operative Geschäft und das Wachstum von Datadog in den Kernregionen DACH, BeNeLux sowie Osteuropa verantwortlich. Vor seinem Wechsel zu Datadog Ende 2021 war Alexander Weber bei dem IT-Security-Anbieter Tanium als Regional Vice President für Deutschland beschäftigt. Davor war er Director of Sales bei ServiceNow. Weitere Stationen seiner Karriere umfassen unter anderem Juniper Networks, CA Technologies und Dell. In seiner neuen Position bei Datadog berichtet Weber direkt an Patrik Svanström, Vice President EMEA Sales.
(ID:48228198)