Zentrale Übersicht für das Monitoring Observability-Daten sammeln, verwalten und weiterleiten

Von Bernhard Lück

Anbieter zum Thema

Für eine verbesserte Datenkontrolle, mit der Unternehmen ihre Observability-Verfahren zuverlässig skalieren können, bringt Datadog ein neues Produkt an den Start: Observability Pipelines basiere auf Vector, einem quelloffenen Framework für den Aufbau von Telemetrie-Pipelines.

Observability Pipelines bietet eine zentrale Übersicht für das Monitoring von Infrastruktur- und Anwendungsmetriken, Logs und Traces.
Observability Pipelines bietet eine zentrale Übersicht für das Monitoring von Infrastruktur- und Anwendungsmetriken, Logs und Traces.
(Bild: Datadog )

Unternehmen verwalten heutzutage viele Anwendungen, die von zahlreichen Diensten betrieben werden und eine Fülle von Metriken, Logs und Traces erzeugen. Diese enormen Datenmengen und die daraus resultierende Komplexität auf Anwendungs- und Unternehmensebene können zu Problemen bei der Zuverlässigkeit und der technologischen Flexibilität, sowie zu Sicherheitsrisiken und hohen Kosten führen.

Observability Pipelines begegnet diesen Herausforderungen mit einer zentralen Übersicht für das Monitoring von Infrastruktur- und Anwendungsmetriken, Logs und Traces. Nutzende könnten so Observability-Daten von der Quelle bis hin zum Zielort nahtlos erfassen, erweitern, umwandeln, bereinigen und weiterleiten – noch bevor die Daten ihre Umgebung verlassen. Datadog zufolge erhalten Unternehmen mit Observability Pipelines einen ganzheitlichen Überblick darüber, wie viele Mittel und wo diese verwendet werden, welche Tools genutzt werden und wer Zugriff auf welche Daten hat. So sei es möglich, Kosten gezielter zu verwalten, technologische Abhängigkeiten zu reduzieren, die Compliance sowie die Vereinheitlichung der Datenqualität zu verbessern und Observability-Verfahren zu skalieren. Unternehmen könnten also:

  • Kosten kontrollieren: Observability-Daten könnten in Abhängigkeit des Einsatzzwecks gesammelt, gefiltert und weitergeleitet werden, ohne Sichtbarkeit einzubüßen.
  • Migrationsprozesse vereinfachen und technologische Abhängigkeiten reduzieren: Über eine zentrale Übersicht könne die Datenverarbeitung überwacht und gesteuert werden, von jeder Quelle bis hin zu jedem Zielort.
  • Sensible Daten schützen: Um Compliance-Anforderungen gerecht zu werden, ließen sich vertrauliche Daten filtern, bearbeiten und überwachen, bevor sie das Ursprungsnetzwerk verlassen.
  • Datenqualität verbessern: Durch eine Standardisierung von Protokollen, Metriken und Traces werde die Observability über alle Teams hinweg verbessert.
  • Zuverlässig skalieren: Produkte, die von dem herstellerunabhängigen Open-Source-Projekt Vector unterstützt werden, könnten nahtlos skaliert werden. Vector werde von Produktionsunternehmen genutzt, die jeden Monat Petabytes von Daten verarbeiten. Hinter Vector stehe eine engagierte Community mit einer Vielzahl monatlicher Downloads.
  • Daten sammeln und weiterleiten: Mit Observability Pipelines würden mehr als 80 sofort verfügbare Integrationen bereitgestellt. Somit könnten Unternehmen schnell und einfach Daten sammeln und an die Tools weiterleiten, die von Teams bereits verwendet werden – ohne bestehende Arbeitsabläufe zu unterbrechen.

(ID:48519127)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Softwareentwicklung und DevOps

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung