Kosten sparen ohne Performance- und Leistungseinbußen Fünf Möglichkeiten für den Einsatz vorhandener Monitoring-Lösungen
Anbieter zum Thema
Beim Optimieren der IT-Kosten ist die erste Stellschraube häufig das Reduzieren der Ausgaben, was jedoch zu Produktivitäts- und Leistungseinbußen führen kann. Stattdessen sollten IT-Verantwortliche vorhandene Überwachungslösungen nutzen, um Kosten zu senken, zu optimieren und zu kontrollieren. Dafür gibt es verschiedene Möglichkeiten.

1. Eine kostenbewusste Unternehmenskultur aufbauen
Ukrainekrieg, Klimakrise, Nachwehen der Pandemie – die globale Wirtschaftslage sorgt dafür, dass viele Unternehmen noch effizienter wirtschaften müssen. Die Entwicklung eines unternehmensweiten Bewusstseins für IT-Ausgaben ist eine wichtige Voraussetzung für kosteneffizientes Wirtschaften. Sobald die Entwicklerteams Kostenkennzahlen in ihre täglichen Arbeitsabläufe einbeziehen, werden Kostenmessung und -optimierung automatisch Teil ihrer Ziele.
Dafür müssen die Kosten für Infrastruktur und Anwendungsnutzung allerdings transparent sein, weshalb die technischen Leiter Zugang zu Tools benötigen, die eine detailgenaue Beurteilung ermöglichen. Der Einsatz einer ganzheitlichen Überwachungslösung, die den Anwendungs-, Ressourcen- und Infrastrukturverbrauch miteinander verknüpft, ist daher von entscheidender Bedeutung für die Schaffung einer kostenbewussten Unternehmenskultur.
Ein unternehmensweites Kostenbewusstsein auf granularer Teamebene ermöglicht es den technischen Leitern auch, von einem „Showback“-Modell, das die aktuellen IT-Ausgaben in einem Übersichtsmodell zusammenfasst, zu einem „Chargeback“-Kostenmodell überzugehen. Hier werden die Abteilungen nicht nur über ihre aktuelle Technologienutzung informiert, sondern sind auch verpflichtet, für ihren Verbrauch aufzukommen.
Da ihr Technologieverbrauch direkte, teamspezifische finanzielle Kosten verursacht, sind die Teams stärker motiviert, ihre Ressourcen effizient zu nutzen. Ein Chargeback-Modell wird daher oft als effektiver bei der Kostensenkung angesehen.
2. Mehrere Überwachungstools konsolidieren
Einer der wirkungsvollsten Maßnahmen, die technische Führungskräfte zur Maximierung der Kosteneffizienz durchführen können, ist die Beseitigung von Tool-Wildwuchs. Die Teams verwenden oft unterschiedliche Tools für gleiche Aufgaben, z.B. für APM, Protokollmanagement und RUM. Jedes Tool bedingt:
- eigene Erstinvestitions-, Wartungs- und Ressourcenkosten
- eine hohe Anzahl von teuren spezialisierten Vollzeitkräften für die Bereitstellung und Verwaltung – mit der möglichen Konsequenz, dass sich isolierte Überwachungsteams bilden
- eigene Kosten für Lizenzierung, Hosting und professionelle Dienstleistungen
In größeren Unternehmen, die für verschiedene Ländern oder Produktgruppen unterschiedliche Überwachungssysteme einsetzen, verschärft sich diese Situation häufig noch. Auch in dieser Lage empfiehlt sich die Einführung einer einzigen, einheitlichen Plattform, um die Gesamtkosten zu senken. So lassen sich alte Tools außer Betrieb nehmen und die Betriebskosten für Lizenzen, Wartung und Arbeitskräfte anderen Bedürfnissen und Investitionsbereichen im Unternehmen zuordnen.
3. Kontrolle der Ausgaben für die Cloud-Infrastruktur
Unternehmen wechseln häufig in die Cloud, um deren Vorteile hinsichtlich Elastizität und Skalierbarkeit zu nutzen. So können sie schnell auf zunehmende Benutzeraktivitäten reagieren, ohne die Leistung zu beeinträchtigen. Die Schattenseite dieses Vorgehens: Auch die Cloud-Ausgaben können schnell skalieren und ihr Ausmaß wird häufig nicht vollständig erfasst, da jedes Entwicklungsteam diese Kosten nur durch die Linse der eigenen Ressourcen analysiert.
Unternehmen sollten daher regelmäßig überprüfen, ob ihre Cloud-Infrastruktur und alle Metriken effizient laufen und welche Möglichkeiten zur Effizienzsteigerung bestehen. In diesem Zuge können die meistgenutzten Ressourcen optimiert, nicht ausreichend genutzte minimiert und nicht genutzte Ressourcen entfernt werden.
4. Optimierung des Ressourcenverbrauchs von Anwendungen
Da Unternehmen ihre Anwendungsarchitekturen modernisiert und z.B. Container eingeführt haben, ist die Komplexität erheblich gestiegen. Gleichzeitig gibt es viele gegenseitigen Abhängigkeiten im gesamten Technologie-Stack eines Unternehmens, so dass immer schwieriger zu erkennen ist, wo die größten Optimierungsmöglichkeiten bestehen, ohne die Leistung zu beeinträchtigen.
Dieses Problem ist oft bei Unternehmen besonders ausgeprägt, die mit einem „Lift-and-Shift“-Ansatz in die Cloud migriert haben. In diesen Fällen sind sich die technischen Führungskräfte oft nur allzu bewusst, dass sie die Anwendungsressourcen möglicherweise nicht auf die effizienteste Weise nutzen. Sie zögern jedoch, Änderungen vorzunehmen, weil sie keinen Einblick in die zugrunde liegende Anwendung haben.
Kontinuierliches Code-Profiling mit geringem Aufwand kann Aufschluss darüber geben, wie sich jede einzelne Code-Zeile in der Produktion verhält. Mit der kontinuierlichen Profilerstellung lassen sich Leistungsrückschritte feststellen, ohne die Anwendungsleistung zu beeinträchtigen oder Probleme zeitaufwändig außerhalb der Produktionsumgebung reproduzieren zu müssen.
Die Überwachung des Codeverhaltens in der Produktion ermöglicht auch Einblicke in ressourcenintensive Methoden und Codezeilen, wodurch Teams die CPU- und Speichernutzung optimieren und Kosten sparen können. Durch die Verfolgung der CPU-Auslastung pro Service und Endpunkt lässt sich sicherstellen, dass die richtigen Ressourcen für die jeweilige Arbeitslast verwendet werden, während die Überwachung von Datenbanken und die Optimierung von Abfragen dazu beitragen, die gesamten Rechenkosten zu senken.
5. Senkung der Kosten für die Datenspeicherung
Unternehmen aller Branchen sehen sich zunehmend gezwungen, mehr Daten zu erfassen – etwa, um das Kundenerlebnis zu personalisieren und dem Wettbewerb standzuhalten. In regulierten Bereichen wie Finanzdienstleistungen und Gesundheitswesen spielt auch die Einhaltung von Vorschriften eine Rolle. Und schließlich führen auch bewährte Sicherheitspraktiken dazu, dass Anwendungsdaten gespeichert werden müssen, um im Falle eines künftigen Cybervorfalls auf sie zurückgreifen zu können.
All diese Trends haben dazu geführt, dass sich die täglich anfallenden Datenmengen drastisch erhöhen. Die Kosten für deren Speicherung sind für viele Unternehmen kaum mehr zu stemmen, so dass einige technische Leiter den Eindruck haben, sich zwischen effizientem Kostenmanagement und der Verwaltung der gespeicherten Datenmenge entscheiden zu müssen.
Daher sollten die Verantwortlichen in der Technik überdenken, wo die Daten gespeichert werden, d. h., ob die kostengünstigste Speicheroption verwendet wird. Auf dem Prüfstand sollte zudem gestellt werden, wie die Daten gespeichert werden, d. h., ob es für Daten, auf die kein sofortiger Zugriff erforderlich ist, kostengünstigere Anbieteroptionen gibt.
* Alexander Weber ist Regional Vice President Central Europe bei Datadog, dem Anbieter der gleichnamigen Monitoring-, Security- und Analyseplattform für Entwickler, IT-Operations-Teams, IT-Sicherheitsexperten und Business User im Cloud-Zeitalter. Die Saas-basierte Plattform integriert und automatisiert Infrastrukturmonitoring, Application Performance Monitoring und Log Management für eine ganzheitliche Echtzeit-Betrachtung des gesamten Technologie-Stacks.
(ID:49086746)