Kommentar von David Melillo, CloudBees Warum Big-Data-Strategien zu DevOps führen

Autor / Redakteur: David Melillo / Nico Litzel

Seit einigen Jahren wird das Thema Big Data bereits in den unterschiedlichsten Formen diskutiert. Nachdem Unternehmen mögliche Einsatzgebiete für Big Data definiert haben, werden heute mehr und mehr Big-Data-Projekte umgesetzt. Einer aktuellen Umfrage von New Vantage Partners zufolge ist das Thema Big Data mittlerweile reif für die Unternehmenswelt.

Anbieter zum Thema

Der Autor: David Melillo ist Data Specialist bei CloudBees
Der Autor: David Melillo ist Data Specialist bei CloudBees
(Bild: CloudBees)

Die „Big-Data-Executive-Umfrage (PDF)“ hat ergeben, dass 80 Prozent der Befragten der Ansicht sind, dass ihre Investitionen in Big Data erfolgreich waren. Fast die Hälfte der Befragten gibt zudem an, dass ihr Unternehmen einen messbaren Nutzen aus dem Projekt ziehen kann.

Unternehmen müssen Big Data auf das Geschäft ausrichten

Doch bei allem Erfolg geben Unternehmen oft preis, dass sie diverse Hindernisse zu überwinden hatten. Als größte Hürde ist eine „unzureichende Ausrichtung innerhalb des Unternehmens“ zu nennen. Das bezieht sich auf die unrealistischen Vorstellungen des Unternehmens und der tatsächlichen Realität der Big-Data-Projekte. Der Widerstand der Unternehmen und das Begleiten von Veränderungsprozessen liegen mit jeweils 41 Prozent Kopf an Kopf. Big Data bedeutet Umdenken, eine geänderte Arbeitsweise und die Anforderung an die Menschen, sich schnell an die neuen Gegebenheiten anzupassen.

Trotz der Erfolge sehen Führungskräfte immer noch kulturelle Hindernisse als Barriere, wenn es darum geht, den Wert und die geschäftliche Nutzung von Big Data in vollem Umfang in der Unternehmenswelt zu realisieren. 52,5 Prozent der Führungskräfte berichten, dass organisatorische Hindernisse die unternehmensweite Umsetzung von Big-Data-Initiativen verhindern. Diese Barrieren beinhalten den Mangel an organisatorischer Ausrichtung, geschäftliche und/oder technologische Widerstände sowie mangelnde Umsetzung durch das mittlere Management als die häufigsten Faktoren.

Diese „Ausrichtungsproblematik“ kann bekanntermaßen durch die Einführung eines DevOps-Ansatzes gelöst werden. Interessanterweise sind Unternehmen mit einer klaren Big-Data-Strategie oftmals „Early Adopters“ ausgereifter Praktiken wie DevOps, Continuous Delivery und Continuous Integration. Der Hauptgrund hierfür sind: Datenspezialisten!

Datenspezialisten können Hilfe leisten

Für sie ist Datenwissenschaft wie eine Reise. Das Verfahren beinhaltet mehrere Schritte, von der Datenerfassung, Reinigung, Homogenisierung über die statistische Modellierung und schließlich die Interpretation der Ergebnisse und deren Visualisierung. All diese Phasen müssen durchlaufen werden, um überhaupt Kenntnisse zu erlangen, die bessere Geschäftsentscheidungen und damit verbundene Maßnahmen ermöglichen.

Um eine zielführende Implementierung einer Big-Data-Strategie zu erreichen, bleibt Datenspezialisten keine andere Wahl, als das direkte Gespräch sowohl mit IT-Mitarbeitern als auch mit Geschäftsleuten zu suchen. Ihre spezifische Position in der Firma – sie gelten bei Geschäftsleuten als „Techies“ und bei den IT-Mitarbeitern als Geschäftsleute – macht sie zu perfekten Befürwortern des DevOps-Ansatzes. Sie sind diejenigen, die am ehesten in der Lage sind, die geschäftliche Bedeutung von Daten zu verstehen und zu definieren, welche Daten in den „Datenpool“ gelegt werden sollten und welche Programmierschnittstellen (API) implementiert werden sollten, um Anwendern Zugang zu nützlichen und benötigten Unternehmensinformationen (Marketing, Beschaffung, Risiko, etc.) zu gewähren.

Datenwissenschaft ist ein keine Disziplin, die es alleine zu schaffen gilt, es ist ein Mannschaftssport. Datenspezialisten fungieren als Dreh- und Angelpunkt innerhalb des Unternehmens. Auf der einen Seite arbeiten Datenspezialisten mit den Business-Managern zusammen, die in der Lage sind, geschäftsrelevante Fragen in Bezug auf die Forschung zu stellen. Auf der anderen Seite müssen sie eng mit den IT-Teams zusammenarbeiten, da diese wissen, wo die Daten liegen und welche Bezeichnung sie in den einzelnen Systemen erfahren. Diese Zusammenarbeit und die erfolgreiche Integration dieser Talente sind laut Studien des Massachusetts Institute of Technology (MIT) von entscheidender Bedeutung, sowohl für den Erfolg der datenwissenschaftlichen Projekte als auch für den Erfolg der Datenspezialisten.

Die Allianz von Big Data und DevOps

In der gegenwärtigen Praxis umfasst das Big Data Team Datenspezialisten und Big-Data-Ingenieure, die in verschiedenen Produkt-Teams integriert sind oder isoliert in ihrer eigenen Analyse-Abteilung arbeiten. Im Rahmen von DevOps entwickeln die Datenspezialisten und Big-Data-Ingenieure analytische Modelle und Algorithmen, die sie in einem Versionskontrollsystem speichern.

Dieser Code wird geprüft und automatisch in den entsprechenden Hauptcode integriert, der dann in der Produktion bereitgestellt und überwacht wird. Auf diese Weise gewährleistet DevOps einheitliche Continuous-Integration- und Continuous-Deployment-Prozesse innerhalb der gesamten Engineering-Organisation.

Mithilfe einer visualisierten Pipeline können Datenspezialisten leichter erkennen, an welcher Stelle der DevOps-Kette des Unternehmens sie sich befinden. In einigen Fällen können Datenspezialisten am Anfang der Pipeline arbeiten und Spezifikationen für Anwendungen entwerfen, die stromabwärts in die Daten ihrer Modelle einfließen. In anderen, eher klassischen Fällen, sitzen Datenspezialisten am Ende der DevOps-Pipeline und sind integraler Bestandteil der Feedback-Schleife für Entwickler.

Big Data ist zu groß und zu komplex ist für traditionelle Ansätze

Da Datenspezialisten und Analysten eine Art Neuzugang für Entwicklungsteams sind, benötigen sie zusätzliche Werkzeuge und Prozesse, die die zyklische Veröffentlichung von Analyse-Produkten kürzer und reibungsloser gestalten. Sofern DevOps und Big Data nicht direkt miteinander verbunden sind, lässt sich sagen, dass DevOps besonders vorteilhaft für Big Data ist und dass fast jedes Big-Data-Projekt zumindest einige DevOps-Elemente beinhaltet. Der Hauptgrund dafür ist, dass Big Data zu groß oder zu komplex ist, um auf traditionelle Art und Weise gehandhabt zu werden.

Auf der anderen Seite ist Big Data auch für DevOps von Vorteil. Der Grund dafür ist die Datenqualität. Wenn es um Big Data und DevOps geht, so kommen in der Regel zwei Programme auf.

Master Data Management (MDM) und Data Governance (DG). Diese beiden Programme verwenden verschiedene Technologien, um Daten so zu verwalten, zu definieren und zu normalisieren, wie sie zur Unterstützung von internen Geschäftsprozessen oder Produktionssystemen verwendet werden. Ohne MDM und DG wird es schnell schwierig für Unternehmen, rechtzeitig ein Verständnis für Big Data zu entwickeln, die sie konsumieren. Die nahtlose Integration von MDM- und DG-Systemen in eine Big Data Pipeline ermöglicht es Unternehmen, ihre Daten in ein echtes Wirtschaftsgut zu verwandeln. Aus diesem Grund sind MDM und DG in einer Big-Data-Umgebung wichtige Teile der DevOps-Tool-Chain.

Big Data und DevOps spielen eine wichtige Rolle in der aktuellen digitalen Transformation

Einer aktuellen Umfrage zufolge glauben 81 Prozent der Befragten, dass agile Methoden und DevOps entscheidend sind für die erfolgreiche digitale Transformation. Auf Grundlage der Prognosen von Gartner, IDC und Forrester sind Big-Data-Analysen eine der drei strategischen Trends und eine der drei Technologien, die die digitale Transformation bis zum Ende dieses Jahrzehnts vorantreiben.

Unternehmen müssen in der Lage sein, Innovationen schneller und neue Produkte sowie Dienstleistungen früher auf den Markt zu bringen, was sowohl die Kundenbindung als auch die Kundengewinnung unterstützt. Dies erfordert mehr Einblicke in Geschäftsprozesse und neue, produktivere Arbeitsweisen. Kontinuierliche Analyse und Continuous Integration, schnelle Einblicke, agile Software-Entwicklung und -Integration ebnen den Weg in die Zukunft der digitalen Wirtschaft.

(ID:44700645)