Cloud Predictions 2020 Stärkerer Fokus auf dem Betrieb von Multi-Cloud-Umgebungen

Von Stephan Fabel *

Anbieter zum Thema

Multi-Cloud-Umgebungen waren ein Top-Thema im zu Ende gehenden Jahr. Unternehmen haben die Vorzüge eines herstellerunabhängigen Ansatzes erkannt, dessen besonderer Vorteil neben Kostenaspekten, insbesondere in der größeren Flexibilität in Hinblick auf Innovationen besteht. Eine Reihe von Aspekten beim Betrieb sind jedoch entscheidend dafür, dass auch langfristig Multi-Cloud-Lösungen eine wichtige Rolle in Unternehmen spielen werden.

Einem ständigen Wandel unterworfen: das Multi-Cloud-Ökosystem. Aktuelle Cloud Predictions von Canonical-Vertreter Stephan Fabel.
Einem ständigen Wandel unterworfen: das Multi-Cloud-Ökosystem. Aktuelle Cloud Predictions von Canonical-Vertreter Stephan Fabel.
(Bild: © GraphicCompressor - stock.adobe.com)

Trotz der Flexibilität, die mit einem herstellerneutralen Ökosystem einhergeht, bereitet das Verschieben von Workloads zwischen verschiedenen Cloud-Infrastrukturen den für die Orchestrierung der Cloud-Dienste im Unternehmen verantwortlichen IT-Mitarbeitern immer noch erhebliche Probleme. Im vergangenen Jahr haben große Cloud-Player wie IBM Akquisitionen getätigt, um dies in den Griff zu bekommen. Bislang ist ihnen das aber noch nicht gelungen.

Unternehmen, die Engpässe in ihrer CI / CD-Pipeline beseitigen möchten, werden sich im nächsten Jahr mit hoher Priorität darum kümmern. Dafür werden sie in Services investieren, die es ihnen erlauben, ein Multi-Cloud-Ökosystem zu nutzen, das schnelle Bereitstellung, Skalierbarkeit, Integration und operative Aufgaben in Public und Private Clouds unterstützt.

Ein weiterer Teil des Puzzles besteht im Cloud-übergreifenden Management, sprich der Beobachtbarkeit und Überwachung über Clouds hinweg. Um sicherzustellen, dass die Abläufe im gesamten Ökosystem funktionieren und die Workloads ausgeführt werden, müssen Komponenten für die Beobachtbarkeit vorhanden sein. Dies wird zu einer komplexen Herausforderung in einer Multi-Cloud-Infrastruktur, in der für alle Instanzen das gleiche Maß an Transparenz und Governance gelten muss.

2020 wird das Jahr sein, in dem Public Cloud-Anbieter beginnen, diese Projekte anzugehen. Erste Projekte sind aktuell in der Realisierung bzw. bereits realisiert wie Google Anthos (eine Plattform zur Verwaltung von Anwendungen, die eine einheitliche Erfahrung beim Entwickeln und Betreiben von Cloud- und lokalen Umgebungen bietet).

Unicorn-Start-ups beginnen, Workloads aus der Cloud zurückzuverlagern

In letzter Zeit wurde viel über die Rückführung von Clouds gesprochen. Auch obgleich dies zu keinem Massenexodus aus der Cloud führen wird – im Gegenteil kommt es dabei eher zum Wachstum der Public Cloud – werden sich Organisationen, die bisher nur in Cloud-nativen Umgebungen arbeiten, im Jahr 2020 eine hybride Umgebung zulegen, um größere Kosteneinsparungen zu erzielen.

Für Unternehmen, die mit einem begrenzten Budget anfangen, was eine Umgebung erforderlich macht, in der man neueste Technologie benötigt, ist die Public Cloud der perfekte Ausgangspunkt. Mit der Public Cloud bestimmen sie ihr eigenes Limit und erhalten unmittelbar ein positives Feedback auf Innovationen. Wenn mit wachsendem Umsatz und Anforderungen an die Cloud-Leistung die Kosten steigen, sollten sie überlegen, wie sie die Cloud wieder wirtschaftlicher bekommen können.

Die Rückführung von Workloads in die On-Premises-Welt / an den lokalen Standort ist sicherlich eine gangbare Option, aber das heißt nicht, dass damit ein spürbarer Rückgang der Cloud einhergehen wird. Je mehr und tiefer Organisationen ihre Infrastruktur in die Cloud verlagern, desto schwieriger wird die Rückführung von Workloads. Wahrscheinlich werden wir erleben, dass die Anbieter von Public Cloud in Rechenzentren ausweichen, um diese hybride Nachfrage zu unterstützen und so von dem Trend profitieren zu können.

Public Cloud-Anbieter unterliegen erhöhten Sicherheitsstandards

Die Entscheidung des US-Verteidigungsministeriums, den 10-Jahres-Vertrag für sein JEDI-Projekt an Microsoft zu vergeben, wird sich als Wendepunkt erweisen. Für eine steigende Zahl von Regierungsbehörden wird dies der Auslöser sein, Anwendungen zu verschieben und Informationen in der Public Cloud zu vereinheitlichen. Die Hoffnung auf Umsätze durch hohe Ausgaben von Bundesbehörden wird andere Cloud-Anbieter dazu bewegen, in diesem Milliarden-Dollar-Raum mit zu konkurrieren.

Eine der weitreichendsten Folgen wird die Notwendigkeit sein, Sicherheits- und Compliance-Standards in der Public Cloud zu erhöhen. Regierungsbehörden arbeiten mit extrem hohen Anforderungen, die sie nun auch an Cloud-Anbieter stellen werden. Das wird sich auf die gesamte Branche auswirken. Dies beinhaltet höhere Standards für die Architektur hybrider Umgebungen und die vollständige Trennung der Daten zwischen Public Cloud- und On-Premises-Umgebungen. Dies wird auch eine Abkehr vom Outsourcing-Modell fördern, da Unternehmen versuchen werden, ihre unternehmensinternen Cloud-Kenntnisse zu erweitern, um die Anforderungen zu erfüllen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Softwareentwicklung und DevOps

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Diese Auswirkungen werden vor allem den US-amerikanischen Cloud-Markt betreffen, aber auch auf andere Märkte ausstrahlen. Die Hyperscale-Anbieter sind global unterwegs und müssen daher ihre Richtlinien und Praktiken für Gerichtsbarkeiten wie das Vereinigte Königreich nach dem Brexit anpassen. Hier wird es neue Standards für den Datenschutz und die Datentrennung von Unternehmen außerhalb des Vereinigten Königreichs geben. Innerhalb der Europäischen Union wird die EU-DSGVO weiterhin die Anforderungen an Datenschutz und -trennung bestimmen.

Mehr Automatisierung des Netzwerks durch KI / Maschinelles Lernen

Künstliche Intelligenz und Maschinelles Lernen (AI / ML) in der Geschäftswelt haben sich von einer nebulösen Vision hin zu konkreten Einsatzfeldern weiterentwickelt. Unternehmen konzentrieren sich jetzt viel stärker auf AI / ML und richten ihre IT- und Geschäftsabläufe neu aus, um dem Trend zu folgen. Wir beobachten dies aus erster Hand in Kubeflow, wo sich täglich zahlreiche Startups und etablierte Unternehmen zusammentun, um herauszufinden, wie sie mit AI / ML umgehen und wie sie die Bereitstellung vereinfachen können.

Ein Bereich, den AI bereits spürbar erweitert, sind IT- und TK-Netzwerke. Wir arbeiten mit mehreren IT- und Telekommunikationsunternehmen in diesem Bereich zusammen, die bessere Netzwerke aufbauen und einen tieferen Einblick in die Verwendung dieser Netzwerke erhalten möchten - von der Optimierung des Stromverbrauchs bis zur Automatisierung von Wartungsaufgaben. Im Jahr 2020 werden wir immer mehr AI / ML im Netzwerkbereich bemerken, je mehr Fallstudien auftauchen.

Kubernetes wird nicht länger als das Ei des Kolumbus angesehen

Kubernetes ist zu einem integralen Bestandteil der modernen Cloud-Infrastruktur geworden und dient als Tor zum Aufbau und zur Erprobung neuer Technologien. Es verwundert nicht, dass viele Unternehmen, die wir beobachten, die Anwendungsbereiche verdoppeln und ihr DevOps-Team neu ausrichten. Das Ziel dabei sind neue Ansätze wie die Aktivierung von serverlosen Anwendungen und die Automatisierung der Datenorchestrierung. Wir gehen davon aus, dass dieser Trend im Jahr 2020 anhalten wird.

Möglicherweise werden sich auch einige Unternehmen fragen, ob Kubernetes wirklich das richtige Werkzeug für ihre Zwecke ist. Während die Technologie einen enormen Nutzen bringen kann, kann sie in einigen Fällen komplex zu managen sein und Fachkenntnisse erfordern. Da Kubernetes heutzutage häufig für die Produktion in großem Maßstab verwendet wird, wird es immer wahrscheinlicher, dass Benutzer auf Probleme im Zusammenhang mit Sicherheit und Ausfallzeiten stoßen.

Infolge dieser Herausforderungen können wir davon ausgehen, dass die Community reifer wird und - in einigen Fällen - der Ansicht ist, dass Kubernetes möglicherweise nicht für jede Anwendung geeignet ist, oder dass mehr externe Anbieter hinzugezogen werden müssen, um mit spezialisiertem Fachwissen zu helfen.

5G aktiviert „Netflix für Spiele"

Mobile Gaming hat sich in den letzten zehn Jahren in großem Tempo zu einem Mainstream-Phänomen entwickelt. Die weltweite Videospielbranche hatte im vergangenen Jahr einen Wert von fast 138 Milliarden US-Dollar (124 bis 125 Milliarden Euro), von denen mehr als 70 Milliarden US-Dollar für mobile Spiele ausgegeben wurden. 2020 wird sich dieser Trend mit dem Ausbau von 5G weiter beschleunigen.

Der Mobilfunkstandard der 5. Generation bietet eine robuste Konnektivität, geringe Latenz und die Bandbreite, die für das Hosten umfangreicher grafischer Inhalte erforderlich sind. Auf diese Weise kann das Modell „Streaming als Dienst" im Gaming florieren und den Benutzern auf Knopfdruck den Zugriff auf eine Sammlung kuratierter Gaming-Anwendungen auf Abonnementbasis ermöglichen.

Stephan Fabel, Director of Product bei Canonical - den Herausgebern von Ubuntu.
Stephan Fabel, Director of Product bei Canonical - den Herausgebern von Ubuntu.
(Bild: Canonical)

Wo 5G wirklich einen Unterschied macht, ist die Freisetzung von Rechenleistung, die normalerweise zum Herunterladen von Spieleanwendungen erforderlich ist. Cloud-Gaming-Anwendungen (oder On-Demand-Anwendungen) wie PlayStation Now und Shadow wurde durch die rasante Entwicklung von Grafikprozessoren (GPUs) befördert. In Mobilgeräten wird das gleiche Phänomen durch 5G als Edge-Use-Case ermöglicht. Ein frühes Beispiel ist Stadia, das im November dieses Jahres bei Google live gegangen ist und browserbasiertes Streaming ermöglicht.

Wir gehen davon aus, dass Mobile Gaming im Jahr 2020 im Zuge des Ausbaus der 5G-Netze zu einem weitaus größeren Trend wird. Dies wiederum wird den Fokus auf Open Source verstärken, um die Ausfallsicherheit und Skalierbarkeit des Cloud-basierten 5G-Kerns zu verbessern.

* Stephan Fabel ist Director of Product bei Canonical. Als Autor bereichert er regelmäßig unser Ubuntu- und Open-Source-Special von Canonical mit neuen Beiträgen.

(ID:46462530)