Interview mit Lutz Lange Red Hat äußert sich zur Container-Strategie

Autor / Redakteur: Dipl. -Ing. Thomas Drilling / Ulrike Ostler |

Die mittels Openshift forcierte Container-Strategie von Red Hat wirft Fragen auf. Hierzu und zur Durchsetzung der Container-Technologie im Allgemeinen hat Lutz Lange Solutions Archtitect und Cloud Spezialist von Red Hat, in einem Interview Stellung bezogen.

Anbieter zum Thema

Lutz Lange ist Solutions Archtitect und Cloud Spezialist bei Red Hat.
Lutz Lange ist Solutions Archtitect und Cloud Spezialist bei Red Hat.
(Bild: @AtomicContainer)

Docker ist in den Augen der LXC-Entwickler nur eine Lösung zum Ausliefern von Anwendungen. Sehen Sie das auch so? Hat sich Red Hat beim Container-Format auf Docker festgelegt, um einer weiteren Fragmentierung der Technologie entgegen zu wirken?

Lutz Lange: Es macht in unseren Augen wenig Sinn, mehrere konkurrierende Container-Formate zu haben. Docker selbst fehlten aber zu der Zeit, als Red Hat damit begann, das gesamte Potenzial der Technik von verschiedenen Seiten aus (OpenStack, Openshift, Atomic) auszuloten, maßgebliche Sicherheitskonzepte und außerdem war der Orchestrierungsgedanke bei Docker quasi noch nicht vorhanden. Insofern ist die Wahrnehmung der LXC-Entwickler nicht ganz falsch.

Was sind die nach Ihrer Ansicht wichtigsten Use Cases für Container? Immerhin scheinen vServer oder Zones, wie sie Hoster schon seit Jahren nutzen nicht so weltbewegend wichtig zu sein, dass dies allein den derzeitigen Container-Hype erklären könnte. Bleibt noch das komfortable Bereitstellen Cloud-nativer Apps und die Microsegmentierung? Noch vor 2 Jahren hieß es auf dem Red Hat Summit, dass Red Hat Atomic Host den Markt für Enterprise-Betriebssysteme revolutioniere.

Lutz Lange: Ja und Nein. Wir arbeiten zwar zusammen mit Google massiv an der Container-Orchestrierung und der Erweiterung der Skalierbarkeit, die meisten Unternehmen sind aber noch gar nicht do weit, sich dem Docker-Einsatz im ganz großen Maßstab zu widmen. Bei Vielen geht es zunächst erst einmal um die Integration in bestehende Umgebungen, damit Entwickler Container eben nicht im Stillen auf ihren Notebooks einsetzen, sondern per Self-Service in bestehenden Infrastrukuren anfordern.

Dazu arbeiten wir an Lösungen, Container in die bestehende Infrastruktur einzubetten und zwar MIT ihren Services, wie Security-, Authentisierungs- und Netzwerk-Dienste. Aber auch die Unternehmen selbst müssen sich mit der Frage befassen, wie sie Container-Technologie optimal mit bestehenden Workloads und Prozesse verknüpfen können, denn niemand startet ja mit Containern von der grünen Wiese.

Red Hat und Google haben mit Kubernetes einen Defakto-Standard für die Orchestrierung von Containern geschaffen. Wenn aber die meisten Unternehmen noch gar nicht in diesen Größenordnungen denken, ist die Orchestrierung dann nicht überbewertet?

Lutz Lange: Nein, die Orchestrierung steht über allem. Unternehmen müssen in der Lage sein, mehrere Container miteinander kombinieren zu können oder Container mit anderen Applikationen. Ferner müssen Container mit anderen IT-Ressourcen im Unternehmen kommunizieren können. Das klappt wiederum nur dann, wenn Container von vorne herein in einer Umgebung entwickelt werden, die die geschilderte Realität im Unternehmen auch abbildet.

Zudem ist die Skalierung ja auch nur ein Aspekt der Orchestrierung. Zunächst kombiniert die Orchestrierungs-Engine die unterschiedlichen Services und/oder deren Instanzen zu einer Anwendung. Die Orchestrierung sorgt aber auch dafür, das Apps in genau dem richtigen Kontext gebaut werden, also „wo“ die einzelnen Services ausgeführt werden und „wie“ Netzwerkkomponenten, Workloads, Storage-Ressourcen und Security-Profile einzubetten sind. Außerdem kümmert sich die Orchestrierungs-Engine um das Verwalten der Stati von Geräten und Apps.

Cloud und Container-Technologie ergänzen sich also, wenn die richtigen Orchestrierungswerkzeuge wie Kubernetes zum Einsatz kommen. Brauchen wir also langfristig keine virtuellen Maschinen mehr?

Lutz Lange: Amazon beispielsweise bietet ja inzwischen immer mehr Dienste an, mit denen sich das Betreiben eigener Instanzen ohnehin erübrigen würde. Wenn sich Amazons Lambda-Dienst fest etabliert, mit dem es möglich wird, Code zu hinterlegen der auf Events reagiert, müssen eigene Instanzen nicht mehr dauerhaft betrieben werden. Damit wird es sich auch erübrigen, dass Unternehmen sich bemühen, nach und nach Ihre VM-Workloads in Container zu verfrachten.

Ist das der falsche Weg?

Lutz Lange: Ja, das wäre die schöne ferne Zukunft, die dann auch IT-Abteilungen, Rechenzentren und Admins im Unternehmen überflüssig macht. Aber wie ich schon sagte, spiegelt das die Realität nicht im Entferntesten wieder. Unternehmen werden noch lange Legacy-Apss nutzen, gegebenenfalls parallel auf SaaS-Angebote zugreifen und vielleicht damit anfangen, erste eigene private Clouds zu bauen.

Legacy-Systeme werden sowohl auf Hardware- wie auch auf Software-Ebene auf lange Sicht nicht automatisch verschwinden und von Containern verdrängt werden. Daher liegt die Hauptherausforderung darin, Container sowohl mit neuesten Anwendungen, als auch mit Legacy-Systemen zu verheiraten.

Die IT in Unternehmen ist heute hoch dynamisch. Container-Lösungen müssen also mitwachsen und skalieren, insbesondere wenn wir von einer Tenant-fähigen Architektur reden. Wie wichtig ist aus ihrer Sicht die Skalierbarkeit?

Lutz Lange: Skalierbarkeit muss von Anfang an in der Planung angelegt sein. Daher preisen ja auch nahezu alle Container-Hersteller ihren Lösungen als hoch skalierbar an. Oft stimmt das aber nur bedingt, weil es das jeweilige Design gar nicht erlaubt. Skalierbarkeit ist die mit Abstand wichtigste Eigenschaft, wenn man auf eine verteilte, mandantenfähige IT-Architektur abzielt.

* Thomas Drilling ist freier Journalist und Berater; auf DataCenter-Insider schreibt er sein eigenes Blog:Drillings Open Source-Eck

(ID:44471950)