Definition „K8s“

Was ist Kubernetes?

| Autor / Redakteur: LineFeed / Stephan Augsten

Kubernetes stellt alle Funktionen für die Steuerung und Kontrolle des Einsatzes von Containeranwendungen zur Verfügung.
Kubernetes stellt alle Funktionen für die Steuerung und Kontrolle des Einsatzes von Containeranwendungen zur Verfügung. (Bild: Kubernetes)

Kubernetes dient der Orchestrierung von Container-Systemen. Die Open-Source-Plattform automatisiert also das Einrichten, Betreiben und auch das Skalieren von containerisierten Anwendungen.

Kubernetes ist zunächst die englische Schreibweise eines griechischen Wortes, das die Entwickler des gleichnamigen Container-Orchestrierungssystems etwas frei mit Steuermann übersetzen. Die Namensgebung reiht sich damit in die für derartige Projekte gewählte Bildsprache der Frachtschifffahrt ein. Docker heißen im Englischen die Schauerleute oder Hafenarbeiter.

Die Symbolik spiegelt sich im Kubernetes-Logo, das aus einem siebenspeichigen Steuerrad besteht. Die Zahl Sieben bezieht sich dabei auf eine Figur aus Star Trek, deren Name als Arbeitstitel des Projekts diente.

Ein Name mit IT-Geschichte

Kubernetes ist auch der Stamm des Wortes Kybernetik, englisch Cybernetics, und damit auch Ursprung diverser Wortbildungen mit „Cyber". Das Wort geht auf ein Buch des amerikanischen Mathematikers Norbert Wiener aus dem Jahr 1948 zurück und beschreibt dort die Steuerung und Kommunikation in lebenden wie in menschengemachten Systemen.

Welche Rolle spielt Kubernetes bei der Containerisierung

Sieht man in der Containerisierung eine industrielle Revolution der IT, indem sie händisch installierte Server durch maschinell erzeugte und gepflegte Einheiten ersetzt, dann ist Kubernetes das Fließband, das den Produktionsablauf regelt und den Takt vorgibt. Diese Aufgabe heißt im Orchestrierung. Kubernetes verwendet aber einen etwas anderen Ansatz als typische Orchestrierungssysteme.

Mehr als Orchestrierung

Die Kubernetes-Entwickler beschreiben den Unterschied zu einem regulären Orchestrierungssystem so, dass ihre Software keinen fest vorgegebenen Workflow umsetzt, sondern aus einem Satz unabhängiger Kontrollprozesse besteht, die fortlaufend den Ist-Zustand des Containersystems überwachen und zum Sollzustand hin verändern. Auf welchem Weg die Container eine vorgegebene Aufgabe lösen, liegt in der Zuständigkeit dieser Prozesse. Kubernetes benötigt auch keine zentrale Kontrollinstanz. Damit, so die Entwickler, macht Kubernetes die Orchestrierung effektiv überflüssig.

Kubernetes im Vergleich

Ein grundlegender Unterschied zwischen Kubernetes und anderen bedeutenden Orchestrierungswerkzeugen besteht in der Art der Virtualisierungsumgebungen, die sie verwalten können. Während Docker Swarm Mode als natives Docker-Orchestrierungstool eben diese Containerumgebung voraussetzt, unterstützt Kubernetes auch andere containerbasierte Virtualisierungssysteme, sogar als heterogene Umgebungen. Apache DCOS kontrolliert und steuert darüber hinaus auch nicht containerisierte Rechenressourcen.

Das Leistungsspektrum

Das Open-Source-Werkzeug Kubernetes stellt alle Funktionen für die Steuerung und Kontrolle des Einsatzes von Containeranwendungen zur Verfügung. Dazu gehören folgende Features:

  • Automatisierung von Containereinsatz und Software Rollout
  • Optimierung der Nutzung von Computer-Ressourcen
  • Zahlreiche Optionen für dauerhafte Datenspeicherung (Persistent Storage)
  • Integrierte Service Discovery
  • Autoscaling
  • Hochverfügbarkeit

Automatisierung von Containereinsatz und Software Rollout

Kubernetes fasst Container-Images, ihre Konfiguration und die Anzahl der benötigten Instanzen in Deployments zusammen, so der Sprachgebrauch des Orchestrierungssystems. Die Parameter eines Deployments überwacht Kubernetes selbsttätig. Das Tool sorgt dafür, dass die gewünschte Anzahl von Containern jederzeit läuft. Änderungen an der Software oder der Konfiguration verteilt Kubernetes mit einem Rollout. Dieser Prozess lässt sich pausieren, fortsetzen und rückgängig machen (Rollback).

Optimierung der Nutzung der Computer-Ressourcen

Kubernetes setzt die Container eines Deployments selbständig dort ein, wo entsprechende Ressourcen frei sind. Der Anwender kann Mindest- und Höchstwerte der Ressourcennutzung (Rechenzeit, Speicherplatz) für die Container festlegen, um dem Orchestrierungstool einen Rahmen vorzugeben.

Zahlreiche Optionen für dauerhafte Datenspeicherung (Persistent Storage)

Container sind zustandslos. Für die dauerhafte Speicherung von Konfigurations- und Nutzerdaten bietet Kubernetes Schnittstellen zu zahlreichen Diensten wie zum Beispiel EBS von Amazon Web Services oder Google Cloud Platform.

Integrierte Service Discovery

Benötigten Netzwerkverbindungen ins Internet oder zu anderen Containern erkennt Kubernetes selbständig. Das Werkzeug öffnet diese Verbindungen nicht nur, sondern verteilt den Datenverkehr automatisch auf passende Container (Load Balancing). Eine voll funktionsfähige Service Discovery mittels DNS ist bereits integriert.

Autoscaling

Kubernetes ermöglicht eine selbsttätige Anpassung des Containersystems an wechselnde Lasten und verfügbare Computer-Ressourcen durch automatisches Skalieren des Containereinsatzes. Um wachsende Anforderungen zu erfüllen, reicht es daher, entsprechende Ressourcen bereit zu stellen. Die Anwendung muss dazu nicht angepasst werden. Eine Leistungssteigerung der Anwendung lässt sich somit völlig transparent für den Kunden durchführen.

Hochverfügbarkeit

Ein wesentlicher Faktor für den störungsfreien Betrieb sind ebenfalls High-Availability-Features. Die Container Technologie bietet eine ausgezeichnete Basis für den redundanten Ressourceneinsatz. Mit Cluster Federation weitet Kubernetes diese Fähigkeiten auf ganze Containersysteme aus.

Spezielle Kubernetes-Terminologie

Entsprechend seiner speziellen Eigenschaften als Orchestrierungssystem nutzt Kubernetes zum Teil auch eigene Namenskonventionen. In diesem Sprachgebrauch ist ein Node ein Computersystem, physisch oder virtuell, das für den Betrieb von Containern unter der Kontrolle von Kubernetes eingerichtet ist.

Ein Cluster ist ein Gesamtsystem, dass sich aus Nodes zusammensetzt. Die Verwaltung geschieht über die Kubernetes Control Plane, das ist zum einen Software wie kubectl, zum anderen ein Satz von APIs für die Interaktion mit dem Containersystem. Container auf demselben Node fasst Kubernetes in Pods zusammen. Ein Pod kann auch aus einem einzelnen Container bestehen und ist die kleinste organisatorische Einheit in Kubernetes.

Kommentare werden geladen....

Kommentar zu diesem Artikel

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

DevSecOps in 4 Schritten

Sicherheit in die DevOps-Strategie integrieren

DevSecOps in 4 Schritten

Die Agilität von DevOps und Microservices-Umgebungen macht die Integration der Sicherheit nicht gerade einfacher. DevSecOps lässt sich aber durchaus realisieren, wenn man vom traditionellen Sicherheitsdenken abrückt. lesen

Kubernetes-Plattform in der Public Cloud

Microsoft Azure integriert Red Hat OpenShift

Kubernetes-Plattform in der Public Cloud

Red Hat und Microsoft haben mit Azure Red Hat OpenShift eine gemeinsam verwaltete Kubernetes-Plattform in der Public Cloud angekündigt. Die Zielsetzung lautet, echtes Hybrid Cloud Computing für Unternehmen verfügbar zu machen. lesen

DevQOps – eine Frage der Qualität

Code Quality Testing als DevOps-Stütze

DevQOps – eine Frage der Qualität

DevOps-Strategien etablieren sich immer weiter, haben ihr volle Leistungsfähigkeit jedoch noch nicht zwingend erreicht. Was auf dem Weg zum nächsten Evolutionsschritt fehlt, ist der maximale Qualitätsanspruch. Willkommen im Zeitalter der DevQOps. lesen

VS-Code und IntelliJ-Plug-in von Google

Cloud-Native-Development mit Cloud Code

VS-Code und IntelliJ-Plug-in von Google

Google hat mit Cloud Code eine Reihe neuer Plug-ins für IntelliJ- und Visual Studio Code für die Entwicklung Cloud-nativer Anwendungen bereitgestellt. In der ersten Version lag der Fokus auf Applikationen, die auf Kubernetes laufen, einschließlich der Google Kubernetes Engine. lesen

Projekt Eirini bringt Cloud Foundry Apps in Kubernetes-Cluster

Ankündigungen des Cloud Foundry North American Summit 2019

Projekt Eirini bringt Cloud Foundry Apps in Kubernetes-Cluster

Zum North American Summit 2019 haben zahlreiche Mitglieder der Cloud Foundry Foundation ihre Neuerungen angekündigt, darunter auch Technologievorschauen für das Projekt Eirini. Mit Accenture und HCL wurden zudem erste zertifizierte Systemintegratoren vorgestellt. lesen

Pivotal Cloud Foundry 2.5 veröffentlicht

Neue Features und Beta-Tools für die Cloud-Plattform

Pivotal Cloud Foundry 2.5 veröffentlicht

Pivotal hat just seine Version 2.5 der Open-Source-Multi-Cloud-Plattform Cloud Foundry vorgestellt und verspricht eine ganze Reihe größerer wie kleinerer Neuerungen, beispielsweise die flexiblere Einbindung von Kubernetes. lesen

Die Umstellung auf DevSecOps

Palo Alto Networks über Security und Container

Die Umstellung auf DevSecOps

Container-technologien sind für Unternehmen eine gute Gelegenheit, die Sicherheitsstrategie anzupassen: DevSecOps bringt Development- und Security-Teams näher zusammen, zeigt Palo Alto Networks sich zuversichtlich. Der Lösungsanbieter hat sich eingehender damit beschäftigt. lesen

Managed Continuous Integration und Delivery in der Cloud

Partnerschaft von Atos, CloudBees und Google Cloud

Managed Continuous Integration und Delivery in der Cloud

Atos, CloudBees und Google Cloud haben eine gemeinsame Lösung zur Modernisierung der Anwendungsentwicklung erarbeitet. Der integrierte Service dient der Überwachung der Softwareentwicklungsumgebung und bietet eine verwaltete Plattform für die Softwarebereitstellung. lesen

Sicherheit hat bei AWS aktuell Vorrang

Interview mit Glenn Gore zu Development und Open Source

Sicherheit hat bei AWS aktuell Vorrang

Wie unterstützt AWS die Open-Source-Community und Entwickler im Allgemeinen? Welche Dienste, Tools und Blaupausen helfen bei Security-by-Design-Strategien? Diese Fragen hat Glenn Gore, Lead Architect bei Amazon Web Services, im Interview mit Dev-Insider beantwortet. lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44833377 / Definitionen)