Definition „K8s“

Was ist Kubernetes?

| Autor / Redakteur: LineFeed / Stephan Augsten

Kubernetes stellt alle Funktionen für die Steuerung und Kontrolle des Einsatzes von Containeranwendungen zur Verfügung.
Kubernetes stellt alle Funktionen für die Steuerung und Kontrolle des Einsatzes von Containeranwendungen zur Verfügung. (Bild: Kubernetes)

Kubernetes dient der Orchestrierung von Container-Systemen. Die Open-Source-Plattform automatisiert also das Einrichten, Betreiben und auch das Skalieren von containerisierten Anwendungen.

Kubernetes ist zunächst die englische Schreibweise eines griechischen Wortes, das die Entwickler des gleichnamigen Container-Orchestrierungssystems etwas frei mit Steuermann übersetzen. Die Namensgebung reiht sich damit in die für derartige Projekte gewählte Bildsprache der Frachtschifffahrt ein. Docker heißen im Englischen die Schauerleute oder Hafenarbeiter.

Die Symbolik spiegelt sich im Kubernetes-Logo, das aus einem siebenspeichigen Steuerrad besteht. Die Zahl Sieben bezieht sich dabei auf eine Figur aus Star Trek, deren Name als Arbeitstitel des Projekts diente.

Ein Name mit IT-Geschichte

Kubernetes ist auch der Stamm des Wortes Kybernetik, englisch Cybernetics, und damit auch Ursprung diverser Wortbildungen mit „Cyber". Das Wort geht auf ein Buch des amerikanischen Mathematikers Norbert Wiener aus dem Jahr 1948 zurück und beschreibt dort die Steuerung und Kommunikation in lebenden wie in menschengemachten Systemen.

Welche Rolle spielt Kubernetes bei der Containerisierung

Sieht man in der Containerisierung eine industrielle Revolution der IT, indem sie händisch installierte Server durch maschinell erzeugte und gepflegte Einheiten ersetzt, dann ist Kubernetes das Fließband, das den Produktionsablauf regelt und den Takt vorgibt. Diese Aufgabe heißt im Orchestrierung. Kubernetes verwendet aber einen etwas anderen Ansatz als typische Orchestrierungssysteme.

Mehr als Orchestrierung

Die Kubernetes-Entwickler beschreiben den Unterschied zu einem regulären Orchestrierungssystem so, dass ihre Software keinen fest vorgegebenen Workflow umsetzt, sondern aus einem Satz unabhängiger Kontrollprozesse besteht, die fortlaufend den Ist-Zustand des Containersystems überwachen und zum Sollzustand hin verändern. Auf welchem Weg die Container eine vorgegebene Aufgabe lösen, liegt in der Zuständigkeit dieser Prozesse. Kubernetes benötigt auch keine zentrale Kontrollinstanz. Damit, so die Entwickler, macht Kubernetes die Orchestrierung effektiv überflüssig.

Kubernetes im Vergleich

Ein grundlegender Unterschied zwischen Kubernetes und anderen bedeutenden Orchestrierungswerkzeugen besteht in der Art der Virtualisierungsumgebungen, die sie verwalten können. Während Docker Swarm Mode als natives Docker-Orchestrierungstool eben diese Containerumgebung voraussetzt, unterstützt Kubernetes auch andere containerbasierte Virtualisierungssysteme, sogar als heterogene Umgebungen. Apache DCOS kontrolliert und steuert darüber hinaus auch nicht containerisierte Rechenressourcen.

Das Leistungsspektrum

Das Open-Source-Werkzeug Kubernetes stellt alle Funktionen für die Steuerung und Kontrolle des Einsatzes von Containeranwendungen zur Verfügung. Dazu gehören folgende Features:

  • Automatisierung von Containereinsatz und Software Rollout
  • Optimierung der Nutzung von Computer-Ressourcen
  • Zahlreiche Optionen für dauerhafte Datenspeicherung (Persistent Storage)
  • Integrierte Service Discovery
  • Autoscaling
  • Hochverfügbarkeit

Automatisierung von Containereinsatz und Software Rollout

Kubernetes fasst Container-Images, ihre Konfiguration und die Anzahl der benötigten Instanzen in Deployments zusammen, so der Sprachgebrauch des Orchestrierungssystems. Die Parameter eines Deployments überwacht Kubernetes selbsttätig. Das Tool sorgt dafür, dass die gewünschte Anzahl von Containern jederzeit läuft. Änderungen an der Software oder der Konfiguration verteilt Kubernetes mit einem Rollout. Dieser Prozess lässt sich pausieren, fortsetzen und rückgängig machen (Rollback).

Optimierung der Nutzung der Computer-Ressourcen

Kubernetes setzt die Container eines Deployments selbständig dort ein, wo entsprechende Ressourcen frei sind. Der Anwender kann Mindest- und Höchstwerte der Ressourcennutzung (Rechenzeit, Speicherplatz) für die Container festlegen, um dem Orchestrierungstool einen Rahmen vorzugeben.

Zahlreiche Optionen für dauerhafte Datenspeicherung (Persistent Storage)

Container sind zustandslos. Für die dauerhafte Speicherung von Konfigurations- und Nutzerdaten bietet Kubernetes Schnittstellen zu zahlreichen Diensten wie zum Beispiel EBS von Amazon Web Services oder Google Cloud Platform.

Integrierte Service Discovery

Benötigten Netzwerkverbindungen ins Internet oder zu anderen Containern erkennt Kubernetes selbständig. Das Werkzeug öffnet diese Verbindungen nicht nur, sondern verteilt den Datenverkehr automatisch auf passende Container (Load Balancing). Eine voll funktionsfähige Service Discovery mittels DNS ist bereits integriert.

Autoscaling

Kubernetes ermöglicht eine selbsttätige Anpassung des Containersystems an wechselnde Lasten und verfügbare Computer-Ressourcen durch automatisches Skalieren des Containereinsatzes. Um wachsende Anforderungen zu erfüllen, reicht es daher, entsprechende Ressourcen bereit zu stellen. Die Anwendung muss dazu nicht angepasst werden. Eine Leistungssteigerung der Anwendung lässt sich somit völlig transparent für den Kunden durchführen.

Hochverfügbarkeit

Ein wesentlicher Faktor für den störungsfreien Betrieb sind ebenfalls High-Availability-Features. Die Container Technologie bietet eine ausgezeichnete Basis für den redundanten Ressourceneinsatz. Mit Cluster Federation weitet Kubernetes diese Fähigkeiten auf ganze Containersysteme aus.

Spezielle Kubernetes-Terminologie

Entsprechend seiner speziellen Eigenschaften als Orchestrierungssystem nutzt Kubernetes zum Teil auch eigene Namenskonventionen. In diesem Sprachgebrauch ist ein Node ein Computersystem, physisch oder virtuell, das für den Betrieb von Containern unter der Kontrolle von Kubernetes eingerichtet ist.

Ein Cluster ist ein Gesamtsystem, dass sich aus Nodes zusammensetzt. Die Verwaltung geschieht über die Kubernetes Control Plane, das ist zum einen Software wie kubectl, zum anderen ein Satz von APIs für die Interaktion mit dem Containersystem. Container auf demselben Node fasst Kubernetes in Pods zusammen. Ein Pod kann auch aus einem einzelnen Container bestehen und ist die kleinste organisatorische Einheit in Kubernetes.

Kommentare werden geladen....

Kommentar zu diesem Artikel

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

Cloud-native Alternativen zu Jenkins

Consol testet moderne CI- und CD-Tools

Cloud-native Alternativen zu Jenkins

Beim Cloud-native Development stoßen gängige Continuous-Integration- und -Delivery-Tools an ihre Grenzen. Auf Microservice-Architekturen sind diese Werkzeuge schlicht nicht ausgerichtet, meint das Consulting-Unternehmen Consol, das einige Alternativen identifiziert hat. lesen

Google startet TensorFlow Enterprise

KI und Machine Learning für Großunternehmen

Google startet TensorFlow Enterprise

Google macht das KI- und Machine-Learning-Framework Tensorflow Enterprise-fähig. Große Unternehmen können bei der Entwicklung von KI-Anwendungen somit von Langzeit-Support, Leistung auf Cloud-Niveau und verwalteten Diensten profitieren. lesen

Ubuntu 19.10 mit Cloud-native- und Edge-Features

Fokus auf MicroK8s, Multi-Cloud und AI/ML

Ubuntu 19.10 mit Cloud-native- und Edge-Features

Canonical hat mit Ubuntu 19.10 ein Betriebssystem veröffentlicht, das unter anderem MicroK8s, OpenStack und Nvidia-Treiber unterstützt. Edge Computing, Cloud-native und KI werden also in den Vordergrund gestellt. lesen

Microservices und Monolithen schließen sich nicht aus

Ergänzung zu modernen Architekturmustern

Microservices und Monolithen schließen sich nicht aus

Microservices stehen in der Gunst der Software-Entwickler zurzeit weit oben, aber sie haben auch Nachteile. Monolithische Anwendungen wiederum sind besser als ihr Ruf. Smarte Programmierer vereinen das Beste aus beiden Welten. lesen

Integrationsplattform für APIs und Datenströme

WSO2 Enterprise Integrator 7.0 und Ballerina 1.0

Integrationsplattform für APIs und Datenströme

Der Open-Source-Integrationsanbieter WSO2 kündigt eine neue Version des Enterprise Integrator 7.0 an. Die Plattform verfügt über einen neuen Ballerina-Integrator und weitere Integratoren. lesen

Mehr Development-Tools für die Cloud geplant

Neue Arbeitsgruppe der Eclipse Foundation

Mehr Development-Tools für die Cloud geplant

Die Eclipse Foundation hat eine neue Arbeitsgruppe ins Leben gerufen, um die Bereitstellung von Cloud-Entwicklungswerkzeugen voranzutreiben. Zur Gruppe gehören namhafte Unternehmen wie IBM, Red Hat, SAP und Broadcom. lesen

Der Weg in die Wolke mit Web-APIs

API-Hosting als Basis einer Microservice-Architektur

Der Weg in die Wolke mit Web-APIs

Microservices gelten heute als Basis moderner Anwendungsarchitekturen. Statt einer monolithischen und schwerfälligen Software wird die gesamte Funktionalität auf überschaubare Teilsysteme verteilt. Die entstandenen Services werden dann üblicherweise über das Internet und RESTful APIs zur Verfügung gestellt. lesen

5 IT-Bereiche mit Open-Source-Dominanz

SUSE über quelloffene Plattformen und Projekte

5 IT-Bereiche mit Open-Source-Dominanz

Open-Source-Code hat sich von seinem Nischendasein verabschiedet und findet mittlerweile nahezu überall Verwendung, ein Beispiel dafür sind Container-Technologien. Die SUSE Linux GmbH hat gleich fünf Bereiche identifiziert, die ohne Open-Source-Community wohl weniger bedeutend in der IT wären. lesen

GitLab gibt Gas mit Multi-Cloud und Partnerschaften

Ein Jahr vor geplantem Börsengang

GitLab gibt Gas mit Multi-Cloud und Partnerschaften

Strategische Partnerschaften, mehr Sicherheit und der Support von Multi-Cloud-Deployment via Kubernetes: das waren die großen Themen der „GitLab Commit London“, einer Anwenderkonferenz für DevOps-Spezialisten. lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 44833377 / Definitionen)