Definition „K8s“

Was ist Kubernetes?

| Autor / Redakteur: LineFeed / Stephan Augsten

Kubernetes stellt alle Funktionen für die Steuerung und Kontrolle des Einsatzes von Containeranwendungen zur Verfügung.
Kubernetes stellt alle Funktionen für die Steuerung und Kontrolle des Einsatzes von Containeranwendungen zur Verfügung. (Bild: Kubernetes)

Kubernetes dient der Orchestrierung von Container-Systemen. Die Open-Source-Plattform automatisiert also das Einrichten, Betreiben und auch das Skalieren von containerisierten Anwendungen.

Kubernetes ist zunächst die englische Schreibweise eines griechischen Wortes, das die Entwickler des gleichnamigen Container-Orchestrierungssystems etwas frei mit Steuermann übersetzen. Die Namensgebung reiht sich damit in die für derartige Projekte gewählte Bildsprache der Frachtschifffahrt ein. Docker heißen im Englischen die Schauerleute oder Hafenarbeiter.

Die Symbolik spiegelt sich im Kubernetes-Logo, das aus einem siebenspeichigen Steuerrad besteht. Die Zahl Sieben bezieht sich dabei auf eine Figur aus Star Trek, deren Name als Arbeitstitel des Projekts diente.

Ein Name mit IT-Geschichte

Kubernetes ist auch der Stamm des Wortes Kybernetik, englisch Cybernetics, und damit auch Ursprung diverser Wortbildungen mit „Cyber". Das Wort geht auf ein Buch des amerikanischen Mathematikers Norbert Wiener aus dem Jahr 1948 zurück und beschreibt dort die Steuerung und Kommunikation in lebenden wie in menschengemachten Systemen.

Welche Rolle spielt Kubernetes bei der Containerisierung

Sieht man in der Containerisierung eine industrielle Revolution der IT, indem sie händisch installierte Server durch maschinell erzeugte und gepflegte Einheiten ersetzt, dann ist Kubernetes das Fließband, das den Produktionsablauf regelt und den Takt vorgibt. Diese Aufgabe heißt im Orchestrierung. Kubernetes verwendet aber einen etwas anderen Ansatz als typische Orchestrierungssysteme.

Mehr als Orchestrierung

Die Kubernetes-Entwickler beschreiben den Unterschied zu einem regulären Orchestrierungssystem so, dass ihre Software keinen fest vorgegebenen Workflow umsetzt, sondern aus einem Satz unabhängiger Kontrollprozesse besteht, die fortlaufend den Ist-Zustand des Containersystems überwachen und zum Sollzustand hin verändern. Auf welchem Weg die Container eine vorgegebene Aufgabe lösen, liegt in der Zuständigkeit dieser Prozesse. Kubernetes benötigt auch keine zentrale Kontrollinstanz. Damit, so die Entwickler, macht Kubernetes die Orchestrierung effektiv überflüssig.

Kubernetes im Vergleich

Ein grundlegender Unterschied zwischen Kubernetes und anderen bedeutenden Orchestrierungswerkzeugen besteht in der Art der Virtualisierungsumgebungen, die sie verwalten können. Während Docker Swarm Mode als natives Docker-Orchestrierungstool eben diese Containerumgebung voraussetzt, unterstützt Kubernetes auch andere containerbasierte Virtualisierungssysteme, sogar als heterogene Umgebungen. Apache DCOS kontrolliert und steuert darüber hinaus auch nicht containerisierte Rechenressourcen.

Das Leistungsspektrum

Das Open-Source-Werkzeug Kubernetes stellt alle Funktionen für die Steuerung und Kontrolle des Einsatzes von Containeranwendungen zur Verfügung. Dazu gehören folgende Features:

  • Automatisierung von Containereinsatz und Software Rollout
  • Optimierung der Nutzung von Computer-Ressourcen
  • Zahlreiche Optionen für dauerhafte Datenspeicherung (Persistent Storage)
  • Integrierte Service Discovery
  • Autoscaling
  • Hochverfügbarkeit

Automatisierung von Containereinsatz und Software Rollout

Kubernetes fasst Container-Images, ihre Konfiguration und die Anzahl der benötigten Instanzen in Deployments zusammen, so der Sprachgebrauch des Orchestrierungssystems. Die Parameter eines Deployments überwacht Kubernetes selbsttätig. Das Tool sorgt dafür, dass die gewünschte Anzahl von Containern jederzeit läuft. Änderungen an der Software oder der Konfiguration verteilt Kubernetes mit einem Rollout. Dieser Prozess lässt sich pausieren, fortsetzen und rückgängig machen (Rollback).

Optimierung der Nutzung der Computer-Ressourcen

Kubernetes setzt die Container eines Deployments selbständig dort ein, wo entsprechende Ressourcen frei sind. Der Anwender kann Mindest- und Höchstwerte der Ressourcennutzung (Rechenzeit, Speicherplatz) für die Container festlegen, um dem Orchestrierungstool einen Rahmen vorzugeben.

Zahlreiche Optionen für dauerhafte Datenspeicherung (Persistent Storage)

Container sind zustandslos. Für die dauerhafte Speicherung von Konfigurations- und Nutzerdaten bietet Kubernetes Schnittstellen zu zahlreichen Diensten wie zum Beispiel EBS von Amazon Web Services oder Google Cloud Platform.

Integrierte Service Discovery

Benötigten Netzwerkverbindungen ins Internet oder zu anderen Containern erkennt Kubernetes selbständig. Das Werkzeug öffnet diese Verbindungen nicht nur, sondern verteilt den Datenverkehr automatisch auf passende Container (Load Balancing). Eine voll funktionsfähige Service Discovery mittels DNS ist bereits integriert.

Autoscaling

Kubernetes ermöglicht eine selbsttätige Anpassung des Containersystems an wechselnde Lasten und verfügbare Computer-Ressourcen durch automatisches Skalieren des Containereinsatzes. Um wachsende Anforderungen zu erfüllen, reicht es daher, entsprechende Ressourcen bereit zu stellen. Die Anwendung muss dazu nicht angepasst werden. Eine Leistungssteigerung der Anwendung lässt sich somit völlig transparent für den Kunden durchführen.

Hochverfügbarkeit

Ein wesentlicher Faktor für den störungsfreien Betrieb sind ebenfalls High-Availability-Features. Die Container Technologie bietet eine ausgezeichnete Basis für den redundanten Ressourceneinsatz. Mit Cluster Federation weitet Kubernetes diese Fähigkeiten auf ganze Containersysteme aus.

Spezielle Kubernetes-Terminologie

Entsprechend seiner speziellen Eigenschaften als Orchestrierungssystem nutzt Kubernetes zum Teil auch eigene Namenskonventionen. In diesem Sprachgebrauch ist ein Node ein Computersystem, physisch oder virtuell, das für den Betrieb von Containern unter der Kontrolle von Kubernetes eingerichtet ist.

Ein Cluster ist ein Gesamtsystem, dass sich aus Nodes zusammensetzt. Die Verwaltung geschieht über die Kubernetes Control Plane, das ist zum einen Software wie kubectl, zum anderen ein Satz von APIs für die Interaktion mit dem Containersystem. Container auf demselben Node fasst Kubernetes in Pods zusammen. Ein Pod kann auch aus einem einzelnen Container bestehen und ist die kleinste organisatorische Einheit in Kubernetes.

Kommentare werden geladen....

Kommentar zu diesem Artikel

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

Continuous Delivery in GitOps-Manier

Argo CD und Git in Aktion

Continuous Delivery in GitOps-Manier

GitOps ist aktuell ein großes Thema – als Konzept aber eben reine Theorie. Schaut man sich aber mal ein konkretes Tool an, wird GitOps greifbar. Und dafür eignet sich die Open-Source-Software Argo CD sehr gut. lesen

„Es geht darum, dass DevOps-Teams Unbekanntes verstehen“

Interview mit Karthik Rau, Splunk zum SignalFx Microservices APM Launch

„Es geht darum, dass DevOps-Teams Unbekanntes verstehen“

Splunk hat kürzlich mit „SignalFx Microservices APM“ ein Performance Monitoring für Microservice- sowie Kubernetes-basierte Anwendungen vorgestellt. Das Werkzeug basiert laut Anbieter auf offenen Standards und bietet zudem eine KI-gesteuerte Fehlerbehebung. Das Application Performance Monitoring soll eine Brücke zwischen traditionellen und Cloud-Anwendungen schlagen. Karthik Rau, Area General Manager for Application Management bei Splunk hat DataCenter-Insider ein Interview dazu gegeben. lesen

Container-Orchestrierung mit Windows und Linux

Viel Handarbeit: Windows Server 2019 und Kubernetes

Container-Orchestrierung mit Windows und Linux

Unternehmen, die sich mit Containern beschäftigen, können mit „Windows Server 2019“ auch eine Anbindung von Container-Hosts an „Kubernetes“ durchführen. Der Autor Thomas Joos zeigt die entsprechende Vorgehensweise. lesen

„Jointly Managed“ Kubernetes von Red Hat und AWS

Cloud-Native-Implementierung mit einheitlicher Nutzererfahrung

„Jointly Managed“ Kubernetes von Red Hat und AWS

„Amazon Red Hat OpenShift“ heißt ein neuer, vollständig verwalteter und von AWS sowie Red Hat gemeinsam unterstützter Kubernetes-Service. Ziel der engeren Zusammenarbeit sei es, Unternehmen eine einheitliche Nutzererfahrung bei bester Skalierbarkeit bieten zu können. lesen

Red Hat Azure OpenShift auf OpenShift 4 verfügbar

Self-Service-Clustererstellung

Red Hat Azure OpenShift auf OpenShift 4 verfügbar

Der Open-Source-Spezialist Red Hat hat die Verfügbarkeit von Azure Red Hat OpenShift auf OpenShift 4 bekanntgegeben. Das Release bringt einige zusätzliche Funktionen mit. lesen

Wie funktioniert GitOps in der Praxis?

Code-gesteuerte Anwendungsumgebung über Git

Wie funktioniert GitOps in der Praxis?

Wenn GitOps eines ist, dann aktuell ein großes Thema. Überall sprießen Artikel, Services und Produkte aus dem Boden, die sich mit GitOps schmücken. Aber um herauszufinden, was GitOps denn nun genau ist, was da passiert und wo es her kommt, braucht es bisweilen eine Ewigkeit. lesen

Couchbase stellt Autonomous Operator 2.0 vor

Funktionsumfang ausgebaut

Couchbase stellt Autonomous Operator 2.0 vor

Mit der jetzt vorgestellten Version 2.0 erweitert Couchbase seinen Autonomous Operator for Kubernetes um zusätzliche Funktionen aus den Bereichen Sicherheit, Ressourcenmanagement, Monitoring, Hochverfügbarkeit und Cross-Cloud-Kompatibilität. lesen

Fedora 32 Workstation mit neuen Funktionen

Upgrade für die Red-Hat-gestützte Distribution

Fedora 32 Workstation mit neuen Funktionen

Die von Red Hat gesponsorte Fedora Community hat die Verfügbarkeit von Fedora 32 bekanntgegeben. Von Neuerungen profitiert vor allem die Workstation-Variante des Open-Source-Betriebssystems. Ein neues Lab Image soll zudem in der Forschung tätige Personen an Open-Source-Software heranführen. lesen

„Alle Kubernetes-Cluster sollen von Cloud Foundry profitieren“

Interview mit Chip Childers, Cloud Foundry Foundation

„Alle Kubernetes-Cluster sollen von Cloud Foundry profitieren“

„KubeCF“ ist eine Open-Source-Distribution der Cloud Foundry Application Runtime (CFAR), die auf „Kubernetes“ laufen soll. Ursprünglich von Suse ins Spiel gebracht, handelt es sich seit März dieses Jahres um ein Inkubationsprojekt der Cloud Foundry Foundation. Von heute ist die Nachricht, dass Abby Kearns ihren Posten bei der Organisation als Executive Director aufgibt und Chip Childers ihn übernimmt. Datacenter-Insider hat ihn interviewt. lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 44833377 / Definitionen)