Definition „Cluster (K8s)“

Was ist ein Kubernetes Cluster?

| Autor / Redakteur: zeroshope / Stephan Augsten

Kubernetes nutzt sowohl Hardware- als auch Software-Cluster, um Container hochverfügbar bereitstellen zu können.
Kubernetes nutzt sowohl Hardware- als auch Software-Cluster, um Container hochverfügbar bereitstellen zu können. (Bild gemeinfrei: Pete Linforth / Pixabay)

Cluster in Kubernetes sind ein Rechner-Verbund, der für den Betrieb von containerisierten Anwendungen zuständig ist. Dabei sind allerdings einige Besonderheiten zu berücksichtigen. Es handelt sich um keine reinen Soft- oder Hardware-Cluster.

Generell sind Cluster vernetzte Maschinen, die nach außen wie eine einzige erscheinen. Software- bzw. Anwendungscluster werden gemeinhin von Hardware-Clustern unterschieden. Erstere sind in der Lage einen kontinuierlichen Betrieb zu gewährleisten – DNS-Server sind hierfür ein Beispiel. Hardware-Cluster (beispielsweise verbundene Server) können dies nicht zwangsläufig leisten.

Harware-Verbünde werden deshalb in der Regel nach dem Failover-Prinzip organisiert: Fällt eine Maschine aus, springt eine andere für ihn ein. Sind zahlreiche Maschinen eingebunden, spricht man von einem Hochverfügbarkeits- bzw. High-Availability-Cluster. Fällt ein Knoten des Verbunds aus oder weist einen Fehler auf, werden seine Dienste auf andere verteilt.

Cluster werden zudem nach homogen und heterogen unterschieden. Homogene Verbünde laufen mit dem gleichen Betriebssystem und der identischen Hardware. Heterogene Cluster können diesbezüglich Unterschiede aufweisen.

Cluster in Kubernetes

In Kubernetes finden wir zugleich Hardware- wie auch Anwendungscluster. Es handelt sich um einen Verbund von sogenannten Nodes – dabei handelt es sich um eigenständige Server, die für die Bereitstellung von Workloads sorgen. Auf den Servern läuft zudem eine Software für den Transport von Containern. Ein Kubernetes-Cluster besteht mindestens aus einem Master-Node (Verwaltung des Systems) und einem Worker-Node (Durchführung der Workloads).

Die Hardware-Konfiguration der Maschinen kann sich unterscheiden. Es handelt sich folglich um heterogene Cluster. In der Regel sind es zudem Hochverfügbarkeitsverbünde. Die Master-Nodes sind in der Lage, Aufgaben von fehlerhaften Worker-Nodes an andere Stellen weiter zu delegieren, um den Betrieb aufrecht zu erhalten.

Die zentrale Aufgabe von Kubernetes-Clustern

Die Cluster sind für die Bereitstellung und den Transport von Containern an ihren Zielort zuständig. Container sind faktisch virtuelle Maschinen, die einer kompletten Anwendung inklusive Konfiguration und den zugehörigen Abhängigkeiten entspricht. Sie verfügen allerdings über kein eigenes Betriebssystem und keinen Kernel. Sie deshalb schlanker als sonstige virtuelle Maschinen.

An dieser Stelle kommen die Kubernetes-Cluster ins Spiel: Damit die Anwendungen am Zielort trotzdem laufen, muss ein Vermittler zwischen dem Container und der Zielort zwischengeschaltet wird. Dieser liest die Spezifikationen der Container-Anwendungen aus, stellt diese dem Betriebssystem zur Verfügung und leitet die Anwendung dann weiter. Eben diese Vermittler-Rolle übernehmen die Cluster.

Die Vorteile liegen auf der Hand: Anwendungscontainer können in unveränderter Form auf verschiedenen Rechnern laufen. Der hohe Aufwand (Overhead), den virtualisierte Maschinen mit Betriebssystem für die Anwendungsbereitstellung betreiben müssen, entfällt dabei.

Cluster Architect und Cluster Operator

Kubernetes-Cluster kennen zwei Rollen, die von Menschen ausgefüllt werden. Der Cluster Architect trägt für das Design des Verbunds die Verantwortung. Er soll dafür sorgen, dass Hochverfügbarkeit und eine möglichst gute Sicherheit gewährleistet sind. Der Cluster Operator konfiguriert, kontrolliert und überwacht den Verbund. Er hat dabei zwei wesentliche Aufgaben. Erstens muss er dafür sorgen, dass der Cluster durchgängig funktioniert. Zweitens plant er Updates und spielt diese ein.

Kommentare werden geladen....

Kommentar zu diesem Artikel

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

Continuous Delivery in GitOps-Manier

Argo CD und Git in Aktion

Continuous Delivery in GitOps-Manier

GitOps ist aktuell ein großes Thema – als Konzept aber eben reine Theorie. Schaut man sich aber mal ein konkretes Tool an, wird GitOps greifbar. Und dafür eignet sich die Open-Source-Software Argo CD sehr gut. lesen

„Es geht darum, dass DevOps-Teams Unbekanntes verstehen“

Interview mit Karthik Rau, Splunk zum SignalFx Microservices APM Launch

„Es geht darum, dass DevOps-Teams Unbekanntes verstehen“

Splunk hat kürzlich mit „SignalFx Microservices APM“ ein Performance Monitoring für Microservice- sowie Kubernetes-basierte Anwendungen vorgestellt. Das Werkzeug basiert laut Anbieter auf offenen Standards und bietet zudem eine KI-gesteuerte Fehlerbehebung. Das Application Performance Monitoring soll eine Brücke zwischen traditionellen und Cloud-Anwendungen schlagen. Karthik Rau, Area General Manager for Application Management bei Splunk hat DataCenter-Insider ein Interview dazu gegeben. lesen

Container-Orchestrierung mit Windows und Linux

Viel Handarbeit: Windows Server 2019 und Kubernetes

Container-Orchestrierung mit Windows und Linux

Unternehmen, die sich mit Containern beschäftigen, können mit „Windows Server 2019“ auch eine Anbindung von Container-Hosts an „Kubernetes“ durchführen. Der Autor Thomas Joos zeigt die entsprechende Vorgehensweise. lesen

„Alle Kubernetes-Cluster sollen von Cloud Foundry profitieren“

Interview mit Chip Childers, Cloud Foundry Foundation

„Alle Kubernetes-Cluster sollen von Cloud Foundry profitieren“

„KubeCF“ ist eine Open-Source-Distribution der Cloud Foundry Application Runtime (CFAR), die auf „Kubernetes“ laufen soll. Ursprünglich von Suse ins Spiel gebracht, handelt es sich seit März dieses Jahres um ein Inkubationsprojekt der Cloud Foundry Foundation. Von heute ist die Nachricht, dass Abby Kearns ihren Posten bei der Organisation als Executive Director aufgibt und Chip Childers ihn übernimmt. Datacenter-Insider hat ihn interviewt. lesen

Container-Orchestrierung mit Red Hat OpenShift

Auf Kubernetes basierende Platform as a Service

Container-Orchestrierung mit Red Hat OpenShift

Ein Kubernetes-Cluster mit Docker-Containern zu pflegen ist keine ganz triviale Angelegenheit. Red Hat OpenShift setzt sich über diesen Kosmos und vereinfacht die Verwaltung von Clustern und vor allem das Deployment von Anwendungen. lesen

Kubernetes Master und Tools für die Steuerebene

Container-Orchestrierung mit AWS EKS, Teil 2

Kubernetes Master und Tools für die Steuerebene

Mit dem Amazon Elastic Kubernetes Service, kurz EKS, erhalten AWS-Kunden einen vollständig verwalteten Kubernetes-Service in der Public Cloud. Im zweiten Teil unseres EKS-Workshops geht es um die Bereitstellung der EKS-Steuerebene mit einem oder mehreren Kubernetes-Mastern, API-Servern und kubectl-Clients. lesen

Netzwerk und Rollen für Kubernetes aufsetzen

Container-Orchestrierung mit AWS EKS, Teil 1

Netzwerk und Rollen für Kubernetes aufsetzen

Der Amazon Elastic Kubernetes Service, kurz EKS, ist einer von zwei verwalteten Container-Cluster-Managern auf AWS. In diesem dreiteiligen Workshop bringen wir eine Container-Anwendung zum Laufen, hierfür beginnen wir mit den Vorbereitungen zum Betrieb eines EKS-Clusters auf AWS. lesen

Mega-Trends im Development

Machine Learning, Programmiersprachen und die Cloud

Mega-Trends im Development

Vor dem Hintergrund technologischer Mega-Trends spielen sich in der Softwareentwicklung umwälzende Änderungen ab, und zwar an etlichen Fronten gleichzeitig. Auf Entwickler kommen viele aufregende Möglichkeiten zu. lesen

Container Orchestration Tools im Vergleich

Die Konsolidierung der Cloud

Container Orchestration Tools im Vergleich

Seit Docker das Licht der IT-Welt erblickte, haben Container die DevOps-Idee revolutioniert. Dazu bedarf es eines Container-Clusters nebst zugehöriger Verwaltungsinstrumente wie Google Kubernetes. Hier klären wir die Zusammenhänge von Containern, Docker, DevOps und Cloud-native Computing. lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 46228301 / Definitionen)