Kubernetes revolutioniert die Bereitstellung von Serveranwendungen: Machen Sie es sich so einfach wie noch nie, Applikationen auf verschiedene Plattformen und Umgebungen zu bringen!
Video abspielen?Wenn Sie das von uns eingebettete Videos abspielen wollen, müssen Sie unserer Cookie-Policy zustimmen, da hierbei systembedingt Third-Party-Cookies gesetzt und so Daten an den Betreiber des Videoportals gesendet werden. Hinweise und die Möglichkeit, die Zustimmung zu widerrufen, finden Sie hier.
In unserem Kubernetes Podcast erhalten Sie einen tieferen Einblick in das Thema sowie Informationen darüber,
wie wir als Internet Provider Kubernetes bereits erfolgreich einsetzen.
Kubernetes oder auch K8S ist ein Open-Source-System, um die Bereitstellung, Skalierung und Verwaltung von Container-Anwendungen zu automatisieren. Das Container-Orchestrierungssystem vereinfacht es, Applikationen auf verschiedene Plattformen und Umgebungen zu bringen. Deployment, Betrieb, Wartung und Skalierung von container-basierten Anwendungen werden vereinfacht und automatisiert.
Container sorgen dafür, dass Anwendungen verlässlich laufen, nachdem sie in eine andere Umgebung versetzt worden sind. Als Container werden auf Namespaces eingeschränkte Prozesse bezeichnet. Ein Prozess in einem bestimmten Namespace differiert von einem Prozess außerhalb eines Namespaces. Prozesse, die sich innerhalb eines Namespaces befinden, können Ressourcen gemeinsam nutzen und sind von anderen Prozessen isoliert. Auch bei einer hohen Anzahl an Containern können diese dank Kubernetes nicht nur gestartet und gestoppt, sondern auch organisiert bzw. orchestriert werden.
Microservices, die einzeln in Containern verpackt werden, verleihen Übersichtlichkeit. Anhand der Microservices kann auf einzelne Dienste schneller und leichter zugegriffen werden, als es bei monolithischen Systemen der Fall ist. Der unübersichtliche Monolith ist mit Kubernetes sozusagen in mehrere kleine Services unterteilt. Jeweils ein oder zwei Microservices stecken wiederum in einem Container. Dies ermöglicht, dass neue Funktionen, Services und Fixes ohne Downtime ausgerollt werden können.
Pods enthalten im Normalfall jeweils einen Container. Sie werden mit Hilfe von Labels gekennzeichnet , haben einen eigenen Namen und eine eigene IP-Adresse, unter der sie im Cluster erreichbar sind.
Pods werden nicht von Anwendern, sondern von einem Deployment erzeugt. Dieses enthält die Beschreibung des Pods und weitere Angaben, z. B. wie viele Pods zeitgleich laufen sollen. Zudem ist das Deployment dafür verantwortlich, die korrekte Anzahl an Pods zu starten und zu überwachen. Pods funktionieren demnach wie kleine Rechner, auf denen nur container-spezifizierte Prozesse ablaufen können.
Rechner, auf denen Kubernetes installiert ist, werden als Nodes bezeichnet. Zusammen mit Kubernetes bilden sie das Kubernetes-Cluster. Dies können zu einem bereits in Betrieb genommenen Kubernetes-Cluster hinzugefügt oder auch einfach aus dem laufenden Betrieb entfernt werden.
Für Pods und Container können Beschränkungen für CPU und Speicherbedarf definiert werden. Diese Beschränkungen ermöglichen es Kubernetes, die Pods auf den Nodes laufen zu lassen. Zudem können Pods, die Ressourcen über das Maximum verbrauchen, gestoppt und neu gestartet werden.
Jetzt Beratung anfordern