Edge-Computing nimmt dank Kubernetes zu Container und Edge –das müssen Unternehmen beachten

Ein Gastbeitrag von Sebastian Scheele* 7 min Lesedauer

Anbieter zum Thema

Edge-Computing birgt einige Hürden, die sich jedoch überwinden lassen durch eine angepasste Nutzung von Kubernetes.

„Edge-Computing ist kein bestimmter Ort oder Gerätetyp, sondern eher ein Kontinuum von Standorten, die vom zentralisierten Cloud-Computing entfernt sind“, so Autor Sebastian Scheele. Trotzdem eignen sich Cloud-Native-Technologien, insbesondere Kubernetes, um an der Edge Computing zu betreiben.
„Edge-Computing ist kein bestimmter Ort oder Gerätetyp, sondern eher ein Kontinuum von Standorten, die vom zentralisierten Cloud-Computing entfernt sind“, so Autor Sebastian Scheele. Trotzdem eignen sich Cloud-Native-Technologien, insbesondere Kubernetes, um an der Edge Computing zu betreiben.
(Bild: frei lizenziert: distelAPPArath / Pixabay)

Edge-Computing schafft ein neues Internet. In einer Zeit, in der Verbraucher und Unternehmen eine möglichst kurze Zeitspanne zwischen Frage und Antwort verlangen, ist Edge-Computing die einzige Möglichkeit, die Zeit zu verkürzen, die für die Bereitstellung dieser Informationen benötigt wird. Edge-Computing verkürzt diese Zeitspanne, indem es die Latenzzeit verringert, Daten auch bei unzureichender Bandbreite verarbeitet, die Kosten senkt und die Datenhoheit und -konformität gewährleistet.

Die radikal neue Art und Weise, wie Unternehmen Daten am Edge erstellen und bearbeiten können, wird neue Märkte schaffen – und tut dies bereits. Der globale Markt für Edge-Computing soll in den kommenden Jahren massiv wachsen. Eine Statista-Prognose geht davon aus, dass das Marktvolumen ausgehend von drei Milliarden Dollar im Jahr 2020 auf zwölf Milliarden Dollar im Jahr 2028 steigen wird.

Die Schlüsselfrage lautet: Welche Betriebsmodelle und Technologien werden in der Lage sein, dieses Potenzial effektiv zu erschließen?

Edge-Computing ist noch neu, bewährte Verfahren müssen sich erst noch herausbilden. Auch ohne Standards in diesem Bereich wenden sich viele Unternehmen Kubernetes zu, um entsprechende Anforderungen zu erfüllen.

Die Container Days

Wo auch sonst, wenn nicht in Hamburg: Am 11. und 12. September finden dort die "Conainer Days" statt, und zwar in der internationalen Kulturfabrik auf Kampnagel, ein Gelände, auf dem zum Beispiel Kräne für den Hamburger Hafen und der Motor für die MS Bleichen gefertigt wurden. Außerdem fügt der Veranstalter Kubermatic am 13. September einen Workshop-Tag hinzu.

Wer es nicht schafft vor Ort zu sein: Die Veranstaltung ist hybrid.
Wer es nicht schafft vor Ort zu sein: Die Veranstaltung ist hybrid.
(Bild: Kubermatic)

Es geht um Lernerfahrung etwa zu Kubernetes, Cloud Native, Container Security, DevOps, GitOps, Edge und Cloud Computing und Cloud Container. Der Veranstalter wirbt: „Kubernauts aus der ganzen Welt kommen, um über die heißesten Themen und Trends der Cloud Native Technologies zu sprechen, sich zu vernetzen und auszutauschen, sowohl persönlich als auch in der virtuellen Welt.“ In diesem Jahr werde das Programm noch voller sein als in den vergangenen - mit tiefgreifenden technischen Vorträgen und Diskussionen:

  • Insgesamt gibt es mehr als 70 Sessions auf fünf Bühnen,
  • eine internationale Rednerliste,
  • ein Sponsorbereich vor Ort und online,
  • Networking-Möglichkeiten, um Teilnehmer, Redner und Sponsoren zu treffen
  • sowie Post-Konferenz-Treffen

Noch können sich Teilnehmer anmelden.

Von der Cloud zur Edge

Laut der jüngsten Umfrage der Cloud Native Computing Foundation (CNCF) nutzen bereits 86 Prozent der Unternehmen das Open-Source-System zur Verwaltung von Container-Anwendungen. Kubernetes wurde zwar in der Cloud geboren, aber die Vorteile, die es bietet, erstrecken sich auch auf den schnell entstehenden Edge-Computing-Markt.

Angesichts von Hardware und Software, die über Hunderte oder Tausende von Standorten verteilt sind, ist die einzige praktikable Möglichkeit, diese verteilten Systeme zu verwalten, die Standardisierung und Automatisierung durch Cloud-Native-Technologien. Wenn Unternehmen Kubernetes für die Verwaltung ihrer Edge-Computing-Implementierungen nutzen möchten, müssen sie jedoch die speziellen Herausforderungen, die der Edge-Bereich mit sich bringt, berücksichtigen.

Unternehmen sehen sich mit drei großen Herausforderungen konfrontiert: den Aufbau einer konsistenten Infrastruktur, um „Snowflake“-Server (mit Software, die nur auf einer bestimmten Konfiguration ausgeführt werden kann) zu reduzieren, die Probleme von instabilen Produkten zu überwinden und Fachkräfte für den Aufbau und die Wartung von Edge-Computing-Architekturen anzuwerben.

Typische Herausforderungen bei Edge-Computing-Initiativen

IT-Führungskräfte wissen, dass die Automatisierung bei der Bereitstellung und Verwaltung von Anwendungen die Stabilität und die Innovationsrate erheblich verbessert und die Kosten senkt. Sie haben erkannt, dass der Weg zum Erreichen ihrer Edge-Computing-Ziele in der Cloud liegt, aber die meisten stecken in der Proof-of-Concept-Phase fest oder haben nur eine Handvoll von Anwendungen implementiert.

Diese Unternehmen haben die Hürde der IT-Automatisierung im Edge-Bereich noch nicht überwunden. Dies liegt häufig daran, dass sie die Komplexität von Edge-Computing unterschätzen oder nicht die erforderlichen neuen Betriebsmodelle umsetzen. Einige haben es auch versäumt, die Expertise in Bezug auf Cloud-native Automatisierung aufzubauen.

Die größte Sorge ist oft die Ressourcenbeschränkung. Kubernetes wurde in der Cloud mit nahezu unbegrenzten Skalierungsmöglichkeiten entwickelt. Im Gegensatz dazu verfügt Edge-Computing in der Regel über eine sehr begrenzte Anzahl von Ressourcen. Die tatsächlichen Beschränkungen können erheblich variieren, von einigen wenigen Servern bis hin zu ein paar hundert MB Speicher, wenn man sich regionalen Edge zum Device Edge bewegt.

Allen gemeinsam ist jedoch die Einschränkung, dass jeder weitere Overhead die Ausführung der eigentlichen Anwendungen beeinträchtigt. Vor diesem Hintergrund stellt sich nun die Frage: Wie können lässt sich der Fußabdruck von Kubernetes reduzieren, um mehr Platz für Geschäftsanwendungen zu schaffen?

Kleine Kubernetes-Cluster für Umgebungen mit begrenzten Ressourcen

Ein Kubernetes-Cluster besteht aus der Control Plane, also der Steuerungsebene, und den Worker Nodes. Um diesen Platzbedarf zu verringern, haben einige Projekte versucht, unwichtige Elemente aus Kubernetes zu entfernen, um eine abgespeckte Version zu erstellen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Softwareentwicklung und DevOps

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Dadurch entsteht jedoch ein „Fork“ von Kubernetes, der unabhängig vom Rest des Kubernetes-Stacks gewartet und verwaltet werden muss. Anstatt zu versuchen, Dinge herauszuschneiden, ist es möglich, die Architektur der Cluster neu zu gestalten und dabei zu berücksichtigen, wie Edge-Computing aufgebaut ist.

Edge-Computing ist kein bestimmter Ort oder Gerätetyp, sondern eher ein Kontinuum von Standorten, die vom zentralisierten Cloud-Computing entfernt sind. Je weiter man sich von der Cloud entfernt, desto eingeschränkter sind in der Regel die Geräte und Bandbreiten. Jede Ebene des Edge-Computing ist jedoch in der Regel mit mindestens einer der darüber liegenden Ebenen verbunden und wird in gewissem Maße von dieser gesteuert. Der Edge-Bereich ist der Ort, an dem die Arbeitslast ausgeführt wird, aber er ist immer noch mit dem zentralisierten Computing für Funktionen auf höherer Ebene verbunden.

Man kann sich Kubernetes als zwei unabhängige Teile vorstellen: eine zentrale Komponente für die Steuerung und ein verteilter Bereich für die Datenverarbeitung. Die Worker Nodes führen die Anwendungen aus, während die Steuerungsebene lediglich die Installation und Wartung der im Cluster ausgeführten Workloads übernimmt.

Damit ein Workload einfach nur funktioniert, wird die Steuerungsebene nicht benötigt, da sie nur das Lebenszyklus-Management übernimmt. Wenn der Worker Node die Verbindung zur Steuerungsebene verliert, können die Workloads weiterhin funktionieren und ausgeführt werden, sie können nur nicht mehr aktualisiert werden.

In diesem Sinne lässt sich die funktionale Einheit eines Kubernetes-Clusters wie Worker Nodes mit einem Kubelet vorstellen. Die zentralisierte Verwaltung der Steuerungsebene ist nicht die ganze Zeit erforderlich, damit die Arbeitslast funktioniert. Mit diesem neuen Konzept, was ein Kubernetes-Cluster wirklich ist, ist der Grundstein gelegt, um zu überdenken, wie sich Kubernetes-Cluster für Umgebungen mit begrenzten Ressourcen aufbauen lassen.

Edge-Computing erfordert heute Cloud-native Denkweise

Die Worker Nodes können auf begrenzten Ressourcen ausgeführt werden, während die Control Plane an einem zentraleren Ort mit zusätzlichen Ressourcen läuft, sei es in einem Rechenzentrum vor Ort oder sogar in der Public Cloud. Auf diese Weise können Betriebsteams Kubernetes auf Edge-Computing ausführen, ohne Änderungen vornehmen oder einen anderen Technologie-Stack pflegen zu müssen, und das bei minimalem Overhead.

Die Verwaltung verteilter Computersysteme ist für die IT nicht neu, sie war der Vorläufer des Internets und manche würden sogar sagen, dass sie das Internet hervorgebracht hat. Der Umfang und die Komplexität, die das Edge-Computing erfordert, sind jedoch neu.

Abgesehen von der schieren Anzahl der Standorte muss Edge-Computing auch „raue“ Umgebungen außerhalb traditioneller antiseptischer Rechenzentren berücksichtigen. Dies gilt auch für entfernte oder unerreichbare Standorte, punktuelle Verbindungen, dynamische Bereitstellung, globale Datenerfahrung und Sicherheitsrisiken.

Neben diesen technischen Herausforderungen gibt es auch geschäftliche. Betrachtet man die Edge-Umgebung als Unternehmen, wird schnell klar, dass sie so nah wie möglich an eine Zero-Touch-Umgebung herankommen muss.

*Der Autor:
Sebastian Scheele ist CEO und Mitbegründer von Kubermatic. Er sagt: „Eine 'Kubernetes on the Edge Management'-Plattform hilft Unternehmen dabei, die bisherigen Hürden zu überwinden.
Als Enterprise-Software-Plattform für Kubernetes ermöglicht es eine Plattform dieser Art Unternehmen und Service-Provider, einen automatisierten IT-Betrieb bereitzustellen. Sie automatisiert Tausende von Kubernetes-Clustern unabhängig von der Infrastruktur, einschließlich des Edge, mit hoher Dichte und Ausfallsicherheit.
Entwickler arbeiten dabei mit dem Cloud Native Stack, den sie bevorzugen, und haben die freie Wahl und eine konsistente Erfahrung über alle Umgebungen hinweg. Durch die Automatisierung des Betriebs können sich die Teams auf die Entwicklung der nächsten Generation bahnbrechender Anwendungen konzentrieren – statt auf den täglichen Betrieb.“

Bildquelle: Kubermatic

Cloud-native Technologien wurden zwar in der Cloud geboren, aber die Betriebs- und Geschäftsparadigmen, um sie zu realisieren, werden Edge-Computing erst möglich machen. Betrachtet man die Definition von Cloud Native, so stellt man fest, dass Standardisierung, wie unveränderliche Infrastruktur und deklarative APIs, in Kombination mit robuster Automatisierung managementfähige Systeme schaffen, die nur minimale Arbeit erfordern. Diese Standardisierung und Automatisierung sind der Schlüssel, um Edge-Computing sowohl betrieblich als auch finanziell realisierbar zu machen.

Kubernetes ist optimal für Edge Computing geeignet

Das Herzstück des Cloud-Native-Ökosystems ist Kubernetes. Es wurde ursprünglich als lose gekoppeltes System mit einer deklarativen API und integrierten Abstimmungsschleifen konzipiert. Dank dieser beiden Merkmale ist Kubernetes optimal für Edge-Computing geeignet.

Erstens bietet es eine standardisierte API für das Lebenszyklus-Management von Hardware und Software über verschiedene Infrastrukturen und Standorte hinweg. Anstatt Rechenleistung und Anwendungen für jeden Anwendungsfall oder Standort neu entwerfen zu müssen, lassen sie sich – einmal entworfen – viele Male bereitstellen. Auf diese Weise können Unternehmen problemlos rund um den Globus skalieren, um ihre Kunden direkt vor Ort zu bedienen.

Zweitens automatisieren die Abstimmungsschleifen manuelle Aufgaben, um eine Zero-Touch-Umgebung mit selbstheilender Infrastruktur und Anwendungen zu schaffen. Die Nutzung von Kubernetes zur Standardisierung und Automatisierung von Infrastruktur und Anwendungen am Edge ermöglicht es Unternehmen, durch Software statt durch Menschen zu skalieren. Dies eröffnet neue Geschäftsmodelle, die bisher zu teuer waren, um realisierbar zu sein.

(ID:49722692)