Suse für die Edge Open-Source-Auto­mati­sie­rung bis zum Netzwerkrand

Von lic.rer.publ. Ariane Rüdiger 4 min Lesedauer

Anbieter zum Thema

Wie vereinfacht und automatisiert man das Management von Edge-Datacenter? Wie funktioniert deren nahtlose Einbindung in übergreifende Infrastrukturen? Mit einem auf „SLE Micro“ aufbauenden Stack hat Suse hierfür einen Vorschlag.

Suse setzt bei seiner Edge-Strategie konsequent auf Container.
Suse setzt bei seiner Edge-Strategie konsequent auf Container.
(Bild: Suse Software Solutions)

Edge-Computing gehört zu den großen Trends der Digitalisierung: Der Markt für Edge Datacenter hatte laut Grand View Research 2022 ein Volumen von 9,36 Milliarden Dollar und soll mit jährlich 18.4 Prozent wachsen.

Marketsandmarkets benennt das Marktvolumen 2023 mit 10,4 Milliarden Dollar und das 2028 mit 29,6 Milliarden Dollar. Meticulous Research sieht ein Volumen von 46,4 Milliarden Dollar 2030 und spricht gar von einer Wachstumsrate von 20,9 Prozent zwischen 2023 und 2030.

Es ist also keinesfalls unerheblich, welche Technologien, Produkte und Konzepte dort eingesetzt werden. Und so bringen sich die diversen Infrastrukturanbieter in Position, um diese vielversprechende Ressource anzubohren.

Herausfordernde Bedingungen

Die Bedingungen an der Edge sind herausfordernd: unterschiedliche Datenformate und Protokolle, eventuell Feuchte, Hitze, Dreck, Vibrationen, schlechte Zugänglichkeit. Trotzdem sollen die Datenwege zwischen den einzelnen Endkomponenten, dem Edge Datacenter und einer zentralen Cloud möglichst durchgängig sein.

Für die Edge Datacenter wünscht man sich möglichst automatische Konfigurier- und Reparierbarkeit. Das umfasst auch das Monitoring und Logging aller Standorte, wobei die Daten in einen Stream einfließen sollen.

Ziel ist eine umfassende Orchestrierung des gesamten Edge. Dazu gehört auch ein sinnvolles Lebenszyklus-Management der dort verwendeten Komponenten und Workloads. Und selbstverständlich darf das alles nicht auf Kosten der Sicherheit gehen.

Linux für die Edge

Eine wichtige Rolle wird am Edge auf jeden Fall auch Linux mit seinen diversen Derivaten spielen. So hat beispielsweise Suse Software Solutions (Suse) inzwischen ein umfassendes Konzept entwickelt, mit dem der Edge-Markt adressiert wird. Dabei peilt der Linux-Spezialist besonders die Branchen Automotive, Telco, Medical, Retail und produzierende Unternehmen an.

Im Mittelpunkt der Suse-Strategie für eine weiterentwickelte Edge (Edge 3.0) steht der möglichst vollständige Übergang auf Container und Kubernetes sowie ergänzende Suse-Angebote („Suse Manager“ (Suma) und Suma/„Rancher“. Darunter folgt die Container-Runtime und als Basis eine spezielle Variante von „Suse Linux Enterprise“, SLE Micro. Dabei soll „Rancher Prime“ alle Kubernetes-Distributionen managen.

SLE Micro als Basis

Derzeit gängig ist ein Stack aus SLE Micro, „KVM“ und darauf entweder einem Windows- oder Suse-basierenden Stack. Dadurch sei, so Suse in einer technischen Informationsveranstaltung im Web, nur eine partielle Orchestrierung der Lebenszyklen möglich. In der nächsten Version soll das anders werden.

Der Vorschlag für die Betriebssystem-Ebene: SLE Micro, sei leichtgewichtig und nach Installation unveränderbar. Das heißt: Nachträgliche Veränderungen verschwinden bei Neustart wieder. Das Dateisystem erlaubt nur Lesen. Updates werden transaktional durchgeführt, und zwar atomar, also vollständig oder gar nicht. Zudem kann man stets zum vorherigen Snapshot zurückgehen, wenn etwas schief geht.

SLE Micro ist modular und bringt viele Sicherheitsfunktionen mit. Es kann über Profile weiter gehärtet werden. Container und Mikroservices werden breit unterstützt. Über das Rancher-Dashboard lässt sich SLE Micro am Edge bereitstellen.

Möglich sind Standalone-Applikationen, Embedded-Systeme oder Managed-Edge-Datacenters respektive -Appliances. Beim Managed Edge verwaltet Suse Manager SLE Micro, bei Appliances übernimmt das Rancher Prime.

Kubernetes-Varianten

Suse empfiehlt für die Edge die von Rancher als CNCF (Cloud Native Computing Foundation)-Projekt entwickelte leichtgewichtige Kubernetes-Variante „K3s“. Sie lässt Produktions-Workloads auf Appliances am Netzwerk ablaufen, kommt als eine einzige Binärdatei und ist für ARM und x86 optimiert.

Der Zugriff auf einzelne Kubernetes-Workload-Cluster erfolgt konsequent über „Rancher“.
Der Zugriff auf einzelne Kubernetes-Workload-Cluster erfolgt konsequent über „Rancher“.
(Bild: Suse Software Solutions)

Für besonders sicherheitssensitive Applikationen empfiehlt Suse sein „RKE2“, eine gehärtete Edge-Variante des Container-Orchestrierers mit FIPS 140-2-Compliance. Darin stecken viele Betriebs-Management-Funktionen aus K3s. Die Software unterstützt aber mehr Netzwerk-Backends.

Mehrere Kubernetes-Cluster mit Rancher verwalten

Auch Umgebungen mit vielen Kubernetes-Clustern soll Rancher zuverlässig managen. Die Grundidee ist dabei, dass Rancher das einzige Tor zu Kubernetes bildet.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Softwareentwicklung und DevOps

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Über die Nutzerschnittstelle sind nur Aktionen möglich, die das Kubernetes-API – bereitgestellt durch Rancher – erlaubt. Rancher seinerseits fragt regelmäßig den Status der K8s-Endpunkte ab, um ein konsistentes Systemabbild zu garantieren.

Zu den Funktionen gehören zentrale Authentisierungsmechanismen, Zugriffs-Management und eine konsistente Regeldatenbank. Über einen bereits existierenden Authentisierungs-Provider lassen sich alle Kubernetes-Umgebungen integrieren.

Weniger Aufwand durch zentrale Rancher-Funktionen

Aufbauend auf den rollenbasierten Zugriffsmechanismen von Kubernetes managt Rancher auch die Zugangskontrolle, Sicherheits- und Netzwerkregeln zentral. Multi-Tenant-Cluster lassen sich als Rancher-Projekte verwalten.

Der Betriebsaufwand von Kubernetes sinkt durch zentrales Rancher-Lebenszyklus-Management aller Cluster einschließlich Skalierung, Upgrades oder Disaster Recovery. Auch Cloud-gehostete Kubernetes-Varianten wie „AWS EKS“ werden mit automatisiert und verwaltet genau wie Services von Drittanbietern. Für letztere gibt es ein spezielles API.

Continuous Delivery mit Fleet

Continuous Delivery wird über die Rancher-Funktion Fleet garantiert. Fleet verwaltet Kubernetes-Cluster auf allen Arten von Infrastruktur. Damit lassen sich auch Geräte mit instabilen Verbindungen hinter einer Firewall einbinden. Ein 'Fleet Manager Cluster' bündelt diverse Cluster zu Cluster-Gruppen mit gleichen Anforderungen, was den Verwaltungsaufwand verringert.

Links die zu erfüllende Aufgabe im Stack, rechts das Tooling, das Suse dafür einsetzen möchte.
Links die zu erfüllende Aufgabe im Stack, rechts das Tooling, das Suse dafür einsetzen möchte.
(Bild: Suse Software Solutions)

Der Onboarding-Prozess wird durch neue Rancher-Dienste erheblich vereinfacht: Der Admin entwickelt ein entsprechendes Image, mit dem die einzubindenden Maschinen im Hintergrund booten. Sie registrieren sich anschließend in der Inventardatenbank mit ihrem TPM-Hash.

Dann werden den Maschinen Rollen und einem Cluster zugewiesen, der anschließend mit Kubernetes geschaffen wird und sofort betriebsbereit ist. Mit Hilfe von „Rancher Fleet“ lässt sich auch der Lebenszyklus des Betriebssystems auf ähnliche Weise erheblich vereinfachen.

Discovery mit Akri

Die demnächst zu erwartende Komponente „Akri“ soll alle Arten von Edge-Endgeräten, egal über welche Netzverbindung, finden. Sie ist eine von mehreren wertsteigernden Edge-3.0-Komponenten aus dem Hause Suse. Dazu gehören auch das Sicherheits-Tool „Neuvektor“, persistentes „Longhorn“-Storage und „Harvester“ als leichtgewichtiges HCI.

Dabei sitzen Akri-Komponenten sowohl auf der Kontroll- als auch der Worker-Ebene von Kubernetes-Umgebungen. Akri befindet sich derzeit im Sandbox-Status.

Praktische Anwnedung

Eine Edge-3.0-Umgebung wird beispielsweise bereits von einem Telekommunikationskunden genutzt, der so virtuelle Netzwerkfunktionen mit Standard-Hardware in einer verteilten Architektur realisiert. Die größere Flexibilität bei der Hard- und Software-Auswahl führte hier zu erheblichen Kostensenkungen.

Ein Telekom-Anwender einer Edge-3.0-Infrastruktur mit Suse teilt das Management in zwei Ebenen, die über das Open-Source-Automatisierungs-Tool verbunden werden.
Ein Telekom-Anwender einer Edge-3.0-Infrastruktur mit Suse teilt das Management in zwei Ebenen, die über das Open-Source-Automatisierungs-Tool verbunden werden.
(Bild: Suse Software Solutions)

Beim Edge-Management werden hier zwei Ebenen kombiniert: Der „Suse Manager Master“ verwaltet SLE Micro und die Serverhardware, Rancher Prime mit Fleet Kubernetes, Longhorn und Workloads. Zusammengebunden wird beides über „Salt“. Das ist ein Phython-basiertes Open-Source-Tool für die Automatisierung von IT-Umgebungen.

(ID:49802290)