Verwaltung einer Distributed Multicloud

Cloud Services am Würfelmodell analysieren

Analytik-Dashboards, Datenplattformen, IoT-Hubs, Machine-Learning-Services und natürlich Systeme für PLM, ERP und MES – fast jede Software für Produzenten lässt sich heute aus der Cloud beziehen. Die so entstehenden Distributed Multiclouds lassen sich anschaulich in einem Würfel-Modell analysieren.

 (Bild: KI generiert mit Adobe Firefly/Adobe Inc.)
(Bild: KI generiert mit Adobe Firefly/Adobe Inc.)

Unternehmen lagern beispielsweise die Softwareentwicklung an jenen Partner aus, der eine geeignete Plattform anbietet. Anwendungen zur Steuerung der Produktion hingegen finden sich beim nächsten Anbieter, der auf Kompatibilität zur Steuerungslandschaft achtet und die entsprechenden Schnittstellen anbietet. Und die neuen Routinen für Machine Learning gibt es beim dritten Anbieter, der sich mit seinen Hochleistungsrechenzentren im Rücken darauf spezialisiert hat.

Kein Weg an Clouds vorbei

Vor allem neue Technologien wie IoT-Plattformen oder KI-Anwendungen finden sich primär in der Cloud, da sie stark wechselnde Anforderungen an IT-Ressourcen benötigen. Hierbei helfen Pay-as-you-go-Consumption-Modelle der Clouds oftmals, die Kosten zu senken und Skalierungsanforderungen zu erfüllen, was die lokal betriebenen Rechenzentren sehr selten leisten können. Viele Unternehmen ergänzen zudem ihre Kernsysteme durch zusätzliche Cloudservices nach dem Modell SaaS (Software as a Service), etwa für das Kundenbeziehungs- und Lieferantenmanagement. Auch kaufmännische Anwendungen wie Office-Software wird heute oft aus der Cloud bezogen. Dadurch ist in vielen Unternehmen etwas entstanden, was man verteilte Cloud oder Distributed Multicloud nennt.

Viele APIs und Datenspeicher

Bei all den Vorteilen, die eine derart verteilte Umgebung für die IT-Services bietet, ist sie aus IT-Administations- und Sicherheits-Sicht zuallererst ein ziemliches Durcheinander von Daten und Prozessen mit hoher Komplexität. So werden hier Daten an ganz unterschiedlichen Stellen gesammelt, zwischengespeichert und verarbeitet. Häufig werden sie sogar zeitverzögert in eine zentrale Cloud-Anwendung übertragen, zahlreiche andere Funktionen spielen sich ausschließlich an der Edge ab. Eine wichtige Eigenschaft dezentraler Multicloud-Umgebungen ist also eine Vielfalt unterschiedlicher Schnittstellen und Datenspeicher. Zwar unterstützen viele Anbieter die Konfiguration und Administration mit einfachen Benutzeroberflächen und gemanagten API Gateways. Dennoch ist das Management vieler Services aufwendig. Im einfachen Fall fließen beispielsweise Daten aus der SPS oder den Sensoren an einer Maschine in die Cloud, um dort gespeichert und ausgewertet zu werden. Doch es gibt noch viel mehr potenzielle Datenflüsse.

Fluch und Segen zugleich

Zugriffe von außen sind Standard. Mitarbeitende auf dem Shopfloor und in der Intralogistik nutzen Anwendungen von verschiedenen Standorten aus. Remote-Zugriffe von Technikern der Maschinenhersteller prüfen den Status oder beheben Probleme. Die Daten gehen häufig über mehrere Clouds hinweg. Hier sind jeweils besondere Maßnahmen für Cybersicherheit erforderlich, um die Zugriffe genau zu steuern und zu überwachen.

Multicloud-Würfel als Analysemodell

Eine einheitliche und übergreifende Verwaltung dieses komplexen Gebildes wird also immer wichtiger für die Unternehmen. Erforderlich ist zunächst ein Überblick über die komplexe Multicloud-Umgebung und ihre Abhängigkeiten untereinander. Den vermittelt die Darstellung gebuchter Services anhand eines Multicloud-Würfels. Dieser verortet alle vorhandenen Cloudservices in drei Dimensionen in der grafischen Darstellung eindes 3D-Koordinatensystems in Würfelform. Wie von der Mathematik gewohnt, gibt es die drei Achsen X, Y und Z.

Modell verständlich erläutert

Der Ausgangspunkt des Koordinationssystems befindet sich unten links. Die X-Achse des Würfels bildet die verschiedenen Provider und Hyperscaler ab. Sie kann beliebig nach rechts wachsen, um alle vorhandenen Services zu integrieren. Dazu gehören auch eine Private Cloud oder die Server in einem eigenen Rechenzentrum – das Modell der Multicloud geht gleichzeitig von einer hybriden Cloud aus. Die Z-Achse enthält die Position der Services, etwa in der Cloud, der Edge, einem Rechenzentrum oder auf dem Endpunkt. Die abgebildete Grafik zeigt eine Cloud-Architektur aus vier Komponenten: Eine Webanwendung läuft in einem Container auf AWS ECS (Plattform und Infrastruktur-Service). Sie nutzt zur Authentisierung von Anwendern die Meta/Facebook Login-API (Applikationsinfrastruktur-Service) und erhält über die SAP-API den Standort des Kunden (Plattform-Service). Zusätzlich zeigt die Anwendung Wetterdaten von der IBM The Weather Channel-API (Informations-Service). Dieses Modell veranschaulicht den Verantwortlichen in einem Unternehmen alle Services und APIs, die bei einem bestimmten Workload genutzt werden.

IT-Bezug offen diskutieren

Ein Multicloud-Würfel erlaubt es Anwendern, einen Cloudservice darin zu positionieren, um sich daraus ergebende Anforderungen zu erkennen. Damit erzeugen IT-Teams eine Diskussionsgrundlage, mit der die Zusammenhänge in dezentralen Cloud-Anwendungen verständlich werden. Die zunehmende Komplexität der Szenarien in der Produktion erfordert für den Multicloud-Würfel eine möglichst feine Granularität. Er muss auf jeder der drei Achsen an die jeweiligen Anforderungen angepasst werden. Dadurch kann er zu einem praktikablen Analyseschema für moderne, verteilte IT-Architekturen werden.

Wie gemacht für Komplexität

Dies ist vor allem in der Industrieproduktion wichtig, da hier zum Teil sehr unterschiedliche Technologien integriert werden. So gibt es für die Betriebstechnik (OT, Operational Technology) Protokolle wie OPC UA oder MQTT zur Übertragung von Status- und Prozessdaten. Dabei ist Edge-Computing üblich: Vor Ort arbeitet ein leistungsfähiger Server, der Aufgaben bei der Analyse übernimmt, um nicht von Netzwerk-Latenzen abhängig zu sein und beim Cloud Computing anfallende Kosten zu senken. Erst danach verlassen die Daten das Werk. Dort folgen umfangreichere Analysen und die Visualisierung von aggregierten Daten. Ähnlich ist es bei Machine Learning. Das Training geschieht in der Cloud, da dort mehr Ressourcen vorhanden sind. Doch die erzeugten Modelle sind in den meisten Fällen recht schlank und werden in der Edge ausgeführt, um auch hier die Verbindungswege kurzzuhalten. Auf diese Weise entsteht eine breit über verschiedene Services und Netzknoten verteilte Anwendungslandschaft – eben eine Distributed Multicloud.