Latenz minimieren
Um die Latenz zu minimieren, bedarf es einer direkten Verbindung über Dienste und Schnittstellen – beispielsweise einem DirectLink bzw. Cloud Connect. So lassen sich Services von Rechenzentren mit Cloud-Ressourcen und Services verschiedener Anbieter direkt miteinander verbinden. Der Datenaustausch zwischen Rechenzentrum und Cloud-Anbieter erfolgt über eine dedizierte Verbindung, die konsistenten Netzwerkparametern unterliegt. Die Datenpakete folgen immer einem vordefinierten Weg, sodass die Latenz gleich niedrig bleibt. Auch die Bandbreitenkosten aus der Cloud in ein Legacy-Rechenzentrum sind geringer als über das Public-Internet-Gateway eines global agierenden Cloud-Anbieters. Ein DirectLink ist jedoch kompliziert einzurichten und fordert eine Infrastruktur, die vorbereitet und administriert werden muss.
Der Performance-Aspekt
Die Gesamt-Performance abzustimmen, ist komplex, aber grundlegend für den zuverlässigen Betrieb. Laufen Applikationen nicht stabil, sinkt die Akzeptanz der Nutzer. Im Betrieb sollte der Fokus stets auf die Applikationen gerichtet sein, die den Umsatz bringen. Diese sollten so strukturiert sein, dass die Leistung auch dann nicht gemindert ist, wenn es infrastrukturelle Probleme bei einem oder bei mehreren Hyperscalern gibt. Spezielle Monitoring-Tools liefern eine Infrastruktur-agnostische Analyse der Gesamtperformance. Diese sollten auch einen direkten Durchgriff in die Applikation ermöglichen. Durch Federated Microservices und die damit einhergehende Partitionierung von Diensten werden mögliche Probleme eingegrenzt, ohne das Gesamtkonstrukt zu beeinflussen. Spezialisten für die IT-Sicherheit sollten das Gesamtkonstrukt vor dem Go-live Penetrations- und Lasttests unterziehen, um es in Bezug auf Sicherheit und Leistung beurteilen zu können.
End-to-End Verantwortung
Der Aufbau und die technologischen Eigenschaften einer Multi Cloud muss sich den Prozessen und Zielen des Unternehmens unterordnen. Eine End-to-End-Verantwortung mit Blick auf die Services ist daher essentiell. Erst der damit einhergehende gesamtheitliche Überblick über die die in Microservices gesplittete Architektur ermöglicht es, das Ziel einer hundertprozentigen Verfügbarkeit in den Blick zu nehmen. Das können am Ende des Tages keine automatisierten Services alleine bieten. Es wird auch ein Team mit Verantwortungsgefühl für das große Ganze benötigt. Nur so ist z.B. der parallele Ausfall mehrerer Microservices zu lösen. Im Rahmen von Szenarien wie etwa einem Kanarienvogel-Test läuft beispielsweise ein neuer Dienst im Testbetrieb über einen begrenzten Zeitraum mit einigen Prozent des zu erwartenden Traffics. So kann die Funktionalität und Skalierung getestet werden.