Latenz minimieren

Um die Latenz zu minimieren, bedarf es einer direkten Verbindung über Dienste und Schnittstellen – beispielsweise einem DirectLink bzw. Cloud Connect. So lassen sich Services von Rechenzentren mit Cloud-Ressourcen und Services verschiedener Anbieter direkt miteinander verbinden. Der Datenaustausch zwischen Rechenzentrum und Cloud-Anbieter erfolgt über eine dedizierte Verbindung, die konsistenten Netzwerkparametern unterliegt. Die Datenpakete folgen immer einem vordefinierten Weg, sodass die Latenz gleich niedrig bleibt. Auch die Bandbreitenkosten aus der Cloud in ein Legacy-Rechenzentrum sind geringer als über das Public-Internet-Gateway eines global agierenden Cloud-Anbieters. Ein DirectLink ist jedoch kompliziert einzurichten und fordert eine Infrastruktur, die vorbereitet und administriert werden muss.

Der Performance-Aspekt

Die Gesamt-Performance abzustimmen, ist komplex, aber grundlegend für den zuverlässigen Betrieb. Laufen Applikationen nicht stabil, sinkt die Akzeptanz der Nutzer. Im Betrieb sollte der Fokus stets auf die Applikationen gerichtet sein, die den Umsatz bringen. Diese sollten so strukturiert sein, dass die Leistung auch dann nicht gemindert ist, wenn es infrastrukturelle Probleme bei einem oder bei mehreren Hyperscalern gibt. Spezielle Monitoring-Tools liefern eine Infrastruktur-agnostische Analyse der Gesamtperformance. Diese sollten auch einen direkten Durchgriff in die Applikation ermöglichen. Durch Federated Microservices und die damit einhergehende Partitionierung von Diensten werden mögliche Probleme eingegrenzt, ohne das Gesamtkonstrukt zu beeinflussen. Spezialisten für die IT-Sicherheit sollten das Gesamtkonstrukt vor dem Go-live Penetrations- und Lasttests unterziehen, um es in Bezug auf Sicherheit und Leistung beurteilen zu können.

End-to-End Verantwortung

Der Aufbau und die technologischen Eigenschaften einer Multi Cloud muss sich den Prozessen und Zielen des Unternehmens unterordnen. Eine End-to-End-Verantwortung mit Blick auf die Services ist daher essentiell. Erst der damit einhergehende gesamtheitliche Überblick über die die in Microservices gesplittete Architektur ermöglicht es, das Ziel einer hundertprozentigen Verfügbarkeit in den Blick zu nehmen. Das können am Ende des Tages keine automatisierten Services alleine bieten. Es wird auch ein Team mit Verantwortungsgefühl für das große Ganze benötigt. Nur so ist z.B. der parallele Ausfall mehrerer Microservices zu lösen. Im Rahmen von Szenarien wie etwa einem Kanarienvogel-Test läuft beispielsweise ein neuer Dienst im Testbetrieb über einen begrenzten Zeitraum mit einigen Prozent des zu erwartenden Traffics. So kann die Funktionalität und Skalierung getestet werden.







  • Ähnlichkeit erkannt, Kosten reduziert

    In der Variantenfertigung können Medien- und Systembrüche sowie Prozesse ohne digitales Abbild schnell zu Fehlern und Fehleinschätzungen führen. Wer die Daten hingegen…


  • Prozessoptimierung in der anspruchsvollen Montage

    Das Familienunternehmen Fimab aus Neubulach im Nordschwarzwald setzt bei der Prozessoptimierung auf die Webanwendung Newdrive Analytics. Entwickelt wurde das Tool von einem…


  • Was Assistenzsystemen oft im Weg steht

    Mit digitaler Werkerassistenz unterstützen Hersteller die Montageprozesse bei kleineren Losgrößen. Dabei sehen sich Unternehmen bei der Integration solcher Systeme oft mit Herausforderungen…


  • IT-Modernisierung als Softwareprojekt

    Softwarewechsel, alte Hardware und fehlende Skalierbarkeit – für die IT-Modernisierung gibt es viele Gründe. Wer umfassende Projekte dieser Art strategisch plant und…


  • Innovationstreiber Thin[gk]athon: Kollaborative Intelligenz trifft auf Industrie-Expertise

    Der Thin[gk]athon, veranstaltet vom Smart Systems Hub, vereint kollaborative Intelligenz und Industrie-Expertise, um in einem dreitägigen Hackathon innovative Lösungsansätze für komplexe Fragestellungen…