Leistungsfähiges Edge Computing

Hohe Latenz kann richtig teuer werden

Edge Computing ist für die industrielle IT grundsätzlich nichts Neues. Seit Jahrzehnten werden Geräte und Monitore in der Produktion weit entfernt von zentralen Rechenzentren betrieben. Das aktuelle Revival des Begriffes ist auch technologischen Innovationen geschuldet, die Latenzen auf wenige Millisekunden senken.

(Bild: ©putilov_denis/stock.adobe.com)
(Bild: ©putilov_denis/stock.adobe.com)


Was tatsächlich neu ist an der gegenwärtigen Definition von Edge, das ist der Umfang und die Bedeutung. Geräte werden jetzt neben vernetzten Knotenpunkten mit IP-Heartbeats betrieben, die riesige Datenmengen generieren, verarbeiten, sammeln oder analysieren, um tiefere Einblicke zu gewinnen. So definiert Gartner z.B. Edge Computing als eine verteilte Computertopologie, bei der die Informationsverarbeitung in der Nähe des Ortes angesiedelt ist, an dem Dinge und Menschen diese Informationen produzieren oder beziehen.

Sensoren und das IoT

Dabei spielen Sensoren und andere Geräte eine fundamentale Rolle, gleichzeitig nimmt das Internet der Dinge (IoT) deutlich an Fahrt auf. Es wird erwartet, dass die Zahl der IoT-Geräte bis 2022 weltweit auf über 50 Milliarden anstei n den Bereichen Konstruktion, Herstellung und Fertigung sowie Logistik im Einsatz sind und Rückmeldungen über Prozesse geben, die Leistung sowie die Einhaltung der Vorgaben überwachen und Systemausfälle antizipieren, werden ein integraler Bestandteil hinsichtlich der Unternehmenseffizienz, der Lieferzuverlässigkeit, der Sicherheit und der Instandhaltung sein.

IoT-Projekte scheitern (oft)

Laut Untersuchungen der Firma Cisco gelten 76 Prozent der IoT-Projekte als gescheitert, weil sich die Mehrheit der Initiativen komplexer als erwartet darstellten. Zwar rechnete Gartner damit, dass IoT in Verbindung mit Edge Computing bis 2020 rund 60 Prozent der industriellen Analytik ausmacht – wobei es sich dabei meist um klar definierte Initiativen handelt. Gleichzeitig wurde den Unternehmen zur Vorsicht geraten. Es stellte sich laut Gartner heraus, dass die Hälfte der Edge-Computing-Szenarien, die als Proof-of-Concept funktioniert haben, in der Produktion letztendlich fehlschlagen.

Daten werden gebraucht

Doch was ist der Grund für dieses Scheitern? Der Bedarf an Edge-Computing ist datengetrieben: Diese Daten werden von Systemen erzeugt oder erfasst, um den IT-Betrieb zu untermauern. Zu diesem Zweck wird laut Gartner bis 2022 mehr als die Hälfte der Unternehmensdaten außerhalb des traditionellen Rechenzentrums erstellt und verarbeitet werden. Das bedeutet, dass die Datenmenge zunimmt, die außerhalb der Cluster und Multi-Core-Systemen auf schnellen Netzwerkstrukturen laufen. Gleichzeitig müssen diese Remote-Edge-Systeme in der Lage sein, die niedrige Latenz und hohe Verfügbarkeit bereit zu stellen, die von den Analytics-Anwendungen und Künstlichen Intelligenz benötigt werden.