The Doppler Quarterly (DEUTSCHE) Herbst 2017 | Page 45

Dieser Prozess wird durch die Cloud noch kompli- zierter. Anstatt die Daten an das Rechenzentrum zurückzusenden, werden sie an einen Remote-Server gesendet, der Tausende von Kilometern entfernt sein kann. Weiter erschwert wird das Ganze dadurch, dass der Datenversand über das offene Internet erfolgt. In Anbetracht des erforderlichen Verarbei- tungsaufwands kann die Cloud jedoch die kosteneffi- zienteste Alternative sein. Lösung der Latenzprobleme Um das Problem mit den Latenzzeiten zu lösen, schlagen viele „Edge-Computing“ vor. Das ist zwar kein neues Konzept, aber ein Konzept, das vor Kur- zem modernisiert wurde. Beim Edge-Computing werden die meisten Datenprozesse an den Rand des Netzwerks und näher an die Datenquelle verschoben. Dann geht es auch darum, den Arbeitsaufwand zwi- schen Daten und Verarbeitung am Netzwerkrand und Daten und Verarbeitung im zentralen System aufzu- teilen. Das Konzept besteht darin, die Daten zu verar- beiten, die innerhalb kürzester Zeit wieder auf dem Gerät verfügbar sein müssen. In diesem Fall sind es die erfolgreich/nicht erfolgreich verarbeiteten Daten, die den Erfolg oder Misserfolg der physischen Fertigung des Autoteils bestimmen. Die Daten müs- sen aber zentral gespeichert werden. Letztendlich gilt dies für alle Daten, die an das zentralisierte Sys- tem zurückgesandt werden – unabhängig von der Cloud –, um für die spätere Verarbeitung dauerhaft gespeichert zu werden. Verarbeitung am Netzwerkrand bedeutet, dass wir die Verarbeitungsprozesse und die Datenspeiche- rung in der Nähe der Quelle replizieren. Es handelt sich hierbei eher um eine Master/Slave-Architektur, bei der das zentralisierte System letztendlich zum Speicherort für alle Daten wird und die Verarbeitung am Netzwerkrand lediglich als Knotenpunkt des zen- tralisierten Systems zu sehen ist. Um die Verarbeitung am Netzwerkrand wirksam zu unterstützen, müssen wir uns mehr Gedanken über den Aufbau unserer IoT-Systeme machen. Das bedeu- tet, dass mehr Geld und Zeit in die Design- und Ent- wicklungsphase fließen muss. Die Leistungsfähigkeit, die gut konzipierte IoT-Systeme bieten, um die Echt- zeitanforderungen des Internet der Dinge zu erfül- len, wird die zusätzliche Komplexität jedoch mehr als rechtfertigen. Ich vermute, dass die Beliebtheit von Architekturen mit Verarbeitungsprozessen am Netz- werkrand mit der Popularität des Internet der Dinge steigen wird. Wir werden uns auch hier weiter ver- bessern und es werden neue, speziell entwickelte Technologien ins Spiel kommen. Die Datenverarbei- tung am Rand einer IoT-Architektur ist etwas, worauf Sie achten sollten, wenn das Internet der Dinge bei der Zukunft Ihres Unternehmens eine Rolle spielt. Wichtige Aspekte Beim Edge-Computing geht es darum, die Verarbei- tung und die Daten in der Nähe der Endpunkte durch- zuführen. Dadurch wird verhindert, dass die Infor- mationen vom Nutzungspunkt, wie einem Roboter in einer Fabrikhalle, zurück zu den zentralen Compu- terplattformen, wie einer Public Cloud, übertragen werden. Der Hauptvorteil des Edge-Computing besteht darin, die Latenzzeit zu reduzieren und damit das Leistungsverhalten des gesamten Systems zu erhöhen. Darüber hinaus können Sie schneller auf kritische Datenpunkte reagieren, wie das Abschalten eines überhitzten Triebwerks, ohne sich über einen zentralen Prozess einchecken zu müssen. Obwohl sich diese Reduzierung der Latenzzeiten auf alle Arten von Systemen positiv auswirken kann, ist sie vor allem für die Remote-Datenverarbeitung, wie z.B. bei IoT-Geräten, geeignet. Beim Edge-Compu- ting geht es nicht darum, Systemteile an den Rand des Netzwerks zu stellen. Es geht vielmehr darum, die Datenverarbeitung als eine Reihe von geschichte- ten Komponenten zu sehen, die miteinander intera- gieren und jeweils eine bestimmte Rolle innehaben. Die Daten, die am Netzwerkrand verarbeitet und gespeichert werden, befinden sich typischerweise nur vorübergehend dort. Letztendlich werden sie in bestimmten Zeitabständen zentral verarbeitet, z. B. in einer Public Cloud. Die Kopie am zentralen Stand- ort wird zum Datensatz oder zur einzigen Quelle der Wahrheit (Single Source of Truth, SSOT). Edge-Com- puting sollten Sie erst einsetzen, wenn Sie es unbe- dingt brauchen. Edge-Computing ist ein ganz spezi- eller Ansatz zur Lösung ganz spezieller Probleme. Unternehmen sind oft selbst schuld, wenn sie eine Technologie nur übernehmen, weil sie mehr als ein- mal in der Fachpresse erwähnt wurde. Letztendlich kostet das die Unternehmen mehr Geld und erhöht die Risiken – und Edge-Computing fällt genau in diese Kategorie. Was sind die Konsequenzen? Edge-Computing ist ein taktischer Ansatz zur Lösung von Latenzproblemen, der auf vielen bewährten Architekturen der Vergangenheit aufbaut. Neu sind jedoch die Cloud und die Fähigkeit, Edge-Compu- ting-Systeme so zu nutzen, als ob sie zentralisiert wären. Die Cloud als neues Element bringt neue Rele- vanz für das Edge-Computing. Herbst 2017 | THE DOPPLER | 43