The Doppler Quarterly (DEUTSCHE) Herbst 2017 | Page 45
Dieser Prozess wird durch die Cloud noch kompli-
zierter. Anstatt die Daten an das Rechenzentrum
zurückzusenden, werden sie an einen Remote-Server
gesendet, der Tausende von Kilometern entfernt sein
kann. Weiter erschwert wird das Ganze dadurch,
dass der Datenversand über das offene Internet
erfolgt. In Anbetracht des erforderlichen Verarbei-
tungsaufwands kann die Cloud jedoch die kosteneffi-
zienteste Alternative sein.
Lösung der Latenzprobleme
Um das Problem mit den Latenzzeiten zu lösen,
schlagen viele „Edge-Computing“ vor. Das ist zwar
kein neues Konzept, aber ein Konzept, das vor Kur-
zem modernisiert wurde. Beim Edge-Computing
werden die meisten Datenprozesse an den Rand des
Netzwerks und näher an die Datenquelle verschoben.
Dann geht es auch darum, den Arbeitsaufwand zwi-
schen Daten und Verarbeitung am Netzwerkrand und
Daten und Verarbeitung im zentralen System aufzu-
teilen. Das Konzept besteht darin, die Daten zu verar-
beiten, die innerhalb kürzester Zeit wieder auf dem
Gerät verfügbar sein müssen. In diesem Fall sind es
die erfolgreich/nicht erfolgreich verarbeiteten
Daten, die den Erfolg oder Misserfolg der physischen
Fertigung des Autoteils bestimmen. Die Daten müs-
sen aber zentral gespeichert werden. Letztendlich
gilt dies für alle Daten, die an das zentralisierte Sys-
tem zurückgesandt werden – unabhängig von der
Cloud –, um für die spätere Verarbeitung dauerhaft
gespeichert zu werden.
Verarbeitung am Netzwerkrand bedeutet, dass wir
die Verarbeitungsprozesse und die Datenspeiche-
rung in der Nähe der Quelle replizieren. Es handelt
sich hierbei eher um eine Master/Slave-Architektur,
bei der das zentralisierte System letztendlich zum
Speicherort für alle Daten wird und die Verarbeitung
am Netzwerkrand lediglich als Knotenpunkt des zen-
tralisierten Systems zu sehen ist.
Um die Verarbeitung am Netzwerkrand wirksam zu
unterstützen, müssen wir uns mehr Gedanken über
den Aufbau unserer IoT-Systeme machen. Das bedeu-
tet, dass mehr Geld und Zeit in die Design- und Ent-
wicklungsphase fließen muss. Die Leistungsfähigkeit,
die gut konzipierte IoT-Systeme bieten, um die Echt-
zeitanforderungen des Internet der Dinge zu erfül-
len, wird die zusätzliche Komplexität jedoch mehr als
rechtfertigen. Ich vermute, dass die Beliebtheit von
Architekturen mit Verarbeitungsprozessen am Netz-
werkrand mit der Popularität des Internet der Dinge
steigen wird. Wir werden uns auch hier weiter ver-
bessern und es werden neue, speziell entwickelte
Technologien ins Spiel kommen. Die Datenverarbei-
tung am Rand einer IoT-Architektur ist etwas, worauf
Sie achten sollten, wenn das Internet der Dinge bei
der Zukunft Ihres Unternehmens eine Rolle spielt.
Wichtige Aspekte
Beim Edge-Computing geht es darum, die Verarbei-
tung und die Daten in der Nähe der Endpunkte durch-
zuführen. Dadurch wird verhindert, dass die Infor-
mationen vom Nutzungspunkt, wie einem Roboter in
einer Fabrikhalle, zurück zu den zentralen Compu-
terplattformen, wie einer Public Cloud, übertragen
werden. Der Hauptvorteil des Edge-Computing
besteht darin, die Latenzzeit zu reduzieren und damit
das Leistungsverhalten des gesamten Systems zu
erhöhen. Darüber hinaus können Sie schneller auf
kritische Datenpunkte reagieren, wie das Abschalten
eines überhitzten Triebwerks, ohne sich über einen
zentralen Prozess einchecken zu müssen.
Obwohl sich diese Reduzierung der Latenzzeiten auf
alle Arten von Systemen positiv auswirken kann, ist
sie vor allem für die Remote-Datenverarbeitung, wie
z.B. bei IoT-Geräten, geeignet. Beim Edge-Compu-
ting geht es nicht darum, Systemteile an den Rand
des Netzwerks zu stellen. Es geht vielmehr darum,
die Datenverarbeitung als eine Reihe von geschichte-
ten Komponenten zu sehen, die miteinander intera-
gieren und jeweils eine bestimmte Rolle innehaben.
Die Daten, die am Netzwerkrand verarbeitet und
gespeichert werden, befinden sich typischerweise
nur vorübergehend dort. Letztendlich werden sie in
bestimmten Zeitabständen zentral verarbeitet, z. B.
in einer Public Cloud. Die Kopie am zentralen Stand-
ort wird zum Datensatz oder zur einzigen Quelle der
Wahrheit (Single Source of Truth, SSOT). Edge-Com-
puting sollten Sie erst einsetzen, wenn Sie es unbe-
dingt brauchen. Edge-Computing ist ein ganz spezi-
eller Ansatz zur Lösung ganz spezieller Probleme.
Unternehmen sind oft selbst schuld, wenn sie eine
Technologie nur übernehmen, weil sie mehr als ein-
mal in der Fachpresse erwähnt wurde. Letztendlich
kostet das die Unternehmen mehr Geld und erhöht
die Risiken – und Edge-Computing fällt genau in
diese Kategorie.
Was sind die Konsequenzen?
Edge-Computing ist ein taktischer Ansatz zur Lösung
von Latenzproblemen, der auf vielen bewährten
Architekturen der Vergangenheit aufbaut. Neu sind
jedoch die Cloud und die Fähigkeit, Edge-Compu-
ting-Systeme so zu nutzen, als ob sie zentralisiert
wären. Die Cloud als neues Element bringt neue Rele-
vanz für das Edge-Computing.
Herbst 2017 | THE DOPPLER | 43