Edge Computing und IoT

Läutet Fog Computing das Ende der Cloud ein?

26.05.2017
Von 
Wolfgang Herrmann war Editorial Manager CIO Magazin bei IDG Business Media. Zuvor war er unter anderem Deputy Editorial Director der IDG-Publikationen COMPUTERWOCHE und CIO und Chefredakteur der Schwesterpublikation TecChannel.
Die Cloud hat ein Bandbreitenproblem. Konzepte wie Edge Computing und Fog Computing bringen die Intelligenz wieder zurück ins Netz.

Die Idee ist nicht neu. Schon 2014 präsentierte der Netzwerkriese Cisco seine Vision vom Fog Computing. "Wir verschwenden Zeit und Bandbreite, wenn wir alle Daten von IoT-Devices erst in dieCloud und dann die Antworten wieder zurück ins Netz spielen", erklärte Guido Jouret, Chef von Ciscos Internet-of-Things-Sparte. Viel sinnvoller wäre es doch, zumindest einige Verarbeitungsaufgaben direkt vor Ort von intelligenten Routern erledigen zu lassen.

Fog Computing könnte das Bandbreitenproblem in Cloud-Szenarien entschärfen.
Fog Computing könnte das Bandbreitenproblem in Cloud-Szenarien entschärfen.
Foto: AlessandraRC - shutterstock.com

Kay Wintrich , Technical Director von Cisco Deutschland, erklärt das Konzept so: "Fog Computing bringt Analyse-, Verarbeitungs- und Speicherfunktionen an den Rand des Netzwerks." Im "Internet of Everything", sprich einer komplett vernetzten Welt, sei das die einzige Möglichkeit, mit der großen Menge an anfallenden Daten umgehen zu können. IBM argumentiert ganz ähnlich, verwendet dafür aber den Begriff Edge Computing. Auch Microsoft-Chef Satya Nadella sprach auf der Entwicklerkonferenz Build 2017von Edge Computing und propagierte eine "intelligente Cloud".

Die Relevanz des Themas steigt mit der rasant wachsenden Zahl von Geräten im Internet of Things (IoT). Bis 2020 könnten laut Schätzungen weltweit 50 Milliarden "Devices" im Netz verbunden sein. Dabei fallen enorme Datenmengen an. Eine einzige Turbine eines modernen Verkehrsflugzeugs generiere innerhalb von 30 Minuten rund 10 Terabyte Daten, argumentiert man bei Cisco.

Dass die ohnehin stark beanspruchten Verbindungen in die Cloud-Rechenzentren damit irgendwann in die Knie gehen, ist abzusehen.Cloud-Ausfälle und hohe Latenzzeiten auch bei den ganz großen Providern wie Amazon Web Services oder Microsoftgibt es schon heute, und die Datenexplosion hat erst begonnen. Experten wie der Venture Capitalist Peter Levine von Andreessen Horowitz sehen deshalb schon das Ende der Cloud am Horizont: "Ein großer Teil der Rechenleistung, die heute in der Cloud stattfindet, wird zurück zum 'Edge' wandern."

"Ein großer Teil der Rechenleistung, die heute in der Cloud stattfindet, wird zurück zum 'Edge' wandern", erwartet Peter Levine vom Venture-Capital-Unternehmen Andreessen Horowitz .
"Ein großer Teil der Rechenleistung, die heute in der Cloud stattfindet, wird zurück zum 'Edge' wandern", erwartet Peter Levine vom Venture-Capital-Unternehmen Andreessen Horowitz .
Foto: Andreessen Horowitz

Das beste Beispiel für ein "Edge Device" ist für ihn das fahrerlose Automobil. Ausgerüstet mit mehr als 200 CPUs handele es sich im Grunde um ein Data Center auf Rädern, das auch ohne Cloud-Unterstützung funktionieren müsse: "Ein autonomes Fahrzeug, das auf Cloud-Daten angewiesen ist, würde rote Ampeln überfahren und Unfälle verursachen, weil die Latenzzeit für die Datenübertragung zu hoch ist." Nachteilig wirke sich die zentrale Cloud auch in vielen Machine-Learning-Szenarien aus, wo es auf eine unmittelbare Verarbeitung zur schnellen Entscheidungsfindung ankomme.

Levine stellt die Diskussion in den Kontext der großen IT-Entwicklungszyklen, die mit dem Mainframe in großen Unternehmen und Behörden begonnen hat. In der Client-Server-Ära wurden etliche Großrechner durch dezentrale Strukturen verdrängt, auch wenn sie nie ganz verschwanden. Die Cloud ist für ihn nichts anderes als ein neuer Mainframe, der nun eben im Data Center eines Providers betrieben werde. Mit Edge Computing und Fog Computing sieht er das Pendel abermals zurückschwingen in Richtung Distributed Computing. Levine: "Das bedeutet, dass die Cloud in nicht allzu ferner Zukunft verschwinden wird."

Die Vorteile von Fog Computing

Für Konzepte wie Fog Computing spricht nicht nur die Reduzierung des Netzwerk-Traffics. Sie ermöglichen es etwa, dass IoT-Devices auch bei einer gestörten Netzverbindung uneingeschränkt weiter arbeiten können. Sensible Daten müssten zudem nicht vom Ort ihrer Entstehung weg bewegt werden.

Mit einem verteilten Handling von IoT-Daten könnten Unternehmen ihre Analyse- und Entscheidungsprozesse beschleunigen, kommentiert Steve Hilton vom IoT-Beratungshaus Machnation. Aber auch Sicherheitsaspekte spielten eine wichtige Rolle. So gebe es etliche Cloud-Szenarien, in denen Sensordaten aus rechtlichen oder regulatorischen Gründen nicht in ein anderes Land transferiert werden dürften.

Ein Szenario für Fog Computing könnte beispielsweise die intelligente Verkehrssteuerung mit Videokameras sein, heißt es bei Cisco. Die Kameras würden Einsatzfahrzeuge am Blaulicht erkennen und eine grüne Welle schalten. Sowohl die Analyse als auch die Reaktion geschähen vor Ort, ohne dass Daten an ein Rechenzentrum gesendet werden müssten. Cisco rüstet dazu seine Switches und Router mit einem zweiten Betriebssystem auf Linux-Basis aus.

Einen ähnlichen Ansatz verfolgt das Startup Nebbiolo Technologies. Für seine Fog-Computing-Plattform nutzt der kalifornische Anbieter eigenentwickelte Hardware. "Unsere kleinen zentralen Rechner sind das Herz der Industrie 4.0", wirbt CEO und Gründer Flavio Bonomi. "Sie bieten lokalen Speicherplatz, führen Analysen in Echtzeit durch, bringen Prozesse zusammen und dienen gleichzeitig als Firewall gegen Angriffe von außen."

Das Marktforschungs- und Beratungshaus Gartner zählt Micro- und Edge Computing-Umgebungen mittlerweile zu den zehn wichtigsten Techniktrends im Bereich Infrastructure und Operations. Bereits 2015 gründeten Cisco, ARM, Dell, Intel, Microsoft und die Princeton University das OpenFog Consortium. Die Organisation hat laut eigenen Angaben inzwischen 57 Mitglieder aus Nordamerika, Asien und Europa.