Experten diskutieren Edge Computing

Vom Rand zur Mitte?

05.09.2023
Von 
Richard Ruf ist Autor und Texter in München. Im Fokus seiner Arbeit bei der Agentur "Medienstürmer" liegen vor allem die Themen Modern Work, Projektmanagement, Office-Kollaboration und Open Source.
Nur wenige Unternehmen setzen Edge Computing strategisch ein. Das könnte sich bald ändern – wenn die Anwendungsszenarien gegeben sind.
Nur wenige Unternehmen setzen Edge Computing strategisch ein. Das könnte sich bald ändern – wenn die Anwendungsszenarien gegeben sind.
Nur wenige Unternehmen setzen Edge Computing strategisch ein. Das könnte sich bald ändern – wenn die Anwendungsszenarien gegeben sind.
Foto: VectorMine - shutterstock.com

Hermann Hesse soll gesagt haben: "Es kommt alles wieder, was nicht zu Ende gelitten ist." Zuweilen scheint dieser Ausspruch auch für die IT-Welt zu gelten - könnte man angesichts einer aktuellen Untersuchung von Grand View Research, die dem Edge-Computing-Markt bis 2030 ein jährliches Marktwachstum von 37,9 Prozent prognostiziert, zumindest meinen. Wie ein Pendel scheint der Trend zwischen Zentralität und Dezentralität hin- und herzuschwingen. Erst Mainframe, dann Cloud - und jetzt Edge Computing?

Dass diese Lesart am Ziel vorbeischießt, stellt die COMPUTERWOCHE-Expertenrunde zum Thema "Edge Computing" gleich zu Beginn fest. Tatsächlich heben die Diskutanten hervor, dass es eine "Edge vs. Cloud"-Debatte nicht gibt. Im Gegenteil: Die Kombination beider Ansätze wird der Regelfall. Von einander ersetzenden Trends lässt sich also keineswegs sprechen.

Was genau jener "Edge" ist, ist hingegen gar nicht so klar. Denn das Thema ist facettenreich. "Was wir machen, wurde zeitweise mal 'Fog Computing' genannt", erklärt Alexander Roth, Director Marketing EMEA bei Fastly scherzhaft. "Was Edge Computing ist, da gibt es im Markt noch Definitionsbedarf."

Informationen zu den Partner-Paketen der Studie 'Edge Computing 2023'

KI als Edge-Treiber

Es herrscht jedoch Einigkeit darüber, dass der Einsatz von Edge Computing derzeit primär in einzelnen und exponierten Anwendungsfällen stattfindet. Durchgehende und stringente Strategien sind die Ausnahme, da viele Unternehmen noch zu sehr mit ihren Cloud-Strategien beschäftigt sind. Das liege zum Teil auch daran, dass Unternehmen häufig ausgehend von der Technologie passende Use Cases suchten, statt andersherum, wirft Marcus Rolfes, Practice Lead Network & Edge Germany von Kyndryl, in die Runde und fügt hinzu: "Das sollte man umdrehen, also ausgehend vom konkreten Use Case dazu passende Technologien finden."

Besonders KI-gestützte Anwendungsszenarien sind dabei klare Treiber für die Einführung von Edge Computing, wie Peter Schill, System Engineering Manager von Fortinet, kommentiert: "Zugespitzt formuliert hätten wir die Diskussion um Edge Computing erst in ein paar Jahren, wenn es keine Anwendungsfälle gäbe, die künstliche Intelligenzen erforderlich machen."

Denn die KIs werden zunächst mit großen Datenmengen aus der Cloud trainiert, müssen dann aber lokal schnelle und richtige Entscheidungen treffen können. Je nach Einsatzgebiet sind Latenzen, die durch den Austausch mit einer zentralen Cloud entstehen können, ist das nicht akzeptabel - beispielsweise im Bereich des autonomen Fahrens. Hier müssen einzelne Devices innerhalb von Millisekunden die richtige Entscheidung treffen, auch wenn die Internetverbindung instabil oder überlastet ist.

Unnötigen Datenverkehr vermeiden

Ein zentraler Aspekt ist daher, immer größer werdende Datenströme beherrschbar zu machen und gleichzeitig eine akzeptable Response Time zu gewährleisten - was für Unternehmen jedoch auch eine Festlegung bedeutet, was "akzeptabel" im Einzelfall heißt. "Unternehmen müssen je nach Use Case entscheiden, welche Daten wirklich in Echtzeit verarbeitet werden müssen und wo sie sich mehr Zeit lassen können", erklärt Erwin Breneis, Sales and Solution Specialist von Juniper Networks. Es gehe darum, nur essentielle Daten zu liefern.

Auch Tobias Graner, Solutions Engineer von Akamai, betont, dass nicht immer alle Daten in ihrer Gesamtheit zurückgeschickt werden müssen, um entscheidungsfähig zu sein. "Das Ziel sollte sein, unnötigen Datenverkehr zu vermeiden und eine optimale Balance zwischen Cloud und Edge zu finden." Nicht alles müsste am Ursprungsort verarbeitet werden, da dies vor allem das Gesamtnetz überlaste und angreifbar mache.

Vor diesem Hintergrund bringen die Experten einen weiteren Aspekt ein: den Datenschutz. Denn gerade im Bereich der öffentlichen Sicherheit sprechen oft datenschutzrechtliche Bedenken dagegen, beispielsweise Bildmaterial von Sicherheitskameras einfach in die Cloud zu übertragen. Besonders wenn eine intelligente Gesichts- oder Absichtserkennung eingesetzt wird, ließe sich das häufig nur im Edge datenschutzkonform umsetzen, erklärt Marcus Rolfes: "Wenn wir in dem Zusammenhang über KI sprechen, sprechen wir auch darüber, diese so nah wie möglich an den Datenursprung zu bringen."

Studie "Edge Computing 2023": Sie können sich noch beteiligen!

Zum Thema Edge Computing führt die COMPUTERWOCHE derzeit eine Multi-Client-Studie unter IT-Verantwortlichen durch. Haben Sie Fragen zu dieser Studie oder wollen Sie Partner werden, helfen Ihnen Regina Hermann (regina.hermann@foundryco.com, Telefon: 089 36086 161) und Manuela Rädler (manuela.raedler@foundryco.com, Telefon: 089 36086 271) gerne weiter. Informationen zur Studie finden Sie auch hier zum Download (PDF).

Das erfordert jedoch die entsprechende Infrastruktur und das zugehörige Fachpersonal, das nicht zuletzt aufgrund des Fachkräftemangels zunehmend schwer zu finden ist. Unternehmen greifen daher in immer mehr Bereichen auf Service-Provider zurück, die sich als Reaktion darauf immer breiter aufstellen müssen.

Dabei sehen sich viele Unternehmen etwas gefangen zwischen dem Wunsch, auf der einen Seite den "Dienstleister für alles" zu haben, und auf der anderen Seite einen Lock-in-Effekt zu vermeiden. Tobias Graner sieht die Dienstleister in der Pflicht, Unternehmen in diesen Fragen zu unterstützen: "Das ist ein Findungsprozess, der sich nur im Kundengespräch bestreiten lässt: Wieviel Flexibilität benötigt der Kunde, wieviel Lock-in will er zulassen?"

Die Bedeutung von Standards

Die Frage nach Flexibilität stellt für Philip Horn, Head of Digital Transformation and Innovation EMEA von Verizon, auch die Technologiefrage: "Nur wenn ich eine offene Plattform mit offenen Standards habe, kann ich den Vendor Lock-in ausschließen", betont Horn und ergänzt, dass sich mit entsprechenden Standards Teile der eigenen Cloud direkt an den Standort bringen ließen.

Markus Keppeler, Senior IT Specialist von IBM sieht ebenfalls die Wichtigkeit offener Standards und hebt hervor, dass Nutzer auch in der Edge Technologien nutzen wollen, die sie aus der Cloud kennen. Im Optimalfall wollten Unternehmen Anwendungen einmal als Container-Lösung entwickeln und diese anschließend überall nutzen können. "Das können wir mit Edge-Technologien bereits jetzt ermöglichen", erklärt Keppeler.

Dass sich gänzlich einheitliche Standards durchsetzen, hält die Expertenrunde jedoch für wenig realistisch. "Es gibt viele gute Ansätze, aber im Markt ist man sich nicht mal einig, wo genau der Edge eigentlich ist", kommentiert Tobias Oberrauch, Senior Sales & Presales - Big Data & AI Central Europe von Eviden. "Wichtig ist, dass die Transparenz bei Standards sichergestellt ist, damit sich kein Lock-in-Effekt einstellt."

Es gibt also noch einige offene Fragen und Herausforderungen. Dennoch ist klar, dass Edge Computing eine zunehmend wichtige Rolle in der zukünftigen digitalen Landschaft spielen wird - wenn die entsprechenden Anwendungsszenarien gegeben sind.

Informationen zu den Partner-Paketen der Studie 'Edge Computing 2023'