Edge Computing Security

Am Netzwerkrand lauert die Gefahr

28.05.2020
Von Jaikumar Vijayan
Wenn Unternehmen auf Edge Computing setzen und somit dezentrale Architekturen vorantreiben, bieten sich Angreifern neue Chancen, die Security zu unterwandern.
Computing am Netzwerkrand wird viele Unternehmen in den nächsten Jahren beschäftigen - nicht zuletzt aus IT-Sicherheitsgründen.
Computing am Netzwerkrand wird viele Unternehmen in den nächsten Jahren beschäftigen - nicht zuletzt aus IT-Sicherheitsgründen.
Foto: Pressmaster - shutterstock.com

Um die Digitalisierung in ihren Betrieben flächendeckend voranzutreiben, gehen viele Unternehmen dazu über, ihre Daten direkt dort zu verarbeiten, wo sie erzeugt werden. So wollen sie Latenzzeiten reduzieren, die Netzbelastung verringern und zukunftsweisende Anwendungen und Dienste umsetzen. Autonomes Fahren, moderne OT-Umgebungen (Operational Technology) oder auch zukünftige High-Tech-Entwicklungen in der Medizin können sich lange Latenzzeiten nicht leisten. Zu diesen kann es aber kommen, wenn Daten zu ihrer Verarbeitung extra ins Rechenzentrum oder in die Cloud geschickt werden müssen.

John Pescatore, Direktor für neue Sicherheitstrends am SANS Institute, bezeichnet Edge Computing als den richtigen Ansatz, um Daten nahe an der Quelle zu verarbeiten, zu analysieren, zu filtern und zu speichern. So lasse sich der Datenverkehr reduzieren und mehr Geschwindigkeit aufnehmen. Nur noch ganz bestimmte, an der Netzwerkperipherie erfasste Daten müssten an ein zentrales System im Hintergrund weitergeleitet werden.

Die Analysten von Gartner prophezeien, dass bis Ende 2023 mehr als die Hälfte aller großen Unternehmen Edge Computing für mindestens sechs oder mehr Anwendungsfälle einsetzen wird. Treiber für diesen Trend sei der 5G-Mobilfunk und eine neue Generation preiswerter Server-Hardware. Jeff Pollard, Analyst bei Forrester Research, sieht eine Wechselwirkung: "Edge Computing wird die Einführung von 5G vorantreiben, gleichzeitig wird die Verfügbarkeit von 5G das Edge Computing beflügeln." Verteiltes Computing mit schneller Konnektivität und geringen Latenzzeiten sei als Ansatz "unglaublich überzeugend".

Wie Edge Computing Cyberkriminelle anlockt

Allerdings wächst mit der Menge der mit dem Internet verbundenen Recheneinheiten die Zahl der potenziellen Angriffspunkte. Daher gewinnt nicht nur Netzsicherheit, sondern auch der physische Zugang zu den entsprechenden Geräten und deren Produktsicherheit an Bedeutung. Nach Meinung von Arpit Joshipura, General Manager of Networking, IoT and Edge bei der Linux Foundation, wachsen die Risiken proportional zur Zahl und Verteilung der Edge Devices. Sie fielen außerdem je nach Use Case und Branche unterschiedlich aus. Ein Fertigungsunternehmen müsse sich mit anderen Edge-Problemen herumschlagen als ein Unternehmen im Gesundheits- oder Bausektor. Forrester-Analyst Pollard warnt ebenfalls davor, dass ein "One-size-fits-all-Ansatz" beim Sicherheitskonzept nicht funktionieren werde.

Eines der größten Risiken liegt in mangelhaft konfigurierten und abgesicherten Edge Devices. In einem solchen Fall können Angreifer nicht nur den laufenden Betrieb stören, sondern sich auch in das Unternehmensnetzwerk einschleichen und Daten abziehen. "Die Tatsache, dass viele Kommunikationsprotokolle und Standards rund um das Edge Computing noch nicht ausgereift sind, verschärft das Problem zusätzlich - insbesondere für Organisationen in kritischen Branchen", warnt Pescatore.

Scott Crawford, Analyst bei 451 Research, weist auf die Risiken hin, die durch die Rechen- und Speicherkapazitäten von Edge-Servern ausgehen. Solche Geräte würden zu dankbaren Zielen: "Sie sind leistungsfähig, verfügen über eine permanente Netzkonnektivität und verarbeiten Daten, die sensibel sein können. Angreifer können diese Systeme bei DDoS-Angriffen ins Visier nehmen, damit Daten absaugen oder die Rechner als Abschussrampen für Angriffe auf Dritte missbrauchen." Gerade beim Edge Computing könnten häufige Fehler wie die Inbetriebnahme von Systemen mit einem Standardpasswort oder eine fehlende Multi-Faktor-Authentifizierung schlimme Folgen haben.

Daher sind laut Crawford Zero-Trust- und Anomalie-Erkennungsfunktionen besonders wichtig. Unternehmen müssten Geräte, Benutzer und Funktionen genau kennen, absolute Transparenz sei hier besonders wichtig. Tatsächlich sei das Aufspüren von Anomalien in einer Edge-Umgebung einfacher als in einem normalen Netzwerk, da Edge-Systeme nur auf eine genau vorhersehbare, begrenzte Weise funktionieren sollen. "Aber Anwender müssen sicherstellen, dass Sie mit allen Anomalien umgehen können, die Sie in einem weit verzweigten Devices-Netzwerk finden", sagt Crawford.

Gefährliche Edge-Angebote

Nicht einfacher wird die Sicherheitssituation in Edge-Computing-Landschaften dadurch, dass Gerätehersteller, Telcos, Integratoren und Cloud-Provider hier häufig zusammenarbeiten. Sie bieten teilweise gemeinsam schlüsselfertige Plattformen für Edge Computing an. Verizon zum Beispiel hat sich mit Amazon Web Services (AWS) zusammengetan, um eine Multi-Access-Edge-Compute-(MEC-)Plattform für Unternehmen aus der Taufe zu heben. In anderen Fällen müssen Organisationen mit ISPs, Geräteherstellern, Integratoren und anderen bei der Implementierung von Edge Computing kooperieren.

Deshalb werden Unternehmen nicht umhinkommen, die Risikomanagement-Prozesse solcher Drittanbieter im Auge zu haben, zumal die Industrie im Zusammenhang mit konfigurierten Edge-Computing-Angeboten an Mehrwertdiensten verdienen will. Forrester-Analyst Pollard warnt: "Es werden zwangsläufig mehrere Third-Partys eingebunden sein, und es wird mehr Connectivity geben. Anwender sollten sich also eine gewisse Reife in der Beurteilung solcher Angebote aneignen."

Unternehmen bräuchten Sicherheitsprozesse, Service Level Agreements (SLAs) und eine Architektur, die den Geräte- und Dienstleisterpark im Blick habe, mahnt Joshipura von der Linux Foundation. Der 5G-Mobilfunk werde ultrakurze Latenzzeiten ermöglichen und sei der eigentliche Enabler für Edge Computing. Unternehmen müssten eng mit TK- und Cloud-Anbietern kooperieren, um Software und Services abzusichern. "Sicherheit muss aus einer End-to-End-Perspektive mit klaren Übergabepunkten konzipiert werden", sagt Joshipura.

"Wo ein physischer Zugang möglich ist, gibt es keine Sicherheit"

Da sich Edge-Geräte normalerweise im Feld und nicht im gut gesicherten Serverraum befinden, wächst auch die Gefahr der physischen Manipulationen. "Eine alte Regel lautet: Wo ein physischer Zugang möglich ist, gibt es keine Sicherheit", erinnert Pollard. Edge Computing sei ein Bereich, auf den das besonders zutreffe. Bei der Anschaffung von entsprechenden Devices müssten Firmen an Features denken, mit denen Manipulationen erkannt und unterbunden werden könnten. Wichtig seien eingebaute Hardwaresicherheit, identitätsbasierte Kryptographie, ein kontrollierter Boot-Vorgang, Verschlüsselung und automatisiertes Patching.

Auch würden Ansätze wie Zero-Trust-Sicherheit wichtiger, da Edge Computing die ohnehin illusorische Idee von Perimeter-Sicherheit weiter verwässern werde. Alle Geräte in einem Netzwerk müssten solange als nicht-vertrauenswürdig behandelt werden, bis sie bei einem Zugriff eindeutig authentifiziert und als vertrauenswürdig eingestuft worden seien. "Was die physikalischen Sicherheitsbelange betrifft, so müssen verteilte beziehungsweise Peer-to-Peer-Systeme, drahtlose Netzwerke oder auch eine Multi-Tenant-Virtualisierungsinfrastruktur gehärtet werden", fordert Kevin Curran, IEEE-Mitglied und Professor für Sicherheit an der Universität Ulster.

Viele der am Edge ausgerollten Technologien basieren auf Open-Source-Software (OSS). DAs gilt insbesondere in Bereichen wie Life Cycle Management und für Application Programming Interfaces (APIs), sagt Joshipura. Seiner Einschätzung nach werden OSS-Technologien das Ökosystem, in dem Edge-Lösungen entstehen, wesentlich prägen. Deshalb müssten Firmen genau hinschauen, welche offenen Quellcodes sie verwendeten. Sie sollten sich auf End-to-End-Prozesse wie Code-Scanning, Schwachstellensuche und automatisiertes Patching konzentrieren, wann immer möglich. "Stellen Sie sicher, dass kritische Schwachstellen beseitigt wurden", sagt Joshipura. Wenn es dafür KI-Tools gibt, sollten diese für vorausschauende Wartung und die Erkennung von Anomalien in Open Source verwendet werden, fordert er. (hv)