Künstliche Intelligenz in der IT-Security

KI härtet Sicherheitssysteme

14.11.2016
Von  und


Maria Korolov berichtet seit über zwanzig Jahren über aufstrebende Märkte und Technologien. Sie schreibt für die US-amerikanische IDG-Publikation CSO.


Florian Maier beschäftigt sich mit diversen Themen rund um Technologie und Management.

KI-Systeme in der Security-Praxis

Bereits ein wahrscheinlichkeitsbasiertes Machine-Learning-System stoße schnell an seine Grenzen, meint David. Schließlich gebe es nur eine begrenzte Anzahl an Faktoren, die von Experten gewichtet und anschließend für die Erzielung optimaler Ergebnisse verwendet werden können. Auf der anderen Seite würden unzählige Faktoren als nicht wichtig genug oder irrelevant außer Acht gelassen: "Der Großteil der Daten wird quasi ungenutzt entsorgt."

Deep Instinct verfolgt deshalb einen anderen Ansatz: Deren Deep-Learning-System wird im Labor "trainiert" - mit allen bekannten Malware-Samples. Dieser Prozess dauert laut Eli David ungefähr einen Tag - und erfordert den Einsatz von Profi-GPUs, um diese Daten analysieren zu können. Das daraus entstandene, fertige KI-System ist ungefähr ein Gigabyte groß - was für die meisten Applikationen zu groß ist. Deswegen komprimiert man das Ganze noch bis auf 20 Megabytes herunter - so kann das System schließlich auf jedem beliebigen Endpunkt-Device (auch Smartphones) installiert werden und eingehende Bedrohungen analysieren.

Lassen sich Security-Systeme mit künstlicher Intelligenz härten?
Lassen sich Security-Systeme mit künstlicher Intelligenz härten?
Foto: TUM2282 - shutterstock.com

Das soll selbst mit einem lahmen Rechner in wenigen Millisekunden geschehen sein, so David: "Ein File mit einer durchschnittlichen Größe von einem Megabyte ist in weniger als einer Millisekunde durch. Wir machen all die komplexen Dinge, die eine wirklich ausgereifte Infrastruktur erfordern, in unserem Labor. Was unsere Kunden bekommen, ist im Grunde ein kleines Gehirn - die Quintessenz unserer Arbeit. Dabei bemerken sie die Komplexität die dahinter steht gar nicht."

Neue Malware-Samples werden übrigens fortlaufend zur "Sammlung" von Deep Instinct hinzugefügt. Alle drei bis vier Monate bekommen dann alle "Gehirne", die im Einsatz sind, ein Update spendiert. Klingt unsicher? "Sogar wenn für sechs Monate kein Update kommt, ist das System in der Lage, neue Files zu erkennen. Die Deep-Learning-Methode ist bestens dazu geeignet, selbst kleinste Veränderungen und Mutationen zu erkennen. Sogar Zero-Day-Exploits von Profi-Hackern oder Geheimdiensten basieren zu 80 Prozent auf bereits bekannten Bedrohungen. Traditionelle Abwehrmaßnahmen können dagegen nichts ausrichten. Mit Deep Learning ist das kein Problem."

Um die Ergebnisse quantifizieren zu können, arbeitet Deep Instinct nach eigenen Angaben mit unabhängigen Testlaboren zusammen. In einer frühen Testphase mit einigen Großunternehmen, so David, konnte die Malware-Detektionsrate - im Vergleich zu bestehenden Lösungen - um 20 bis 30 Prozent gesteigert werden: "Wir haben erst kürzlich im Rahmen eines Tests 100.000 Files bei einer großen Bank in den USA untersucht. Deren bestehende Lösung wurde am Morgen des Tests geupdatet - bei unserem Produkt war das circa zwei Monate her. Bei unserer Lösung lag die Erkennungsrate bei 99,9 Prozent, bei der bestehenden Lösung bei 40 Prozent."

Ein negativer Aspekt bei den aktuellen Deep-Learning-Systemen ist jedoch, dass sie zwar eine Lösung finden, aber nicht unbedingt über den Lösungsweg aufklären können. Dieser Aufgabe hat sich Eureqa verschrieben - eine proprietäre KI-Engine von Nutonian. Laut Michael Schmidt, Gründer und CTO des Unternehmens, ist Eureqa etwa in der Lage, aus Physik-Daten die Newtonschen Gesetze abzuleiten: "Die Engine findet die einfachste und zugleich eleganteste Erklärung für das, was passiert und welche Beziehungen bestehen."

Nutonian hat seine KI-Engine vor einiger Zeit der Forschung zur Verfügung gestellt und das Framework war bereits in etlichen Studien sehr hilfreich - etwa im Healthcare-Bereich, wo mit Eureqa neue Modelle und Methoden zur Diagnose von Krankheiten - zum Beispiel Augenleiden oder Blinddarmentzündungen - entwickelt werden konnten. Natürlich gibt es aber auch Applikationen für den Bereich IT-Sicherheit, wie Michael Schmidt sagt: "Eines der ausgeprägtesten Probleme ist, die Anatomie eines Hackerangriffs aufzudecken. Eureqa kann diesen Prozess über eine Anwendung automatisiert abwickeln. Wir konnten damit in Minuten Ergebnisse erzielen, die sonst Monate oder Jahre gebraucht hätten."

Künstliche Intelligenz vs. Hacker

Geht es um IT-Security, sind regelmäßige Updates für jede Art von Machine-Learning- oder KI-System unabdingbar, denn die Bedrohungslage befindet sich in einem steten Wandel: Mitarbeiter entdecken neue Tools, Provider verändern ihre Applikationen, Kunden ihr Shopping-Verhalten und Hacker entwerfen neue Malware, die speziell darauf ausgelegt ist bestehende Sicherheitsmaßnahmen zu umgehen. Und bis das nächste Update kommt, besteht jedes Mal ein Zeitfenster erhöhter Verwundbarkeit.

Zudem können Hacker und Cyberkriminelle auch jederzeit Security Software kaufen, um nach dem "Trial and Error"-Prinzip neue Angriffsmethoden zu entwickeln. "Die können sie dann bei sämtlichen Kunden des Anbieters anwenden, bis das nächste Update kommt", warnt Mike Stute, Chef-Researcher beim Managed-Networking-Provider Masergy Communications. Laut Stute besteht ein Weg zur Lösung dieses Dilemmas darin, von sogenannten "One size fits all"-Sicherheitslösungen Abstand zu nehmen.

Genau diesen Weg verfolgt man bei Masergy: Anhand einer bestimmten Anzahl von globalen Faktoren analysiert deren Lösung mit Hilfe künstlicher Intelligenz die Wahrscheinlichkeit eines ungewöhnlichen Verhaltens und gleicht das anschließend mit individuellen, lokalen Faktoren ab, wie Stute erklärt. "Ein globales System kann nur eine begrenzte Zahl von Inputs betrachten, der Speicherplatz ist begrenzt. Durch die zusätzliche Betrachtung lokaler Besonderheiten können noch viel mehr Inputs betrachtet werden, weil im lokalen Modell keine Kompression vorgenommen werden muss." Das sorgt wiederum dafür, so der Experte, dass die Ergebnisse wesentlich akkurater sind.

Auf die Kombination globaler und lokaler Variablen setzt man auch bei Acuity Solutions: Deren BluVector-Appliance setzt bei der Erkennung von Cyber-Risiken ebenfalls auf Machine Learning. Das System - das auf einem Analyse-Programm für US-Regierungsbehörden aufsetzt - "lernt" zunächst, wie gutartiger Code aussieht, wie Acuity-CEO Kris Lovejoy erklärt: "Unsere Engine kann erkennen, wenn bestimmte Features, die normalerweise in gutartigem Code zu finden sein müssten, fehlen."

Natürlich sei die Acuity-Engine darüber hinaus auch in der Lage, von Kunden individuell zu lernen: "Unsere Engine kommt vorkonfiguriert zu den Kunden. Ab diesem Zeitpunkt ist es dann fast so, als würde ein Kind das Nest verlassen - und dann in der Umgebung des Kunden wächst und gedeiht."

Die Engine wird alle vier Monate mit globalen Datensätzen aktualisiert - die spezifischen, lokalen Daten der einzelnen Kunden würden aber nicht über das System hinweg geteilt. Deswegen ist keine Version des Produkts wie die andere und quasi individuell auf die Kunden zugeschnitten. Selbst wenn ein Hacker also ebenfalls über die Engine verfügt und eine Sicherheitslücke findet, nützt ihm das nichts, wie Lovejoy verdeutlicht: "Hierbei handelt es sich quasi um eine bewegliche Verteidigungsmaßnahme, die unmöglich zu rekonstruieren ist, weil sie an ihre jeweilige Umgebung angepasst sind."

Dieser Artikel basiert auf einem Beitrag unserer US-Schwesterpublikation csoonline.com.