So knackt Künstliche Intelligenz die CAPTCHAs

KI - Schutz und Bedrohung zugleich

09.07.2018
Von 
Sascha Dubbel ist Senior Sales Engineer bei Cylance, einem auf Cybersecurity spezialisierten Unternehmen.
Künstliche Intelligenz (KI) gilt als eine der Schlüsseltechnologien bei der Security-Automatisierung. Doch KI wird nicht nur zur Abwehr genutzt, sondern auch von den Angreifern, um etwa die Schutzfunktion von CAPTCHAs auszuhebeln. Unser Beitrag zeigt, wie sich KI missbrauchen lässt und wie man einem KI-basierten Angriff begegnen kann.
KI wird vermehrt für die Cybersecurity genutzt, doch das ist ein zweischneidiges Schwert, denn auch die Angreifer nutzen die Technik.
KI wird vermehrt für die Cybersecurity genutzt, doch das ist ein zweischneidiges Schwert, denn auch die Angreifer nutzen die Technik.
Foto: NicoElNino - shutterstock.com

Künstliche Intelligenz (KI) verändert die Welt auf eine Art und Weise wie es früher nur schwer vorstellbar gewesen wäre. Dabei werden Grundlagen der künstlichen Intelligenz verstärkt in der Cybersicherheit genutzt. Zum einen aus Gründen der Skalierbarkeit, zum anderen, weil KI das Potenzial hat, Zero-Day-Angriffe zu verhindern. Doch auch auf der dunklen Seite des Internets nutzt man KI, um Angriffe effizienter durchzuführen.

In einer Umfrage unseres Hauses vom August 2017 waren 62 Prozent der befragten Sicherheitsexperten überzeugt, dass wir schon im Laufe dieses Jahres mit Angriffen zu rechnen haben, die künstliche Intelligenz involvieren. Dabei lassen die Protagonisten aber gerne außer Acht, dass es die künstliche Intelligenz nicht gibt, sondern sie sich aus unterschiedlichen technologischen und mathematischen Ansätzen entwickelt.

Was ist KI?

Die wichtigste Erkenntnis zu einem besseren Verständnis haben wir schon erwähnt. Es gibt nicht die KI. Das Feld der künstlichen Intelligenz setzt sich aus verschiedenen Teilgebieten zusammen. Eines dieser Gebiete ist das maschinelle Lernen (ML). Um maschinelles Lernen so gründlich wie möglich aufzusetzen, braucht man große Mengen von Datensätzen. Dadurch wird die KI trainiert, einen hochwertigen Algorithmus zu generieren. Er ist praktisch die mathematische Entsprechung und in der Lage, ein Ergebnis oder eine bestimmte Eigenschaft präzise zu erkennen. Der so erzeugte Algorithmus lässt sich auf Texte, Sprache, Objekte, Bilder, Bewegungen und Dateien anwenden. Der Aufwand, einen fortschrittlichen und funktionalen Algorithmus zu entwickeln, ist erheblich. Man braucht eine Menge Zeit, Wissen und Ressourcen.

Noch haben die Guten beim KI-Einsatz eine Vorsprung gegenüber dem Dark Web. Diesen gilt es zu behaupten.
Noch haben die Guten beim KI-Einsatz eine Vorsprung gegenüber dem Dark Web. Diesen gilt es zu behaupten.
Foto: igorstevanovic - shutterstock.com

Der Begriff der künstlichen Intelligenz hat gerade in den letzten Jahren eine inflationäre Karriere gemacht. Damit einhergehend wurde er häufig unzutreffend als Marketingetikett für so ziemlich alles gebraucht, das futuristisch klingen sollte. Vom Auto bis zum Standmixer ist alles dabei. Was KI derzeit nicht ist: ein selbstmotiviertes Bewusstsein. Derzeit jedenfalls haben wir noch kein Szenario á la "Matrix" zu befürchten. Im Moment ist jedes KI-basierte Produkt einfach ungeheuer hilfreich und in der Regel für einen eng begrenzten Einsatzbereich entwickelt worden. Wie jedes Werkzeug hat die KI das Potenzial, für gute oder eben weniger gute Zwecke eingesetzt zu werden.

Die KI auf der dunklen Seite

1. Die Infrastruktur

Will man künstliche Intelligenz für Angriffe nutzen, braucht man zunächst die richtige Infrastruktur. Diese für eine eigene KI-basierte Lösung selbst zu entwickeln, ist nicht ganz trivial. Das liegt an einigen besonders wichtigen und gleichzeitig knappen Komponenten wie beispielsweise GPUs, die zur Entwicklung von Algorithmen unabdingbar sind. Um dieses Problem zu umgehen, werden Angreifer wahrscheinlich eine traditionelle Methode wählen. Nämlich die notwendige Rechenleistung von existierenden Hosts und Rechenzentren abzuzweigen, die sie vorher mit entsprechender Malware infiziert haben. Ist dieser Schritt erfolgreich abgeschlossen, ist es ein Leichtes, Kreditkarteninformationen zu stehlen, Systeme in Amazon Web Services zu übernehmen oder ein Botnet aufzubauen. Der Diebstahl von Rechenzeit ist heute bereits ein verbreitetes Problem, wie die CoinMiner-Malware beweist.

2. Der Algorithmus

Der zweite Schritt besteht darin, den eigentlichen Algorithmus zu entwickeln. Dafür braucht man neben den Fähigkeiten auch Zeit und Geld. Aber wo sich der Einsatz lohnt, wird der Zweck die Mittel heiligen. Wenn - wie es bereits vorgekommen ist - Summen in Milliardenhöhe auf dem Spiel stehen, ist das aus Sicht einer Gruppe von organisierten Cyberkriminellen die Anstrengung wert.

3. Skalierung

Im dritten und letzten Schritt geht es darum, schlussendlich von der Skalierung zu profitieren. Jetzt, im Besitz eines geeigneten Algorithmus, gilt es die anvisierten Ziele mithilfe von KI tatsächlich zu erreichen und die KI-basierte Lösung möglichst kontinuierlich einzusetzen. Die Ziele sind unterschiedlich, beispielsweise sich Zugang zu den Geschäftsgeheimnissen eines Unternehmens zu verschaffen, indem der Algorithmus vortäuscht, es handele sich um menschlichen Datenaustausch. Oder eine millionenschwere Blackmail-Kampagne zu lancieren. Überall da, wo ein lukrativer Gewinn winkt, würde der Algorithmus benutzt werden.

Angriffsszenarien

CAPTCHAs sind bereits ein Opfer der KI. KI-Bots durchbrechen diesen Schutz bereits sehr zuverlässig.
CAPTCHAs sind bereits ein Opfer der KI. KI-Bots durchbrechen diesen Schutz bereits sehr zuverlässig.
Foto: NanamiOu - shutterstock.com

Stellen Sie sich beispielsweise CAPTCHAs vor, die menschliche Informationen nutzen, um einer Maschine beizubringen, was ein Bild ist. Klickt ein Benutzer Bilder innerhalb des CAPTCHA und wählt er dabei die Felder aus, in denen beispielsweise Buchstaben oder Fahrzeuge zu sehen sind, lernt das neuronale Netz dadurch immer besser wie man Buchstaben erkennt oder eben Fahrzeuge. Hacker im Dark Web können sich in ihren Foren dieselbe Idee zunutze machen und eigene Algorithmen entwickeln. Solche, die präzise erkennen wie Buchstaben oder Fahrzeuge aussehen und mithilfe dieser Tools KI-basierte Dienste entwickeln, die CAPTCHAs durchbrechen.

Tatsächlich ist Forschern genau das schon gelungen. Sie konnten einen Bot entwickeln, mit dem es gelungen ist CAPTCHAs mit einer an 90 Prozent grenzenden Wahrscheinlichkeit zu durchbrechen. Ein skalierbarer und profitabler Ansatz. Schließlich sind Maschinen sehr effizient und ermüdungsfrei in der Lage, CAPTCHAs zu täuschen und vorzugeben, es handele sich um menschliche Benutzer. So lässt sich diese Form der Zwei-Faktor-Authentifizierung problemlos umgehen. Es gibt zwar schon CAPTCHAs, die schwieriger zu umgehen sind, wie Schiebe-Puzzle oder drehbare Buchstaben. Allerdings sind diese Varianten weder besonders populär noch derzeit weit verbreitet.

Ein anderes mögliches Szenario für KI-basierende Angriffe könnte im Auffinden von Schwachstellen bestehen. Veröffentlichten Schwachstellen wird eine CVE-Nummer zugewiesen und beschrieben, welche Arten von Schwachstellen eine Hard- oder Software aufweist. Wie eingangs erwähnt, fällt das Lesen ebenfalls in den Anwendungsbereich der künstlichen Intelligenz. Ein Angreifer könnte beispielsweise den Algorithmus trainieren, Details von Schwachstellen auf Tausenden von Websites besonders effektiv zu erkennen. Von da aus ist es nur noch ein kleiner Schritt, Schwachstellen automatisch und im großen Stil auszunutzen.

Auf künstlicher Intelligenz basierende Lösungen könnten auch selbst zu betrügerischen Zwecken missbraucht werden. Beispielsweise ist eine KI-basierte Lösung besonders gut darin, zu erkennen, ob der auf einer Webseite ankommende Datenverkehr legitimer Traffic von menschlichen Benutzern ist. Dazu nutzt der Algorithmus eine Vielzahl unterschiedlicher Faktoren wie den Typ des Browsers, den geografischen Ursprung des Traffic und die zeitliche Verteilung. Vorstellbar ist, dass ein KI-basiertes Hacker-Tool genau diese Informationen über die Zeit sammelt und schließlich mit bereits entwendeten Anmeldeinformationen kombiniert und für einen Angriff einsetzt.

Hoffnung: Vorsprung der Verteidiger

Bei aller drohenden Gefahr: Die positive Nachricht im Zusammenhang mit KI und Cybersecurity ist, dass ausnahmsweise die "Verteidiger" in Sachen künstlicher Intelligenz einen Vorsprung von einigen Jahren gegenüber Hackern haben. Und es gibt bereits Lösungen, die Problematiken wie die oben geschilderten adressieren. Das hat eindeutig mit den Einstiegshürden beim Thema künstliche Intelligenz zu tun. Diese Hürden sind allerdings nicht für alle gleich hoch. Die organisierte Kriminalität verfügt genauso über den Zugang zu den notwendigen Ressourcen wie staatlich motivierte Akteure.

Wenn sich ein Unternehmen vor potenziellen Angriffen auf Basis von maschinellem Lernen und KI schützen will, muss es verstehen, wie sie funktionieren. Hierzu muss man sicher deutlich tiefer in ein Produkt einsteigen als es einem die Hochglanzbroschüren und vollmundigen Versprechungen der Anbieter glauben machen wollen. Denn auch im Bereich der IT-Sicherheit ist KI nicht gleich KI - auch wenn mittlerweile zahlreiche Produkte und Lösungen damit werben. Wichtig ist es, zu wissen, welcher Typ KI benutzt wird, und wie genau er sich in einem Produkt / einer Lösung niederschlägt und ob es überhaupt einen nennenswerten Nutzen gibt.

Es hilft, ein wenig Vorsicht walten zu lassen und genauer hinzusehen, wenn eine Hard- oder Software die Begriffe "künstliche Intelligenz" oder "maschinelles Lernen" für sich in Anspruch nimmt. Im Übrigen sind dies durchaus beides Begriffe, die sich mittlerweile auch in den Beschreibungen zahlreicher traditioneller Antivirenlösungen finden. Deshalb sollte man sich durchaus die Mühe machen und das Kleingedruckte in den Produktbeschreibungen lesen oder sich direkt an bestehende Kunden des Unternehmens wenden und Fragen stellen. Und zuletzt sollte die Lösung auch wirklich getestet werden - mit echter Malware und realen Angriffsszenarien.

Wir werden nicht umhin kommen, KI-basierende Tools und Lösungen stetig zu verbessern, um sie veränderten Bedingungen anzupassen. Wer sich auf seinen Lorbeeren ausruht, wird schnell feststellen, dass die andere Seite nicht nur aufholt, sondern das Potenzial hat, "AI for Good" zu überholen.