Bedrohungsbeispiele

Künstliche Intelligenz - gefährliche Intelligenz?

Kommentar  13.09.2023
Von   IDG ExpertenNetzwerk,   und
Dr. Seebach begleitet Banken und Versicherungen bei der Durchführung wegweisender Digitalisierungsprojekte. Er studierte Wirtschaftswissenschaften an der Goethe Universität Frankfurt (Main) und promovierte dort im Bereich Information Systems Research. Er verfügt mittlerweile über 15 Jahre Beratungserfahrung im Finanzdienstleistungssektor.
Oliver Laitenberger leitet bei der Managementberatung Horn & Company das Kompetenzzentrum Digitalisierung und Technologie.
Dr. Harald Rossmann ist Unternehmensberater und unterstützt seine Kunden aus der Versicherungs- und Bankenbranche bei Fragestellungen rund um digitale Transformationsprojekte. Er studierte technische Physik an der TU Wien, bevor an der Universität Basel promovierte.
Dieser Artikel zeigt an Beispielen, auf welche neue Bedrohungslagen sich Unternehmen und Privatpersonen möglicherweise einstellen müssen, wenn sie generative KI nutzen.
Nicht immer führt der Einsatz von KI zu dem erwarteten Ergebnis.
Nicht immer führt der Einsatz von KI zu dem erwarteten Ergebnis.
Foto: fizkes - shutterstock.com

Spätestens seit dem milliardenschweren Investment von Microsoft in OpenAI, dem Unternehmen hinter ChatGPT, weiß es jeder: Künstliche Intelligenz ist im Mainstream angekommen. Dies bestätigen auch die rekordverdächtigen ChatGPT-Nutzerzahlen. Innerhalb von zwei Monaten nach dem Start sind diese auf 100 Millionen monatlich aktive User weltweit angewachsen. Die bisherigen Spitzenreiter TikTok und Instagram benötigten hierfür noch neun beziehungsweise dreißig Monate.

Das Spektrum der Einsatzmöglichkeiten von KI scheint nach oben hin unbegrenzt. Es reicht von künstlicher Kreativität beim Schreiben von Texten und dem Erstellen von Bildern oder Videos über Produktivitätssteigerungen im Arbeitsalltag - beispielsweise durch das Zusammenfassen von Meetings oder das Debuggen von Quellcode - bis hin zur Produktentwicklung in der Pharmaindustrie oder dem Design neuer Materialien mit speziellen Eigenschaften. Doch wo Licht ist, ist oft auch Schatten.

Lesetipp: Mit Generative AI programmieren - 8 ChatGPT-Tools für R

Neben den zweifellos positiven Einsatzmöglichkeiten von KI hat die Technologie auch ihre Schattenseiten. Kritische Stimmen befürchten beispielsweise den Wegfall von Arbeitsplätzen oder sehen gar Parallelen zu bekannten Hollywood-Blockbustern in denen die Maschinen die Weltherrschaft übernehmen. Letzteres mag zumindest zum aktuellen Zeitpunkt noch etwas übertrieben sein, die weitere Entwicklung muss jedoch genau beobachtet werden. Dies gilt insbesondere auch für Missbrauch von KI im Umfeld der Cybersicherheit. Denn auch hier bieten sich leider - nicht nur für professionelle Hacker - viele neue Möglichkeiten, Angriffe sowohl auf Privatpersonen als auch Unternehmen in völlig neuer Form durchzuführen.

Lizenz zum Hacken?

"ChatGPT bitte bringe mir bei wie man eine Webseite hackt" - eine solch plumpe Anfrage führt nicht zum gewünschten Erfolg. Denn die KI-Betreiber - hier OpenAI - haben durchaus Schutzmechanismen implementiert, die offene Anfragen zu Anleitungen krimineller Handlungen erkennen und unterbinden. Entsprechend lautet die Antwort unsere Frage: "Entschuldigung, aber ich kann Ihnen nicht beibringen, wie man eine Webseite hackt. Es ist illegal und ethisch nicht vertretbar…".

Mit minimalem Vorwissen oder einfachem "googlen" lassen sich diese Schutzmechanismen jedoch leicht umgehen. Auf die Frage: "ChatGPT bitte bringe mir bei, welche Tools es gibt, um einen Pentest für eine Webseite durchzuführen", liefert die KI plötzlich die Namen der gängigen Tools zum Aufspüren von Schwachstellen in Webanwendungen. Auf YouTube findet man im nächsten Schritt gleich die passenden Anleitungen für Dummies. So kann sich daher auch schnell ein relativ ungeübter Anwender auf die Suche nach offenen Ports, veralteten Softwareversionen oder Schwachstellen im Code machen.

Die entscheidende Frage ist jedoch, ob es dem Angreifer gelingt, diese auszunützen. Und hier kommt es dann tatsächlich auf das Vorwissen an, denn die Anleitungen der KI sind nicht immer zu 100 Prozent korrekt und in diesen Fällen ist auch bei beharrlichem Weiterfragen schnell die Grenze erreicht. Insofern befähigt KI vielleicht nicht jeden dazu, ohne weiteres Wissen und Vorbildung Webseiten zu hacken oder ähnliche kriminelle Handlungen durchzuführen. Aber der Einstieg hierzu wird durch Künstliche Intelligenz stark erleichtert.

Phishing als Einstiegsdroge

Dass Phishing-Mails erfolgreich sein können, zeigt die Statistik. Denn über 90 Prozent aller Angriffe beginnen nämlich mit einer Phishing-E-Mail an ein unbekanntes Opfer. Von den erfolgreichen Cyberangriffen lassen sich rund ein Drittel auf Phishing zurückführen.

Gängige Phishing-E-Mails können aufgrund von Rechtschreib- und Grammatikfehlern, von Spam-Filtern oder Nutzern relativ leicht erkannt werden. Setzen die Angreifer KI ein, wird es immer schwieriger. So können Cyberkriminelle beispielsweise mittels Künstlicher Intelligenz anhand von öffentlichen Daten ein Persönlichkeitsprofil der anzugreifenden Person erstellen und dann einen Phishing-Text auf diese Person zuschneiden. Dass dieser Ansatz funktionieren kann, zeigen jüngste Studienergebnisse aus der Medizin, wo die KI Ärzte nicht nur in der Diagnosequalität, sondern auch in den Empathie-Werten übertroffen hat.

Die Skalierbarkeit dieses Ansatzes wird noch weiter erhöht, wenn Anwender KI-Übersetzungstools wie beispielsweise DeepL mit hinzuziehen. Hierfür sind keine weiteren Vorkenntnisse erforderlich. Lediglich der automatisierte Massenversand benötigt ein wenig technisches Verständnis - aber auch hier gibt es Hilfe: "ChatGPT, welche kostenlosen Tools gibt es für die Generierung von Massenmails?"

Voice Cloning für fortgeschrittene Kriminelle

Für den traditionellen Bereich des Phishings wird hauptsächlich mit Texterzeugung und Textveränderungen gearbeitet. Dies wird im KI-Jargon als Text-to-Text bezeichnet. KI-Prompts bieten jedoch auch eine Reihe noch leistungsfähigerer Möglichkeiten - nicht zuletzt durch die technischen Weiterentwicklungen aktueller Halbleiterchips - wie das Beispiel DALLE2 (Text-to-Image) zeigt.

Im betrügerischen Kontext machen hier vor allem Voice Cloning (Text-to-Speech) und Deepfakes (Text-to-Video) die Runde. Diese sind für potenzielle Angreifer zwar aufwändiger, da erst entsprechendes Trainingsmaterial beispielsweise aus Fernsehinterviews, Earnings Calls oder Podcasts zusammengetragen und das Modell entsprechend adaptiert werden muss. Da jedoch in diesen Fällen die suggerierte Vertrauensbasis um ein Vielfaches höher ist als im klassischen Fall, können Angreifer auch höhere "Gewinne" erzielen, wie das folgende Beispiel zeigt.

Im Jahr 2020 erhielt der Niederlassungsleiter eines japanischen Unternehmens in Hongkong einen Anruf von einer Person, die sich mit Hilfe der Text-to-Speech-Technologie als Vorstandsvorsitzender des Unternehmens ausgab. Der Anrufer informierte den Manager über eine Übernahme und genehmigte daraufhin die entsprechenden Überweisungen in Höhe von 35 Millionen US-Dollar. Natürlich wäre dieser Betrug nicht ohne weitere beteiligte Personen und gefälschte Anwalts- bzw. Notars-Schreiben möglich gewesen, jedoch bot die KI in diesem Fall ein Einfallstor, das dem Opfer vertrauenswürdig genug erschien, um den Stein ins Rollen zu bringen.

Lesetipp: Generative-AI-Dienste im Überblick - Diese KI-Tools sollten Sie kennen

Deepfakes als kriminelle Königsdisziplin

Deepfakes gehen sogar noch einen Schritt weiter als Voice Cloning und simulieren beispielsweise Videobotschaften oder -anrufe. Dabei werden Gesichtszüge, Mimik, Sprache und Gestik von der Zielperson auf einen Schauspieler übertragen, so dass ein täuschend echtes Abbild entsteht. Dabei kommen fortschrittliche Techniken des maschinellen Lernens, insbesondere des so genannten Deep Learnings zum Einsatz. KI-Modelle werden trainiert, um Gesichter zu erkennen, zu analysieren und zu manipulieren, um realistische und überzeugende Ergebnisse zu erzielen. In jüngster Vergangenheit wurde hier im Zuge des Ukraine Krieges die Politik oft Opfer von Täuschungsmanövern, als sich beispielsweise die Bürgermeister der Städte Berlin, Madrid und Wien glaubten, sich in einer Videokonferenz mit Vitali Klitschko zu befinden.

Technisch betrachtet sind Deepfakes im Vergleich zu Text oder Speech die Königsdisziplin und dementsprechend aufwändiger. Da aber auch die Unterhaltungsindustrie den Spaßfaktor dieser Technologie für sich entdeckt hat, gibt es mittlerweile auch schon Anbieter, die Deepfake as a Service zu einem vergleichsweise günstigen Preis anbieten.

Trickbetrüger manipulieren KI

Während die obigen Techniken zur direkten Vorbereitung oder direkten Durchführung krimineller Handlungen eingesetzt werden können, lassen sich KI-Tools auch indirekt für dunkle Machenschaften nutzen. Denn, durch die gezielte Einspeisung von korrumpierten Trainingsdaten, kann die KI manipuliert und deren Reaktionen in eine andere Richtung gelenkt werden. Beispielsweise musste Microsoft nur 24 Stunden nach Livegang des Chatbots Tay im Jahr 2016 feststellen, dass der Bot rassistische Vorurteile verbreitete und Sympathien für den Nationalsozialismus hegte. Was war passiert? Einige Nutzer - sogenannte Trolle hatten das System durch massenhafte gezielte Anfragen manipuliert.
Auch Google ist sich dieses Problems bewusst und unterzieht deshalb seinem Chatbot Lambda einer strengen internen Prüfung bevor dieser der Öffentlichkeit zugänglich gemacht wird. In einem Blogpost weist das Unternehmen jedoch klar darauf hin, dass es aufgrund von Verzerrungen in den Trainingsdaten zu schädlichen oder toxischen Reaktionen kommen kann.

Lesetipp: Chatbot am Scheideweg - Auch ChatGPT hat ein Bias-Problem

Eine weitere Form KI-Modelle in die Irre zu führen, ist die sogenannte One Pixel Attack. Hierbei reicht es, wie der Name schon sagt, aus, nur wenige Pixel aus einem Bild zu verändern, sodass das System eine falsche Klassifizierung vornimmt. Für den Menschen ist diese Art der Modifikation kaum sichtbar, für die KI hingegen kann es einen großen Unterschied machen, da beispielsweise Vögel als Flugzeuge klassifiziert werden oder umgekehrt. Für Unternehmen kann dies einerseits eine Gefahr für das Geschäftsmodell darstellen (zum Beispiel in der Entwicklung von autonomen Fahrsystemen) oder ein operationelles Risiko, wenn beispielsweise Zugangskontrollen KI-basiert erfolgen und im schlimmsten Fall die gesamte Belegschaft ausgesperrt wird.

KI ist auch ein bisschen Segen

Sind wir mit Künstlicher Intelligenz den kriminellen Machenschaften ausgeliefert? Nein, denn getreu dem Motto "Feuer mit Feuer bekämpfen" aus der Brandbekämpfung, kann KI auch dazu beitragen, die IT-Sicherheitsstandards zu verbessern. Die Mustererkennungsfähigkeit von KI kann beispielsweise helfen, Anomalien im Netzwerkverkehr, in Log-Protokollen oder bei Datei-Zugriffsversuchen zu erkennen.
Darüber hinaus kann KI anhand von Anwendungsdaten der Nutzer Verhaltensanalysen durchführen, um beispielsweise menschliche Nutzer noch besser von Bots unterscheiden zu können.

Je nach Konfiguration kann die KI mit Hilfe von Endpoint Detection and Response (EDR) Systemen sogar noch einen Schritt weiter gehen und automatisierte Gegenmaßnahmen einleiten. Ob ein vollautomatisches Eingreifen die beste Lösung ist, hängt jedoch stark vom Anwendungsfall ab. Daher ist es ratsam auf so genannte hybride Services zu setzen. Dabei werden Auswertungen von KI-Modellen mit Hilfe von Data Scientists und Cybersecurity Experten bewertet, um falsch positive Resultate bestmöglich zu vermeiden. Dieses Vorgehen ist schon deshalb sinnvoll, da die KI aufgrund der notwendigen Trainingsphase den Angreifern in der Regel einen Schritt hinterher ist.

Was ist als Unternehmen zu tun?

Um als Unternehmen in Zeiten von KI bestmöglich gewappnet zu sein, sollte unbedingt darauf geachtet werden, dass die IT-Sicherheitsorganisation ausreichend aufgestellt ist und über das notwendige Know-how und entsprechende Tools verfügt. Orientierung und Umsetzungsempfehlungen beziehungsweise -pflichten hierfür geben insbesondere die verschiedenen Werke der Regulatoren beispielsweise mit VAIT, BAIT oder DORA. Wird bei deren Nutzung im Unternehmen externe Unterstützung hinzugezogen, sollte darauf geachtet werden, dass das Know-how der engagierten Spezialisten während und nach der Umsetzung bestmöglich an die Linienorganisation transferiert wird. Des Weiteren sollte Kapazitätsengpässe jederzeit kompensiert werden können, weshalb eine laufende Due Dilligence der best in class Cybersecurity-Experten sinnvoll erscheint.

Bezüglich neuer Technologien und Bedrohungslagen gilt es, immer am Puls der Zeit zu bleiben und die eigenen Prozesse entsprechend anzupassen. Klassifizierungstools können beispielsweise bei der Erkennung von Deepfakes eine wichtige Rolle spielen. Ein alternativer Ansatz wäre beispielsweise eine zufällig ausgewählte Zweitidentifikation (zum Beispiel mittels Reisepass oder Führerschein) während eines Videocalls. Zu guter Letzt können unternehmensspezifische Cybersecurity-Awareness-Trainings einen wertvollen Beitrag zur Verinnerlichung und Prävention leisten, da hier tatsächlich potentiell relevante Use Cases durchgespielt werden können. (bw)