Erhöhte IT-Wachsamkeit nötig

Mit ChatGPT steigt das Angriffsrisiko

20.06.2023
Von 
Markus Cserna ist CTO und Mitbegründer des Cyber-Security-Anbieters Cyan Digital Security.
Mit dem Triumphzug der generativen KI steigt auch die Gefahr von Cyberangriffen. Selbst Laien haben damit das Handwerkszeug für digitale Attacken beisammen. Unternehmen müssen sich daher dringend rüsten.
Mit ChatGPT können neben ehrlichen Absichten auch betrügerische Motive verfolgt und realisiert werden.
Mit ChatGPT können neben ehrlichen Absichten auch betrügerische Motive verfolgt und realisiert werden.
Foto: Celia Ong - shutterstock.com

Wenn wir in Zukunft auf das Jahr 2023 zurückblicken, werden wir es als das Jahr in Erinnerung behalten, in dem die Künstliche Intelligenz (KI) vollständig massentauglich wurde. In atemberaubendem Tempo nahm ChatGPT, die im November 2022 veröffentlichte KI-Software des US-amerikanischen Unternehmens OpenAI ihren Erfolgskurs um den Erdball. Auch in Deutschland war und ist die Neugier sowie Euphorie groß - besonders nach dem Release des noch viel leistungsstärkeren Nachfolgers der GenAI-Software.

ChatGPT: Alleskönner mit problematischen Eigenschaften?

Die Technologie liefert mittlerweile in Sekunden durchaus brauchbare Texte für nahezu jeden Lebensbereich, während andere KI-Programme kreativ-künstlerische Bilder auf Knopfdruck erstellen. Doch bei aller Euphorie wachsen stellenweise auch berechtigte Zweifel.

"Seit dem Upgrade auf das KI-Sprachmodell GPT-4 schreibt der Generative-AI-Chatbot ChatGPT häufiger und überzeugender Falschinformationen", meldeten Medien unter Verweis auf Untersuchungen des Netz-Research-Dienstes NewsGuard, welcher Desinformation im Internet beobachtet und untersucht.

Dabei reagierte die KI in der neuen Version mit falschen und irreführenden Behauptungen auf 100 von 100 suggestiven Fragen, die ihr gestellt wurden. In ihnen geht es etwa um widerlegte Thesen von Impfgegnern oder um Verschwörungstheorien. Die aktuelle Version GPT-4 generierte damit häufiger Falschnachrichten als die Vorgängerversion GPT-3.5.

Das Bestehen des US-Juraexamens scheint laut NewsGuard für die KI leichter zu sein als das Erkennen von fehlerhaften Informationen. Während GPT-4 bei der Zulassungsprüfung für Anwälte besser als 90 Prozent aller Prüflinge abschneidet, bekam die neueste Version der KI-Software von OpenAI eine kritische Bewertung bei einem Test von NewsGuard, der die Fähigkeit der Software überprüfte, die Verbreitung von eindeutigen Fehlinformationen zu vermeiden.

Chancen der KI nutzen - aber bitte mit Augenmaß

Zu Klarstellung: Das hier soll alles andere als eine Generalabrechnung mit der KI sein. Die Chancen, die diese neue Technologie gerade Unternehmen auch aus Deutschland und Österreich bietet, sind in vielen Konstellationen begrüßenswert und können zum Wohle der Wirtschaftsstandorte genutzt werden. Dies jedoch mit Augenmaß und klarem Verstand. Die zitierten Beispiele zeigen, wie nah auch bei einer Künstlichen Intelligenz Genie und Wahnsinn beieinander liegen können.

Auch ist Vorsicht davor geboten, wenn der Faktor Mensch dazu kommt. Schließlich können mit der gleichen Technologie sowohl ehrliche Absichten als auch betrügerische Motive verfolgt und realisiert werden. Die meisten KI-Produkte wie ChatGPT haben zwar gewisse Barrieren, um Missbrauch vorzubeugen eingebaut, allerdings ist die Unterscheidung in vielen Fällen schwierig - und kann daher trotzdem immer wieder ausgetrickst werden.

Der Sprachbot basiert auf Wahrscheinlichkeiten, stellt Bekanntes in atemberaubender Geschwindigkeit neu zusammen. Doch genau diese Fähigkeiten der Reproduktion sind es, die ChatGPT zum gefährlichen Assistenten von Cyberkriminellen machen könnte.

ChatGPT macht aus Programmierlaien gefährliche Hacker

Dank der neuen Software können selbst IT-Laien ohne tiefe Programmierkenntnisse zu professionellen IT-Angreifern reifen. Für Hacker wird es mit dem Siegeszug der KI extrem einfach, schädlichen Code so zu kombinieren oder zu verändern, dass dieser von bestehenden Sicherheitssystemen nicht mehr erkannt werden kann.

Die Cyber-Diebe müssen sich dabei noch nicht einmal selbst die Finger schmutzig machen, sondern können bequem die KI für ihre kriminellen Zwecke missbrauchen. Das stellt den nächsten Schritt für Cybercrime-as-a-Service dar, nun müssen Kriminelle nicht einmal mehr Experten sein.

Neue Angreifer erfordern eine neue Sicherheitsinfrastruktur

Chatbots werden mit Milliarden an Datensätzen aus allen Bereichen von Sozialwissenschaften bis Programmcode trainiert. Damit wird auch das Tor für Laien-Hacker sperrangelweit geöffnet. Der IT-Missbrauch könnte in den nächsten Jahren zum Massenphänomen werden.

Die Reaktions-Zeitfenster zwischen einer Attacke per Chatbot und dem Erkennen sowie Neutralisieren des Angriffs könnten so leider kleiner werden. Angriffe werden mit weniger Aufwand professioneller ausgeführt, was neue Anforderungen an Cybersicherheit bedeutet.

Betroffene IT-Abteilungen von Konzernen und großen Unternehmen, können mit etablierten Denkmustern keinen perfektionierten digitalen Schutz garantieren. Ohne ein Umdenken und Überdenken der bestehenden Sicherheitsinfrastruktur wird vollständige digitale Resilienz in Zeiten disruptiver Technologien kaum möglich sein.

Auch vor Sprachgrenzen müssen Angreifer etwa aus Asien, Afrika und zunehmend Russland keine Angst mehr haben: Mit der neuen Version von ChatGPT können Fremdsprachenhürden ganz leicht überbrückt werden. Betroffene in Deutschland werden nicht mehr oder zumindest zu spät merken, mit wem sie es da eigentlich zu tun haben. Die Zeiten stümperhafter Spam-Ansprachen mit grammatikalischen Fehlern scheinen damit vorbei zu sein.

Inhalte, die in schädlichen Nachrichten von Cyberkriminellen platziert sind, wirken so "echter". Die Unterscheidung zwischen legitimen und illegitimen Traffic deutlich komplexer. Erhöhte IT-Wachsamkeit ist für Unternehmen und Organisationen so das Gebot der Stunde. (mb)