Bedrohliche Lage

Politiker schlagen Alarm bei KI

02.11.2023
Von 
Heinrich Vaske ist Editorial Director a.D. von COMPUTERWOCHE, CIO und CSO.
Weltweit wollen führende Nationen zusammenarbeiten, um die Risiken künftiger KI-Entwicklungen zu beherrschen. Hierin sind sich sogar die rivalisierenden Weltmächte USA und China einig.
Zu Gast auf dem Landsitz unweit von London: US-Vizepräsidentin Kamala Harris.
Zu Gast auf dem Landsitz unweit von London: US-Vizepräsidentin Kamala Harris.
Foto: Sheila Fitzgerald - shutterstock.com

Auf dem englischen Landsitz Bletchley Park haben führende Persönlichkeiten aus Politik und IT-Wirtschaft beim AI Safety Summit die Köpfe zusammengesteckt, um den Risiken der künstlichen Intelligenz gemeinsam begegnen zu können. Repräsentanten der Regierungen aus aller Welt gelobten in der Bletchley Declaration eine Zusammenarbeit, um Kontrollverlust und Missbrauch zu verhindern. Aus Deutschland nahm Wirtschaftsminister Robert Habeck teil.

KI, so heißt es in der Abschlusserklärung, könne in ihren fortgeschrittensten Formen katastrophale Risiken in Bereichen wie Cybersicherheit und auch in der Biotechnologie hervorrufen. Im schlimmsten Fall könne sie sich sogar der menschlichen Kontrolle entziehen. Die USA, China und zwei Dutzend weiterer Länder verpflichteten sich zu einer engen Zusammenarbeit bei der Bewertung der Risiken, die von künftigen KI-Systemen ausgehen. Zudem soll ein gemeinsamer rechtlicher Rahmen entstehen, um den Einsatz fortgeschrittener Modelle zu kontrollieren.

Science-Fiction-Szenarien lieber ernst nehmen

"Manchmal lohnt es sich, Science-Fiction ernst zu nehmen", sagte Michelle Donelan, britische Staatssekretärin für Wissenschaft, Innovation und Technologie. Dass eine internationale Zusammenarbeit bei einem solch elementaren Thema möglich sei, belegte sie mit der Wahl des historisch bedeutsamen Orts: In Bletchley Park gelang es während des zweiten Weltkriegs dank internationaler Zusammenarbeit, die Chiffriermaschine Enigma der Nazis zu knacken.

Die Bletchley Declaration warnt vor dem möglichen Missbrauch leistungsstarker KI-Modelle durch bösartige Akteure und auch vor einem unbeabsichtigten Kontrollverlust über entsprechende Systeme, wenn diese nicht vollständig verstanden und beherrscht würden. Damit gibt es erstmals eine internationale Erklärung, in der vor einer potenziell existenziellen Bedrohung der Menschheit durch leistungsstarke neue KI-Modelle die Rede ist.

In Bletchley war denn auch die realistische Einschätzung des Bedrohungspotenzials durch KI das Hauptthema. Unter anderem nahm eine US-Delegation unter der Leitung von Vizepräsidentin Kamala Harris teil, ebenso die Topmanager führender KI-Unternehmen, darunter Elon Musk und OpenAI-Chef Sam Altman. Beide waren im Vorfeld wiederholt auf die potenziell zerstörerische Kraft der KI eingegangen - und beide wissen wohl auch, wovon sie sprechen, denn sie gehören zu den Hauptakteuren in diesem für Außenstehende nur schwer nachvollziehbaren Spiel.

Fortschritt oder doch nur allgemeingültiges Blabla? In Bletchley unterzeichneten Länder aus aller Welt eine gemeinsame Erklärung zur KI-Sicherheit.
Fortschritt oder doch nur allgemeingültiges Blabla? In Bletchley unterzeichneten Länder aus aller Welt eine gemeinsame Erklärung zur KI-Sicherheit.
Foto: GOV.UK

Wahlmanipulationen sind ein realistisches Problem

Andere wollten sich weniger mit möglichen Weltuntergangsszenarien als mit naheliegenden, praktischen Problemen beschäftigen. So sagte Nick Clegg, Kommunikationschef von Meta Platforms und ehemals stellvertretender Premierminister von Großbritannien, es sei momentan wichtiger, sich etwa mit gefakten Audio- und Videobeiträgen zu befassen oder der konkreten Bedrohung der Manipulation von Wahlen mittels KI. Das seien die Dinge, "die direkt vor der eigenen Nase" lägen.

Die USA erklärten, dass sie unter dem Dach ihres Handelsministeriums ein KI-Sicherheitszentrum einrichten und von dort aus mit einer vergleichbaren Einrichtung der Briten eng zusammenarbeiten wollten. Ziel sei es, das Benchmarking für die Fähigkeiten von KI-Systemen voranzutreiben und dafür Standards festzulegen. Außerdem sollen dort die Reporting-Daten führender KI-Unternehmen gesammelt und gesichtet werden, um so einer neuen Executive Order der Biden-Administration nachzukommen.

Chinas Teilnahme sorgt für Erleichterung

Westliche Politiker und Führungskräfte aus der Industrie begrüßten die Teilnahme Chinas am KI-Gipfel. Nicht wenige befürchten, dass künstliche Intelligenz als Instrument im Wettrüsten der Supermächte eingesetzt werden könnte. China hatte Wu Zhaohui entsandt, den Vizeminister für Wissenschaft und Technologie. Er sagte anlässlich der Eröffnung des Gipfels, sein Land werde sich an der Einrichtung von internationalen Test- und Bewertungseinrichtungen für KI beteiligen.

Kamala Harris schlug vor, dass die Experten ihre Definition von KI-Sicherheit erweitern sollten, um ein möglichst breites Spektrum an Risiken berücksichtigen zu können. Das Aufkommen von Generative AI habe schon jetzt zu Schäden für die Gesellschaften geführt - beispielsweise zur Diskriminierung von Menschen durch falsch trainierte Systeme (Stichwort: Bias) oder zur Verbreitung von Fehlinformationen. Einige dieser Herausforderungen hatte die US-Regierung bereits wenige Tage vor dem Gipfel mit ihrer KI-bezogenen Executive Order adressiert.

Auf mögliche soziale Auswirkungen von KI waren im Vorfeld des Gipfels zudem einige Gewerkschaften und Organisationen, die sich mit digitalen Rechten beschäftigen, eingegangen. In einem offenen Brief schrieben sie, die Regulatorik müsse verhindern, dass Menschen aufgrund eines Algorithmus' ihren Job verlören oder dass anhand von Daten, wie etwa einer Postleitzahl, ein Scoring erstellt werden könne, das zu schlechteren Konditionen beim Beantragen eines Kredits führe. "Kleine Betriebe und Künstler werden verdrängt und Innovationen erstickt, während eine Handvoll großer Technologieunternehmen noch mehr Macht und Einfluss erlangt", schrieben die Kritiker weiter.

KI-Forscher interessierten sich auf dem Gipfel allerdings eher für das große Bild. Sie zeigten sich besorgt über die ihrer Meinung nach katastrophalen Risiken der KI und forderten die politischen Entscheidungsträger auf, die Entwicklung fortgeschrittener Systeme genau zu kontrollieren. So drängte das Future of Life Institute, eine gemeinnützige Organisation, auf verbindliche Regeln: Unternehmen müssten künftig von sich aus nachweisen können, dass ihre Systeme keine existenziellen Gefahren für Dritte bedeuteten. Ein System, das die Verantwortung bei staatlichen Aufsichtsbehörden vorsehe, sei nicht sicher genug.

Max Tegmark, Präsident des Future of Institute und Wissenschaftler an der Eliteuniversität MIT, bezeichnete die Erklärung von Bletchley trotz aller Einwände und Bedenken als Fortschritt. "Wenn eine gemeinsame Erklärung zu dem Schluss kommt, dass es sich hier um ein echtes Risiko handelt, ist das schon ein großer Schritt", so Tegmark. (hv)