Erster internationaler Gipfel zum KI-Einsatz im Krieg

Globale Kommission will KI-Waffen regulieren

20.02.2023
Von 
Jürgen Hill ist Chefreporter Future Technologies bei der COMPUTERWOCHE. Thematisch befasst sich der studierte Diplom-Journalist und Informatiker derzeit mit aktuellen IT-Trendthemen wie KI, Quantencomputing, Digital Twins, IoT, Digitalisierung etc. Zudem verfügt er über einen langjährigen Background im Bereich Communications mit all seinen Facetten (TK, Mobile, LAN, WAN). 
KI als Waffe? Was manchen als Alptraum erscheint, sehen viele Staaten als probates Mittel der Kriegsführung. Sie ringen um einen verantwortungsvollen KI-Einsatz im Krieg.
KI verändert nicht nur unser tägliches Leben, sondern auch die Art und Weise der Kriegsführung. Auf einem internationalen Gipfel diskutierten jetzt über 60 Staaten, wie der militärische KI-Einsatz reguliert werden kann.
KI verändert nicht nur unser tägliches Leben, sondern auch die Art und Weise der Kriegsführung. Auf einem internationalen Gipfel diskutierten jetzt über 60 Staaten, wie der militärische KI-Einsatz reguliert werden kann.
Foto: Ministry of Foreign Affairs (The Netherlands)

Während die Teilnehmer der 59. Münchner Sicherheitskonferenz über aktuelle Sicherheitsfragen und den Krieg in der Ukraine diskutierten, hatte fast zeitgleich in Den Haag die REAIM Premiere. Auch bei dieser Konferenz ging es um Sicherheitsfragen, allerdings um die "Responsible Artificial Intelligence in the Military Domain". Auf dem ersten globalen Gipfel zu diesem Thema trafen sich Vertreter aus mehr als 60 Ländern - darunter die USA und China -, um über den verantwortungsvollen Einsatz von KI im militärischen Bereich zu diskutieren und schließlich einen Aktionsaufruf zu unterzeichnen.

Im Gegensatz zu den in der Vergangenheit gemachten Erfahrungen mit Dumdum-Geschossen und biologischen und chemischen Waffen, wollen die Staaten diesmal in Sachen KI bereits handeln, bevor das Schlimmste passiert. Optimistisch, manch einer würde auch sagen etwas blauäugig, befand die niederländische Verteidigungsministerin Kajsa Ollongren: "Mit den richtigen Rahmenbedingungen und Gesetzen wird der Einsatz von KI unsere operativen und logistischen Prozesse einfacher und effizienter machen. Auf diese Weise schützen wir nicht nur unsere eigenen Truppen, sondern können auch Schaden und Verluste so weit wie möglich begrenzen."

Zerstörende oder helfende KI?

Letztlich drehte sich der Gipfel um zwei zentrale Fragen. Zum einen, wie sich durch KI-Einsatz die Schäden im Krieg begrenzen lassen, etwa, indem mit Hilfe von Künstlicher Intelligenz eine Rakete vor dem Einschlag in ein Wohnhaus abgefangen wird. Auf der anderen Seite stand die Frage, inwieweit der Mensch für die Handlungen KI-gestützter oder -gesteuerter Waffensysteme verantwortlich ist. Das Meinungsbild auf dem Gipfel tendierte dazu, dass der Mensch die letzte Entscheidung zu treffen habe, wenn es darum geht, ein autonomes System abzufeuern oder eine von einer KI empfohlene Handlung auszuführen.

Call for Action

Um dies zu erreichen, forderten die Gipfelteilnehmer die Einrichtung einer Globalen Kommission für KI. Sie soll klären, wie KI im militärischen Bereich zu definieren ist, und Leitlinien bestimmen, wie diese Technologie verantwortungsvoll entwickelt, hergestellt und eingesetzt werden kann. Ferner habe die Kommission die Aufgabe, die Bedingungen für eine wirksame Steuerung von KI festzulegen. Parallel dazu unterzeichneten die teilnehmenden Staaten einen Handlungsaufruf "Call for Action", um den verantwortungsvollen militärischen Einsatz von KIzu fördern und zu regeln.

Nur Absichtserklärungen

Kritiker bemängeln allerdings, dass dieser Call for Action nicht rechtsverbindlich ist. Zudem gehe er auf kritische Themen, wie etwa KI-gestützte Drohnen, die sich selbständig auf ihr Ziel stürzen, oder auf Raketen, die ohne menschliches Eingreifen töten könnten, nicht ein. Zudem werde das Risiko, dass eine KI einen militärischen Konflikt eskalieren könnte, nicht angesprochen.

Best Practices für KI im Militär

Zeitgleich zur Verabschiedung des Call-for-Action-Papiers veröffentlichte das US-Außenministerium eine "Political Declaration on Responsible Military Use of Artificial Intelligence and Autonomy". In der Erklärung rufen die USA die Staaten, die KI für militärische Zwecke entwickeln, dazu auf, dies ethisch und verantwortungsvoll zu tun. Zudem enthält das Dokument zwölf Best Practices für die Entwicklung militärischer KI-Fähigkeiten und betont dabei die menschliche Verantwortlichkeit. Die zwölfin dem Dokument aufgeführten Praktiken betreffen die Sicherheit von Kernwaffen, die verantwortungsvolle Gestaltung von Systemen, die Ausbildung des Personals und Prüfungsmethoden für militärische KI-Fähigkeiten. Das Dokument unterstreicht auch die Notwendigkeit, unbeabsichtigte Verzerrungen und Unfälle zu minimieren, sowie die Bedeutung von Tests, um die Sicherheit und Wirksamkeit militärischer KI-Fähigkeiten zu gewährleisten.