Hawking, Wozniak, Chomsky, Musk

Forscher warnen vor KI in autonomen Waffen

28.07.2015
Es gibt bereits Roboter, die auf unwegsamem Gelände laufen können, und Computer, die mit vorgegebenen Informationen selbstständig Entscheidungen treffen. Kommen als nächstes Roboter, die eigenständig töten? Wissenschaftler senden eine eindringliche Warnung.

Wissenschaftler und Technologie-Experten warnen vor der Entwicklung selbstständiger Kampfroboter für den Krieg. Intelligente Drohnen, die anhand definierter Kriterien eigenständig Menschen töten können, seien möglicherweise schon in wenigen Jahren verfügbar, hieß es in einem Offenen Brief. Unterzeichnet wurde das Schreiben unter anderem von dem Astrophysiker Stephen Hawking, Apple-Mitgründer Steve Wozniak, Sprachwissenschaftler Noam Chomsky und dem Silicon-Valley-Star Elon Musk, der unter anderem mit seiner Firma Tesla Elektroautos entwickelt.

Filmszene aus 'Terminator'
Filmszene aus 'Terminator'
Foto: Tristar

"Künstliche Intelligenz ist an einem Punkt angelangt, an dem der Einsatz solcher Systeme innerhalb weniger Jahre, nicht Jahrzehnte, möglich sein wird", schrieben die Forscher. Ein Wettrüsten bei Computer-gesteuerten Kriegswaffen müsse verhindert werden. Die Forscher richteten sich ausdrücklich nicht gegen von Menschen gesteuerte Kampfdrohnen, wie sie die USA beispielsweise im Kampf gegen mutmaßliche Terroristen einsetzen.

Die autonomen Waffensysteme könnten leicht in die Hände von Terroristen und Diktatoren fallen, warnten die Robotik-Forscher. Roboter, die nach bestimmten Kriterien Menschen zur Tötung aussuchen könnten, eigneten sich für gezielte Mordanschläge und sogenannte ethnische Säuberungen. Mit künstlicher Intelligenz ausgestattete Waffensysteme sollten deshalb verboten werden, hieß es in dem von fast 2000 Experten unterzeichneten Brief.

Als Wissenschaftler wollten sie sich nicht an der Entwicklung solcher Systeme beteiligen, heißt es in dem Appell. Die Forscher veröffentlichten ihre Warnung anlässlich der International Joint Conferences on Artificial Intelligence (IJCAI) in Buenos Aires. Ein Wettrüsten bei künstlicher Intelligenz zu militärischen Zwecken sei eine schlechte Idee und müsse verhindert werden, forderten sie. (dpa/tc)

 

Horst Ulrich Köther

Es ist schon toll, daß sich meine Meinung auch bei Anderen entwickelt. Insofern beruhigt es aber nicht, da offensichtlich nur Wenige erkennen, daß Computer "die drei Gesetze" brauchen. Allerdings, wie soll man vom Produkt des Menschen erwarten, daß es Gesetze einhält, die der Mensch selbst nicht einhält, zumal es dann noch genau zum Gesetzesbruch gebaut wird: "Du sollst nicht töten" ist das oberste Gebot. Nun, wer "intelligente" Drohnen baut, der sollte daran denken: "Wer das Schwert hebt, wird durch das Schwert umkommen!", denn eine Drohne läßt sich umprogrammieren, Intelligenz kann sich auch gegen den Erschaffenden wenden. Wer Angst vor einer Spielzeugdrohne (über dem weißen Haus) hat, der sollte keine Kriegsdrohnen losschicken. Wenn er es dennoch tut, dann MUSS demjenigen das Wort Kriegsverbrecher auf die Stirn tätowiert werden, denn das ist er dann! Das gilt natürlich überall. Bevor jetzt kommt: "Die Anderen ...", sage ich dazu: "Was ich selber gerne tu', daß trau ich auch den Andren zu!".

comments powered by Disqus