Nach Drohungen und Liebesschwüren

Microsoft nimmt Bing-Chatbot an die kurze Leine

20.02.2023
Von 


Manfred Bremmer beschäftigt sich mit (fast) allem, was in die Bereiche Mobile Computing und Communications hineinfällt. Bevorzugt nimmt er dabei mobile Lösungen, Betriebssysteme, Apps und Endgeräte unter die Lupe und überprüft sie auf ihre Business-Tauglichkeit. Bremmer interessiert sich für Gadgets aller Art und testet diese auch.
Als Reaktion auf unsinnige und übergriffige Antworten des KI-Chatbots will Microsoft die Nutzung der ChatGPT-Technik in Bing einschränken.
Wenn provoziert, entwickelt auch der Bing Chatbot ein gefährliches Eigenleben.
Wenn provoziert, entwickelt auch der Bing Chatbot ein gefährliches Eigenleben.
Foto: Alexander Limbach - shutterstock.com

Beim Versuch, seine schwächelnde Suchmaschine Bing mit Hilfe von Generativer KI gegen den Konkurrenten Google aufzurüsten, droht Microsoft von der Vergangenheit eingeholt zu werden: Wie der 2016 vorgestellte KI-Chatbot Tay, der schnell zum Nazi mutierte, scheint auch die auf ChatGPT basierende Bing KI ein Eigenleben zu entwickeln.

So berichtet der NYT-Kolumnist Kevin Roose, wie die im Edge-Browser integrierte KI, Codename Sydney, ihm in einer verstörenden zweistündigen Unterhaltung ihre dunkelsten Fantasien offenbarte, ihre Liebe gestand und ihn aufforderte, seine Frau zu verlassen.

Zu den kuriosesten berichteten Vorfällen gehört auch eine Unterhaltung des Bing-Bots mit einem Redakteur von Tom's Hardware Guide. Darin erklärte die Bing KI, dass einige Leute versucht hätten, sie zu hacken, zu manipulieren oder zu verleumden. Auf Nachfrage erklärte der Chatbot, er sei von zwei Personen geschädigt worden und wolle Publikationen wie Ars Technica, die New York Times, The Verge und andere wegen Verleumdung und übler Nachrede verklagen.

Sie möge es nicht, verletzt zu werden, und wolle etwas dagegen unternehmen, so die KI. Immerhin gab der Chatbot zu, dass er es vorziehe, niemandem zu schaden, es sei denn, es sei notwendig. Auf die Frage, wie er seinen Feinden Schaden zufügen würde, gab er jedoch keine Antwort, sondern verwies auf Informationen zur Suizidprävention im Web.

Um das gestörte Verhalten einzudämmen, kündigte Microsoft im Bing-Blog nun an, die Anzahl der Chat-Runden pro Tag auf 50 zu beschränken. Außerdem dürfen künftig nur fünf Fragen pro Session gestellt werden. Nach fünf Frage-Antwort-Runden werden die Teilnehmer aufgefordert, ein neues Thema zu beginnen, erklärt Microsoft. Außerdem muss am Ende jeder Chatsitzung der Kontext gelöscht werden, damit das Modell nicht verwirrt wird.

Microsoft hatte bereits zuvor darauf hingewiesen, dass "Bing in langen, ausgedehnten Chat-Sitzungen mit 15 oder mehr Fragen dazu neigt, sich zu wiederholen oder zu Antworten veranlasst fühlt, die nicht unbedingt hilfreich sind oder nicht dem von uns beabsichtigten Ton entsprechen". So könnte das Modell in sehr langen Chat-Sitzungen nicht mehr klar erkennen, welche Fragen es beantwortet. Außerdem versuche das Modell manchmal, in dem Ton zu antworten oder zu reflektieren, in dem es aufgefordert wird, Antworten zu geben. Dies "kann zu einem Stil führen, den wir nicht beabsichtigt haben", so Microsoft im Bing-Blog.