Künstliche Intelligenz

Der Mensch darf nicht zur moralischen Knautschzone für KI werden

Wolfgang Kobek ist VP EMEA beim Business Intelligence-Anbieter Qlik. Als früherer Geschäftsführer der DACH-Region hat er viele Unternehmen dabei unterstützt, die vielfältigen Einsatzmöglichkeiten von Datenanalyse und -visualisierung umzusetzen. Er sagt: BI ist keine Nische, sondern bietet Vorteile gleichermaßen für den Mittelstand und Großkonzerne, für die Fertigungsindustrie ebenso wie den Dienstleistungssektor und natürlich sämtliche Fachabteilungen im Unternehmen.
Mit jeder Weiterentwicklung von künstlicher Intelligenz wird die Frage brisanter: Wo liegen die moralischen Grenzen von Technologie?

Keine technischen Fehlfunktionen – so lautete unlängst das Urteil der US-Verkehrsaufsichtsbehörde, die den tödlichen Unfall eines selbstfahrenden Tesla untersucht hatte. Also alles gut? Oder mal andersherum gefragt: Was wäre, wenn das Urteil anders ausgefallen wäre, weil die Technologie möglicherweise doch noch nicht reif für die öffentliche Anwendung war? Unabhängig von dem Tesla-Beispiel gilt: Am Ende des Tages sind es Menschen, die die Auswirkungen von Fehlern der Maschinen zu spüren bekommen und es sind auch Menschen, die dafür zur Rechenschaft gezogen werden.

Beispiel Tesla: Am Ende des Tages sind es Menschen, die die Auswirkungen von Fehlern der Maschinen zu spüren bekommen.
Beispiel Tesla: Am Ende des Tages sind es Menschen, die die Auswirkungen von Fehlern der Maschinen zu spüren bekommen.
Foto: Tinxi - Shutterstock.com

Madeleine Clare Elish, eine US-amerikanische Wissenschaftlerin, die sich viel mit dem Thema künstliche Intelligenz befasst, nennt dies moralische Knautschzone („moral crumple zones“). Sie meinte damit Situationen, in denen wir zwar Maschinen die Kontrolle übergeben haben, die Auswirkungen von Fehlschlägen aber auf uns zurückprallen. Im Fall einer Schachpartie ist ein solcher „Fehlschlag“ von künstlicher Intelligenz (also deren Niederlage gegen einen Menschen) sicherlich noch sehr gut zu verkraften.

Aber was ist mit Situationen, in denen beispielsweise der Mitarbeiter einer Servicehotline den Frust eines Kunden abbekommt, weil ein Algorithmus eine automatisierte Entscheidung gegen diesen getroffen hat? Auch Situationen, die keine Gefahr für Leib und Seele darstellen, können mitunter entscheidende, beispielsweise finanzielle Auswirkungen für Unternehmen haben. Wie gehen wir also mit der fortschreitenden Entwicklung von KI-Technologien um?

Big Data: Wir müssen Daten lesen lernen

Technischer Fortschritt, auch im Bereich künstlicher Intelligenz ist wichtig, unterstützt er uns doch in vielen Situationen in Beruf und Alltag. Doch wenn wir weiterhin intelligente Maschinen als schnelle, automatisierte Entscheidungssysteme einsetzen möchten, dann müssen wir Mechanismen einbauen, die es vermeiden, dass wir in besagten moralischen Knautschzonen gefangen werden. Und dies meint nicht unbedingt die Gesetzgebung, vielmehr geht es um die Verantwortung eines jeden einzelnen. Nämlich wenn es um die Grundlage geht, auf der solche künstliche Intelligenz baut: Daten. Hierfür bedarf es die Entwicklung einer Kultur der Analytik. Ebenso wie wir im Laufe unseres Lebens laufen, sprechen und lesen lernen, muss auch die Lesefähigkeit für Daten erst entwickelt werden.

Letztlich müssen wir alle erfolgreich mit Daten lesen, arbeiten, analysieren und sogar diskutieren können, nicht nur Maschinen oder eine kleine Gruppe ausgewählter Data Scientists. Ein spannendes Beispiel aus dem Luftfahrtbereich ist die für den Airbus 320 neu entwickelte bionische Trennwand, die erheblich leichter, aber ebenso stabil wie die bisherige Wand zwischen Passagierbereich und Bordküche sein sollte.

Die Anforderungen an diese Trennwand wurden von den Designern vorgegeben, die tatsächlichen Designoptionen aber mithilfe von Cloud Computing von einer Software entwickelt. Diese konnte zunächst unzählige Konfigurationen testen (was manuell erheblich zeitintensiver gewesen wäre) und so in jedem Durchlauf lernen, was funktioniert und was nicht. Nach abschließenden Belastungstests wird die Neuentwicklung durch die Luftfahrtbehörde zertifiziert.

Es geht also um die richtige Balance zwischen Maschinenintelligenz und Menschenintelligenz. Wenn künstliche Intelligenz Ärzte dabei unterstützt, bessere Diagnosen zu erstellen, kann dies Menschen retten. Dennoch überprüfen Ärzte zum Schutz des Patienten die gestellten Diagnosen. Und auch in selbstfahrenden Autos sind derzeit immer Fahrer dabei.

Um „moralischen Knautschzonen“ zu vermeiden, ist es wichtig, Ergebnisse hinterfragen zu können. Oder die Datengrundlage bewerten zu können. Erst unter diesen Voraussetzungen sollten wir intelligente Maschinen einsetzen, um uns bei unseren täglichen Entscheidungen zu unterstützen und neue Arbeitsmethoden und Ideen schneller erforschen zu lassen, als wir es oft leisten können. (mb)

 

Meyer

Der Autor schreibt, "um „moralischen Knautschzonen“ zu vermeiden, ist es wichtig, Ergebnisse hinterfragen zu können. Oder die
Datengrundlage bewerten zu können. Erst unter diesen Voraussetzungen
sollten wir intelligente Maschinen einsetzen,..."

Genau dieses Hinterfragen und Bewerten aber wird nicht möglich sein. Ein selbstlernendes System, das beispielsweise in der Lage ist, MRT-Scans oder Röntgenbilder von Abertausenden von Patienten in Sekundenschnelle auszuwerten; das gleichzeitig Tausende von Befunden, von wissenschaftlichen Arbeiten, Untersuchungen etc. lesen und begutachten kann - ein System, das nach dieser Exgese mögliche Diagnosen und daraus Behandlungsoptionen vorschlägt, kann von einem Arzt nicht mehr "verstanden" werden. Es fehlt ihm einfach das ausufernde Wissen, das die Maschine, das System hat.

Mit anderen Worten: Der jeweils behandelnde Arzt muss sich verlassen können darauf, dass die Diagnosen und Behandlungsoptionen, die das System vorschlägt, richtig sind. Im Prinzip haben wir diese Art der Abhängigkeit der Menschen von maschinengenerierten Ergebnissen heute ja schon in verschiedenen Bereichen.

comments powered by Disqus