"Man sollte nicht auf 100 000 Expertensystem-Gurus hören"

Minsky: Den Computer eine Art von Common Sense lehren

07.02.1992

Marvin Minsky* ist ein Extremist. Je mehr er die Leute mit seinen Aussagen über Künstliche Intelligenz und Philosophie schockieren kann, desto mehr Spaß hat er daran. Felix Weber** hat einen Vortrag Minskys am Gottlieb-Duttweiler-Institut in Rüschlikon über künstliche Intelligenz und neuronale Netze für die CW bearbeitet.

Vor 95 Millionen Jahren tauchten die ersten Affen auf. Der nächste große Entwicklungsschritt war ihre Aufsplittung vor fünf Millionen Jahren in verschiedene Arten: Orang-Utan, Pavian, Gorilla und Schimpanse. Schimpansen und der heutige Mensch sind sich sehr ähnlich: Ihre DNS unterscheidet sich nur um etwa ein Prozent. In den letzten fünf Millionen Jahren hat sich also biologisch sehr wenig geändert. In puncto Intelligenz jedoch war die Entwicklung frappierend.

Computer gewann Amateur-Schachturnier

Der Computer tauchte, gemessen an solchen Zeitskalen, sehr spät auf', nämlich vor etwa 50 Jahren. Was leisten Computer heute? Ein Beispiel sind die Schachcomputer. Die ersten Schachprogramme wurden in den fünfziger Jahren geschrieben - eines davon sogar von einem der Väter der maschinellen Datenverarbeitung, dem britischen Mathematiker Alan Turing. Sie machten zwar korrekte Brettzüge, waren aber keine ernstzunehmenden Gegner. Erst 1967 präsentierte ein Mann namens Bernstein in New York eine Software, die ab und zu einen gewöhnlichen Schachspieler schlagen konnte.

1975 behauptete der amerikanische Philosophieprofessor Hubert Dreyfuss, daß keine Maschine eine gute Schachpartie spielen würde. Noch im selben Jahr wurde Dreyfuss gleich doppelt Lügen gestraft: Zum einen gewann ein Computer des Massachusetts Institute of Technology (MIT) ein Amateur-Schachturnier, zum anderen wurde Dreyfuss der recht gut Schach spielt selbst von einem Spielcomputer geschlagen. Die Niederlage muß ihn so gelähmt haben, daß er die Passage über die Unfähigkeit der Maschinen in einem Buchmanuskript (das zu diesem Zeitpunkt noch beim Drucker lag) nicht mehr änderte. Hätte Dreyfuss geschrieben, die Computer seien 1975 nicht sehr gescheit, könnte man ihm das verzeihen. Er verstieß sich aber zu der Behauptung, daß keine Maschine überhaupt je intelligent sein würde, und das ist wahrscheinlich falsch.

Bei den Schachcomputern jedenfalls ging die Entwicklung flott voran: 1988 erreichte eine Maschine der Carnegie Mellon University in Pittsburgh mit 2500 Elo-Punkten bereits Spielstärke eines Großmeisters. Von da bis zur Weltmeisterklasse fehlen nur noch zwei, drei Stufen.

Es ist also durchaus denkbar, daß noch vor der Jahrtausendwende ein Computer Schachweltmeister wird.

Schachprogramme arbeiten völlig anders als menschliche Spieler. Viele bewerten einfach in jeder Situation alle möglichen Züge und Gegenzüge, aber damit stoßen sie rasch an ihre Grenzen: Für den erste Schachzug gibt es 18 Möglichkeiten.

Der Gegner hat ebenfalls 18 Spielvarianten für den Gegenzug. Das ergibt bereits 18 mal 18 Möglichkeiten. Für drei aufeinanderfolgende Züge und Gegenzüge gibt es bereits etwa 8000 Spielpositionen; für sechs Stufen erhöht sich die Zahl auf über 100 Millionen.

Diese alle auszuwerten zu vergleichen und ein Entscheidung zu treffen, wäre selbst für einen Großcomputer eine viel zu zeitaufwendige Sache.

Die Carnegie-Mellon-Maschine verfolgt daher eine andere Strategie: Um sich nicht zu überlasten, zieht der Rechner nur einen Teil der Möglichkeiten (beim ersten Zug zum Beispiel sechs statt 18) in Betracht. Welche das sind, entscheidet ein Expertensystem. Die Maschine hat zwar nicht immer recht, zieht aber jedesmal ein paar gute bis sehr gute Züge in die engere Wahl.

Eine Software mit künstlicher Intelligenz

Die unterschiedliche Arbeitsweise zwischen der Carnegie-Mellon-Maschine und herkömmlichen Schachcomputern zeigt, daß es zwei Arten gibt, einen Rechner zu programmieren. Bei der einen weiß der Programmierer genau, was er will, und gibt dem Computer die entsprechenden Befehle ein. Bei der zweiten Art kennt der Programmierer nur das Ziel, weiß aber nicht im Detail, wie die Maschine es erreichen könnte. Also befiehlt er ihr, verschiedene Lösungsmöglichkeiten auszuprobieren und dann ohne menschliches Zutun zu entscheiden, welche weiterführt. Das ist der Unterschied zwischen normaler Software und Software mit dein Attribut "Künstliche Intelligenz".

KI-Gegner verteidigen lediglich ihre Pfründe

Manche Forscher, die sich mit normalen Computerwissenschaften beschäftigen, behaupten, es gebe keine Künstliche Intelligenz. Wer in diesem Bereich arbeite, mache im Grunde genommen das gleiche wie sie selbst. Der Grund dieser Behauptung ist wohl, daß diese Leute ihre angestammte Position an der Uni verteidigen wollen - sie müßten ihren Job sonst möglicherweise an KI-Forscher abtreten. Die Aussage hat also mit Wissenschaft so gut wie gar nichts zu tun.

Das Entscheidende an einem KI-Programm ist, daß es den Computer zum Experimentieren veranlaßt. Er bewegt sich dabei auf einem sogenannten Suchbaum mit sehr vielen Verzweigungen. Das Hauptproblem ist, die Möglichkeiten so einzugrenzen, daß der Rechner mit den elektronischen Tests auch einmal fertig wird und eine Antwort liefert.

Die Wichtigkeit von Suchbäumen hat schon Charles Darwin erkannt: In seinem Werk "Der Ursprung der Arten" findet man genau zwei Illustrationen. Eine davon zeigt die Entwicklungstufen der Arten - einen typischen Suchbaum wie in einem KI-Programm. Wenn man nicht weiß, mit was für einer Maschine man ein Problem lösen kann, baut man am besten ein System, das einen Suchbaum erzeugt und die Lösung durch Experimentieren findet. Genau dies war Darwins Idee von der Evolution. Wahrscheinlich ist die Künstliche Intelligenz nichts anderes als Evolution.

Wieviel nützen neuronale Netze?

In letzter Zeit war viel die Rede von sogenannten neuronalen Netzen. Diese sind ein Hilfsmittel, um Probleme durch Experimente zu lösen. Sie bestehen aus einer Vielzahl von Elementen, die alle miteinander verbunden sind. Das Schöne daran ist, daß man sie überhaupt nicht zu programmieren braucht - es genügt, wenn man sie ein wenig trainiert. Sie funktionieren ähnlich wie ein Hund, dem man einen Stimulus gibt und den man dann je nach seinem Verhalten lobt oder tadelt.

Manchmal funktioniert das recht gut, manchmal überhaupt nicht. Das liegt daran, daß man bei neuronalen Netzen oft ohne Suchbäume auskommen muß. Sie sind dafür einfach nicht das geeignete Medium. Wenn ein neuronales Netz einmal vorn richtigen Weg abkommt, landet es meist in einer Sackgasse oder bleibt irgendwo hängen. Mit andern Worten: Neuronale Netze mögen in bestimmten Fällen sicher hilfreich sein, aber sie sind keine Alternative zur Künstlichen Intelligenz, höchstens eine Ergänzung dazu.

Um einen intelligenten Computer zu bauen, braucht es eben sehr viele verschiedene Dinge: zum Beispiel Teile, die in Aktion treten, wenn die Maschine nicht nach Wunsch läuft, oder Assoziations-Algorithmen, um Muster zu erkennen.

Leider ist das Gebiet der Künstlichen Intelligenz zu einer Arena für forschungspolitische Auseinandersetzungen geworden. Anfang der achtziger Jahre gab es bereits vier oder fünf konkurrierende KI-Theorien. Eine davon setzte auf die neuronalen Netze. Eine andere beruhte auf der mathematischen Logik, die ihrerseits auf Axiomen und genau bestimmten Schlußregeln aufgebaut ist. Diese Theorie versprach, daß eine perfekte Logikmaschine, die man mit korrekten Annahmen füttert, auch intelligente Antworten liefern würde.

Eine vorn Amerikaner Allen Nebel3 vertretene Theorie basiert auf sogenannten "Expertensystemen". Vereinfacht gesagt tritt dabei ein Satz von Regeln anstelle eines Computerprogramms. Man kann beispielsweise ein Expertensystem für das Autofahren aufstellen, das etwa folgende Regeln beinhaltet: "Wenn die Straße nach rechts geht, drehe das Steuerrad nach rechts!" Oder: "Wenn ein Hindernis dem Auto auftaucht, bremse!"

Das Gehirn setzt sich aus 400 Computern zusammen

Keine Theorie für sich allein ist die richtige - wir brauchen sie alle. Wenn wir uns das menschliche Hirn anschauen, sehen wir das Großhirn, das Zwischenhirn und das Kleinhirn. Aber man kann noch tiefer gehen. Es muß zum Beispiel eine ganze Reihe kleiner Maschinen geben, die Emotionen produzieren. Da werden sich jetzt einige Leute wohl fragen, ob denn eine Maschine so etwas wie Gefühle haben könne; das sei doch etwas vorn Kompliziertesten, was sich im Mensch abspiele. Ich bin da anderer Ansicht. Ich glaube, daß Denken das Erstaunlichste ist, was wir Menschen können. Wenn die Kritiker nun sagen, Denken sei doch einfach, weil logisch nachvollziehbar, Emotionen hingegen kämen ganz aus der Tiefe unseres Hirns, so halte ich dem entgegen, daß Emotionen etwas vergleichsweise Primitives sind, weil es sie nämlich schon gab, bevor das Denken beim Menschen Oberhaupt einsetzte.

Das Gehirn, glauben manche, sei einfach ein neuronales Netz. Andere sagen, es sei ein Großcomputer. Ich glaube, das Gehirn repräsentiert 400 Dinge auf einmal: Da gibt es zum Beispiel einen kleinen Computer für das Erkennen von Mustern und eine Maschine, die unsere Augen bewegt. Eine andere erzeugt mit Hilfe der Kehle Töne etc. Bestimmte Teile des Gehirns sind für bestimmte Aufgaben vorgesehen. Setzt man diese außer Betrieb - etwa, indem man sie verletzt oder die Verbindungen unterbricht, nimmt das Gehirn diese Funktionen nicht mehr wahr.

Man liest dann und wann, daß es eine linke und eine rechte Hirnhälfte gebe. Die rechte, "dumme" Hemisphäre nehme die Welt auf, ohne sie zu analysieren; diese Analyse geschehe dann in der linken, "intelligenten" Hälfte. Dieser Unsinn kommt wohl daher, daß die Leute komplexe Situationen ganz spontan aufzuteilen beginnen, um sie übersichtlicher zu machen. Es gibt allerdings tatsächlich zwei verschiedene Hirnteile: einen vorderen, sensorischen und einen hinteren Teil, der die Motorik steuert. Aber es ist nicht so einfach wie bei der Aufteilung in links (gescheit, aber böse) und rechts (dumm, aber kreativ). Es gibt auch gescheite Gedanken, die gut sind, und intellektuelles Denken, das von Emotionen getragen wird! Das menschliche Gehirn besteht aus etwa 400 unterschiedlichen Teilen oder Solo-Computern, die sich alle unterscheiden.

Der Unterschied zwischen Mensch und Schimpanse

Die Unterteilung des Hirns in verschiedene Funktionseinheiten ist deshalb wichtig, weil jeder dieser Computer die Daten auf seine ganz spezifische Art verarbeitet. Mit andern Worten: Für eine gute Theorie über die Funktionsweise unseres Gehirns braucht es 400 kleine Teiltheorien. Die Debatte, ob nun für die Hirnforschung neuronale Netze, symbolische Datenverarbeitung, Künstliche Intelligenz oder Expertensysteme angemessen seien, sollte daher endlich beigelegt werden. Es steht fest, daß die 400 Einzelcomputer im Gehirn 400 neuronale Netze sind. Darum gibt es auch 400 verschiedene Denkmechanismen!

Was ist der Unterschied zwischen Mensch und Schimpanse? Fünf Millionen Jahre! Wenn wir davon ausgehen, daß jede Million Jahre ein wesentlicher Entwicklungsschritt gemacht wird, ergäbe dies fünf große Unterschiede im Gehirn. Einer davon entspricht dem Unterschied zwischen den Programmiersprachen Fortran und Lisp. Fortran ist im Gegensatz zu Lisp keine rekursive Sprache. Wenn ich in einem Fortran-Programm dieses selbst aufrufe, erhalte ich einen Computer-Crash. Ein Lisp-Programm hingegen kann ich unterbrechen und ihm befehlen, zwischenzeitlich etwas anderes zu tun, ohne daß es den roten Faden verliert. Ein Mensch kann das auch, und zwar drei bis vier Stufen tief, während ein Schimpanse nur zwei Stufen schafft - ein riesiger Unterschied im täglichen Leben.

Biologisch gesehen ist der Unterschied allerdings sehr klein - es fehlen wohl nur ein paar Gene und die nötigen Kurzzeitspeicheicher. Der Speicher ist übrigens eine interessante Sache: Gäbe man dem Schimpansen einfach mehr Speicher, ohne ihm gleichzeitig beizubringen, wie er damit umgehen soll, würde er vermutlich eher dümmer, weil er sich zuviel Wissen aneignen würde, das er nicht mehr effizient verwalten könnte!

Gesucht: umfassende Theorie des Geistes

Das führt zum nächsten Punkt, zum Management. Nicht nur die Speicher im Gehirn müssen verwaltet werden, sondern auch die 400 Maschinen. Sonst haben wir eine Situation, als würden 400 Handwerker ohne Architekt und Bauleiter ein Gebäude erstellen. Solange niemand sagt, wer was wo und wann tun muß, herrscht Chaos: Da werden Küchen ohne Wasser installiert oder Wände fertiggestellt, bevor die elektrischen Leitungen verlegt sind. Natürlich ist die richtige Reihenfolge jedem klar, der einen einigermaßen gesunder Menschenverstand hat, aber genau den haben Computer eben nicht.

Eine vollständige Theorie des Geistes muß also nicht nur erklären, aus welchen Maschinen das Gehirn besteht, sondern auch, wie sie zusammenarbeiten: Eine Instanz muß alles koordinieren. Diese Instanz kann natürlich auch eine Maschine sein, die auf Management-Aufgaben spezialisiert ist.

Eine sehr populäre Theorie des menschlichen Geistes ist folgende: Im Gehirn gibt es eine Maschine, die für die Bildverarbeitung zuständig ist. Diese holt die von der Netzhaut empfangenen Informationen - lauter kleine Punkte, ähnlich wie auf einem Fernsehschirm - und wandert sie in eine Form um, die wir verstehen können. Ein Teil des Gehirns muß also diese Bildumwandlung besorgen, ein anderer Teil die Umwandlung von Tönen. Dann braucht es einen weiteren Teil, der die Bewegung unserer Hände und Füße steuert.

Im Mittelpunkt von all dem steht aber nicht das Gehirn, sondern eine Person oder ein "selbst" - jedenfalls etwas, das für das Verstehen zuständig ist. Das eigentliche Gehirn ist bloß ein Input-Output-Gerät.

Ein bekannter Vertreter dieser Theorie ist der Neurologe Sir John Eccles, dem wir wichtige Entdeckungen über Nervenzellen und Synapsen verdanken. Heute verbreitet er leider großen Unsinn: Er behauptet nämlich, das Hirn sei bloß ein Interface, welches unseren Körper über gewisse Neuronen mit dem Geist verbinde, der in einer andern, nicht körperhaften Welt existiere. Im Mittelpunkt steht also laut Eccles eine imaginäre Person. Sie trifft alle Entscheidungen; das Gehirn ist lediglich ein Werkzeug, das dieser Person hilft, die Entscheidungen auszuführen. Eccles Theorie ist nett und macht viele Leute glücklich, weil sie so ihr Wissenschaftsverständnis mit ihrem Religionsverständnis verbinden können. Wenn sie glücklich sind, brauchen sie viel weniger nachzudenken und haben viel weniger Probleme.

Wo stehen wir technisch? Es gibt, wie gesagt, Expertensysteme und neuronale Netze. Expertensysteme bewähren sich vor allem in der Industrie. Wo immer man Spezialisten braucht, besteht auch die Chance, daß man einen Programmierer findet, der ein entsprechendes Expertensystem entwickelt, das billiger arbeitet als ein Mensch. Anderseits kann ein solches System Fehler machen, wenn man ihm eine andere als die angestammte Aufgabe zuteilt.

Neuronale Netze wiederum kann man trainieren, bestimmte Muster zu erkennen. Wenn man einem solchen Apparat eine Million gute und eine Million defekte Schaltkreise zeigt, lernt er vielleicht, den Ausschuß zu erkennen. Die eigentliche Krux mit den neuronalen Netzwerken ist die, daß ihre Verfechter nur jene Probleme publizieren, die sie damit lösen konnten. Das erweckt den Eindruck, neuronale Netze seien ein Wundermittel, was natürlich nicht stinkt.

Normalerweise lassen sich wissenschaftliche Theorien überprüfen, indem man die Experimente wiederholt, mit denen diese Theorien untermauert werden. Bei den neuronalen Netzen ist dies nicht so einfach: Wenn ein Autor nur ein einziges Experiment beschreibt und nicht ausdrücklich erwähnt, welche Klasse von Problemen sein Apparat lösen kann, läßt sich schwer beurteilen, ob ein solches neuronales Netz imstande ist, auch andere, gleichgelagerte Problem zu lösen.

Neuronale Netze sind lernfähig, aber dumm

Neuronale Netze sind zwar lernfähig, aber sie sind gleichzeitig auch extrem dumm. Sobald ein Problem mehr als eine Handvoll Lösungsschritte braucht, sind sie hoffnungslos überfordert. Leider wissen das sehr viele Leute nicht.

Verglichen mit neuronalen Netzen, sind Expertensysteme geradezu supergescheit: Sie können ellenlange Ketten von komplexen Schlußfolgerungen ziehen. Aber sie sind in der Regel nicht lernfähig. Wenn ein sonst bewährtes Expertensystem bei einer neuen Aufgabe versagt, weiß der Anwender nie, was er tun soll. Es bleibt ihm praktisch nichts anderes übrig, als den Programmierer des Systems zu bemühen. Und der kann ihm auch nicht versprechen, daß er das Problem lösen kann, ohne nochmals ganz von vorn zu beginnen.

Den Modetrends der KI gezielt ausweichen

Der goldene Mittelweg wäre der Verstand eines zehnjährigen Kindes. Es ist zwar in diesem Alter noch nicht sehr gescheit und kann auch noch keine komplizierten Probleme lösen, aber wenn man ihm zehn Jahre Zeit gibt, kann es sehr viel dazulernen. Meine Empfehlung: Wer sich heute auf dem Gebiet der Künstlichen Intelligenz sinnvoll betätigen möchte und nicht über unbeschränkte Mittel verfügt, muß den Modetrends der KI gezielt ausweichen. Das heißt, man sollte weder auf die 100 000 Expertensystem-Gurus hören, noch den 50 000 Enthusiasten neuronaler Netze auf den Leim kriechen. Auch die Gemeinde der Allzweck-Informatiker läßt man besser links liegen.

Wirklich nötig und nützlich wären Arbeiten auf einem Gebiet, in dem gegenwärtig meines Wissens erst elf Leute tätig sind: Sie befassen sich damit, dein Computer eine Art von Common Sense beizubringen. Das ist eindeutig das Gebiet der Zukunft - zumindest in den nächsten 20 Jahren.

* Marvin Minsky ist Professor für Media Arts and Sciences am Massachusetts Institute of Technology (MIT) - sein Spezialgebiet ist die Künstliche Intelligenz.

** Felix Weber ist freiberuflicher Wissenschaftsjournalist in Zürich.