Die Geschichte der Künstlichen Intelligenz, Teil 1

Generationen von Forschern scheiterten mit KI-Theorien

16.11.1990

Kann man mit dem Computer Intelligenz produzieren? Diese Frage beschäftigt nicht nur Science-Fiction-Autoren - auch Wissenschafter versuchen, darauf eine gültige Antwort zu finden. Entsprechende Forschungsprogramme wurden bereits in den fünfziger Jahren ins Leben gerufen: die sogenannte Künstliche Intelligenz (KI) war lange ein Lieblingsthema der Computerwissenschafter. Doch die anfängliche Euphorie ist inzwischen einer Ernüchterung gewichen.

Das Thema "Künstliche Intelligenz" wurde in den frühen fünfziger Jahren aktuell, als ein paar Computerpioniere feststellten, daß ihre digitalen Maschinen mehr können als nur rechnen. In der Folge bildeten sich unter den Forschern zwei Gruppen, die gegensätzliche Ansichten über die Rolle der Computer vertraten. Die eine sah darin ein System, mit dem man geistige Symbole manipuliert; die andere betrachtete den Computer als ein Medium für die Modellierung des menschlichen Gehirns.

Digitales Bild der realen Welt

Doch schon in den späten sechziger Jahren sah so aus, als ob der formale, symbolische Ansatz obsiegt hätte: Künstlich nachgebaute Gehirne, sogenannte neuronale Netze, waren damals kein Thema mehr - jedenfalls nicht unter KI-Forschern, die ernst genommen werden wollten. Vor ein paar Jahren hat sich das Blatt allerdings wieder gewendet: Das Konzept des Neurocomputers ist nicht nur wiederauferstanden, sondern avancierte gar zu einem Stargebiet der Informatik.

Die Vertreter der erstgenannten Schule waren überzeugt, daß sowohl das menschliche Gehirn wie der digitale Computer physische Systeme seien, die mit Symbolen arbeiten. 1955 zeigten die beiden Computerspezialisten Allen Newell und Herbert Simon, daß man mit digitalen Zeichenfolgen ohne Ausnahme alles darstellen kann: Zahlen natürlich, aber auch Eigenschaften der realen Welt.

Computerprogramme beschreiben die Regeln, welche die Beziehungen zwischen den Symbolen repräsentieren. Ein solches System kann damit weitere Fakten über die vertretenen Objekte und deren Beziehungen herleiten.

Der Wissenschaftler Allen Newell drückte das kürzlich so aus:

"EDV-Leute bezeichneten da. Mals Computer als Maschinen, die Zahlen manipulieren. Das Großartige daran sei, daß sich alles in Zahlen codieren ließe, zum Beispiel auch Computerbefehle. Die KI-Forscher hingegen sahen Computer als Maschinen, die Symbole manipulieren. Ihrer Ansicht nach bestand das Großartige darin; daß sich alles in Symbolen codieren ließe sogar Zahlen." (vergleiche Literaturhinweis 1).

Die KI-Forscher übertrugen schließlich ihre Theorie vom Computer auf den Menschen. Newell und Simon stellten die Hypothese auf, daß das menschliche Hirn und der digitale Computer, obschon grundsätzlich verschieden aufgebaut, auf einem gewissen Niveau der Abstraktion gleich funktionieren würden. Auf dieser Stufe könne man das Hirn und einen entsprechend programmierten Computer als zwei unterschiedliche Versionen eines prinzipiell gleichen Apparats ansehen - eines Apparats eben, der durch Manipulation von Symbolen nach formalen Regeln intelligentes Verhalten erzeuge.

So neu ist diese rationalistische, atomistische Betrachtungsweise nicht - man kann sie nämlich zurückverfolgen bis zum Philosophen René Descartes, der schon vor 350 Jahren behauptet hatte, daß das menschliche Denken auf der Bildung und Manipulation von geeigneten Repräsentationen beruhe. Diese Repräsentationen, so Descartes, bestünden aus lauter primitiven Elementen, so daß all Phänomene dieser Welt nicht anderes als komplexe Kombinationen von einfachen Elementen seien.

Descartes Theorie wurde von Thomas Hobbes, einem anderen Philosophen des 17. Jahrhunderts, präzisiert. Dieser behauptete nämlich, die Grundelemente seien formale Einheiten, die untereinander eine rein syntaktische Beziehung hätte so daß man letztlich das Denke auf formales Rechnen zurück führen könne. "Wenn jemand denkt", schrieb Hobbes in seinem "Leviathan", "so tut er Prinzip nichts anderes, als ein paar Zahlen zusammenzählen".

Auch Gottfried Wilhelm Leibniz (1646-1716) gehörte zu dieser Schule. Seiner Ansicht nach zerlegen wir Konzepte in immer einfachere Elemente. Da dieser Prozeß nicht unendlich weitergehen kann, muß es eine Reihe von Basiselementen geben, auf denen alles beruht - eine Art Alphabet des menschlichen Denkens also. Um die Welt zu formalisieren, suchte Leibniz nach einem universellen Symbolsystem, mit dem man jedem Objekt eine charakteristische Zahl zuordnen konnte.

Ludwig Wittgenstein (1889/1950) schließlich formulierte die reinste Form dieser mechanistischen Sehweise in seinem Tractatus Logico-Philosophicus. Er definierte die Welt als ein Ganzes, das aus lauter unabhängigen, atomaren Fakten bestehe. Diese Fakten und ihre logischen Beziehungen untereinander würden im Denken "mind" repräsentiert.

KI-Forschung in diesem Sinne wäre also der Versuch, im Menschen (oder im Computer) die Grundelemente und logischen Beziehungen zu finden, welche die entsprechenden Grundelemente und Beziehungen in, der realen Welt widerspiegeln. Die Hypothese von Newell und Simon macht aus Wittgensteins Vision - die selbst schon ein Gipfel der klassischen nationalistischen Philosophie ist - eine empirische Behauptung, und baut darauf ein Forschungsprogramm auf.

Das menschliche Gehirn als Vorbild

Der zweite Ansatz, daß künstliche Intelligenz nicht aus einer symbolischen Repräsentation der Welt erzeugt werden soll sondern durch einen Nachbau des Gehirns, hat einen ganz dern Ursprung. Die Idee dazu stammt vom Neurophysiologen Donald O. Hebb, der Ende vierziger. Jahre Neuronen im Gehirn untersuchte und feststellte, daß die Verbindungstärke zweier Neuronen nahm, wenn man diese gleichzeitig anregte. Daraus schloß Hebb, daß Neuronen, die miteinander vernetzt sind, lernfähig seien.

Diese Theorie wurde von schiedenen Forschern, die später Konnektionisten ("Anhänger der Verbindungstheorie) nannte, aufgegriffen. Einer von ihnen war Frank Rosenblatt. Er sah im Konnektionismus vor allem einen viel direkteren und einfacheren Weg zu künstlicher Intelligenz, als ihn Newell und Simon beschnitten. Da intelligentes Verhalten sehr schwer formalisierbar sei, so argumentierte Rosenblatt, sollte man besser versuchen, die Vorgänge zu automatisieren, mit denen neuronale Netzen lernen, zum Beispiel Muster zu unterscheiden.

In einem Fachartikel schrieb er: "Es ist nicht nur einfacher, sondern auch profitabler, ein physikalisches System (zum Beispiel ein neuronales Netz) zu axiomatisieren und analytisch zu untersuchen, um sein Verhalten zu bestimmen als ein gewünschtes Verhalten (zum Beispiel einen menschlichen Denkvorgang) zu axiomatisieren und dann aufgrund logischer Synthese ein entsprechendes physikalisches System zu entwerfen." (vergleiche Literaturhinweis 2)

Erste Anfangserfolge stellten sich rasch ein

Man kann den Unterschi zwischen den beiden KI-Schulen auch so beschreiben, daß d eine nach formalen Strukturen sucht, die den Computer befähigt, bestimmte Probleme zu lösen oder gewisse Muster zu erkennen, während die and Schule einen Apparat konstruieren oder zumindest simulieren möchte, der seine eigene Fähigkeiten entwickeln kann.

Beide Ansätze konnte schnelle und teilweise verblüffende Anfangserfolge vorweisen: Newell und Simon zum Beispiel gelang es 1956, einen Computer mit symbolischen Repräsentationen so zu programmieren, daß dieser einfache Den aufgaben lösen und sogar bestimmte mathematische Sätze beweisen konnte. Es sah ganz so aus, als ob die Bestätigung der Hypothese von Newell und Simon nur noch eine Frage de Zeit sei. Kein Wunder, daß die beiden Forscher stolz waren ihre Fortschritte und sich en sprechend optimistischen Zukunftsprognosen hingaben.

"Wir haben jetzt alle Elemente für eine Lösungstheorie heuristischer Probleme beieinander", schrieben Newell und Simon 1958 in einer Fachzeitschrift (vergleiche Literaturhinweis 3). "Wir können diese Theorie nicht nur anwenden, um menschliche heuristische Prozesse zu verstehen sondern auch um solche Prozesse auf Computern zu simulieren." Der Artikel gipfelte in einer sehr waghalsigen. Behauptung: "Intuition, Einsicht und die Fähigkeit zum Lernen sind jetzt nicht mehr exklusiv menschliche Eigenschaften; jeder entsprechend programmierte Großcomputer besitzt die gleichen Fähigkeiten."

Auch Rosenblatt konnte bald etwas vorweisen. Er verwirklichte seine Ideen in einem Apparat, den er "Perceptron" nannte. 1956 gelang es ihm, ein Perceptron so zu trainieren, daß es gewisse Muster als ähnlich taxieren und diese von andern Mustern unterscheiden konnte.

Bald schrieb er voller Euphorie: "Zweifelsohne ist das Perceptron eine neue Art von Informationsverarbeitungs-Automat, denn er beruht auf statistischen statt logischen Prinzipien." Und weiter: "Zum ersten Mal gibt es eine Maschine, die fähig ist, eigene Ideen zu entwickeln. Das Perceptron zeigt, daß es prinzipiell möglich ist, nichtmenschliche Systeme zu bauen, die menschenähnliche Denkfunktionen wahrnehmen können." (vergleiche Literaturhinweis 4)

Gnadenloser Kampf um Prestige und Budgets

In den frühen sechziger Jahren sahen beide Ansätze, künstliche Intelligenz zu schaffen sehr vielversprechend aus. Die maßlos übertriebenen Behauptungen ihrer Anhänger machten sie aber auch sehr verwundbar.

Die Diskussion, ob die Logiker um Newell und Simon oder die Konnektionisten um Rosenblatt den richtigen Weg verfolgten, mündete bald in einen veritablen Streit, bei dem es nicht nur ums akademische Prestige, sondern vor allem um Forschungsgelder ging. Trotz ähnlicher Ausgangslage gestaltete sich der Kampf zwischen den beiden Schulen schon bald recht einseitig: Die KI-Forscher, die mit dem Perceptron das Gehirn simulieren wollten, konnten sich immer weniger durchsetzen. In den siebziger Jahren erhielten sie praktisch kein Geld mehr für ihre Projekte. Ganz anders erging es ihren Kontrahenten, die den Computer als Symbolmanipulator einsetzen wollten. Sie erhielten beinahe unbeschränkten Zugang zu Forschüngsgeldern, Symposien und Fachzeitschriften.

Wie konnte das geschehen? - Nun, Forscher sind eben auch nur Menschen. Wenn es an harten Fakten fehlt oder wenn man diese nicht wahrnehmen will, entscheidet eben auch in der hehren Wissenschaft der Glaube.

Sicher produzierten beide Schulen gute Ideen, die zu verfolgen sich lohnte. Beide hatten aber auch grundlegende, unerkannte Probleme. Die zwei Lager bewiesen zwar, daß ihre Maschinen einfache Aufgaben lösen konnten. Weder die eine noch die andere Gruppe durfte sich jedoch anmaßen, diese Teilerfolge zu extrapolieren und zu behaupten, in ein paar fahren gäbe es Systeme mit künstlicher Intelligenz, die den Anforderungen der realen Welt genügten. (wird fortgesetzt)

* Hubert Dreyfuss ist Philosophieprofessor an der University of California in Berkeley. Der Artikel basiert auf einem Referat, das Dreyfuss am Gottlieb Duttweiler Institut gehalten hat. Die Übersetzung und Bearbeitung das Textes, der zuerst in der Zeitschrift "Technologie Rundschau" erschien, besorgte Felix Weber.