Künstliche Intelligenz: ein weites Feld mit verschwimmenden Grenzen, Teil 4

Die Erkenntnis wächst Schritt für Schritt

15.09.1988

Das "Füllen" eines Expertensystems mit "Wissen" ist immer noch eine mühevolle, langwierige und kostspielige Prozedur. Die Wissenschaft hat daher Systeme im Auge, die Wissen automatisch erwerben sollen - und sei es auch nur über ein vorerst noch eng begrenztes Fachgebiet.

Wie stark praxisbezogen die KI-Forschung heute vielfach schon betrieben wird, verdeutlicht E.J.Devinney von den amerikanischen Research and Technology Laboratories (RTL) der Firma Siemens. Bei einer Besichtigung dieser in Princeton, New Jersey, residierenden Denkfabrik bemerkte er einleitend - und ganz generell -, die KI arbeite mit formalen Darstellungsformen von Wissen (knowledge) und benützte dieses Wissen im Rahmen von "Allzweck-Schlußfolgerungs-Mechanismen" mit dem Ziel, konkrete Probleme zu lösen. Doch dann zieht Devinney eine Scharfe Trennungslinie zu mehr philosophisch-distanzierten Denkern: "Es mag ja vielleicht so etwas wie "Wissen um seiner selbst willen" geben; doch dieses Konzept ist leider nicht betrieblich einsatzfähig. Und damit für unsere Zwecke ohne jede Bedeutung."

Man könnte an dieser Stelle nun vielleicht einmal der Frage nachspüren, wie Devinney mit diesem pragmatisch-praxisorientierten Begriff vom "Wissen" sich wohl als Angestellter gerade eines Unternehmens aus dem Lande der Dichter und - höchst abstrakten - Denker fühlen mag; doch lassen wir dies wohl besser. Denn auch bei Eingrenzung des Begriffs "Wissen" auf allein das, was Konzerne und Konzernchen möglichst rasch in klingende Münze umsetzen können, ist das Thema der "Wissen erwerbenden Automaten" interessant genug.

Wir leben nicht im puren Chaos

Wenn Menschen oder auch Computer "lernen", so kann man von Devinney und vielen seiner Mitarbeiter hören, dann erwerben sie neues Wissen mit dem Ziel, die Klasse der Probleme, die sie fortan lösen können, auszuweiten. Und betrachtet man den Prozeß des Lernens wie auch die elementaren Eigenschaften unserer - mehr oder weniger natürlichen - Umwelt nur einmal "vom rechten Standpunkt" aus, so kann man zweierlei sehen. Erstens nämlich, daß die erfolgreiche Aufnahme neuen Wissens stets auf der Vorstellung fußt, die Umwelt beziehungsweise Natur weise ein gewisses Maß an Ordnung und Regelmäßigkeit auf. Und zweitens, daß dies in der Tat der Fall ist; denn im puren Chaos leben wir ja ganz gewiß nicht. (Und könnten es wohl auch gar nicht, zumal ja auch Lebewesen wie wir Menschen selber ohne ein Minimum an Ordnung und Regelmäßigkeit wenigstens für uns selber nicht vorstellbar sind.)

Bemerkenswerte Leistung des kognitiven Apparates

Auf der Suche nach neuem Wissen kann man drei verschiedene Wege beschreiten, bemerkt Devinney, wobei der erste unter dem Stichwort "Entdeckungen" zu skizzieren wäre. Denn hierbei schaut der Lernende sich der Reihe nach eine Fülle verschiedener Sachverhalte oder auch "Muster" an und versucht dann, entweder durch bewußte Denkprozesse oder vielleicht auch mit Hilfe plötzlicher, aus dem Unterbewußtsein aufleuchtender Gedankenblitze, neue Regelmäßigkeiten beziehungsweise Gesetzmäßigkeiten zu erkennen. Konrad Lorenz spricht hierbei übrigens von "Gestaltwahrnehmung" und meint damit eine der wohl bemerkenswertesten Leistungen des kognitiven Apparates der Menschen.

Für all' diese Prozesse plötzlichen Erkennens neuer Sachverhalte oder Strukturen ist als eigentlicher Lernprozeß kennzeichnend, daß man Details zwar später wieder vergißt; daß man also, wie Devinney sagt, "nicht alles speichert, was man gesehen hat". Doch man behält "die am allgemeinsten gültigen Relationen der wahrgenommenen Muster" im Kopf.

Lernen durch Entdecken, so die Meinung anerkannter KI-Forscher, ist "ein sehr schwerer Weg" zu neuem Wissen. Was, abgewandelt, übrigens auch schon der Volksmund weiß, wenn er resümiert, daß man erst durch Schaden klug werde.

Lernen durch Entdecken ist ein schwerer Weg

Der zweite Weg zum Erwerb neuen Wissens besteht für Menschen wie Maschinen darin, daß man nur noch ausgewählte, von einem Lehrer zuvor selektierte Muster betrachtet und sich dabei dann gleichfalls auf die Frage konzentriert: Welche Merkmale charakterisieren sie eigentlich und grenzen einerseits Gruppen von anderen ab, während sie intern den Elementen je einer Gruppe gemein sind? - Dieses schon deutlich einfachere Lernverfahren liegt, so war am RTL zu hören, verschiedenen lernenden KI-Systemen zugrunde; doch hat es eben noch den Nachteil, daß zuvor erst jemand entscheiden muß, welche Merkmalsgruppierungen beziehungsweise Muster (oder Gestalten, Formationen etc.) interessant und mithin "lehrreich" sind und welche nicht.

Praktische Anwendungsmöglichkeiten für Lernverfahren beziehungsweise lernende Systeme der hier angedeuteten Art liegen laut RTL-Mitarbeitern im Bereich der Fehlerdiagnose bei einfachen elektrischen Geräten. Denn hier können die Systeme jene Regeln, anhand derer sie fortan Fehler in den Geräten diagnostizieren können sollen, einfach dadurch "erlernen", daß man ihnen eine Reihe von Fallbeschreibungen bereits bekannter Fehler einschließlich aller dabei beobachteten, diagnostischen Details vorlegt. Sie suchen dann selbsttätig nach jenen Symptomen oder auch Kombinationen von Symptomen, die für jeweils eine Art Fehler typisch sind und die bei anderen Arten nicht auftreten.

Eine wichtige Art des Lernens ist der "Blick über die Schulter". Damit ist der Blick gemeint, mit dem das lernende System - ob Mensch, Hund oder Maschine - einem (menschlichen) Lehrmeister zuschaut, wenn jener gerade ein bestimmtes Problem löst. Diese Art des Lernens sei vor allem dann von Nutzen, sagt Devinney, "wenn die Beziehungen zwischen dem Problem und seiner Lösung zu komplex sind, als daß man sie ohne langes Suchen aufdecken könnte".

Bei dieser Art des - menschlichen oder maschinellen - Lernens gleicht der Schüler einem Indianer, der einen breiten Fluß durch Springen von Stein zu Stein überquert; denn dabei lernt er die komplexe Wechselbeziehung zwischen dem Problem und dessen Lösung nun eben "anhand einer Abfolge einfacherer Muster".

Wechselbeziehung zwischen Problem und Lösung

Beispiele für die praktische Anwendung der Lerntechnik drei sieht man bei der amerikanischen Siemens-Denkfabrik etwa in Systemen, die anhand der ihnen vorgegebenen, rein funktionellen Spezifikation einer neuen Schaltung selber jene Regeln erlernen, denen dann beim konkreten Entwurf des zugehörigen Chips und seiner Details gefolgt werden muß. Es werden hierbei, so erfährt man, der Reihe nach mehrere einzelne Klassifizierungsprobleme gelöst, die durch einen steuernden Mechanismus in eine sinnvolle Reihenfolge gebracht wurden.

Lernende Maschinen können heute in zweierlei Gestalt auftreten, sagt RTL-Forscher George Drastal mit Blick auf die nun natürlich hochinteressante Frage, wie sich die skizzierten Lernverfahren denn eigentlich praktisch umsetzen lassen. Und während die eine Gruppe aus den inzwischen schon viel beschriebenen "Neuronalen Netzen" besteht - von ihnen wird in dieser Serie noch zu sprechen sein -, arbeiten die anderen Systeme alle auf Basis symbolischer Methoden beziehungsweise der symbolischen Repräsentationen eines Sachverhalts.

Konkretes Fahrrad ist zu erkennen

Diese mit Symbolen operierenden Systeme kann man laut Drastal weiter in "induktive" und in "deduktivlogische" Implementierungen unterteilen, wobei die erstere Gruppe nochmals aufzugliedern wäre: nämlich in einmal empirisch-logische und in andererseits mustererkennende Maschinen.

Die Gesamtheit der lernenden Systeme einschließlich der neuronalen Netze soll laut Drastal die allgemeine Aufgabe lösen: "Beobachte eines oder mehrere konkrete Beispiele eines Gegenstands oder eines Phänomens entweder in der realen Welt oder in Gestalt einer formellen, für das System "verständlichen" Beschreibung und "erarbeite automatisch eine (eigene) Beschreibung" die sich fortan weiter verwenden lassen muß. Und zwar soll sie dem System das Erkennen neuer, ihm bislang unbekannter konkreter Beispiele aus eben jener Klasse von Gegenständen oder Phänomenen ermöglichen; also etwa das Erkennen eines beliebigen, konkreten Fahrrads korrekt als "Fahrrad", auch wenn dem System zuvor nur ganz andere, konkrete Fahrräder vorgestellt wurden. Wobei die Erkennungsaussage eben genau darin besteht, daß die Maschine korrekt sagt: Objekt (oder Phänomen) n1 gehört zur Klasse k, also beispielsweise zur Klasse der Fahrräder oder aber zur Klasse der defekten Elektromotoren mit fehlendem Schmieröl. Während gleich darauf Objekt oder Phänomen n2 dann als nicht zur jeweiligen Klasse k gehörend bezeichnet wird - und zwar auch wieder korrekt.

Was nun speziell die Gesamtheit der mit symbolischen Methoden operierenden Systeme betrifft, so ist ihnen laut Drastal gemein, daß sie "Beschreibungen" der jeweiligen Sachverhalte oder Objekte "in Gestalt kompakter, in einer formellen Sprache verfaßter Sätze" erarbeiten.

Nur Schmetterlinge waren vorher Raupen

Innerhalb all' dieser Maschinen gilt nun wiederum für die Teilgruppe der nach induktiven Methoden vorgehenden Systeme, daß sie "eine große Zahl von Beispielen" betrachten und dabei automatisch "gleichartige Eigenschaften aller zu einer Klasse gehörenden Objekte" erfassen oder aber, daß sie eben herausfinden, in welchen Merkmalen beziehungsweise Eigenschaften die verschiedenen Klassen sich voneinander unterscheiden. Denn zum Beispiel Vögel und Schmetterlinge können (im allgemeinen) beide fliegen, doch nur Vögel haben erstens Schnäbel, zweitens Krallen und drittens Federn; während nur Schmetterlinge erstens Fühler haben und zweitens vorher mal Raupen waren.

Systeme aus der Gruppe der mustererkennenden Maschinen (pattern recognition) gehen infolge ihrer spezifischen Machart und Programmierung so vor, daß sie zunächst "annehmen", die kennzeichnenden Merkmale aller zu einer Klasse k gehörenden Objekte oder Phänomene - aber auch nur dieser - könnten durch eine gewisse Anzahl N von numerischen Kennwerten für die einzelnen Merkmale beschrieben werden; also durch einen Vektor mit N Elementen. Dabei kommt diesen Systemen laut Drastal gut zupaß, daß "die Natur einheitlich genug ist, um die Beschreibung so einer Klasse in Gestalt einer Wahrscheinlichkeits-Dichte-Funktion im n-dimensionalen Raum zu erlauben".

Beschreibung im n-dimensionalen Raum

Wenn also beispielsweise ein bestimmter, voll ausgewachsener Baum eine gewisse Höhe nicht über- und eine andere nicht unterschreitet, wenn er einen Stamm von mindestens dieser und höchstens jener Dicke hat, wenn seine Grundfläche nicht mehr Platz als ein bestimmter oberer, und nicht weniger, als ein bestimmter unterer Schwellenwert belegt - dann, so kann man aus diesen und einer Fülle weiterer Merkmale, als Vektor behandelt, schließlich ersehen, mag es sich um eine Buche handeln.

Diese Technik der automatischen Erkennung von (Gestalt-) Mustern ist laut Drastal "really nice", wenn die Objekte, um die es geht, die Anwendung der Mustererkennungs-Algorithmen erlauben. Doch leider ist dies bei weitem nicht immer der Fall, weshalb die Gilde der KI-Wissenschaftler eben noch weitere Techniken anwenden muß.

Zu diesen Techniken gehören nicht an letzter Stelle die empirisch-logischen Verfahren, für deren Einsatz Bild 2 ein Beispiel gibt. Es handelt sich hier um Muster, die sich der Klassifizierung auf anderem Wege entziehen und die man daher mit Hilfe einer so festgelegten, rein formellen Computersprache behandelt, daß Konzepte wie etwa "Rechteck", "Quadrat" oder "Ring" in ihr direkt ausgedrückt werden können.

Hat man so eine Art von Sprache nur erst einmal entwickelt, bemerkt Drastal, so kann man etwa Bild 2c präzise als "großes Rechteck links neben einem Quadrat" beschreiben - und dabei gleich noch den Vorteil nutzen, daß so eine Art der Beschreibung für Menschen viel besser zu verstehen ist als mathematische Abstraktionen auf Basis von Merkmals-Vektoren. Außerdem sind Beschreibungen dieser Art und Weise mit den typischen Entscheidungs- beziehungsweise Klassifizierungsregeln in den bekannten Expertensystemen identisch; und auch die Gestalt eines logischen Wenn-Dann-Ausdrucks ist uns allen ja von dort her wohlvertraut.

Bisher, so Drastal weiter, sind die meisten der heute bekannten Algorithmen lernender Maschinen eigens darauf gezüchtet worden, aus Beispielen, die man ihnen zum Zwecke des Lernens vorlegt, direkt abstrakte, logische Formeln abzuleiten. Und dadurch eignen sie sich besonders gut zur Verbindung mit Expertensystemen der bekannten Machart.

Maschinen begreifen komplexe Konzepte

Betrachtet man abschließend als letzte Gruppe unter den lernenden Systemen jene, die auf Basis symbolischer Methoden beziehungsweise Darstellungen operieren, so fällt bei den deduktiven oder auch auf Erklärungen basierenden Verfahren sofort eines auf: Hier ist Ausgangspunkt der Entwicklung die Annahme, daß "komplexe Konzepte" wohl nur dann von Maschinen erlernt und sozusagen "begriffen" werden können, wenn sie dabei anderes, zuvor schon erworbenes Wissen über den fraglichen Gegenstand benutzen können. Denn dieses Vor-Wissen soll ihnen ja helfen, neue Beobachtungen, die am jeweiligen Objekt angestellt wurden, richtig zu interpretieren.

Es wird im Falle dieser Systeme also nicht etwa bloß eine Rechnersprache entwickelt, betont Drastal, mit deren Hilfe man ein bestimmtes Konzept klar beschreiben kann, sondern wir benützen diese Sprache auch gleich, um dem System das mitzuteilen, was wir bereits wissen. Denn soll ein KI-System etwa aus der Beobachtung wichtiger Kenndaten von ausfallenden Elektromotoren richtig diagnostizieren, an was für - verschiedenen - Defekten die einzelnen Versager letztlich kranken, so reicht es einfach nicht aus, nur die äußerlich beobachteten Symptome auszuwerten.

An einem Beispiel mit drei Elektromotoren, von denen zwei wegen - unterschiedlicher - Störungen des Schmieröl-Kreislaufs versagten und einer wegen eines Kurzschlusses in der Ankerwicklung seinen Geist aufgab, führte der Referent in Princeton vor, daß allein die Überwachung von Parametern wie Gehäusetemperatur, Öltemperatur, Wicklungswiderstand und Geräuschentwicklung noch nicht ausreicht, die drei Fehler korrekt auseinanderzuhalten: Denn "nur ein Verständnis der internen Arbeitsweise der Motoren und der Frage, wie man oberfläche Symptome kausal mit den dahinterliegenden Störungen in Beziehung setzen kann, erlaubt uns, zwischen relevanten und irrelevanten oberflächlichen Beobachtungen zu unterscheiden". Und daher sei diese Fähigkeit eines lernenden Computers mit deduktiver Arbeitsweise "unerläßlich", soll er irgendwann vielleicht einmal auftretende Störungen - beziehungsweise die zugehörigen Kombinationen äußerer Einzelmerkmalsbeobachtungen - richtig erkennen und einordnen.

In Horn-Klauseln Wissen vermitteln

Bei den deduktiven beziehungsweise auf Erklärungen basierenden Lernverfahren ist der Stand heute in etwa so, daß man die sogenannte Domänen-Theorie, also beispielsweise das "tiefere" Wissen über die Arbeitsweise eines Elektromotors, in Gestalt der bekannten Horn-Klauseln ausdrückt und dem Rechner zugänglich macht. Und dann kann das System aus Motor-Versagens-Beispielen lernen, die ihm eines nach dem anderen vorgestellt und erklärt werden.

Aktuelle Forschungsarbeiten Drastals und anderer Fachleute - das RTL arbeitet hier zum Beispiel mit dem Massachusetts Institute of Technology (MIT) und der Carnegie Mellon University (CMU) zusammen - gehen dahin, dem System immer gleich mehrere Versager-Beispiele zugleich vorzustellen und es aus dem direkten Vergleich der jeweiligen Versagenserklärungen lernen zu lassen. Auch sollen in künftigen Systemen selbst jene Informationen zur Vergrößerung des Wissens über intakte und defekte Motoren dienen können, die das System aus fehlgeschlagenen Versuchen zieht, ihm den Grund eines Defekts zu erklären. Und nicht zuletzt streben die RTL-Forscher zusammen mit ihren Kollegen aus den prominenten KI-Bastionen MIT, CMU und anderen den Bau von lernenden Programmen an, die selbst dann noch klüger werden, wenn man ihnen fehlerhafte Daten vorgesetzt hat.

An dieser Stelle liegt nun der Gedanke nahe, ob all' das nicht doch ein bißchen viel Aufwand für ein System ist, das am Ende simplen Defekten an simplen Elektromotoren auf die Spur kommen soll. Doch natürlich zielen Arbeiten wie diese letztlich viel weiter; denn im Visier haben die RTLer beispielsweise bereits lernende Computer, die einer gut und eingespielt arbeitenden Fabrik sozusagen "zu schauen" sollen. Und die daraus mit der Zeit still und leise so viel an Wissen schöpfen, daß sie später, im Falle einer Störung, als ein zuverlässigerer Mensch reagieren.