Künstliche Intelligenz: Ein weites Feld mit verschwimmenden Grenzen, Teil 18

Expertensystem spielt Neuronales Netz

17.02.1989

Neuronale Netze lassen sich als besondere Form der Informationsverarbeitung auffassen: nämlich als Systeme, bei denen die einzelnen Zustandsübergänge der "Neuronen" simultane Ereignisse eines Prozesses charakterisieren, dessen Endresultat eigentlich allein nur durch eines bestimmt wird durch die Art und Weise, In der die kollektiven, komplizierten Wechselwirkungen innerhalb des Netzes ablaufen. Und dies wiederum bedeutet, hier wird eigentlich der "Verlauf eines Optimierengsprozesses" beschrieben der, so bemerkt hierzu Jens Grotrian von der Firma IBM, ganz "ohne Verwendung eines algorithmischen Rechenverfahrens auskommt."

Betrachtet man neuronale Netze nun speziell unter diesem Blickwinkel, dann sieht man, betont der Diplomingenieur und Diplomwirtschaftsingenieur aus Nürnberg, daß neuronale Netze beziehungsweise, allgemeine, neurobiologische Modelle eigentlich "als Methode für die Lösung von Optimierungsproblemen" von hohem praktischem Nutze" sein mußten. Denn hier habe der Anwender die Möglichkeit, beim "Programmieren" eines derartigen Netzes allein nur "die gewünschten Eigenschaften der gesuchten Lösung" zu beschreiben, während es ihm egal sein könne, "wie diese gefunden werden".

Betrachtet man zur Abwechslung die bekannten, wohlvertrauten Expertensysteme herkömmlicher Gestalt, so springt, bemerkt Grotrian, eine bemerkenswerte Parallele in?s Auge. Denn da man "die Zulässigkeit einer Lösung" häufig - und ganz abstrakt - mit Wenn-Dann-Regeln beschreiben kann, eignen neurobiologische Modelle sich ja auch gut, sucht man nach einer "Methode zur Wissensstrukturierung bei Expertensystemen".

In einem derartigen Fall, so der IBM-Autor weiter, arbeitet man mit Regeln, die dem Muster

WENN x eine zulässige Lösung ist,

DANN hat x die Eigenschaft y

folgen und deren Überprüfung wie auch Anwendung man bekanntlich einfach dem Expertensystem beziehungsweise, genauer, dessen Schlußfolgerungskomponente überlassen kann. Denn jene "probiert die Regeln solange durch", bis am Ende - und ganz nach Art eines neuronalen Netzes - ein Gleichgewichtszustand entsteht; eine Situation also, die dann nur noch widerspruchsfreie beziehungsweise "selbstkonsistente" Aussagen umfaßt, die, in ihrer Gesamtheit, nun eine optimale oder wenigstens suboptimale Lösung repräsentieren.

Nimmt man die Bedingungen, unter denen solch ein selbsttätiger

Suchprozeß überhaupt nur eine suboptimale Lösung finden kann genauer unter die Lupe, so sieht man laut Grotrian, daß hierbei mit heuristischen Aussagen gearbeitet werden muß; und zwar mit solchen, deren Gültigkeit durch sogenannte Sicherheitsfaktoren ausgedrückt" wird. Denn erst deren Verwendung sorgt für ein Maß an Stetigkeit der Funktionen, mit denen hier gearbeitet wird und das ja wiederum Voraussetzung erfolgreicher Optimierungsprozesse ist.

Diese Sicherheitsfaktoren, denen in neurobiologischen Netzen unterschiedliche "Stärken neuronaler Aktivitäten" entsprechen, können bei der Expertensystem-Schale ESE (Expert System Environment) von IBM beliebige Werte zwischen -1 und +1 annehmen; wobei der erstere dem Attribut "definitiv unzutreffend" entspricht und der letztere für definitiv zutreffend" steht, während 0 die Bedeutung "unbekannt" hat.

Wie verwandt neuronale Netze und Expertensysteme in mancherlei Hinsicht sind, zeigt sich klar, vergleicht man diese Techniken mit herkömmlichen Programmiermethoden. Denn bei letzteren spielt die Reihenfolge, in der die Befehle stehen eine zentrale Rolle, und außerdem gibt es dort keine "unsicheren Kantonisten" unter den Anweisungen: also keine, die "vielleicht" ausgeführt werden müssen, vielleicht aber auch nicht.

Anders hingegen liegen die Dinge bei den KI-Verfahren, bei denen ja "die Reihenfolge der Aussagen", die einen Sachverhalt in Gestalt von Fakten und - oftmals vagen - Regeln beschreiben, "keine Rolle" spiele. Denn, so erinnert Grotrian, die wechselseitigen Einflüsse auf die jeweilige Gültigkeit der Aussagen werden hier ja nun "kollektiv behandelt". Und diese Arbeitsweise wiederum bringt in der Praxis vielfältige Vorteile, wie man etwa an Hand des - von Tank und Hopfield stammenden - "Zuteilungsproblems" deutlich sehen kann.

Das Zuteilungsproblem laßt sich am Beispiel einer umfangreichen Sammlung Bücher vorführen, die ordentlich sortiert werden soll. Dazu stehen mehrere Mitarbeiter bereit, die allerdings je nach Themengebiet unterschiedlich schnell arbeiten. Denn, so zeigt Bild 1, das Hans etwa pro Minute zwar acht Physik-, aber nur drei Chemiebücher richtig einordnet; und auch die anderen haben spezifische Stärken und Schwächen. Das Problem besteht nun darin, jedem der sechs Helfer je eine der sechs Buchkategorien so zuzuweisen, daß die Arbeit alles in allem mit maximalem Tempo bewältigt werden kann.

Matrix übernimmt Ordnungsfunktionen

Für diesen Zuteilen gibt es bei n Bucharten und außerdem n Helfern n! (n-Fakultät) Möglichkeiten; also 1 x 2 x 3 x ... x n beziehungsweise, bei unseren je sechs Elementen, 720 Lösungsalternativen. Und Fachleute wissen, daß man die richtige unter diesen 720 Möglichkeiten mit Hilfe geeigneter, iterativ arbeitender Rechenvorschriften jeweils in einer Zeit ermitteln kann, die zu (n hoch 3) proportional ist, die also in diesem Falle 216 Zeiteinheiten lang dauern würde.

Viel schneller indes würde ein neuronales Netz mit (n hoch 2) beziehungsweise, hier, 36 Zellen das Problem bewältigen, denn ihm, so Grotrian, würde eine einzige Zeiteinheit genügen. Jene allerdings kann eventuell länger als die einzelne Zeiteinheit der iterativen Rechnerei dauern, denn hier nun umfaßt diese Zeiteinheit ja die gesamte "Einschwingdauer des Neuronenverbands in einen stabilen Zustand".

Die Zeitdauer dieses Einschwingvorgangs wiederum ist von der Zahl der Neuronen und mithin von der Größe des Problems unabhängig, betont Grotrian, denn hierbei werden ja "alle wechselseitigen Abhängigkeiten gleichzeitig berücksichtigt". Voraussetzung ist dabei natürlich die Existenz einer aus künstlichen Neuronen gebildeten Matrix mit n mal n Elementen, deren Zeilen den Mitarbeitern und deren Spalten den Bucharten entspricht. Und jedes Neuron, das in dieser Matrix am Ende schließlich aktiv ist, gibt an, welcher Mitarbeiter welche Sorte Buch einordnen sollte.

Ein wichtiges Charakteristikum des neuronalen Netzes, das man hier einsetzen könnte, sind "Nervenfasern" mit hemmender Wirkung zwischen jeweils allen Neuronen je einer Zeile beziehungsweise je einer Spalte. Denn die sorgen dafür, daß immer dann, wenn eine bestimmte Zelle aktiv ist und mithin eine Buchart-Helfer-Zuordnung ausdrückt, keine weitere Zelle der gleichen Spalte und Zeile aktiv sein kann. Jene werden eben einfach alle gehemmt.

Simulation fehlender Neuronen durch Wert-Paare

Hat man indes zufälligerweise nicht gerade das passende neuronale Netz zur Hand, so kann man dessen Funktionsweise auch auf einem herkömmlichen Expertensystem simulieren, wie Grotrian berichtet. Dabei werden die Modellneuronen als Parameter-Wert-Paare wie etwa

Aufgabe_für_Sarah is Geologie'

dargestellt, während mit einer zweiten Gruppe Parameter die Fachspezialisierungen der Helfer beschrieben werden. Hier werden die Fachkenntnisse in der Gestalt ausgedrückt, daß man Sarahs Sortierleistung von zehn Geologiebüchern pro Minute mit dem Sicherheitsfaktor 0,910 angibt, ihre Leistung von vier Chemiebüchern indes mit 0.904.

Doch wäre, betont der Autor, ohne weiteres auch eine andere Abbildung der Sortierleistungen auf zugehörige Werte der Sicherheitsfaktoren denkbar.

In der hier diskutierten Nachbildung eines neuronalen Netzes durch

ESE kann man die Angaben über Fachkenntnisse als "äußere Signale"

auffassen, die stimulierend auf die "Aufgaben-Neuronen" einwirke n,

bemerkt Grotrian weiter. Dabei geben sogenannte Stimulationsregeln an, wie dieses Stimulieren im ein für diese Art von Stimulationsregeln gibt Bild 2, aus dem - beziehungsweise aus dessen "Then-Teil"-hervorgeht, daß "eine Zuordnung der Bücherkategorie 'Chemie' als Sortieraufgabe für Hans mit einem Stimulationssignal der Stärke 0,5 angenommen wird". Doch sei gleich hier schon notiert, daß die

Wahl des Zahlenwerts 0,5 nicht zwingend ist und daß mithin auch andere Zahlen verwendbar wären. Im konkreten Experiment habe sich gezeigt, betont Grotrian, daß gerade jedoch die Zahl 0,5 ein besonders gutes Konvergenzverhalten" des Systems bewirke.

Bei näherem Studium von Bild 2 fällt links oben das "fif " auf, das laut Grotrian folgende Erklärung findet: es handle sich hier um ein sogenanntes "fuzzy if", das der besonderen Kennzeichnung einer heuristischen ESE-Regel diene.

Wie aber arbeitet das Expertensystem nun mit diesen Regeln? - Es erreicht, so kann man erfahren, im Beispiel von Bild 2 nur dann die stimulierende Wirkung des Werts 0,5 im vollen Ausmaß, wenn erstens der Parameter "Fachwissen-von-Hans" mit dem Sicherheitsfaktor 1.0 beziehungsweise als "definitiv zutreffend" eingegeben worden ist. Und wenn zweitens die Zuordnung der anderen Bücherkategorien zu Hans jeweils definitiv ausgeschlossen worden ist and wenn überdies drittens auch definitiv ausgeschlossen wurde, daß die Sortieraufgabe Chemie irgendwelchen anderen Helfern zugeordnet wird; wobei in diesen Fällen der Punkte zwei und drei also jeweils Sicherheitsfaktoren des Werts -1 beziehungsweise "definitiv unzutreffend" zu verwenden wären.

Dies ist nun natürlich eine rein hypothetische Konstellation, weshalb die Sache in der Praxis ganz anders über die Bühne geht. Denn natürlich besitzen die fraglichen Sicherheitsfaktoren im wirklichen Leben irgendwelche andere Werte, wodurch das Stimulationssignal für das Modellneuron "Aufgabe_für_Hans is

Chemie" statt 0,5 einen entsprechend schwächeren Wert erhält.

Da jedem Helfer nur jeweils eine Kategorie Bücher zugeteilt werden kann, dienen, wie Bild 3 zeigt, weitere Regeln der Beschreibung entsprechender, blockierender Signale zwischen den einzelnen Neuronen des Modells. Denn die Regel aus Bild 3 besagt für das Neuronenmodell nichts anderes, als daß das "Neuron"

Aufgabe_für_Hans is Chemie

immer dann, wenn es aktiviert ist blockierende "is-not"-Signale an die Modellneuronen der jeweils gleichen Zeile und Spalte schickt; und zwar Signale, die jenen sozusagen "verbieten" wollen, dem Hans irgendwelche anderen Themen als die Chemie zuzuweisen. Und dem Thema Chemie irgendwelche anderen Bearbeiter als just eben Hans.

Indem das Expertensystem all' diese Regel nun der Reihe nach immer wieder anwendet, simuliert es mit der Zeit den Übergang des modellierten neuronalen Netzes von seinen Ausgangs- in einen optimalen oder wenigstens suboptimalen Gleichgewichtszustand. Dabei stellt sich nach einer Reihe von Iterationen dann jene Aufgabenverteilung ein, die Bild 4 zeigt; jedenfalls immer dann, wenn man zuvor die Zahlenwerte aus Bild 1, beziehungsweise die zu jenen gehörenden Sicherheitsfaktoren für die Parameter

Fachwissen_von_..., eingegeben hat.

Das simulierte, vom Expertensystem nachgebildete neuronale Netz findet laut Grotrian am Ende eine Lösung, die 40 Bücher pro Minute sortieren könnte und die der theoretisch erreichbaren Maximal-Sortierleistung von 44 Büchern mithin schon recht nahe ist. Und mit der man eigentlich, stehen doch insgesamt 720 Möglichkeiten zur Debatte schon recht zufrieden sein kann.

Wie die beste aller Lösungen des Problems der Aufgabenverteilung aussehen würde, zeigt Bild 5. Und mit Interesse ist in diesem Zusammenhang zu notieren, daß eine modifizierte Version von Grotrians ESE-Implementierung des Netzes jene Superlösung in der Tat schon ganz allein gefunden haben soll.

Praktischer Nutzen schon jetzt greifbar

Die Arbeiten des Nürnberger IBM-Mitarbeiters zeigen einmal mehr, daß neurobiologische Modelle nicht allein etwas für Theoretiker und weit in die Zukunft zielende Wissenschaftler sind; und auch nicht nur was für Leute, die Bild- und Sprachmuster möglichst schnell und zuverlässig auswerten wollen. Denn bei Einsatz dieser Konzepte neuronaler Netze in Zusammenhang mit herkömmlichen Expertensystemen geben sie schon heute, so der Autor, "wertvolle Hilfestellung für die Strukturierung herumstrichen Wissens".

Dabei zeige die unmittelbar praktische Bedeutung der Netzkonzepte sich vor allem in der "eleganten Form" der Darstellung des Wissens, meint Grotrian, die nun ja ganz ohne Kenntnis algorithmischer Optimierungsmethoden wie etwa "branch-and-bound' oder auch "dynamisches Programmieren" auskomme. Und bei der man nun nicht mehr Prozeduren festlegen müsse, die dem Auffinden der optimalen Lösung dienen, sondern nur einfach die Randbedingungen einer optimalen Lösung eingebe.

Was in Gestalt "einfacher Wenn-Dann-Regeln geschehen könne.

Ein konkretes Anwendungsfeld für die hier skizzierten Techniken ist die Erarbeitung von Angeboten durch Unternehmen der Fertigungsindustrie. Denn hier ist eine Fülle einzelner Optimierungsprobleme zu behandeln, die wegen verschiedener, nicht exakt quantifizierbarer Einflußgrößen "mit den bekannten analytischen Methoden nicht lösbar" seien, wie Grotrian erläutert.

Typisch für die hier zu behandelnden Problemstellungen ist unter anderem, was die Käufer kompletter Industrieanlagen von ihren Lieferanten erwarten. Denn da solche Anlagen meist speziell auf den jeweiligen Auftrag hin gefertigt werden, muß die erstrebte, kundenspezifische Lösung Parameter wie etwa

* Leistung der Anlage

* Qualitätsstandard der zu fertigen den Produkte

* Begrenzungen der Baufläche.

und viele andere mehr ins Kalkül zu ziehen. Wobei sich immer wieder zeigt, daß die Brauchbarkeit eines Angebots stark davon abhängt, wie gut man Erfahrungswissen aus früheren Konstruktionen vergleichbarer Art heranziehen und in Änderungskonstruktionen einfließen lassen konnte.

Die Behandlung derartiger Optimierungsprobleme erfolgt heute noch vielfach mit Hilfe der bekannten Entscheidungstabellentechnik, oder auch unter Einsatz bestimmter Verschlüsselungsmethoden. Doch besser wäre es wohl, schlägt Grotrian vor, hier nun Expertensysteme mit heuristischen Entwurfsregeln einzusetzen, unterstützten jene doch "am besten" die Vorgehensweise jener Anlagenplaner, die "das Zusammenspiel einer Vielzahl von Parametern zu optimieren suchen". Und die dabei leider keine Möglichkeit haben, auf mathematische Verfahren zurückzugreifen.

Hier nämlich werden dann Einfußgrößen, die bestimmte Eigenschaften der entstehenden Konstruktion favorisieren, durch stimulierende Regeln ausgedrückt, während blockierende Regeln in diesem neurobiologischem Modell unverträgliche Alternativen repräsentieren.