Lernende Systeme müssen Situationen der Instabilität konzeptionell meistern:

Operieren mit Metaregeln ist ausschlaggebend

13.06.1986

Der Markt für Artificial-Intelligence-Produkte ist zumindest in der Bundesrepublik Deutschland erst ansatzweise entwickelt. Dies führt Joachim Stender * sowohl auf den noch jungen Stand der technischen Entwicklung, als auch auf die mangelhafte Vorstellung der Benutzer zurück, was sie von einem AlSystem eigentlich erwarten. Er beschreibt in seinem Beitrag den "State of the Art" im Bereich lernender Systeme zur Hypothesenüberprüfung.

Bestehende Expertensysteme sind zu unterscheiden nach deduktiven und induktiven Systemen: Deduktive Systeme gelangen zu Schlüssen aus einer Menge definierter Regeln und einer weiteren Menge spezifischer Fakten. Induktive Systeme erlernen durch eine Vielzahl von Beispielen aus diesem spezifischen Bereich diese Regeln erst während sogenannter Trainingssessions. Beide Systemtypen werden für unterschiedliche Anwendungen eingesetzt.

Induktive Systeme helfen bei Hypothesenüberprüfung

Deduktive Systeme oder mit Hilfe deduktiver Shells entwickelte Expertensysteme sind überall dort sinnvoll einzusetzen, wo ein überschaubares, klar abgegrenztes Wissensgebiet, das nach bekannten und anerkannten Regeln strukturiert werden kann, einem größeren Kreis von Experten zur Verfügung gestellt werden soll. Für induktive Systeme wird man sich dort entscheiden, wo es darum geht, für ein nicht eindeutig abgrenzbares Wissensgebiet, dessen strukturierende Prinzipien noch nicht bekannt sind, Regeln erst noch aus einer Menge bekannter Einzeltatbestände zu formulieren. Diese induktiven Systeme können daher generell als Systeme zur Hypothesenüberprüfung verstanden werden. Einsatzbereiche liegen dort, wo es um die Formulierung wissenschaftlicher Hypothesen geht.

Die Probleme bestehender induktiver Systeme liegen zweifelsohne in ihrer potentiellen Eindimensionalität begründet, die ein Operieren mit Meta- , Super- oder Hyperregeln entweder ganz ausschließt oder dort, wo diese Regeln höherer Ordnung zugelassen werden, diese dem lernenden Teil des Systems entzieht.

Knowledge-Engineer muß Vorentscheidung treffen

Ein induktives System läßt sich sinnvoll als ein Netz von Kontexten, die voneinander abhängig sein können und deren Inhalt in diesem Fall von vorgelagerten Kontexten bestimmt wird, sowie von Basiskontexten, deren Bestimmung durch den Anwender verlangt ist, beschreiben. Die Problemstellung eines induktiven Systems lautet dann entweder:

- Zeige mir den Wert eines auszuwählenden Kontextes, auf den eine spezifische Inputkonstellation verweist, oder

- Zeige mir diejenigen Inputkonstellationen, die auf einen spezifischen Wert eines auszuwählenden Kontextes verweisen.

Bereits bei der Formulierung der Struktur und der Fragestellung induktiver Systeme erweist sich, daß von seiten des Knowledge-Engineers und des Implementeurs eine ganze Reihe von Vorentscheidungen zu treffen sind, bevor der induktive Lernalgorithmus mit seiner Arbeit beginnen kann;

- Die Implementation der Voraussetzungen für den Aufbau einer Kontextstruktur im System spannt im Prinzip bereits den Raum aller möglichen zu implementierenden Kontextstrukturen auf, indem sie spezifische Fragestellungen ausschließt.

- Die Entscheidung für eine spezifische Kontextstruktur zur Bearbeitung einer Problemstellung durch den Knowledge-Engineer erfolgt bereits immer schon theoriegeleitet. Daher setzt sie eine Entscheidung für spezifische Paradigmen der Wissensdomäne und/ oder zumindest für spezifische Metaparadigmen voraus.

- Schließlich hat natürlich bereits die Entscheidung für die Implementation eines spezifischen Lernalgorithmus weitreichende Folgen. Die Probleme lassen sich hierbei deutlicher fassen: Trivial ist die Angelegenheit in dem Fall, in dem eine Inputkonstellation auf nur eine Outputalternative verweist. In diesem Fall produzieren alle Lernalgorithmen sinnvollerweiser das gleiche Resultat, nämlich einen eindeutigen Verweis auf eben diese Alternative.

Benutzer wird explizit an den Prozessen beteiligt

Anders sieht es jedoch aus, wenn eine Inputkonstellation auf mehrere Outputalternativen verweist oder falls zu einer Inputkonstellation kein direkter Verweis auf eine Outputalternative besteht, so daß ein Verfahren gestartet werden muß, um aufgrund von Ähnlichkeit oder Schätzalgorithmen einen solchen Verweis zu ermöglichen. In diese Kategorie fällt auch die Situation, daß eine Outputalternative auf mehrere Inputkonstellationen verweist, die miteinander damit in einen sinnvollen Zusammenhang zu bringen sind.

In diesen Fällen kann entweder jeweils ein Algorithmus implementiert sein, der diese Leistungen implizit erbringt, oder aber ein Verfahren in Gang gesetzt werden, das den Benutzer eines solchen Systems explizit an den Prozessen beteiligt.

Gleichgültig, welche Lösung in einer konkreten Implementation bevorzugt ist, wird doch deutlich, daß sich in beiden Fällen ein induktives System letztlich doch als deduktiv erweist: Während ein deduktives System jedoch üblicherweise aus einer Menge definierter Regeln und einer weiteren Menge spezifischer Fakten in der Lage ist, Schlüsse zu ziehen, zeichnet sich ein "induktives System" dadurch aus, daß aus einer Menge definierter Metaregeln und einer weiteren Menge spezifischer Fakten Schlüsse gezogen werden, die ihrerseits sich als Objektregeln darstellen lassen. Einfacher ausgedrückt:

Ein "deduktives" System im gängigen Sprachgebrauch ist auf der Objektebene angesiedelt, ein deduktives System erster Ordnung. Bei einem "induktiven" System handelt es sich dagegen um ein auf der Metaebene angesiedeltes deduktives System, ein deduktives System zweiter Ordnung.

Beziehungen zwischen DB-Systemen sind zu prüfen

Eine Reihe von Fällen nichttravialer Natur, die von potentiellen Benutzern induktiver Systeme als Fragestellung an deren Entwickler herangetragen werden, hat folgende Problemstruktur zur Grundlage: Gegeben sei eine Datenbasis mit mehr oder weniger detaillierten Informationen über den Kundenkreis sowie mit Informationen, die man in diesem Zusammenhang für relevant hält. Die Aufgabe - Hypothesenüberprüfung - für das induktive System besteht dann darin, herauszufinden, ob eine relevante Beziehung zwischen diesen Datenbasen besteht und, wenn ja, ob es sich bei dieser um die vermutete oder eine andere handelt.

In einem einfachen Fall könnte eine solche Aufgabe für das System etwa darin bestehen, anhand der Umsatzentwicklungen eines international operierenden Unternehmens über einen bestimmten Zeitraum in drei europäischen Ländern und der Kursentwicklungen dieser Länder auf der Basis des US-Dollars zu überprüfen, ob Abhängigkeiten zwischen diesen Entwicklungen existieren. Die zugehörigen Datenbasen umfassen in diesem Fall die drei landesspezifischen Kursdateien sowie die Umsatzentwicklungsdatei .

Zur Bearbeitung dieser Problemstellung lassen sich prinzipiell drei unterschiedliche Ansätze unterscheiden:

Der statistische Ansatz

Ausgehend von bekannten Verfahren der Korrelationsanalyse können die vorliegenden Daten auf Korrelationen geprüft und diese angegeben werden. Dieser Ansatz kann auf der Basis vorhandener Technologie umgesetzt werden. Fragwürdig ist allerdings die Aussagekraft der herausgefilterten Korrelationen.

Der domänenspezifischtheoretische Ansatz

Eine Möglichkeit, dieses Dilemma zu umgehen, ist die Formulierung von Metaregeln auf der Basis domänenspezifischer Theorie, in diesem Fall also auf der Basis wechselkurstheoretischer Argumentationen. Diese domänenspezifischen Theorien dienen sowohl zur Kontextstrukturierung als auch zur Selektion "relevanter" Korrelationen. Der Vorteil dieses Ansatzes liegt zweifellos darin, daß domänenspezifisches Expertenwissen, das über die in den Datenbasen zur Verfügung stehenden Fakten hinausgeht, in das aufzubauende System einfließt. Sein Nachteil dagegen ist die Gefahr einer Immunisierung der bestehenden Theoriebildung gegen ihre intendierte Überprüfung, da die zu überprüfende Hypothese in diesem Fall selbst die Basis des Systems konstituiert, das sie zu überprüfen aufgerufen ist.

Der systemorientiertmetatheoretische Ansatz

Eine weitere Möglichkeit ist die Formulierung von Metaregeln auf der Basis systemtheoretischer Theoreme oder Paradigmen.

Der Kern eines lernenden Systems wird sinnvollerweise aus einem Set implementierter Metaparadigmen gebildet, denen statistische Algorithmen unterworfen sind. Inwieweit domänenspezifisches Wissen zur Ausgestaltung des Systems herangezogen wird, hängt letztlich ausschließlich von dem intendierten Einsatzgebiet ab, das um so weniger domänenspezifische Theorie zulassen wird, desto breiter es ist.

Grundsätzlich bleibt die Wahl, ob man sich für einen Weg entscheidet, der die implementierten Metaparadigmen dem Benutzer verbirgt und - auch im Falle eines Multiparadigmasystems - den Einsatz von alten und den Switch auf neue Metaparadigmen anhand systeminterner Kriterien entscheidet, oder aber die Auswahl verschiedener Metaparadigmen dem Benutzer überlaßt. Zum gegenwärtigen Zeitpunkt erscheint es sinnvoll, sich für die letzte Alternative zu entscheiden, insbesondere deswegen, um die Problematik der Metaparadigmen unmittelbar dem Zugriff des Anwenders beziehungsweise Forschers auszuliefern und die Konsequenzen eines Paradigmenwechsels testen zu können.

Langfristig jedoch erscheint als wesentliches Kennzeichen eines lernenden Systems durchaus seine Fähigkeit relevant, selbständig Metaparadigmen zu wechseln, als Konsequenz des Konsistenztests hinsichtlich zu überprüfender Hypothesen nämlich. "Lernen" kann in diesem Kontext sogar explizit als diese Fähigkeit eines Systems definiert werden.

Damit weisen solcherart definierte "lernende Systeme" generell die Besonderheit auf, unterschiedliche Hypothesen parallel auf ihre Konsistenz hin überprüfen zu können. Eine Verfolgung der Konsequenzen unterschiedlicher Hypothesen über einen definierten Zeitraum hinweg wird so ermöglicht, um auf diese Weise die Einhaltung eines - zweifellos in verschiedenen Fassungen formulierbaren - Konsistenzkriteriums abprüfen zu können.

Stabilität bekommt den Status einer Superregel

Diese Besonderheit solcher Systeme korrespondiert unmittelbar mit der Mächtigkeit, die sie auf dem Gebiet des Operierens mit Metaregeln unterschiedlicher Levels aufweisen. Lernende Systeme werden in der Lage sein müssen, Situationen der Instabilität und der Inkonsistenz ihrer Wissensbasis nicht nur ablauflogisch zu meistern, sondern konzeptionell, auf der Ebene der gültigen Metaregeln, zu verarbeiten.

Das Verhalten von Systemen in Situationen der Instabilität ist auf der anderen Seite ein klassisches Problem der Systemtheorie. Im Rahmen verschiedener Forschungskonzept bezüglich der Entwicklung eines lernenden Systems wird "Stabilität" als Metaqualität innerhalb des Systemrahmens selber betrachtet.

Mehr noch: Das stabilitätstheoretische Paradigma läßt sich auf diese Art als Superregel begreifen, die den Einsatz und den Wechsel der implementierten Metaparadigmen quasi als "Parasystem" steuert.

KI-System klassifiziert Lernentscheidungen selbst

Mit anderen Worten: Das System selbst macht seine Lernentscheidungen abhängig von der eigenen Klassifikation eines gegebenen Zustands als "stabil" oder "instabil" zu einem ebenfalls gegebenen Zeitpunkt. Im Mittelpunkt des Interesses stehen hier "Interdependenzen", die sich ohne große Schwierigkeiten auch als Prädikatsrelationen zur Formulierung logischer und semantischer Netzwerke verstehen lassen. Diese bilden bekanntlich ihrerseits eine wesentliche Basis der Sprache Prolog.

Die Implementierung eines lernenden Systems für ein spezifisches Wissensgebiet hätte als Resultat ein "Expertensystem n-ter Ordnung" vorzuweisen, das zur Hypothesenbildung, -formulierung und -reformulierung als Konsequenz der Konsistenzprüfung eingesetzt würde.

*Joachim Stender ist Geschäftsführer der Brainware GmbH, Wiesbaden.