Expert System Shells lassen sich nicht über einen Kamm scheren:

Unterschiedliche Anwendungen im Auge behalten

21.06.1985

Expertensysteme sind der erste Schritt in Richtung eines intelligenten wissensbasierten Systems. In Bereiche wie Medizin, Rechnerkonfiguration oder Ölexploration haben diese KI -Konzepte bereits Eingang gefunden. Mit dem aktuellen Trend beschäftigt sich Joachim Stender, Leiter des Entwicklungsbereichs KI, bei Brainware in Wiesbaden.

Das Potential der Expertensysteme, für kommerzielle Anwendungen wurde speziell in der Bundesrepublik bis in die jüngste Vergangenheit hinein dagegen erst ansatzweise genutzt. In der näheren Zukunft ist allerdings auch hier eine explosionsartige Zunahme von Anwendungen zu erwarten. Eine US-Marktprognose geht so zum Beispiel für den Zeitraum zwischen 1983 und 1993 von einem durchschnittlichen Wachstum von 62,6 Prozent pro Jahr aus. Für die Bundesrepublik wären zweifellos vorsichtigere Prognosen angebracht, dennoch ist auch hier eine nicht unbeträchtliche Steigerung des Interesses an einem kommerziellen Einsatz von Expertensystemen zu registrieren.

Diese Expertensysteme wurden in der Vergangenheit überwiegend in der Sprache Lisp geschrieben. In den letzten Jahren ist jedoch die Bedeutung von Prolog als Sprache für logische Programmierung deutlich gestiegen. Die fahrenden japanischen Entwickler haben angekündigt, im Rahmen eines gemeinschaftlichen Projektes bis zu den neunziger Jahren die "fünfte Computergeneration" zu entwickeln, die als Basissprache ein weiterentwickeltes Prolog aufzuweisen hat. Folglich ist davon auszugehen, daß diese Bedeutung in den kommenden Jahren weiter stark zunehmen wird.

Auf der anderen Seite jedoch hat die Arbeit an praktischen Expertensystemen zu der Entwicklung sogenannter Expert System Shells geführt. Diese "leeren" Expertensysteme stellen zwar kein domänenspezifisches Wissen bereit, weisen aber sonst alle Besonderheiten von Expertensystemen wie Inferenzmechanismen, Datenbankzugriffe, natürlichsprachliche Dialogschnittstellen, Erklärungskomponenten etc. auf.

Expert System Shells müssen jedoch streng unterschieden werden nach deduktiven und induktiven Shells: Deduktive Shells gelangen aus festgelegten und durch den Benutzer beziehungsweise den "Knowledge Engineer" explizit eingegebenen Regeln sowie einem bekannten Set an Fakten zu neuen Schlüssen über die jeweilige spezifische Domäne. Induktive Shells lernen durch eine Vielzahl von Beispielen aus diesem spezifischen Bereich diese Regeln erst während "Trainingssessions". Es liegt auf der Hand, daß sich beide Arten von Shells für unterschiedliche Anwendungen eignen.

Deduktive Shells und mit ihrer Unterstützung entwickelte Expertensysteme sind überall dort sinnvoll einzusetzen, wo ein überschaubares, klar abgegrenztes Wissensgebiet, das nach bekannten und anerkannten Regeln strukturiert werden kann, einem größeren Kreis von Experten oder auch nur zukünftigen Experten - etwa im Rahmen von Tutoringsystemen - zur Verfügung gestellt werden soll.

Für induktive Systeme wird man sich, dort entscheiden, wo es darum geht; für ein zwar ebenfalls überschaubares, jedoch nicht eindeutig abgrenzbares Wissensgebiet, dessen strukturierende Prinzipien entweder noch nicht bekannt oder jedenfalls nicht allgemein anerkannt sind, Regeln erst noch aus einer Menge bekannter Einzeltatbestände zu formulieren. Für beide Arten von Shells ergeben sich damit eine Vielzahl möglicher Aufgabenstellungen.

Einsatz in der Marktforschung

Induktive Expertensysteme können generell als Systeme zur Hypothesenüberprüfung verstanden werden. Einsatzbereiche liegen dort, wo es um die Formulierung wissenschaftlicher Hypothesen geht.

Ein vergleichsweise neues Einsatzgebiet hat sich für induktive Expertensysteme damit auf dem Gebiet der Markt- und Sozialforschung ergeben. Für Marketingabteilungen großer Unternehmen, Markt- und Sozialforschungsinstitute auf dem freien Markt wie im universitären Bereich oder auch für politische Parteien sind solche Expertensysteme geeignet, die aus bestehendem Datenmaterial Regeln ableiten und Käufer- beziehungsweise Wählerprofile formulieren können.

Die Probleme bestehender induktiver Systeme liegen zweifelsohne in ihrer potentiellen Eindimensionalität begründet, die ein Operieren mit Meta-, Super-, oder Hyperregeln entweder ganz ausschließt oder dort, wo diese Regeln höherer Ordnung zugelassen werden, diese dem lernenden Teil des Systems entzieht.

Eine entscheidende Besonderheit lernender Systeme der Zukunft wird ihre Fähigkeit sein, unterschiedliche Hypothesen parallel auf ihre Konsistenz hin zu überprüfen. Es geht also darum, eine Verfolgung der Konsequenzen unterschiedlicher Hypothesen über einen definierten Zeitraum hinweg zu ermöglichen, um auf diese Weise die Einhaltung eines - zweifellos in verschiedenen Fassungen formulierbaren - Konsistenzkriteriums abprüfen zu können.

Diese Besonderheit solcher Systeme korrespondiert unmittelbar mit der Mächtigkeit, die sie auf dem Gebiet des Operierens mit Metaregeln unterschiedlicher Levels aufweisen. Lernende Systeme werden in der Lage sein müssen, Situationen der Instabilität und der Inkonsistenz ihrer Wissensbasis nicht nur ablauflogisch zu meistern, sondern konzeptionell, auf der Ebene der gültigen Metaregeln, zu verarbeiten.

Das Verhalten von Systemen in Situationen der Instabilität ist auf der anderen Seite ein klassisches Problem der Systemtheorie. Im Rahmen verschiedener Forschungskonzepte bezüglich der Entwicklung eines lernenden Systems wird "Stabilität" als Metaqualität innerhalb des Systemrahmens selber betrachtet.

Mit anderen Worten: Das System selbst macht seine Lernentscheidungen abhängig von der eigenen Klassifikation eines gegebenen Zustandes als "stabil" oder "instabil" zu einem ebenfalls gegebenen Zeitpunkt. Im Mittelpunkt des Interesses stehen hier "lnterdependenzen", die sich ohne große Schwierigkeiten auch als Prädikatsrelationen zur Formulierung logischer und semantischer Netzwerke verstehen lassen. Diese bilden ihrerseits eine wesentliche Basis für die Sprache Prolog.

Das semantische Netzwerk ist ein wesentliches Konzept der jüngeren Artificial Intelligence Forschung, das insbesondere für die Wissensrepräsentation eingesetzt werden kann. In einem semantischen Netzwerk wird jedes "Objekt" als ein Knoten dargestellt, dessen Beziehungen zu anderen Knoten als "Links" abgebildet werden. Auf einer seriellen Maschine steigt die Zeit, die benötigt wird, um aus einem Netzwerk Informationen wiederzugewinnen, in der Regel exponentiell mit der Größe des Netzwerks an.

Heute werden AI-Programme geschrieben, die sich auf einige hundert Fakten beziehen. Es wäre sinnvoll, die Anzahl der Fakten auf einige Millionen steigern zu können. Ein tatsächlich "lernendes" System mit mächtigen Möglichkeiten zur Operation auf Metaregelebenen wird vermutlich nicht umhin kommen, in diesen Größenordnungen zu arbeiten. Sonst wird sein Einsatzbereich von vorneherein auf Gebiete mit vergleichsweise geringem Faktenaufkommen begrenzt sein.

Doch angesichts der Tatsache, daß die Programme bereits bei einer Wissensbasis von nur einigen hundert Fakten dort bereits Minuten zur Beantwortung von Fragen brauchen, wo eine Antwortzeit von Sekunden angemessen wäre, ist an Größenordnungen im Millionen-Instruktionen-Bereich nicht zu denken.

Parallel Processing bietet sich angesichts dieser Probleme als Ausweg an und wird von der Mehrzahl der in diesem Bereich tätigen Unternehmen, Institutionen und Personen auch als ein solcher verstanden.

SW-Konzeption hat Lücken

Integrated-Circuit-Technologie macht es ökonomisch machbar, kleine Rechenwerke zu produzieren, die parallel die anfallenden Probleme bearbeiten. Im Rahmen der AI-Forschung wurden durchaus Konzepte entwickelt, die softwareseitig als Grundlage für solche Geräte dienen könnten. Die paradigmatische Basis dieser Konzepte bildet der Entwurf der semantischen Netzwerke. Diese repräsentieren Information als Netzwerk miteinander verbundener Knoten.

Gegenwärtig werden vielemals Anstrengungen unternommen, einsatzfähige Parallelrechner zu entwickeln, die gegen Ende des Jahrzehnts auf dem Markt erscheinen könnten. Größere Lücken sind allerdings zur Zeit eher auf dem Bereich der

Softwarekonzeptionen für solche Computer zu entdecken. Hier können aus der AI -Forschung entlehnte Konzepte, insbesondere der Entwurf semantischer Netzwerke, sinnvoll vorzufindende Lücken füllen.

Umgekehrt ist in der AI-Forschung seit langem unbestritten, daß Al-Applikationen, die über die heute möglichen Anwendungen entscheidend hinausgehen, nur auf der Basis paralleler Rechnerarchitekturen realisierbar sind.

Die Überlegenheit paralleler Rechner bezieht sich dabei sowohl auf die einsetzbaren Tools und Compiler wie die fertigen Applikationen. Auf der Basis einer Parallelarchitektur kann so beispielsweise ein Prolog-Compiler implementiert werden, der die Besonderheiten und Vorteile der parallelen Rechnerarchitektur ausnutzt. Ein solches System wäre Compilern, deren paradigmatische Basis letztlich in Von-Neumann-Maschinen zu suchen ist, in seiner Leistungsfähigkeit überlegen.

Auf der anderen Seite hätte die Implementierung eines lernfähigen Systems für ein spezifisches Wissensgebiet, als Resultat ein "Expertensystem n-ter Ordnung" vorzuweisen, das zur Hypothesenbildung, -formulierung und zur -reformulierung als Konsequenz der Konsistenzüberprüfung eingesetzt weiden würde.

Die Anwendungsmöglichkeiten solcher Systeme im kommerziellen Bereich sind gerade aufgrund ihrer Vielfalt gegenwärtig noch nicht überschaubar. Sicher ist, daß zumindest in den Bereichen, in denen sich heute bereits bestehende induktive Systeme sinnvoll einsetzen lassen, lernende Systeme der Zukunft ihren Platz finden werden. Dies wird um so mehr der Fall sein, wenn es heute bereits gelingt, eine Vielfalt von Applikationen auf der Basis der bestehenden Systeme zu entwickeln und ihre Akzeptanz beim Anwender auf diese Weise zu erhöhen.