Anwender muß "Büroautomationseffekt" vermeiden:

Fünfte Generation nicht ignorieren

27.07.1984

WIESBADEN - Ein "Muß" für jede Org./DV-Abteilung ist nach Ansicht von Jürgen Groß, Geschäftsbereichsleiter Informations- und Kommunikationssysteme bei Arthur D. Little, die Beschäftigung mit Fragen der künstlichen Intelligenz und ihrer Methodik. Diese Entwicklung knüpfe an Erfahrungen aus der herkömmlichen Informationsverarbeitung an. Damit, so der Autor, besteht wie bei jeder Weiterentwicklung die Chance, qualitativ neue Aufgaben jetzt in Angriff nehmen zu können.

Wer heute von der 5. Generation spricht, meint meistens das japanische Großprojekt. Es gibt aber noch einiges andere, das nicht vergessen werden sollte: Die sogenannte 5. Generation beschäftigt sich mit "künstlicher Intelligenz", und dieses Feld, wenn man es so benennen will, ist mehr als 20 Jahre alt und wurde und wird mit unterschiedlichen Schwerpunkten in Europa und den USA gepflegt; insofern ist das japanische Projekt möglicherweise auch im Sinne des "Aufholens" zu betrachten. Das besondere Interesse heute kommt eigentlich aus zwei Richtungen, die sich noch nicht ganz getroffen haben:

Auf der Hardware-Seite gibt es den immer vorhandenen Engpaß aller sogenannten "Von-Neumann" -Maschinen. Das ist der Engpaß, der sich aus dem einen Prozessor und dem zugehörigen Kanal und I/O ergibt und Sequentialität erzwingt. Die theoretische Leistungsgrenze ist physikalisch und im Prinzip die Schaltgeschwindigkeit. Der Ausweg daraus in der Architektur der Rechner liegt in der Parallelverarbeitung, auf die beispielsweise das japanische Projekt zielt.

Parallelverarbeitung ist jedoch etwas, was nicht nur mit Hardware zu tun hat, sondern erfordert wesentlich auch andere Sprachen als die, die uns zur Verfügung stehen. Die erforderliche "reine" Programmierung stellt die Forderung, daß einerseits alle Steuer- und Kontrollelemente außerhalb des Programms liegen, und andererseits keine Wertzuweisungen im Programm erfolgen, sondern das Programm mit Objekten oder Symbolen operiert.

Jede Definition ist sofort falsch

Die Wurzeln der Sprachen, die heute im Bereich der künstlichen Intelligenz zur Diskussion stehen, nämlich Lisp und Prolog, liegen auch schon einige Zeit zurück, im wesentlichen in den 60er Jahren. Korrekterweise muß gesagt werden, daß es sich noch nicht um echte Standardsprachen handelt, sondern eher um Gattungsbegriffe, hinter denen sich viele Dialekte verbergen. Dennoch bilden sich auch hier Hauptlinien durch die Macht des Faktischen: die Sprachdialekte, die auf den meistinstallierten Systemen angewendet werden, sind damit Quasi-Standard.

Um die Kette weiterzuführen:

Sprachen alleine genügen auch nicht, sondern es werden Programmierumgebungen benötigt, die den Einsatz einer Sprache erleichtern und unterstützen.

Dies war kurz skizziert die eine Richtung, die zur 5. Generation beigetragen hat, die zweite Richtung bedeutet folgendes:

Es gibt auf der Problem- oder Anwendungsseite einige interessante Dinge, die als Aufgabe anstehen:

- Komplexe, zeitkritische Entscheidungssituationen mit unvollständigen

Informationen (typischerweise die militärischen Schlachtfeldsituationen, aber ebenso Alarmsysteme in kritischen technischen Systemen wie Raffinerien oder Reaktoren).

- Erfahrungs- und bewertungsabhängige Entscheidungssituationen die sich auf eine "reale" Weltkomponente beziehen und die damit komplex und nicht algorithmisch oder prozedural beschreibbar sind.

Beide Aufgabentypen sind wissens- und Know-how-orientiert und führen zu nicht sequentiellen erfahrungsabhängigen Ergebnissen. Damit ergibt sich die Forderung nach Extraktion des Know-hows von den Experten. Dieses Know-how muß organisiert und geordnet werden, damit es dann dargestellt und benutzt werden kann. Somit sind wir kurz vor oder zum Teil in der Softwareumgebung gelandet.

Der Bereich der Mensch/Maschine-Schnittstelle ist ebenfalls Bestand teil der Forschung der 5. Generation Dazu gehören Dinge wie Sprachverarbeitung, Eingabe in natürlicher Sprache, Bildverarbeitung und Bilderkennung, was die systematische Kopie der fünf Sinne darstellt, wobei man vorläufig den Geschmacksinn noch ausgeschlossen hat.

Wenn man die Situation etwas anders darstellt, um auf das beliebte Schichtenmodell zu kommen, dann zeigt sich, daß es sich eben nicht um ein abgegrenztes, definiertes Gebiet handelt, sondern daß es Überlappungen und Grauzonen zu bestehenden Technologien und Methoden gibt. Dies führt zu Trade-off-Situationen, die mit bekannter HW und SW ebenso gelöst werden können wie mit 5. Generation. Entwicklungen aus den Labors der künstlichen Intelligenz werden aufgenommen und in "übliche" kommerzielle Produkte umgesetzt; insofern ist die 5. Generation ein bewegliches Ziel: Jede Definition ist fast sofort falsch.

Der Bereich, der am interessantesten und auch durch Anwendungen heute greifbar ist, ist das Gebiet der Expertensysteme. Im folgenden soll versucht werden, den Unterschied zwischen "normalen" DV-Systemen und Expertensystemen aufzuzeigen.

Normale DV-Anwendungen haben eines gemeinsam: Sie beziehen sich auf eine definierte oder definierbare Umwelt, insofern auf eine künstliche" Welt. Die Systeme, die durch DV-Systeme unterstützt werden, sind von Menschen geschaffene, definierte Systeme, deren Grenze zur "echten" Welt immer der Mensch selbst ist.

Wenn beim Design einer Finanzbuchhaltung oder Auftragsabwicklung Unklarheiten auftreten, dann werden sie definitorisch gelöst und damit die Systeme geschlossen gestaltet. Sie stützen sich auf (hoffentlich) eindeutig definierte Daten ab, deren Beziehung untereinander vordefiniert ist und deren Verwendung in den Systemen bestimmt ist.

Bei Experten-Systemen wird der Versuch gemacht, die Faustregeln, nach denen auch ein Fachmann das Problem löst, abzubilden und damit heuristisch zu arbeiten, also mit den Techniken und Vereinfachungen, die als vorläufig plausibel zur Lösung einer Aufgabe angesehen werden. Dies spielt sich im wesentlichen so ab, daß man den Experten oder Fachmann seine Regeln, nach denen er vorgeht, darstellen läßt und diese Regeln auf ein System abbildet.

Eine "Knowledge-Base" unterscheidet sich von einer "Data-Base" dadurch, daß in einer Knowledge-Base unstrukturierte Daten als ein Element abgelegt werden und als zweites Element "Regeln" oder Inference-Rules, welche die Verbindung zwischen den Daten beziehungsweise die Auswertung oder Verknüpfung der Daten regeln. Bei einer Datenbank müssen im Grundsatz die Beziehungen zwischen Daten explizit definiert werden.

Ein weiterer wichtiger Unterschied ist darin zu sehen, daß bei einer Datenbank alle

Informationen vollständig enthalten sein müssen, damit sie nutzbar sind, während der größte Teil der Information in einer Knowledge-Base implizit enthalten ist, er wird durch die Regeln extrahiert.

Sicherlich ist hier der Hinweis richtig, daß beide sich unter Umständen auf die gleiche DB-Theorie wie die der relationalen Datenbanken abstützen können. Dies würde jedoch den qualitativen Unterschied verwischen, so als ob wir darauf hinweisen, daß reale und virtuelle Betriebssysteme sich auf gleiche Rechner und Architekturen abstützen - in der Verwendung liegt der Unterschied.

Der KI-Markt in den USA hat heute ein Volumen von rund 150 Millionen Dollar und wird für 1987 auf 650 Millionen bis 1 Milliarde Dollar geschätzt. Diese Marktzahlen beinhalten auf der HW-Seite Arbeitsstationen und Entwicklungssysteme, auf der SW-Seite Tools und Applikationen sowie Dienstleistungen. Die wesentliche Unsicherheit, auch für weitergehende Projektionen, ergibt sich aus der Problematik der Marktabgrenzung, zum Beispiel bei der Frage, ob AI-Technologie oder Softwaretools in andere Systeme integriert werden, so daß ein getrennter Markt nicht definiert werden kann. Die heutigen Annahmen gehen davon aus, daß der SW-Markt überproportional schneller wächst als der HW-Markt. Wenn man berücksichtigt, welche Aktivitäten heute laufen, so erwarten offensichtlich alle Hersteller wesentliche Impulse in diesem Bereich:

Als Hauptaktivität ist sicherlich das japanische 5. Generation-Projekt zu bezeichnen; in England läuft das Alvey-Programm (Kooperation zwischen Industrie und Regierung); in Frankreich hat Schlumberger massive Anstrengungen unternommen; Compagnie Machine

Bull, ICL und Siemens haben ein gemeinsames Forschungsinstitut gegründet, und auf europäischer Ebene läuft das Esprit Programm. In den USA beschäftigen sich DEC, HÜ, IBM, Xerox, AT&T mit diesen Themen, abgesehen von Universitäten in der ganzen Welt. Auf der Venture-Capital-Seite sind zwischenzeitlich seit 1981 etwa 100 Millionen Dollar in etwa 40 neugegründete Unternehmen geflossen. Damit sind eigentlich alle Signale in Richtung "take off" gesetzt, allerdings sei auch darauf hingewiesen, daß es schon einmal einen Fehlstart gegeben hat. Auch in den 60er Jahren wurde vermutet, daß der große Durchbruch kommt, der dann doch nicht ganz stattgefunden hat.

Experten-System besser als Experte

Eines der großen Risiken ist die an Religiosität grenzende Überzeugung einiger Vertreter von KI, die alles versprechen und damit unrealistische Erwartungen erzeugen und andererseits SW-Häuser, die mit dem Markennamen KI versuchen, alte Produkte zu verjüngen.

Aus dem Bereich KI sind die konkreteren Auswirkungen auf der kommerziellen Seite von Experten-Systemen zu erwarten, dicht gefolgt von "Eingabe in natürlicher Sprache"

Wenn wir uns Experten-Systeme in der heutigen Landschaft anschauen dann zeigen sich durchaus einige interessante, existente Anwendungen. Die medizinischen Anwendungen seien nur erwähnt, in der Literatur sind sie umfangreich dargestellt. Das zweite "klassische" Beispiel ist ein Experten-System aus dem Bereich Öl-Exploration. Interessanter ist die Anwendung von Digital Equipment für die Konfigurationsplanung von Anlagen, die sich im harten kommerziellen Einsatz befindet. Andere kommerzielle Anwendungen sind im Bereich Instandhaltung zu finden (AT&T für die Fehlersuche im Kabelnetz) oder bei der Produktionssteuerung (HP bei der IC-Produktion, DEC für die Fertigungssteuerung). Es ist anzunehmen, daß einige der interessantesten und erfolgreichsten Systeme nicht publiziert werden - aus Sicht der betroffenen Unternehmen haben sie strategische Bedeutung. Dies wird schnell verständlich, wenn man davon ausgeht, wieviel spezifisches Know-how in ein Experten-System einfließt, damit es sinnvoll nutzbar wird. Zudem heißt die Forderung natürlich, daß ein Experten-System besser sein muß als der Experte: schneller und mindestens ebenso zuverlässig. Was immer man davon halten mag, verschwinden werden diese Systeme nicht, im Gegenteil. Sicherlich sind hier noch alle die Kinderkrankheiten zu erwarten die wir aus der DV noch in Erinnerung haben, und die bei embryonalen Technologien eigentlich immer auftreten.

Wenn wir den Versuch machen die Techniken und Methoden grobschlächtig einzuordnen, dann ergibt sich nebenstehende Abbildung.

Bezogen auf entscheidungsstützende Systeme greifen wir sozusagen auf die älteste Entscheidungstechnik zurück: aus Erfahrung gebildete Faustregeln. Ziel ist es dabei, zumindest in Teilbereichen die Begrenzung mathematischer Modelle zu überwinden. Beziehen wir die Frage der Einordnung auf ein größeres Feld, dann zeigt sich sehr schnell daß diese Methodik und Technologie komplementär zur kommerziellen Datenverarbeitung wirkt, in den meisten Fällen nicht einmal substituierend.

Die Grenzen aus heutiger Sicht sollen auch gleich aufgezeigt werden: Echte DSS müssen sich abstützen auf Daten aus operativen Systemen. Heute gibt es jedoch - auch nicht ansatzweise - keine Schnittstellen zwischen Experten-Systemen und kommerzieller Software, also Cobol oder vernünftige Datenschnittstellen. Damit begrenzt sich der Einsatz von Experten-Systemen auf Ausschnitte aus Wissensgebieten und Erfahrungen, ist also noch weit davon entfernt, breitflächige Entscheidungsunterstützung anzubieten. Damit könnte man dieses Thema als "esoterisch" abhaken und sich dem Tagesgeschäft zuwenden. Dem ist jedoch nicht so, sondern es ist die Frage zu stellen, in welchen Gebieten und mit welchen Zielrichtungen Systeme dieser Art eingesetzt werden können; hier zeigen sich sehr bald zumindest erwägenswerte Einsatzmöglichkeiten.

Folgende potentielle Märkte oder Einsatzbereiche lassen sich grob definieren:

- Dienstleistungs- oder Beratungsbereich.

Für Banken beispielsweise stellt sich die Frage, wie man Beratungsleistungen für Kunden in gleichmäßig hoher Qualität lokal erbringen kann. In jeder Zweigstelle Spezialisten für Dienstleistungsberatung bereitzuhalten, ist unwirtschaftlich. Hier könnten Experten-Systeme sinnvoll eingesetzt werden. In einigen Bereichen des Handels können Produkte nur mit Anwendungsberatung vertrieben werden, wie Feuerschutz bei Bauten. Die Frage stellt sich ähnlich wie bei Banken. Dieser Einsatzbereich richtet sich also auch auf das angebotene Produkt und ist von daher für manche Unternehmen wettbewerbswirksam.

- Überwachung, Steuerung, Fehlerlokalisierung bei komplexen Systemen.

Mit ziemlicher Sicherheit kann man voraussagen, daß sich dies noch verstärken wird. Für einen Org./DVLeiter gibt es heute die Möglichkeit, diese Entwicklungen zu ignorieren, beziehungsweise abzuwarten, was die nächsten Jahre bringen. Vermieden werden sollte aber auf keinen Fall der "Büroautomations" - Effekt, nämlich das Ignorieren und spätere Hinterherlaufen.

Sicherlich ist die 5. Generation nicht in allen Branchen und für alle Unternehmen interessant; bevor man sie ingnoriert, ist aber in jedem Falle die Frage nach der potentiellen strategischen Bedeutung zu stellen, und es ist zu prüfen, welche internen Einsatzbereiche in Frage kommen. Diese Aussage ist natürlich dadurch zu qualifizieren, daß das Selbstverständnis einer Org./DV-Abteilung hier eine entstehende Rolle spielt.

Unternehmen, bei denen Informationsverarbeitung heute bereits eine strategische Bedeutung hat, werden sicherlich größeres Interesse an diesen Entwicklungen haben als Unternehmen, bei denen Informationsverarbeitung nur eine unterstützende Rolle spielt.

Das Feld der 5. Generation befindet sich in der merkwürdigen Situation, einerseits noch sehr amorph zu sein mit schnellen Veränderungen und Entwicklungen und damit mit hohen Risiken behaftet. Andererseits gibt es erste konkrete Produkte und kommerzielle Einsätze, die zum Teil noch mit unzureichenden Hilfsmitteln durchgeführt werden, aber sie sind da. d diese Situation ist ja nun für die lnformationsverarbeitung nichts Neues.)

Daß heute noch die restriktiven Parameter überwiegen, ist deutlich; diese Restriktionen werden jedoch sukzessive abgebaut Die Grundprobleme, die die Forschung beschäftigen, also die Implementierung von Lernfähigkeiten, oder der Bereich des "gesunden Menschenverstandes" oder die Frage der Spracheingabe wurden hier bewußt ausgeklammert.

Zum Schluß ein Zitat aus dem Bericht an das Alvey Directorate vom April dieses Jahres über die Situation bei Experten-Systemen in England.

"Hauptergebnis: Einfachere Experten-Systeme sind praktikabel und werden heute von Teams, die sich das Wissen selbst erarbeitet haben (ohne formelles Training) implementiert. Das Risiko und die Kosten sind relativ niedrig, der Nutzen ist noch recht bescheiden aber zum Teil in außergewöhnlichen Bereichen anzutreffen."

Einen Fehler kann sich niemand erlauben: künstliche Intelligenz als eine Disziplin zu betrachten, die nichts mit Datenverarbeitung, also so geläufigen Themen wie SW-Engineering zu tun hat, auch wenn sich Forscher im Bereich der KI manchmal so aufführen.

Um die Analogien zur Entwicklung in der Informationsverarbeitung aufzuzeigen, sei folgendes gesagt:

System-Architekturen versuchen heute den Engpaß der Maschinen durch dezentrale Verarbeitung, Prozessorverbund und ähnliche Strukturlösungen zu umgehen. Bei den heute realisierten oder geplanten Lösungen steht die organisatorische und koordinierende Komponente im Vordergrund, weil die HW-Leistung begrenzt ist. An dieser Stelle ist der Übergang zu sehen, wie wir ihn auch in der Vergangenheit schon häufiger betrachten konnten: Lösungen, die organisatorisch strukturiert waren, werden durch HW/SW substituiert

Auch der KI-Software-Ansatz findet eine Verknüpfung im Software-Engineering, so wie heute betrieben: SW-Engineering-Methoden empfehlen die Auslagerung von Kontrollstrukturen in unabhängige Modelle und haben in der Vergangenheit bereits zu beachtlichen Erfolgen geführt.

Ähnliches gilt, wenn wir die Methodik betrachten: Im Rahmen der Erstellung von Expterten-Systemen wird großer Wert gelegt auf

- Prototyping,

- Benutzermitwirkung mit Design, das heißt Know-how-Extraktion und Organisation

- Flexibilität und Robustheit der Systeme sowie komfortable Benutzeroberflächen.

Sollte Ihnen dies bekannt vorkommen, so ist das keineswegs verwunderlich - jede Systementwicklung, die etwas auf sich hält, hat in den letzten Jahren versucht, diese Parameter zu implementieren:

- Bei jedem kommerziellen System ist die Frage der Analyse, nämlich Know-how-Extraktion und Organisation, das entscheidende Erfolgskriterium.

- Die Qualität der Benutzeroberfläche und die Robustheit von Systemen sind Ziele jeder Systementwicklung.