Fachtagung der Gesellschaft für Informatik:

Künstliche Intelligenz 25 Jahre verspätet

08.05.1981

Die erste Fachtagung "Künstliche Intelligenz" der Gesellschaft für Informatik (im Januar wurde in Bad Honnef abgehalten. Fünf Workshops waren vorausgegangen. Damit ist nach fast fünfundzwanzigjähriger Verspätung (1) auch bei uns endlich ein Gebiet salonfähig geworden, das zum Schaden der deutschen Informatik bisher vernachlässigt wurde, das aber in den USA und anderen Ländern bereits seit langem unter dem Namen "Artificial Intelligence" zu den Kernfächern der Informatik gehört (2).

Die Hauptvorträge der GI-Tagung gaben in etwa die Forschungsschwerpunkte wieder, durch die die Künstliche Intelligenz in Deutschland vertreten ist: W. Radig, Hamburg, gab in seinem Vortrag "Modelle und Strukturen in der Bildverarbeitung" einen Überblick über die Forschung auf dem Gebiet Computersehen. Radig konzentrierte sich auf die Aspekte, die über das traditionelle "pattern recognition" hinausgehen und stellte damit den Zusammenhang mit dem zweiten Vortrag von J. Foith, Karlsruhe. "Roboterforschung: Von Spielzeugwelten zur industriellen Anwendung" her. Dieser Vortrag dürfte besonders für die Vertreter der Industrie von Interesse sein. Beide Gebiete demonstrieren, mit welchem Tempo der Verlust wissenschaftlicher Konkurrenzfähigkeit zum Verlust industrieller Wettbewerbsfähigkeit führen kann: Die Grundlagenforschung wurde vor zirka zehn Jahren in den USA begonnen (3) und von der deutschen Informatik faktisch ignoriert. Heute sind in Japan über 15 000 Industrieroboter im Einsatz (4), und es ist bekannt, daß die mangelnde Konkurrenzfähigkeit deutscher Produkte auch auf den höheren Automatisierungsgrad beispielsweise der japanischen Industrie (5) zurückzuführen ist. Es gibt bis heute in Deutschland keinerlei Grundlagenforschung oder universitäre Ausbildung auf dem Gebiet der Robotertechnologie und der zugehörigen Disziplinen.

Zwei weitere wichtige Forschungsschwerpunkte wurden am nächsten Tag vorgestellt: W. Wahlster, Hamburg "Natürlichsprachliche KI-Systeme: Entwicklungsstand und Forschungsperspektiven" und P. Raulefs, Bonn, "Expertensysteme: Entwicklungsstand und Forschungsperspektiven" Diese beiden Gebiete sind in ganz besonderer Weise geeignet, falsche Vorstellungen über die angeblichen Grenzen eines Computers zu korrigieren und zu demonstrieren, wie weit es bereits gelungen ist Fähigkeiten durch Rechner zu realisieren, die bisher nur menschlicher Intelligenz vorbehalten waren.

Auf dem Gebiet der Verarbeitung natürlicher Sprache hat sich im Laufe der letzten zehn Jahre der Forschungsschwerpunkt von den Problemen des reinen Sprachverstehens (6) auf die zusätzlichen Probleme, die in einem Dialog auftreten, verlagert. Diese zusätzliche Problemstellung ist durch die abwechselnde Initiative der Dialogpartner, die Fähigkeit ein Ausfuhren des Dialogs zu verhindern, und die Rückführung des Gespräches auf spezielle Punkte sowie die unterschiedliche Motivation der Dialogpartner gekennzeichnet. Ein sehr gutes Beispiel für das derzeitig Machbare liefert das folgende Transkript eines Dialoges zwischen einem Benutzer (BEN.) und dem Hamburger Redepartnermodell (HAM-RPM) (7). Der Computer, also HAM-RPM, simuliert einen Hotelmanager, dessen Interessenlage durch eine möglichst positive Darstellung seines Hotels und das Anbieten eines Zimmers gekennzeichnet ist:

Die enormen technologischen Konsequenzen, die aus Forschungsbeiträgen dieser Art erwachsen, werden besonders deutlich, wenn ein Dialogsystem mit einem Expertensystem gekoppelt wird. Ein gutes Beispiel hierfür ist Mycin, ein medizinisches Diagnosesystem, dessen "Spezialgebiet" Krankheiten sind, die durch Antibiotika zu behandeln sind. Der Arzt gibt dazu die Krankheitssymptome ein, das System verlangt zusätzliche Informationen (und medizinische Tests) und gibt am Schluß eine Krankheitsdiagnose und Therapie. Die Gründe, die zu der Diagnose und dem Therapievorschlag geführt haben, können dem behandelnden Arzt mitgeteilt werden (in natürlicher Sprache).

Die Performance diese Systems liegt weit über dem Durchschnitt von Spezialärzten und wird nur noch von einzelnen universitären Spezialisten übertroffen, deren Forschungsgebiet die zu behandelnde Krankheit ist. (8).

Ähnliche Systeme wurden für eine ganze Reihe anderer Spezialgebiete gebaut (chemische Analyse, Ölsuche, Schaltkreisanalyse, Codegenerierung, etc.): In allen Fällen liegen die Fähigkeiten dieser Systeme weit über dem Durchschnitt dessen, was von Menschen auf dem jeweiligen Gebiet geleistet wird.

Beide Gebiete werden in den USA wegen der zu erwartenden technologischen Konsequenzen mit einem Aufwand erforscht, der bei uns nicht realisierbar wäre.

In dem Vortrag von H. Boley (Hamburg): KI-Sprachen und KI-Maschinen, eine Übersicht" wurden die speziellen Hardware- und Softwarentwicklungen für die KI-Forschung vorgestellt. Dieser Vortrag war wegen der bevorstehenden Anschaffung von Lisp-Maschinen für einige deutsche Universitäten von aktuellem Interesse: Mit einer solchen Anschaffung würden wir zum ersten Mal eine den amerikanischen Forschungsgruppen vergleichbare Ausrüstung erhalten, aber umgekehrt dürften die Gruppen, denen heute eine solche Maschine zur Verfügung steht, in kurzer Zeit einen Forschungsvorsprung haben, der kaum noch aufzuholen ist.

Fundamental für Kerninformatik

Der nächste Tag war ausschließlich theoretischen Fragestellungen und dem automatischen Beweisen vorbehalten und begann mit dem Vortrag von W. Bibel, München, "Matings in Matrices: Eine Einführung in neuere Beweisverfahren", in dem die zur Zeit am aussichtsreichsten erscheinenden Verfahren vorgestellt werden. Der Vortrag von R. Loos (Karlsruhe), "Termreduktionssysteme und algebraische Algorithmen" gab eine Übersicht über das Gebiet der "Rewrite-Systeme", das inzwischen auch für die Kerninformatik (abstrakte Datentypen, Programmverifikation, funktionales Programmieren etc.) von fundamentaler Bedeutung zu werden verspricht. Der Vortrag war vor besonderem Interesse durch die Verbindung der theoretischen Verfahren der Termreduktionssysteme mit den klassischen Fragestellungen der Computeralgebra.

Der Hauptvortrag des letzten Tages: W. Polak, Stanford, "Programmverifikation in Stanford - gestern, heute und morgen" stellte das derzeitig erfolgreichste PV-System vor und gab interessante Ausblicke einerseits auf die in den nächsten Jahren zu erwartende industrielle Anwendung und andererseits auf die zu erwartenden Forschungsschwerpunkte. Das Hauptziel und Problem dabei ist die Integration der Programmverifikation in den Software-Erstellungszyklus, im Gegensatz zur bisherigen Vorgehensweise, in der das fertige Softwareprodukt erst nachträglich zu verifizieren ist.

Von den USA noch abhängig

Die Evaluierung einer einwöchigen Tagung und der vorgetragenen Ergebnisse ist immer subjektiv: Meine persönliche Einschätzung - nicht nur auf Grund dieser Tagung - ist die, daß die deutsche Forschung auf diesem Gebiet noch immer sehr stark von den USA abhängig ist und noch keine wirklich selbständigen Leistungen erbracht hat. Das gilt allerdings für die sonstigen Gebiete der Informatik ganz genauso und war nach so lange verzögertem Start und so kurzer Entwicklungszeit auch gar nicht anders zu erwarten. Andererseits haben zumindest die Gebiete "Verarbeitung Natürlicher Sprache" (Hamburg), "Szenenanalyse" (Hamburg), "Programmiersprachenentwicklung" (Bonn) und "Automatisches Beweisen" (München, Karlsruhe) einen internationalen Standard erreicht und Ergebnisse vorzuweisen, die auch außerhalb Deutschlands allmählich beachtet werden.

Die hohe Teilnehmerzahl mag ebenfalls ein Hinweis auf das erwachende Interesse sein, das diesem Gebiet neuerdings auch von der Industrie entgegengebracht wird.

Dr. Jörg Siegmann ist Hochschulassistent an der Universität Karlsruhe, Institut für Informatik I.

Die Proceedings der GI-Tagung sind bei Springer erschienen: J. Siekmann (ed), GWAI-81, German Workshop on Artificial Intelligence, Springer Fachberichte 1981; vol

(1) Die "Dartmouth Conference" (1956) gilt als die Geburtsstunde der Artificial Intelligence, wenn auch die eigentlichen Anfange auf V.Neumann (USA) und A. Turing (England) zurückgehen.

P. McCorduck, "Machines Who Think", Fresman and Co., 1979, gibt eine mehr journalistisch orientierte historische Übersicht.

(2) Siehe zum Beispiel die Curriculum-Empfehlungen der ACM 78 in CACM 1979, vol 22, no 3 und CACM 1981, vol 24, no 3. Die großen Universitäten (MIT Stanford, CMU etc.) haben ohnehin seit über 10 Jahren spezielle Schwerpunkteprogramme für die Al.

(3) Siehe den SRI-lnternational Roboter "Shakey" oder den Edinburgh-Roboter "Freddy" als Vorläufer in den unten angegebenen Lehrbüchern.

(4) E. Feigenbaum, Hauptvortrag der 10. Gl-Jahrestagung, 1980.

(5) Siehe zum Beispiel Abegglen, A. Etorie "Japans Technologie Heute", Spektrum der Wissenschaft, April 1981 (Scientific American).

(6) T. Winograd "Understanding Natural Language" Edimburgh University Press, 1970

(7) W. v. Hahn, Computer als Dialogpartner, HAM-RPM, Universität Hamburg, Germanisches Seminar.

(8) Shortliffe, Computerbased Medical Consultations Elsevier, 1976.

Emphhlenswerte Lehrbücher sind: B. Raphael "The Thinking Computer: Mind Inside Matter, 1976, San Francisco, W.H. Freeman - N. Nilsson "Problem Solving Methods In Artificial Intelligence,1971, New York, McGraw Hill - N. Nilsson "Principles of Artificial Intelligence, Tioga Publ. Comp., Palo Alto, 1980.

Von Dr. Jorg Siegmann