Fluch und Segen liegen dicht beieinander (Letzter Teil)

11.10.1985

*Dr. Jörg Siekmann ist Professor an der Universität Kaiserslautern und Spezialist für Künstliche Intelligenz.

Die aktuelle Diskussion über "Künstliche Intelligenz" (KI.) ist kontrovers: Malen die Kritiker dieser Disziplin das Schreckgespenst einer von Maschinen regierten Welt an die Wand, erhoffen sich die Befürworter unter anderem mehr Freiraum für Kreativität und Arbeit fern von der Routine. Fest steht: Die Auswirkungen der "KI" werden nicht nur technologischer Art sein, sondern auch Bereiche beeinflussen, mit denen auf den ersten Blick kein Zusammenhang zu bestehen scheint. In drei Folgen veröffentlicht die COMPUTERWOCHE eine Einführung in diese Thematik.

"1964 betrug die Produktionszeit einer 4-Zylinder-Kurbelwelle bei Daimler in Untertürkheim zirka 1,22 Stunden. Zwanzig Jahre später war die Produktionszeit auf 18,08 Minuten gesunken. Beim 4-Zylinder-Kurbelgehäuse reduzierte sich die Produktionszeit pro Gehäuse von 1,26 Stunden (1964) auf 16,63 Minuten (1984).

Diese Verkürzung der Produktionszeit verdeutlicht, welche Rationalisierungsschritte in 20 Jahren gemacht wurden. Wer in den Hallen arbeitete, konnte den Fortschritt auch mit bloßem Auge verfolgen: 1964 wurde vor allem an einzelstehenden Maschinen gearbeitet, dann folgten Schritt für Schritt umfangreichere Maschinensysteme mit entsprechend aufwendiger Maschinenbedienung, schließlich wurden Automaten mit Verkettung installiert.

Weiter schreibt Martin Mössner in "Der Automatenmensch": "Beim Motorenprüffeld, laut Auskunft der Werksleitung dem modernsten Europas, ist es ähnlich zugegangen, wie bei der Fertigung von Kurbelwelle und -gehäuse. Mit Inbetriebnahme des neuen Prüffeldes wurde der Personalstand von 210 auf zirka 150 Arbeiter reduziert, während gleichzeitig die Produktion gesteigert wurde."

Was der Autor nicht wußte: Derzeit arbeiten KI-Wissenschaftler einer deutschen Universität zusammen mit einer Hochtechnologiefirma daran, ein Expertensystem zu installieren, das dann diese Prüfung automatisch vornehmen soll.

In einer anderen Halle, der Motorenmontage, werden über 1000 Mitarbeiter durch Handhabungsautomaten und Roboter in den nächsten Jahren stark betroffen sein.

Dies sind Momentaufnahmen, wie man sie zur Zeit so oder ähnlich in fast allen traditionellen Produktionsbetrieben finden kann und die zeigen, daß die im vorigen Jahrhundert begonnene Mechanisierung manueller Arbeit in ein neues Stadium eintreten wird.

Aber nicht nur die manuelle Arbeit wird in einem unvorhersehbaren Maße mechanisierbar werden, sondern auch große Bereiche geistiger Arbeit.

In einem bestimmten Verwaltungsgebäude der Landesregierung arbeiten einige hundert Menschen. Was machen die dort? Im wesentlichen schreiben sie Briefe, informieren den

Vorgesetzten über bestimmte Vorfälle, sammeln Informationen, die in Formulare eingetragen und in Aktenordnern abgeheftet werden, und informieren die Bürger oder andere Verwaltungsstellen über ihre Entscheidungen. Die Aktenordner werden ausgewertet und ergeben dann möglicherweise die Daten, mit deren Hilfe man Planungsentscheidungen treffen kann. Diese Planungen selbst werden dokumentiert und in Aktenordnern abgeheftet. Diese ganzen Aktenberge werden von einem Kalfaktor auf speziellen Aktenwagen von einem Büro zum anderen gefahren, um schließlich nach der Bearbeitung im Keller gesammelt und nach einem festen System abgelagert zu werden.

Computer statt Akten

Diese Aktenberge verschwinden im kommenden Jahrzehnt und die Arbeit wird zunehmend von Computern erledigt, zu deren Bedienung man nicht einmal 10 Prozent der jetzigen Arbeitskräfte benötigt! Die Informationsverarbeitende Technologie - und deren schillerndstes Kind, die Künstliche Intelligenz - vernichtet Arbeitsplätze, und dieser Prozeß wird sich in den nächsten Jahren noch erheblich beschleunigen. Durch diesen Prozeß werden Millionen von Arbeitern und Verwaltungsangestellten zunächst das verlieren, was ihren "Marktwert" und nicht zuletzt ihr Selbstverständnis ausmacht, nämlich ihre Qualifikation, die nun nicht mehr gebraucht wird, und sie werden schließlich im großen Heer

der "nicht mehr vermittelbaren"Arbeitslosen landen.

Was sollte eine ideale, rational funktionierende Gesellschaft tun? Die Informationstechnologie stoppen? Dies schiene mir, als ob man versuche, den Teufel mit dem Beelzebub auszutreiben, und ähnlich absurd, wie der Versuch nachzuweisen, daß die Informationstechnolgie langfristig so viel neue Arbeitsplätze schafft, wie sie vernichtet.

Der Roboter, der einen Arbeiter ersetzt, führt eine Arbeit aus, die an Stumpfsinn und Brutalität an die der römischen Galeerensklaven erinnert und die von niemandem freiwillig ausgeübt würde. Das Ausfüllen und Verwalten von Formularen, das stundenlange Schreibmaschineschreiben mit dem Knopf im Ohr sind kaum Tätigkeiten, die die menschliche Würde ausmachen. Wie kann man ernstlich bezweifeln, daß diese Arbeiten von einer Maschine ausgeführt werden sollten, die dabei sogar produktiver ist und den effektiven Reichtum unserer Gesellschaft - also die Summe aller produzierten Güter, die dem Einzelnen zur Verfügung stehen - eher vermehrt als verringert?

Insbesondere in gesundheitsschädigender oder stark unfallgefährdeter Arbeitsumgebung (wie am Hochofen) ist der Einsatz von Robotern sicher auch eine Maßnahme zur "Humanisierung der Arbeitswelt", sofern den dort arbeitenden Menschen eine gleichwertige, das Selbstgefühl nicht herabsetzende Alternative geboten werden kann.

Das Problem liegt also nicht in der Wissenschaft, die diesen Reichtum bei erheblich verringerter Gesamtarbeitsleistung ermöglicht, sondern in unserer Unfähigkeit, soziale Strukturen zu finden, die es gestatten, den erwirtschafteten Reichtum ebenso wie den restlichen anfallenden Arbeitsaufwand gerecht zu verteilen.

Die sich ausschließlich an der Profitmaximierung orientierenden "freien Kräfte des Marktes" sind offensichtlich - wir haben zur Zeit 2,5 Millionen Arbeitslose - nicht ausreichend, um diese Verteilung auch nur annähernd gerecht vorzunehmen. Das blinde Vertrauen auf diese - auch in der Vergangenheit nicht eben erfolgreichen - Mechanismen scheint mir angesichts der Größenordnung der wirtschaftspolitischen Veränderungen direkt in die soziale Katastrophe zu führen:

Keine Gesellschaft kann es sich auf Dauer politisch und finanziell leisten, einen so großen Prozentsatz der Bevölkerung zur Dauerarbeitslosigkeit zu verdammen und den vielen Millionen individueller Menschen ihren Selbstwert - die Qualifikation im Arbeitsprozeß - zu nehmen.

Militär ist an Kl-Forschung interessiert

Dabei gehört nicht sehr viel Phantasie dazu, sich eine Gesellschaft mit drastisch reduzierten Arbeitszeiten (...)vorzustellen, in der die Massengüter von vollautomatischen Fabriken hergestellt werden und in der die reichliche Freizeit für handwerkliche, künstlerische, soziale oder geistige Arbeit ohne Leistungsdruck und Verwertungszweck genutzt wird - sofern die Menschen durch Schule und Ausbildung auf eine solche Gesellschaft vorbereitet werden.

Die langfristige Grundlagenforschung in der KI wäre ohne die massive militärische Förderung in den USA nicht möglich gewesen. Dies beginnt sich - allerdings nicht nur für das Militär - auszuzahlen: Mit der Pershing-Rakete und den Cruise Missiles stehen qualitativ völlig neuartige Waffensysteme bereit, die ein einprogrammiertes Ziel bis auf wenige Meter genau selbständig ansteuern können. Militärische Roboter, Expertensysteme für die militärische Entscheidungsfindung und Autopiloten sind in der Vorbereitung.

Grundlagenforschung weiterentwickeln

Darpa (Defense Advanced Research Projects Agency) hat im Oktober 1983 ein strategisches Forschungsprogramm (strategic computing proposal) angeworfen, das für zehn Jahre geplant ist und dem für die ersten fünf Jahre bereits 600 Millionen Dollar zur Verfügung gestellt werden sollen. Das Ziel dieses Projekts ist die Weiterentwicklung und die Anwendung von Grundlagenforschung der Künstlichen Intelligenz in zunächst drei Bereichen:

- Entwicklung von Kriegsrobotern und Roboterpanzern,

- Computerunterstützung von Kampfpiloten,

- Managementsysteme für die Kampfführung (von Flugzeugträgern).

Dieses Programm von ungebrochener "Fortschrittsgläubigkeit" ist ein Aufruf, in die zukunftsträchtige KI-Technologie zu investieren, um so die Schlachtfelder der Zukunft, beschrieben in der Air Land Battle Doctrin, zu beherrschen. Die Informatik - und darin insbesondere die KI - ist zur kriegsentscheidenden Grundlagenwissenschaft geworden, so wie es die Physik zur Zeit der Entwicklung der ersten A- und H-Bomben war.

Angesichts der immer astronomischer anmutenden Summen, die für diese Kriegstechnologie ausgegeben werden, und angesichts der unbestreitbaren Tatsache, daß jede die eigene Überlegenheit angeblich garantierende technologische Entwicklung in wenigen Jahren von der Gegenseite überholt wird, ist die Frage angemessen, ob die Sicherheit beider Seiten durch diesen Wettlauf überhaupt erreicht werden kann.

Ist jedoch eine Selbstbeschränkung, wie sie viele Physiker oder Mediziner heute akzeptieren, von einer so jungen Wissenschaft wie der Informatik oder der KI nicht zuviel verlangt? Wieso ist es überhaupt unmoralisch, wenn wir Raketen mit eigener Sensorik und immer größerer Zielgenauigkeit oder Kriegsroboter entwickeln? Ist die militärische Forschung nicht schon immer Motor der technologischen Entwicklung gewesen?

Allein die Androhung der unvorstellbar grausamen Vernichtung ganzer Völker, wenn nicht allen Lebens überhaupt, und die Abhängigkeit unser aller Lebens von der Verantwortlichkeit einer winzigen Schicht von Technokraten ist eine unzumutbare Perversion des Sicherheitsdenkens:

"Das Gedächtnis der Menschheit für erduldete Leiden ist erstaunlich kurz. Ihre Vorstellungsgabe für kommende Leiden ist fast noch geringer: Die Beschreibungen, die der New Yorker von den Greueln der Atom-bombe erhielt, schreckte ihn anscheinend nur wenig. Der Hamburger ist noch umringt von Ruinen, und doch zögert er, die Hand gegen einen neuen Krieg zu erheben. Die weltweiten Schrecken der vierziger Jahre scheinen vergessen. Der Regen von gestern macht uns nicht naß, sagen viele." (Bertolt Brecht, Rede für den Frieden, 1952)

Forschung findet im Kontext einer geschichtlich gewachsenen wissenschaftlichen Erfahrung statt, die es erlaubt, dem Kenntnisstand entsprechend sinnvolle Fragen zu stellen und nach den richtigen Antworten zu suchen.

Die ernsthafte Erforschung der Mechanismen, die Intelligenz ermöglichen, konnte erst beginnen, als der aus der Informatik kommende Begriffsapparat zur Verfügung stand. Die Forschung der Künstlichen Intelligenz erhebt den historischen Anspruch, mit dieser neuen - von ihr selbst entscheidend mitgeprägten - Methodologie einen materiellen, "mechanistischen" Erklärungsversuch für die Funktionsweise intelligenter Prozesse zu liefern: "The new concept of 'machine' provided by Artificial Intelligence is so much more powerful than familiar concepts of mechanism that the old metaphysical puzzle of how mind and body can possibly be related is largely resolved". Das alte, von Descartes formulierte Rätsel, wie Geist und Materie (res cogitans und res extensa) möglicherweise zusammenhängen, ist weitgehend gelöst - wenn auch bisher weitgehend unbemerkt von den Philosophen.

Konsequenzen für viele Lebensbereiche

Die These, daß es bezüglich der kognitiven Fähigkeiten keine prinzipiellen Unterschiede zwischen einem Computer und dem Menschen gäbe, weckt Emotionen und erscheint dem Laien ebenso unglaubwürdig wie vielen Computerfachleuten.

Das ist verständlich: Mit dieser These ist eine weitere Relativierung der Position des Menschen verbunden, vergleichbar der Annahme des heliozentrischen Weltbildes im 17. Oder der Darwinschen Evolutionstheorie in der zweiten Hälfte des vorigen Jahrhunderts. Im Gegensatz zu jenen Thesen, deren Auswirkungen bestenfalls für einige Philosophen oder gewisse zur Religiosität neigende Menschen relevant war, hat diese jedoch - sofern sie sich als zutreffend erweist - bisher nicht absehbare technologische und damit soziale und politische Konsequenzen.

Insbesondere dem etablierten Informatiker muß all dies um so vermessener erscheinen, als er glaubt, von einem Computer etwas zu verstehen: Die in fester Weise miteinander verschalteten Transistoren eines Computers, die sklavisch - wenn auch mit hoher Geschwindigkeit - die starren Anweisungen eines Algorithmus ausfuhren, mit menschlicher Intelligenz in Verbindung bringen zu wollen, erscheint ihm absurd.

Mißverständnisse müssen eliminiert werden

Doch darin liegt ein erstes Mißverständnis. Die in der Informatik übliche Unterscheidung zwischen Hardware und Software ist gerade der Kern eines wesentlichen Argumentes zur Stützung der These: Die Transistoren sind in einer Weise miteinander verschaltet, die sicherstellt, daß alles, was im Prinzip berechnet werden kann, auch auf diesem speziellen Computer - genügend Speicher vorausgesetzt - berechenbar ist. Und ein Programm, das in einer höheren Programmiersprache geschrieben ist, ändert sein Verhalten nicht, auch wenn es auf Computern völlig unterschiedlicher Architektur läuft. Es würde sich aber auch nichts ändern, wenn dieses Programm auf der Neuronen-Hardware des Gehirns abläuft, von der man ebenfalls annimmt, daß sie in einer Weise verschaltet ist, daß sie die entsprechenden Berechnungen erlaubt.

Ein weiteres Mißverständnis mag durch den bisherigen vornehmlich, numerischen Einsatz von Computern entstehen, der leicht die Einsicht verschüttet, daß es möglich ist - in einer Programmiersprache entsprechend hohen Abstraktionsniveaus (wie Lisp) - die uns umgebene Welt und Sachverhalte über diese Realität symbolisch zu repräsentieren und zu manipulieren. Auf diesem Repräsentationsniveau ist die Analogie zu menschlicher intellektueller Aktivität zu suchen, und es ist dabei unerheblich, wie diese symbolische Repräsentation durch die verschiedenen konzeptuellen Schichten (höhere Programmiersprache - Transistoren - Elektronenfluß) im Computer einerseits und im Gehirn ("Programmiersprache" - bestimmte funktionale Neuronenkonfigurationen - Synapsen - Elektronenfluß) andererseits realisiert werden.

Die Fähigkeit meines Gehirns in diesem Augenblick, aus den von meiner Retina gesendeten und im Elektronenfluß des optischen Nervs kodierten Signalen eine symbolische Repräsentation zu berechnen, die es gestattet, den vor mir stehenden Schreibtisch als Gestalt zu erkennen, basiert auf Methoden, die auch in einem Computerprogramm formuliert werden müssen, wenn es die Fähigkeit zur Gestaltwahrnehmung haben soll. Es ist bisher kein stichhaltiges Argument bekannt, welches zu der Annahme berechtigt, daß solche Methoden - ebenso wie zu komplexeren geistigen Tätigkeiten befähigende Methoden - nicht auch auf einem Computer realisiert werden können und de facto gehen die meisten Wissenschaftler der KI von der Arbeitshypothese aus, daß es keinen prinzipiellen Unterschied zwischen den kognitiven Fähigkeiten von Mensch und Maschine gibt.

Diese Hypothese kann zu der Spekulation verleiten, daß - genügend weitere KI-Forschung vorausgesetzt - der Unterschied zwischen Mensch und Maschine zunehmend geringer werden wird, und diese Schlußfolgerung hat berechtigte Kritik herausgefordert. Diese Kritik basiert im wesentlichen auf dem Argument, daß wir als denkendes Subjekt nicht allein durch eine abstrakte intellektuelle Fähigkeit, sondern durch das "In-der-Welt-Sein" dieser Fähigkeit geprägt sind. Wir sind als geistige Person die Summe unserer körperlichen und intellektuellen Erfahrungen: Die Tatsache, daß wir geliebt worden sind und geliebt haben, daß wir einen Körper haben und ungezählten sozialen Situationen ausgesetzt sind, die je nach sozialer Schicht und lokaler Besonderheit verschieden sind, hat einen das Denken prägenden Einfluß, dem ein Computer nicht ausgesetzt ist. Obwohl ein großer Teil dieser Erfahrungen explizit gemacht und dann auch programmiert werden kann, und obwohl es irrig ist, zu glauben, ein Computer könne nicht so programmiert werden, als ob er entsprechende Emotionen habe, ist er doch nicht in der Welt, wie wir es sind. Er wird, selbst rapiden technischen Fortschritt vorausgesetzt, eine uns fremde Intelligenz bleiben -eine maschinelle Intelligenz, die uns - zur Zeit auf Spezialgebieten - rein intellektuell jedoch gleichwertig, ja sogar bereits überlegen ist.

Referenzen

(1) Die "Dartmouth Conference" (1956 gilt als die Geburtsstunde der Artificial Intelligence, wenn auch die eigentlichen Anfänge weiter zurückliegen und u.a. auf V. Neumann (USA) und Turing (England) zurückgehen. P. McCorduck, "Machines who think", Freeman & Co., 1979, gibt eine journalistisch orientierte historische Übersicht.

(2) siehe z.B. den. amerikanischen Curriculumsvorschlag in CACM, vol. 22 No. 3,1979, pp. 147-166

(3) BMFT-Bericht, 1982. Autoren: Händler, Jessen, Kluge, Kupetz, Nagel, Nefiodow und Güntsch.

(4) Bericht an das BMFT: Memorandum zur Lage und Entwicklung von Forschung und Technologie auf dem Gebiet der Informationstechnik in der BRD, September 1983

(5) Eigene Studiengänge existieren bereits in den USA und in England.

(6) T Winograd: Understanding Natural Language. Edinburgh Univ. Press, 1970

(7) W. v. Hahn, W. Wahlster, HAM-ANS, Forschungstelle f. Künstliche Intelligenz, Univ. Hamburg, Mittelweg 179, 2000 Hamburg 13

(8) Bobrow, D.G. et al.: GUS, A Frame Driven Dialog System. J. Art. Intelligence 8, 2,1977

(9) Walker, D.E.: Understanding Spoken Language. North Holland, 1978

(10) Bibel, W. Siekmann, J. (eds.): Künstliche Inteiligenz. Springer Informatik Fachberichte, vol. 59,1982

(11) Buchanan, B.G., Feigenbaum, E.A.: Dendral and Metadendral: Its application dimensions. J. Art. Intelligence 11,1978

(12) Shortliffe, E.H.: Computer Based Medical Consultations: MYCIN. North Holland Publ. Comp. 1976

(13) Raulefs, P.: Expert Systems: State of the Art und Future Prospects. In: Proc. GWAI-81, J. Siekmann (ed.); Springer Informatik-Fachberichte 47, 1981, siehe ebenso den Artikel in (10)

(14) Diebold Management Report, No. 11\12, 1983

(15) Kowalski, R.: Logic for Problem Solving. North Holland Publ. Company 1979

(16) Clocksin, W., Mellish, C.: Programming in PROLOG. Springer 1981

(17) de Bakker, J.: Mathematical Theory of Program Correctness. Prentice Hall, 1980

(18) The Markgraf Karl Refutation Procedure. Universität Kaiserslautern, FB Informatik, Postfach 3049, 6750 Kaiserslautern

(19) D. Loveland: Automated Theorem Proving, North Holland, 1978

(20) W. Bibel: Automated Theorem Proving. Vieweg Verlag, 1983.

(21) Ohlbach, H.-J., Wrightson, G.: Solving an Open Problem In Relevance Logic. Interner Bericht der Univ. Karlsruhe, 1983

(22) D. Loveland: "Automated Theorem Proving: A Ouarter Century Review." Duke University, 1984.

(23) L Wos: Automated Reasoning. Proc. Joint International Conference on Art. lntelligence, Karlsruhe 1983.

(24) Hart, P. et al.: Artificial Intelligence - Research an Applications. Techn. Report, SRI, Menlo Park, Cal., 1972

(25) Ambler, P. et : A Vesatile System for Computer-Controlled Assembly, J. Art. Intelligence 6,1975

(26) Foith, J.: Robotics Research: From Toy Worlds to Industrial Applications, in: Proc. der GWAI-81, J. Siekmann (ed), Springer Informatik-Fachberichte 47, 1981; siehe ebenso den Artikel in (10)

(27) siehe z.B.: Abegglen, Etorie. Japans Technologie heute. Spektrum der Wissenschaft, April 1981 (Scientific American)

(28) Eine Studie über die potentiellen sozialen Auswirkungen wurde vom BMFT an das Fraunhofer Institut Stuttgart vergeben. Leider lagen die Ergebnisse zur Zeit der Drucklegung dieses Artikels noch nicht vor.

(29) Marr, D.: Vision. W.H. Freeman, 1982

(30) Aggarwal, J.K., Duda, R.O., Rozenfeld, A.: Computer Methods In Image Analysis, IEEE Press, 1977, New York; ebenso: A. Pugh (ed.): Robot Vision, Springer Verlag, 1983.

(31) Neumann, B.: Bildverstehen. In: (10)

(32) Sloman, A.: The Computer Revolution In Philosophy. Harvester Press, 1978

(33) Cognitive Science, North Holland.

(34) Bibel, W., Siekmann, J.: "Studienführer Künstliche Intelligenz". Gesellschaft für Informatik e.V.

(35) Weizenbaum, J.: Computer Power and Human Reasoning. W.H. Freeman,1976.

(36) McCorduck, Feigenbaum: Fifth Generation Computer Systems

(37) E. Feigenbaum: Hauptvortrag der 10. GI-Jahrestagung, Springer Informatik- Fachberichte 33, 1980

(38) Quelle: Technische Rundschau, No. 13, 27.04.1984

(39) The International Directory of Artificial Intelligence Companies, Art. Intelligence Software, 45100 Roviogo P.O.Box 198, Italien, 1984

(40) Martin Mössner "Der Automatenmensch". Nachdruck Frankfurter Rundschau, 5.9.1984

(41) "Geisterfahrt Ins Leere - Roboter und Rationalisierung In der Automobilindustrie", Hamburg, VSA Verlag 1984

(42) J. Siekmann: "Computergestützte Frühwarn- und Entscheidungssysteme" in: Nachdenken statt Nachrüsten. Von Loeper Verlag, 1983

(43) B. Brecht: "Rede für den Frieden", 1952

(44) H.L. Dreyfus: "What Computer's can't do" Harper and Row, 1972

(45) Die Lighthill-Debatte In England, (...) z.B. Sigart und Aisb Quarterly.

(46) Beispielsweise sind zur "International Joint Conference on Artificial Intelligence" In Karlsruhe 1983 sicher an die hundert Zeitungsartikel, Fernsehfeatures etc. erschienen.

(47) M. Boden: Artificial Intelligence and Natural Man. Harvester Press, 1977

(48) McCullock: Embodiments of Mind. 1965

(49) Norman, Romdhard:"Human Information Prozessing", 1978

(50) Winston, P.: The Psychology of Computer Vision. McGraw Hill, 1975

Dieser Artikel wurde von Jörg Siekmann als Gutachten im Auftrag des Bundesministeriums für Forschung und Technologie für eine gemeinsame Tagung des BMFT und der OECD erstellt. Die Aufgabe war erstens das Gebiet "Künstliche Intelligenz" einem Laien verständlich darzustellen und zweitens Zukunftsperspektiven auch über das Jahr, 2000 hinaus zu entwickeln. Der Nachdruck erfolgt mit freundlicher Genehmigung des BMFT .