Mehr als ein Teilbereich der Datenverarbeitung, aber:Al steckt vorläufig noch in den Kinderschuhen

12.04.1985

Artificial Intelligence (Al) oder Künstliche Intelligenz (Kl) ist ein schillernder Begriff, mit dem Laien häufig völlig unklare Vorstellungen verbinden. Aber auch Datenverarbeiter, die Al häufig als ein Teilgebiet der DV verstehen, sind sich oft nicht im klaren darüber, was Al wirklich ist. Mit den Fakten und Prognosen dieses Wissenschaftsbereichs setzt sich der EDP Deutschland Report, Band 11, Nr. 5, vom 15. März 1985 auseinander ("Artificial Intelligence - Wissenschaft in den Kinderschuhen" ).

Meistens tauchen im Zusammenhang mit AI die Themenkreise 5. Computergeneration, Objektorientierung, modulare, unstrukturierte AI-Sprachen, Parallel-Processing und Überwindung der von-Neumann-Philosophie auf.

Mittlerweile kommen die ersten Hardware- und Softwareerzeugnisse auf den Markt, in welche AI Einzug gefunden hat. Das Leistungsangebot dieser Produkte steht jedoch - bislang jedenfalls - in krassem Gegensatz zu der weit verbreiteten Meinung, AI sei eine Innovation mit ähnlich globaler Bedeutung wie seinerzeit die Buchdruckkunst. Die bisherigen AI-Ansätze sind für Fachleute sicherlich sehr interessant, eine epochale Dimension nehmen sie nicht an.

Das ist um so ernüchternder, wenn man bedenkt, daß die wissenschaftliche Arbeit über die Künstliche Intelligenz in ihrem Ursprung von einer der grandiosesten Phantasien der Menschheit beseelt ist - nämlich der Konstruktion einer Maschine nach dem Bild des Menschen, die eine Entwicklung von ihrer "Kindheit" an durchläuft, die Welt durch Informationen erfährt, und schließlich zu Betrachtungen über den gesamten Bereich menschlichen Denkens imstande ist.

Freilich, die konkreten ingenieurtechnischen Ziele sind heutzutage wesentlich bescheidener, hierbei geht es um marktreife Produkte und nicht um wissenschaftliche Phantasien. Dennoch ist es gut, den "Kern" der AI im Gedächtnis zu behalten.

Definitionen, was unter Artificial Intelligence eigentlich zu verstehen ist, gibt es zahlreiche. Manche sind enger, andere weiter gefaßt. Eine davon lautet verkürzt: Künstliche Intelligenz bedeutet auf Maschinen menschlichen Verstand simulieren zu lassen. Darin kommt zum Ausdruck, daß AI eine wissenschaftliche Disziplin ist und nicht lediglich eine neue Technik.

AI wird häufig als ein Teilgebiet der Datenverarbeitung angesehen, die erwähnte Definition macht aber deutlich, daß diese Betrachtungsweise der wissenschaftlichen Tragweite Künstlicher Intelligenz nicht gerecht wird, Schließlich wurden die ersten datenverarbeitenden Anlagen auch dem Maschinenbau (mechanische Webstühle), der Feinmechanik (Rechenmaschinen) oder der Elektrotechnik/Elektronik (Computer) untergeordnet, bevor sich die Informatik als eigenständige Wissenschaft herauskristallisierte. Die AI-Forschung berührt sich mit Gebieten wie Psychologie, Linguistik, Biologie und Informatik. Datenverarbeitungsanlagen sind aber die derzeit wohl einzige Möglichkeit zur Realisierung von AI-Ansätzen, weswegen sie eben häufig im Vordergrund stehen.

Innerhalb der DV nun ist es üblich und meistens auch sinnvoll, Artificial Intelligence nicht als Wissenschaft, sondern als Technologie zu verstehen, die dazu geeignet ist, Computer leistungsfähiger zu machen. Der Schlüsselaspekt einer so verstandenen AI-Technologie ist, daß es für einen Programmierer beziehungsweise Anwender nicht mehr wie bisher notwendig ist, einem Computer mitzuteilen, wie ein Problem gelöst werden kann (Prozedurorientiertung), sondern nur noch, was das Problem ist (Objektorientierung). Im ersten Fall geht es also um die Detaillierung von Verarbeitungsvorschriften, im zweiten um die Begrenzung von Informationen zu einem Objekt.

Artificial Intelligence ist keine ganz junge Wissenschaft, sondern seit über 20 Jahren Gegenstand der Forschung. Bekannt geworden ist das 1964 - 66 entstandene Computerprogramm "Eliza" (der Name entstand in Anknüpfung an die Pygmalionsage) von Joseph Weizenbaum, das es erlaubte, eine "Unterhaltung" (per Tastatur) in Englisch zu führen.

Die Anerkennung von Al als eine Spitzentechnologie der Datenverarbeitung ist jedoch erst im Laufe der letzten Jahre entstanden, was sowohl darauf zurückzuführen ist, daß die AI-Forschung erst jetzt einen gewissen Stand erreicht hat, der ökonomische Horizonte erkennen läßt, als auch auf eine Reihe externer Faktoren. Die Kernaspekte außerhalb der Forschung sind:

- Technologie: Erst mit dem Aufkommen leistungsfähigerer und verläßlicher Hardware konnte man an AI-Systeme zu vernünftigen Kosten denken. Dieser Aspekt ist aber sicherlich nicht nur quantitativ zu sehen, sondern schlägt immer wieder - auch in anderen Technologiebereichen - in qualitative Dimensionen um.

- Militärische Interessen: Der weitaus größte Einsatz derzeitiger AI-Produkte dient militärischen Zwecken, ebenso wie die Mehrzahl aller Forschungsprojekte aus Verteidigungsbudgets finanziert wird. Das hängt unter anderem damit zusammen, daß die Vernichtungskraft von Waffen als solches immer mehr hinter die Intelligenz ihrer Einsatzführung zurücktritt. Dies gilt insbesondere bezüglich strategischer Planungen eines nuklearen Schlagabtausches der Supermächte (in diesem Fall gilt die Kommunikationsstruktur als besonders gefährdet, so daß eine autonome Entscheidungsfähigkeit operativer Einheiten von größter Bedeutung ist). 1984 gaben die USA Mittel in der Größenordnung von zirka 6,7 Milliarden Dollar für Führungs-, Fernmelde- und Aufklärungseinrichtungen, sogenannte C 3I-Systeme (command, control, communications and intelligence), aus. Artificial Intelligence spielt hier neben Organisation und Kommunikation eine der Schlüsselrollen der Verteidigungsplanungen.

- Wirtschaftliche Interessen: Das japanische Fifth'-Generation-Projekt, Icot, das allgemein als eine Bedrohung der US-Dominanz im DV-Markt angesehen wird, hat Artificial Intelligence als ein Hauptelement der Forschungsanstrengungen spezifiziert. Amerikanische Unternehmen haben sich hiergegen in Konsortien mit ähnlicher Zielsetzung zusammengeschlossen und das US-Justizministerium DoJ zeigt ein starkes Entgegenkommen in der Auslegung der Antitrust-Bestimmungen, wenn es um gemeinsame Forschungsprojekte geht, was nicht mehr als rechtliche, sondern nur noch als politische Entscheidung zu verstehen ist. Dieser Kampf um zukünftige Märkte rückt die AI immer weiter in den Vordergrund.

- Produktivität: Der Siegeszug der Computer überhäuft uns alle mit immer mehr Datenmaterial, ohne daß aber die Methoden zur Auswertung dieser Daten wesentlich effizienter geworden wären. Im Grunde sind bislang nur zwei Analyseverfahren automatisiert: Zählen und Vergleichen. Der Einfluß relevanter Datenmassen auf Entscheidungen ist nach wie vor auf praktisch allen Ebenen zumindest geringer als dies im Sinne maximaler Produktivität wünschenswert wäre. Hier kann nun Künstliche Intelligenz in der Form von Expertensystemen aus einer unüberschaubaren Menge an Datenmaterial Antworten auf individuelle Fragen und somit Entscheidungshilfen geben.

Diese vier Aspekte dürften auch zukünftig von wesentlicher Bedeutung für den Markt der Artificial Intelligence sein.

Bis Anfang letzten Jahres waren die mit AI beschäftigten Unternehmen zumeist US-Start-Ups, oftmals von AI-Forschern gegründet, und überwiegend in der Nähe größerer Universitäten angesiedelt. Heute gibt es zwischen 20 und 40 dieser kleinen Firmen. IDC erwartet eine drastische Zunahme in den kommenden zwei bis fünf Jahren, bevor es zu einer Marktbereinigung kommen wird.

In 1984 zeigte der Al-Markt zum erstenmal einen ernsthaften Wettbewerb, ausgelöst durch verschiedene sich gegenseitig aufschaukelnde Ereignisse und Tendenzen, die nachfolgend aufgeführt sind.

- Forschungseinrichtungen begannen ihre Produkte zu vermarkten.

- Große DV-Hersteller richteten Al-Forschungszentren ein.

- Eine Stampede von Venture-Kapitalisten waren auf Objektsuche.

Der Einritt großer Namen wie DG, DEC, IBM, HP, Tl oder Xerox und viele andere mehr in den Al-Markt wird von den Kleinunternehmen oftmals begrüßt, weil dies den Markt insgesamt aufbläht. Viele der Start-Ups arbeiten in enger Kooperation mit den Großen, manche zwar nur noch als bessere Forschungslabors, andere aber mit unternehmerischer Eigeninitiative unter dem Schirm beispielsweise eines Vermarktungsabkommens.

Den Großen der Branche erscheint es wohl als Muß, in den Al-Markt einzutreten, auch wenn dieser heute in Mark und Dollar ausgedrückt noch nicht sehr interessant ist. Erstens schillert dieser Markt zu zukunftsträchtig, als daß es sinnvoll wäre, ihn zu vernachlässigen und zweitens entpuppt sich Al immer mehr als eine Basistechnologie, die in praktisch jedes Segment des DV-Marktes hineinreicht.

Führend im AI-Bereich sind derzeit die USA, aber auch in Europa und Japan werden sehr starke Anstrengungen unternommen. Präzise Daten über die Größe dieses Marktes gibt es derzeit nicht, die einzelnen Schätzungen differieren beträchtlich. IDC nennt nachfolgend einige wenige Zahlen, die jedoch mit einer hohen Ungewißheit behaftet sind. 1984 könnten mit AI-orientierten Produkten um die 100 Millionen Dollar umgesetzt worden sein, bis 1993 konnte sich dies auf zirka 8,5 Milliarden Dollar erhöht haben (mit vielleicht 30 Prozent Hardware- und 70 Prozent Software-Anteil).

Hauptanwendungsgebiete in gewichteter Reihenfolge dürften sein:

- militärische Verteidigung,

- Luft- und Raumfahrt,

- Design Engineering,

- Fertigungssteuerung,

- kommerzielle Anwendungen,

- Ausbildung.

Der derzeitige AI-Markt rekrutiert sich fast ausschließlich aus Hardware- und Software-Tools zum Aufbau von Expertensystemen, wobei man selbst hier eher von Versuchsstadien denn von professionellen Anwendungen sprechen muß. Darüber hinaus erscheinen seit kurzem erste Tools zur Unterstützung natürlicher Sprache.

Von dem Ziel, einen Experten in einem bestimmten Fach quasi zu ersetzen, sind die derzeitigen Expertensysteme noch weit (!) entfernt, aber es ist immerhin eine deutliche Entwicklung zu sehen, und die Produkte finden ihren Markt.

Die Verarbeitung natürlicher Sprache (nicht gesprochener Sprache), einer der Hauptaspekte der AI-Forschung, setzt sich hingegen bislang noch kaum in marktfähige Produkte um. TIs Naturallink oder Plume von der Carnegie Group bilden bislang die Ausnahmen.

Die gebräuchlichsten Programmiersprachen für Artificial Intelligence heißen Lisp und Prolog. Dabei ist in den USA praktisch ausschließlich Lisp von Bedeutung, die eine Art de facto-Standard darstellt, während Prolog seinen französischen Ursprung nicht verleugnen kann und in Europa dominiert. Aufsehen erregt hat die Wahl von Prolog für Japans Fifth's Generation Projekt.

Sowohl Lisp als auch Prolog weisen gravierende Beschränkungen auf - so kennt Prolog beispielsweise nur einen einzigen Kontrollmechanismus (Backtracking), ist dafür aber für Parallel-Processing geeignet. Hier liegt eines der schwerwiegendsten Mankos von Lisp - und viele Wissenschaftler hoffen wohl auf ein Zusammenschmelzen beider Sprachen zu einer besseren neuen.

Beachtenswert ist, daß viele Softwareimplementierungen, die bis vor kurzem nur auf Mainframes oder höheren Lisp-Maschinen wie Symbolics, LMI oder Xerox verfügbar waren, nun auch auf Mikrocomputern der höchsten Leistungsebene angeboten werden. Natürlich ergeben sich hierbei noch vielerlei Beschränkungen, aber der Trend ist eindeutig.

Einen Überblick über mögliche zukünftige "Meilensteine" auf dem Gebiet der Künstlichen Intelligenz gibt die folgende Übersicht (aus der IDC-Analyse THE CIMS REPORT 1 /5, "The Market Status of Artificial Intelligence "):

1983 Einfache Hardware-Tools.

1984 Einfache Software-Tools und komplexe Hardware-Tools. Softwareentwicklung für militärische, kommerzielle und wissenschaftliche Zwecke.

1985 Komplexe Software-Tools und einfache kommerzielle Expertensysteme.

1986 Einfache Expertensystemapplikationen (kommerziell).

1987 Komplexe Expertensystemapplikationen ("off-the-shelf") für kommerzielle und vereinzelt auch vertikale Konsummärkte.

1988 Expertensystemapplikationen auf Konsummärkten.

1990 Allgemeine Verbreitung von AI zur Verarbeitung natürlicher Sprache im kommerziellen Einsatz.

Faßt man Artificial Intelligence als wissenschaftliche Disziplin auf, so ist diese Subüberschrift fast sinnlos, da es mehr Probleme als Ergebnisse gibt. Versteht man AI jedoch als Technologie innerhalb der Datenverarbeitung, so ergeben sich einige interessante Aspekte für den Markt mit Künstlicher Intelligenz, die im Anschluß listenartig aufgeführt sind.

- Kämpfe der einzelnen akademischen AI-Hochburgen in den USA, namentlich MIT, Carnegie-Mellon und Stanford.

- Reibungen zwischen akademischer (wissenschaftlicher) und industrieller (technologischer) Forschung.

- Abzug von akademischen Forschern in die Industrie, obwohl an den Universitäten sowieso zu wenige Wissenschaftler mit AI beschäftigt sind .

- Dennoch: Zu wenige AI-Spezialisten in der Industrie.

- Probleme beim Technologietransfer zwischen Forschung und Vermarktung.

- Überzogene Erwartungen bezüglich der Möglichkeiten und der Leistungsfähigkeit von AI-Produkten

- Unterschätzung der Kosten für Entwicklungen.

- Ungenügende Definition und Abgrenzung von Produkten und Produktgruppen.

- Imageschädigungen durch Anpreisungen von Produkten als AI, obwohl sie mit Artificial Intelligence nichts zu tun haben (besonders durch traditionelle Computerhersteller).

- SicherheitsüberIegungen zur Unterdrückung von Mißbrauch bei Datensammlungen wie Expertensystemen.

- Akzeptanzhindernisse, da AI-Produkte in besonderer Weise auf den Einsatz im Dienstleistungsbereich zielen und somit "Jobkiller" erster Wahl sind.

- Künstlicher Intelligenz haftet in der Öffentlichkeit naturgemäß besonders stark das "Orwell-Syndrom" an.

Diese beiden letzten Punkte zusammengenommen könnten den Begriff "Künstliche Intelligenz" schon bald zu einem politischen Schlagwort werden lassen, so daß sich diese Wissenschaft - und damit auch die Produkte - unter Umständen einer emotionalen Abwehrreaktion breiter Schichten der Öffentlichkeit gegenübersehen.

Die Universität von Austin in Texas (USA) veranstaltet jährlich eine "National Conference on Artificial Intelligence", gesponsert von der" American Association for Artificial Intelligence" (AAAI). Die nachfolgend aufgeführten Unternehmen nahmen sämtlich an der letzten AAAI-84 im Oktober teil und stellen "die Substanz" dieses Marktes dar, andere Unternehmen mit AI-Ansätzen bleiben hier unberücksichtigt.

Apollo Computer. Gegründet 1980; Mitarbeiterzahl 2700. Dedizierte 32-Bit-Workstation im LAN-Verbund (Domain) mit Lisp-Umgebung und Tools zur Programmierung von Expertensystemen.

Carnegie Group. Gegründet Januar 1983; Mitarbeiterzahl 35. Expertensysteme für Industrieanwendungen und Produktivitätstools. Interface zur Verarbeitung natürlicher Sprache (Plume) zur Anbindung an Datenbanken, Expertensysteme und Simulationen.

Data General. Gegründet 1968: Mitarbeiterzahl 15 000. Common Lisp auf den D/S-Workstation- und den MV/Minicomputer-Produktfamilien.

DEC. Gegründet 1957; Mitarbeiterzahl 85 000 (200 im AI-Bereich). Starkes Engagement in über 20 AI-Projekten. Softwaretools, Expertensysteme, VAX Lisp, Kooperationen mit sechs AI-Softwareherstellern (Carnegie Group, Inference, Gold Hill, Prologia, ISI und Digital Research). DEC-Hardware wird für viele AI-Projekte eingesetzt.

General Research Corp. Gegründet 1963; Mitarbeiterzahl 50. Softwaretool (TIMM) zum Aufbau von Expertensystemen, unter anderem für den IBM PC. Diverse AI-Produkte für die US-Regierung seit 1977.

Gold Hill Computers. Gegründet Juli 1982; Mitarbeiterzahl 15. Auf Mikrocomputer spezialisiert. Common Lisp, Logo, K:Base. Marketingvereinbarungen mit DEC.

Interference Corp. Gegründet 1979; Mitarbeiterzahl 50. Expertensystemtools für Lisp-Umgebungen. Marketingvereinbarungen mit DEC.

Intellicorp. Gegründet 1980; Mitarbeiterzahl 94. Softwaretools für den Bereich Knowledge Engineering. Darüber hinaus tätig im biotechnischen Markt.

IBM. Gegründet Anfang 1900. Mitarbeiterzahl 370 000. Seit 1950 in Al-Forschung engagiert, aber ohne spezielle Abteilung dafür. Projekte sind unter anderem Expertensysteme, Sprachverarbeitung (gesprochene Sprache), Computeralgebra, Bildverarbeitung ("Sehen"), Handschriftenlesen, Verarbeitung natürlicher Sprache, Robotertechnik.

Lisp Machine (LMI). Gegründet September 1980; Mitarbeiterzahl 100. Führender Entwickler von Lisp-Maschinen, erste Vermarktung 1980. Komplette 32-Bit-Workstationfamilie für Lisp und Prolog (Lambda).

Echtzeitexpertensystem für Prozeßsteuerung (Picon). 25 Prozent von LMI ist im Besitz von TI.

Jeffrey Perrone & Ass. Gegründet 1984; Mitarbeiterzahl 6. Exklusiver US-Distributor für Expert-Ease (von Export Software Int. in Schottland) zum Aufau von Knowledge Bases auf IBM PC auch durch nicht-technische Anwender.

Production Systems Technologies. Softwaretool (OPS83) zum Aufbau von Expertensystemen.

Symbolics. Gegründet April 1980; Mitarbeiterzahl 370 + . Führender Anbieter von Computern für AI und andere Komplexanwendungen. Entwicklung des ersten Lisp-Prozessors. 36-Bit-Familie (3600) mit Unterstützung von Lisp, Prolog, ADA und anderen. Expertensystem für Computeralgebra. Philosophie: Kommerzialisierung von AI.

Teknowledge. Gegründet Juli 1981; Mitarbeiterzahl 90. Knowledge Engineering Produkte und Dienstleistungen.

Tektronix. Gegründet 1946; Mitarbeiterzahl 20 000. AI-Forschung seit 1980. Entwicklungstools (Workstation 4404) für AI-Software in Lisp, Prolog und Xerox' Smalltalk.

TI. Gegründet 1930; Mitarbeiterzahl 80 000. Seit 1978 in AI-Forschung engagiert. Expertensystem (Personal Consultant) für TI-PC, 32Bit-NuBus-Technologie (NuMachine), Verarbeitung natürlicher Sprache (Naturallink) mit Interfaces zu MS-Fortran, MA Pascal und Lattice C.

Xerox. Gegründet 1958; Mitarbeiterzahl 100 000 (75 im AI-Bereich). Ankündigung einer eigenen AI SBU (System Business Unit), tätig im AI-Bereich seit 1981. "Erfinder" von AI-Attributen wie Maus und Windowtechnik (Xerox Parc). Zwei AI-Workstations (1108 und 1132). Xerox' AI-Engagement ist ganz stark auch unter dem Aspekt der Wettbewerbsfähigkeit im Workstationmarkt zu sehen.

Aus dem vorangegangenen Text ist bereits die enorme Diskrepanz zwischen den globalen Zielen der AI-Forschung, und den heute und in absehbarer Zeit verfügbaren Produkten deutlich geworden. Daß hier noch ein sehr, sehr langer Weg der Entwicklung vor uns liegt, ist klar. Bereits jetzt stellt sich jedoch die Frage nach den theoretischen Grenzen Künstlicher Intelligenz, die auch mittels größter Budgets nicht zu überwinden sind. Einige Aspekte seien hier genannt.

Wenn die AI-Forschung zum Ziel hat, einer Maschine einen Verstand zu geben, der dem menschlichen ähnlich ist, so geht sie dabei von dem Verständnis des Menschen als einem informationsverarbeitenden System aus. Sie unterstellt, daß zumindest alles Wissen, das ein Mensch zu erlangen fähig ist, auch einem Computer übermittelt werden kann. Hier aber treten Widersprüche auf. Es gibt viele Dinge, die ein Mensch weiß, ohne sie verbal ausdrücken zu können. Wenn man beispielsweise jemandem die Hand gibt und ihn dabei ansieht, so gewinnt man eine Information über seinen Mitmenschen, die sehr differenziert und sicherlich nicht exakt faßbar ist. Dennoch wird dieses Wissen relevant sein, wenn dieser Mensch wie auch immer beurteilt werden soll. Ein Computer, der dieses Urteil aussprechen soll, kann noch so viele Fakten erhalten, dieser eine Aspekt und viele andere gleicher Art werden ihm immer fehlen.

Macht man sich klar, welches enormen Sozialisationsprozesses es bedarf, bis aus einem Menschen ein Mensch geworden ist, so wird deutlich, daß es eine unzulässige Vereinfachung ist, den Menschen als ein informationsverarbeitendes System anzusehen.

Deshalb ist es verständlich, wenn sich die AI-Forschung derzeit stark auf sogenannte Expertensysteme konzentriert, um sich - zunächst - nur um Sachverhalte kümmern zu müssen, die sich formalisieren lassen. Nun ist es aber doch gerade der Sinn der AI, Fragen an einen Computer ohne Formalismen, also in natürlicher Sprache, zu stellen. Sprache kann immer nur in einem Kontext verstanden werden. Für ein Expertensystem wird dieser Kontext eben das Fachwissen sein, für einen Menschen aber ist es sein gesamtes Wissen über die Welt, so wie er sie kennt, die Beschränkung auf ein Fachgebiet ist eine Einengung innerhalb derer nicht jedes Problem zu lösen ist. So muß man vermuten daß Künstliche Intelligenz natürliche Grenzen hat.