Große Durchbrüche erst in einigen Jahren zu erwarten, aber:

Forschung an Unis schreitet zügig voran

15.01.1988

AMSTERDAM (cp) - Frontiers in Computing - unter diesem Motto versammelten sich kürzlich rund 160 Wissenschaftler aus aller Welt in der niederländischen Hauptstadt zum Informationsaustausch. Während der Konferenz wurden die jüngsten Forschungsergebnisse auf Gebieten wie Dataflow-Verarbeitung, VLSI-Implementationen, parallele Architekturen für relationale Datenbanken und Artificial Intelligence, systolische Matrizen und optische Computer präsentiert.

Dem geistigen Vater des japanischen "Fifth Generation Project", Tohru Moto-oka, war eine Session gewidmet, während der über den gegenwärtigen Stand der Dinge bei den verschiedenen internationalen Projekten (Esprit, Alvey, MCC etc.) berichtet wurde. Diese Forschungsvorhaben waren als Reaktion auf den Plan Moto-okas ins Leben gerufen worden, der Industrie und seinen Landsleuten mit völlig neuen DV-Konzepten und Produkten zu einem besseren Lebensstandard zu verhelfen. Größere Durchbrüche bei den einzelnen Projekten seien nicht vermeldet worden, erläuterte dazu F. Kuo vom kalifornischen SRI International, aber Fortschritte würden in der Informationsverarbeitung nur durch harte Arbeit über einen langen Zeitraum erzielt. Neurocomputing, um ein Beispiel zu nennen, sei zwar schon seit den fünfziger Jahren bekannt, aber erst die neueren VLSI-Techniken würden es ermöglichen, derartige Netzwerke zu implementieren. Ebenso wie Artificial Intelligence sei diese Art der Verarbeitung zwar vielversprechend, jedoch keine Lösung für alle Probleme, sagte Kuo.

Als noch weit von der Realisierung entfernt schätzt R. van de Riet, Professor an der Free University of Amsterdam und Vorsitzender der Konferenz, Neurocomputing ein. Auf dem Gebiet des Optical-Computing haben van de Riet zufolge die Japaner die Initiative ergriffen. Es liefen viele Projekte mit den unterschiedlichsten Ansätzen, an denen mindestens zehn japanische Unternehmen und Universitäten beteiligt seien, erläuterte der japanische Wissenschaftler Toyohiko Yatagai in einem Vortrag. Mit optischen Computertechniken ließen sich parallele Rechner auf einem hohen Level realisieren. Bei einem Schaltkreis in den Entwicklungslabors von NEC sei eine Geschwindigkeit von 100 Megabit pro Sekunde erzielt worden. Geplant ist, bei einem bistabilen Bauteil 1 Gigabit pro Sekunde zu erreichen.

Optische Techniken sind laut Yatagai vor allem interessant für Querverbindungen bei hochintegrierten Schaltkreisen, in der Bildverarbeitung, für Nebenstellenanlagen im Telekom-Bereich und Künstliche Intelligenz. Vorgesehen ist in Japan beispielsweise auch die Entwicklung eines optischen Bussystems.

Ein weiteres Beispiel für die Verwendung optischer Techniken ist der "Delft Parallel Processor", der an der Technische Hoogeschool in Delft entwickelt wurde. Momentan wird an dem Supercomputer DPP8X gearbeitet, der einmal eine Leistung von 10 000 Megaflops bieten soll. Diese Maschine könne den Wissenschaftlern der Universität zufolge auch die Entwicklung neuartiger Rechnerkonzepte unterstützen zum Beispiel Neuronen-Netze. In einem solchen Netz müsse jede Einheit, also ein Neuron, mit Tausenden von anderen Neuronen kommunizieren können. Für die Zukunft der Supercomputer sei auch erforderlich, daß sie in bezug auf parallele Symbol-Verarbeitung leistungsfähiger würden, so die Mitarbeiter der Delfter Universität. Aus diesem Grund würden die Prozessoren im DPP8X mit einem "Powercam" ausgestattet, ein Powerram (ein raumparalleler, opto-elektrischer Wandler), dessen Inhalt elektrisch adressiert werden kann.

Ein Schwerpunkt der Forschungsarbeiten an der Keio University in Yokohama sind 3D-VLSI-Technologien, die von den Wissenschaftlern dort als einer der führenden Bereiche in der Entwicklung integrierter Schaltkreise im nächsten Jahrzehnt betrachtet werden. Die Vorteile von 3D-VLSI sind den Japanern zufolge hohe Packungsdichte und hohe Geschwindigkeit, die Nachteile lägen gegenwärtig in I/O-Problemen und Schwierigkeiten mit der Hardware.

Parallele Architekturen und Programmiersprachen auf dem Gebiet der Artificial Intelligence werden unter anderem erforscht von British Aerospace, der Ukranian Academy of Sciences in Kiew (UdSSR), der University of Essex (Großbritannien) und dem Changsha Institute of Technology in Hunan, China. Die Naval and Electronic Systems Division von British Aerospace, um ein Beispiel herauszugreifen, hat die Declarative Language Machine (DLM) entwickelt, die deklarative Sprachen wie Prolog, Lisp, Hope etc. benutzt. Auch soll der Rechner in der Lage sei die Echtzeitverarbeitung von Systemen zu steuern. Mit einer Prolog-Verarbeitungs-Rate von 620 KLIPS sei der DLM der schnellste AI-Rechner der Welt, so seine Entwickler. Das Nachfolgemodell, der DLM1, komme auf 800 KLIPS und sei unter anderem in der Lage, große Expertensysteme (10 000 Regeln) laufen zu lassen.

Das Computer Science Department und Robotics Institute der Carnegie Mellon University in Pittsburgh, Pennsylvania, hat sich auf die Weiterentwicklung eines komplexen Bildverarbeitungssystems spezialisiert, Fido (Find Instead of Destroy Objects) genannt. Fido wurde vor 13 Jahren an der Stanford University für die Steuerung von Robotern konzipiert. Es enthält ein Modul für die räumliche Bildverarbeitung, ein weiteres für die Berechnung des Bewegungsablaufes und einen sogenannten Motion-Generator. In seinem dreizehnjährigen Dasein konnte die Geschwindigkeit für einen "Schritt" von 15 Minuten auf weniger als fünf Sekunden gesteigert werden. Im letzteren Fall war Fido auf der Warp-Maschine implementiert, einem Systolic-Array-System mit einer Leistung von 100 Megaflops pro Sekunde, das in Zusammenarbeit mit General Electric entstanden ist.