Überlebenschancen für Minicomputer werden geringer:

Im Supermikro steckt das größere Entwicklungspotential

03.07.1987

Minicomputer kontra Supermikros - Marktmachtkampf oder technische Konsequenz? Mehr von Emotionen als von Sachkenntnis geprägt sind die in jüngster Zeit geführten Diskussionen zu dieser Frage. Im folgenden Beitrag hat Peter Betzler* daher den Versuch unternommen, anhand technischer Gegebenheiten die Unterschiede aufzuzeigen und zu einer möglichst objektiven Bewertung zu gelangen. Sein Fazit: Der Mini ist zwar noch lange nicht passe, aber dem Supermikro gehört langfristig die Zukunft.

Angefangen hat alles bei Zuse mit von Neumann ging es weiter IBM hat die ersten Weichen gestellt: Daten und Befehle benützen den gleichen Code und haben eine gleiche "Wortlänge" - Nibbles, Bytes, Halfwords und so weiter. An der Zahl der adressierbaren Speicherzellen scheiden sich die Geister und die Systeme. Die Drei-Adreß-Maschinen wurden als "Mainframe" definiert. Minicomputer arbeiten mit einer Zwei-Adreß-Form und mit sogenannten Akkumulatoren. Der Mikro als kleinster Bruder der Computerfamilie ist von seiner Grundkonzeption her eine Ein-Adreß-Maschine langsam und wenig leistungsfähig.

Der Mikro hat gegenüber dem Mini gewaltig aufgeholt

Der Begriff ist geblieben; der Mikro hat sich aber grundlegend verändert. Diese Änderung wird durch den Zusatz "Super ... " nur recht ungenügend beschrieben. Der Mikroprozessor tut sein übriges dazu. Dabei handelt es sich nicht etwa um eine Parallel-Entwicklung zum Mini, sondern um eine technisch unabdingbare Weiterentwicklung. Man hat versucht, das Konzept des Minicomputers in einen einzigen Chip zu vereinigen. Am Anfang dieser Entwicklung konnte damit nicht die Leistungsfähigkeit der Minicomputer erreicht werden. Die Zahl der Funktionen pro Chip war stark begrenzt. Heute verwenden natürlich auch Minicomputer Chips als aktive Bauelemente. Der Unterschied in der Architektur liegt allerdings darin, daß auf dem Minicomputer für die einzelnen Funktionen getrennte Chips, zum Beispiel für Register, Akkumulatoren, algorithmisch-logische Einheiten, Fließkommarechner oder Programmzähler verwendet werden, während beim Supermikro alles auf einem, maximal zwei Chips integriert ist. Mit der Miniaturisierung geht aber auch ein bedeutender physikalischer Effekt einher - die extreme Erhöhung der Taktfrequenz (bis zu 200 Megahertz!).

Neue Konzepte für Mikrocomputer entstanden vor allem durch die neuen Prozessoren M68020 und 80386, die über eigene Programmiersprachen wie "C" verfügen. Es wurden auch klassische Sprachen wiederentdeckt, zum Beispiel Lisp, die teilweise bei der Entwicklung der Mikro-Architektur Pate standen. Ein Begriff ist mit der Entwicklung der Supermikros unlösbar verbunden Unix, das Betriebssystem der Mikro-Welt. Es ist mindestens so alt wie der Mikro selbst und hat sich parallel zu ihm weiterentwickelt. Seine Wiege stand in den Bell Laboratories bei AT&T. Die erste lauffähige Version gab es auf einer PDP- 11 , und mit dem Derivat Cromix hat der kalifornische Mikro-Hersteller Cromemco bereits Anfang der Achtziger Jahre eine voll funktionsfähige Version auf den Markt gebracht.

Neue Sprachen und neue Ideen für Computerprogramme führen auch zu völlig veränderten Vorstellungen von der Architektur der Rechner. Wissensverarbeitung, Expertensysteme, die sogenannte "Künstliche Intelligenz" verlangen Programmiersprachen, die Minicomputern unverständlich sind. Hierzu gehören Lisp, Prolog und der derzeit letzte Schrei "Smalltalk" - die absolute Domäne der Supermikros!

Insgesamt sind für neue Aufgaben - man denke hier auch an CAD/CAM und CAE - Supermikro-Workstations mehr im Einsatz als vergleichbare Minicomputersysteme. Niemand würde heute noch auf die Idee verfallen, eine Architektur auf der Basis von Minicomputern für neue Lösungen bei derartigen Aufgaben vorzuschlagen. Es gibt bereits Mikroprozessoren mit speziellen Zusatz-Chips, die perfekt an Betriebssystem-Anforderungen neuer Multiuser- und Multitasking-Systeme und für objektbezogene Programmierung ausgelegt sind. Damit dringen diese Rechner auch in die Welt der Supercomputer ein. 30-Mips-Systeme sind heute bereits auf dem Markt, jedoch zu einem um Zehnerpotenzen geringeren Preis. Dies ist nur der Beginn einer neuen Generation von Computern mit völlig anderen Konzepten, die weit vom "Von-Neumann-Konzept" abweichen. Parallel arbeitende Systeme aus Tausenden von Mikroprozessoren, sogenannten Hypercubus- oder Connection-Maschinen, schlagen bereits Supercomputer in Spezialbereichen um Längen. Der Mikrocomputer ist also nicht die Verkleinerung des Mini-Computers, sondern die zwingende Weiterentwicklung, um Leistungen zu erreichen, die mit einem Mini nicht erbracht werden können.

Evolution der Architekturen nur mit Mikroprozessor

Ist also der Mini passe? Sicher noch lange nicht! Einmal bemühen sich die Hersteller von Minicomputern mit allen Kräften um eine Weiterentwicklung, und das Wort "Supermini" macht bereits die Runde. Andererseits haben die Investitionen der Anwender in der Vergangenheit ein beträchtliches Volumen erreicht, das bei akzeptabler Verarbeitungsgeschwindigkeit eher zum Weiterinvestieren als zur Abkehr raten lassen. Überdies verfügen alle namhaften Mini-Hersteller über eine Fülle von leistungsfähigen, ausgereiften Programmpaketen, die auch für Neukunden von Interesse sein können. Längerfristig muß man allerdings nach dem heutigen Entwicklungsstand die Überlebenschancen der Mini-Systeme eher skeptisch beurteilen.

Betrachtet man die aktuelle Preissituation auf den Mini- beziehungsweise Mikro-Märkten, so ist schon beim Listenpreis für die Hardware ein beachtlicher Unterschied festzustellen. Systeme, zum Beispiel von Prime oder DEC (VAX 11/780) und SUN oder Cromemco (CS 420) unterscheiden sich im Preis bei vergleichbaren Ausbaustufen erheblich. Das gleiche gilt für die Software. Während die Mini-Lieferer allein für das Betriebssystem fünfstellige Beträge in Rechnung stellen, liefern die Supermikro-Hersteller ihr Unix zu einem echten "Mikro-Preis" oder gar gratis. Ähnlich verhält es sich auch mit den Anwenderprogrammen. Das hat seine Ursache in einer wesentlich kürzeren Entwicklungszeit für Unix-Programme als für Pakete, zum Beispiel unter VMS oder Primos.

Unix: Star unter den Supermikro-Betriebssystemen

Damit kommen wir zurück zum Stichwort Betriebssystem. Supermikro = Unix. In der Workstation-Philosophie, wie sie zum Beispiel von Hewlett-Packard, SUN und Apollo

Domain verfolgt wird, ist Unix das allein einsetzbare Betriebssystem. Welche Zukunftschancen Unix eingeräumt werden, unterstreicht die X-Open-Group, in der sich fast alle namhaften Computerhersteller zusammengeschlossen haben, mit dem Ziel, einen einheitlichen Standard für das Mikro-Betriebssystem zu schaffen. Es darf aber auch nicht verschwiegen werden, daß bei den Anwendern die Beurteilung von Unix durchaus nicht einheitlich ausfällt. Während Applikationen im technisch-wissenschaftlichen Bereich überaus positiv bewertet werden, gibt es bei kommerziellen Anwendern eine Reihe von kritischen Stimmen, die sich besonders auf die Multiuser-Leistungen beziehen. Hierbei ist allerdings zu berücksichtigen, daß die auf Unix portierten Programme meist in Cobol oder Basic geschrieben sind, denen ein anderes Betriebssystem zugrunde lag. Die Programme werden quasi über Unix gestülpt und können so die Leistungsfähigkeit von Unix überhaupt nicht ausnützen. Um diesen Nachteil auszugleichen, ist es nötig, die Programme komplett in eine Unix-verträgliche Sprache, zum Beispiel "C", umzuschreiben.

Jetzt sind die Software-Entwickler gefordert

Auch wenn der Minicomputer noch lange nicht tot ist - die Zukunft gehört dem Supermikro. In ihm steckt das größere, langfristigere Entwicklungspotential. Die Fortschritte in der Chip-Technologie bei gleichzeitigem Preisverfall der gesamten Hardware unterstützen diesen Prozeß nachhaltig. Bedingung ist jedoch, daß auch im entsprechenden Umfang geeignete Software für Supermikro-Systeme entwickelt wird.

*Peter Betzler ist einer der Geschäftsführer der auf Unix-Portierungen spezialisierten Datapat GmbH, München.