Kriterien für die Wahl zukünftiger Mainframe-Alternativen (Teil 2)

Meta-Group-Analyse: Wann ist ein Server ein richtiger Server?

07.06.1996

Skeptisch bleibt Richardson ob der Durchsetzungsfähigkeit von Windows NT als Serverbetriebssystem für die unternehmensweite DV: "Die Leute von Microsoft nehmen das Wort Enterprise Computing so lange in den Mund, bis wirklich jeder anfängt, ihnen das auch abzukaufen." Richardson glaubt, daß NT auf Serversysteme mit ein bis maximal vier Prozessoren beschränkt bleiben wird. Demgegenüber sei Unix immer dann erste Wahl, wenn ein Betriebssystem auf größeren Symmetrische-Multiprozessor-(SMP-)Maschinen und Cluster-Konfigurationen eingesetzt werde.

Der Meta-Group-Experte rät Anwendern, die sich gerade Gedanken über ihr zukünftiges unternehmensweites DV-Modell machen, gegenüber den zur Auswahl stehenden Systemanbietern die Karte Wettbewerbsdruck auszuspielen. Richardson sieht auf dem Markt der Serverher- steller ein knappes Dutzend ernstzunehmender Konkurrenten: Zu ihnen gehören IBM und HP, DEC, Sun, Sequent, AT&T/GIS, Silicon Graphics/ Cray, Data General, Pyramid und Compaq.

Keines dieser Unternehmen biete bei allen für die Wahl von Serversystemen entscheidenden Kriterien eine gleich starke Leistung. Je nach seinen individuellen Bedürfnissen müsse der Anwender also einen Fragenkatalog zusammenstellen und den Herstellern vorlegen. Insbesondere die Applikationsanforderungen müßten klar sein: Anzahl der zu unterstützenden Anwender, die Größe des Datenbankvolumens, mithin jedes quantifizierbare Charakteristikum der DV-technischen Arbeitsbelastung in einem Unternehmen.

In einem zweiten Schritt, rät Richardson, solle der Anwender sich von den in die engere Wahl gezogenen Serverlieferanten ein Angebot zu einer bestimmten Konfiguration mit Preisangabe machen lassen. Um die Systeme des Herstellers auf ihre Preis-Leistungs-Würdigkeit zu prüfen, müßten die jeweiligen Angaben dann für doppel- und dreifach leistungsfähige Konfigurationen eingeholt werden. Aus den so erhaltenen Angaben könne der Anwender zumindest Anhaltswerte gewinnen, ob beispielsweise ein Hersteller zwar sehr gut skalierbare Systeme im Angebot habe, diese aber sehr teuer seien oder umgekehrt.

Richardson diskutierte zudem die Vor- und Nachteile unterschiedlicher Hardwarearchitekturen: Neben SMP-Rechnern sind dies geclusterte Rechner sowie massiv-parallele (MPP-)Maschinen. Anwender sollten sich - so die Kernaussage seiner Thesen - bei der Wahl zukünftiger Server-Systeme unbedingt fragen, ob man die Serverarchitektur beziehungsweise deren Skalieroptionen nur dann wirklich ausnutzen könne, wenn vorher Veränderungen auf der Applikationsebene vorgenommen werden müssen. Server-Architekturen, bei denen dies der Fall sei, solle der Anwender mit Vorsicht genießen.

Als Erklärung fügte Richardson hinzu, die Software für Ein-Prozessor-Rechner besäße bekanntlich ein anderes Programmiermodell als Applikationen, die etwa die Vorteile einer Zwei-CPU-Maschine nutzen wollen. Der Aufwand, Anwendungen nur für einen mit zwei Prozessoren bestückten Server fit zu machen sei, so Richardson, sehr hoch. Vergleichbar gering seien dann allerdings die Anstrengungen, um Software auf ein Vier- oder Acht-Prozessor-Modell - ein typisches SMP-System also - anzupassen.

MPP-Maschinen blieben, meint Richardson, wegen ihres komplexen Programmiermodells auf technisch-wissenschaftliche Nischenbereiche beschränkt. Auch als Videoserver würden sie zukünftig durchaus Einsatzbereiche finden.

Eine große Zukunft für den auf PC-Technologien basierenden Servermarkt prophezeit Richardson hingegen geclusterten SMP-Systemen. Von Bedeutung seien insbesondere Cluster-Konfigurationen, die eine Numa-Architektur (non uniform memory access) besitzen. Da die einzelnen Rechnerknoten auf gemeinsame Massenspeicher-Subsysteme zugreifen, werden sie auch als Shared Memory Cluster (SMC) bezeichnet. Die einzelnen Rechnerknoten bestehen aus Intels sogenannten Quad-Prozessorkarten, auf denen bis zu vier Pentium-Pro-CPUs residieren.

Die zu einem Cluster verbundenen Knoten lassen sich wiederum über zum IEEE-Standard konforme sehr leistungsfähige SCI-Verbindungen (Scalable Coherent Interface) zu übergeordneten Clustern verbinden.

Zwar werde der Anwender nicht umhin kommen, seine Anwendungen in einem recht großen Kraftakt auf die SMC-Rechner anzupassen. Bestechender Vorteil dieser Architektur aber: Ein aus vier Rechnerknoten bestehender Cluster läuft auf einer einzigen Betriebssystem- und einer Datenbankkopie. Erst wenn ein solcher Rechen-Cluster zu einem Clusterverbund zusammengeschweißt wird, müssen mehrere Betriebssystemkopien aufgespielt werden (vgl. Grafik).

Bislang arbeiten Systemanbieter wie Data General, Sequent oder NCR an solchen Numa-basierten Server-Architekturen. Richardson schätzt, daß schon ein Server, der lediglich mit einer einzigen Quad-Prozessor-Karte mit vier Pentium-Pro-CPUs ausgestattet ist, rund 5000 Transaktionen pro Minute erzielt: "Mit anderen Worten: Solche Rechner werden etwa drei Viertel aller Anwendungen, die heutzutage in Unternehmen benutzt werden, gerecht."

Der Anwender solle zudem bei der Wahl der Server-Topologie nicht nur auf die Prozessorleistung Wert legen und inwieweit diese ausbaufähig ist. Gerade bei skalierbaren Maschinen sei vielmehr ein ausgewogenes Leistungsverhalten des gesamten Systems von Bedeutung. Hierzu müßten auch Aspekte der Datentransferrate oder der Latenzzeit bedacht werden.

In diesem Zusammenhang empfahl der Meta-Group-Mann, auch darauf zu achten, welcher Systemhersteller neue, zukunftsweisende Schnittstellentechnologien beziehungsweise I/O-Standards wie beispielsweise Glasfaserkanäle oder SSA-(Serial-Storage-Architecture-)Verbindungen unterstütze.

(wird fortgesetzt)