Kriterien für die Wahl zukünftiger Mainframe-Alternativen (Schluß)

Meta-Group-Analyse: Wann ist ein Server ein richtiger Server?

14.06.1996

Richardson glaubt, daß sich insbesondere das Numa- Architekturkonzept (Non unified memory access), dem sich bislang nur wenige Firmen wie Data General, Sequent oder NCR zugewandt haben, auf dem Servermarkt durchsetzen wird (vgl. CW Nr. 23 vom 7. Juni 1996, Seite 36).

Interessant ist in diesem Zusammenhang, daß einige Schwergewichte der Branche wie HP oder DEC das Numa-Konzept nicht besonders aufmerksam verfolgen. Richardson glaubt, daß deshalb die "kleineren" Anbieter mit ihren innovativen Architekturkonzepten gegenüber den großen Herstellern einen Technologievorsprung von zwei bis drei Jahren besitzen.

SMP-Systeme seien vor allem solchen Unternehmen anzuraten, die ein komplexes Anwendungsumfeld bedienen müssen, die ferner ihre DV für Datamining-Aufgaben einsetzen. Deren Anwender Rechenleistung benötigen, um, wie Richardson es ausdrückt, Ad-hoc-Abfragen zu starten, bei denen die Fragestellung also zunächst eher diffus ist und erst durch Zwischenergebnisse ausgerichtet und konkretisiert wird.

SMP-Maschinen sind zudem, so Richardson, sehr flexibel, weil vergleichsweise leicht skalierbar. Dies gilt sowohl für die Anzahl von Prozessoren als auch für zusätzliche Ressourcen etwa bei Massenspeicher-Subsystemen. Im Vergleich hierzu muß beispielsweise ein massiv-paralleles (MPP-)System erst neu partitioniert und ausbalanciert werden, wenn neue Komponenten in das Gesamtsystem eingefügt werden sollen.

Natürlich hängt die Wahl eines geeigneten Hintergrundrechners, einer Servertopologie, immer von der Größenordnung der in einem Unternehmen in Anwendung befindlichen Applikationen und der Zahl der zu unterstützenden Benutzer ab.

Die Frage, wie groß denn groß sei und welche Implikationen dies auf die Server-Topologie hat, beantwortet der Meta-Group-Mann so: Bis zu 300 Anwender kann heute jedes Hardware-System unterstützen. Muß ein DV-Verantwortlicher mehr als 300 Clients bedienen können, dann wird die Wahl zunehmend schwieriger.

Müsse man beispielsweise heutzutage 1000 Anwender mit Rechenleistung versorgen, bedürfe es unbedingt zusätzlicher Hilfsmittel wie Transaktionsmonitore ê la Tuxedo, CICS oder Topend. Habe man auf Datenbanksystemen Datenmassen zu verarbeiten, die in den TB-Bereich reichen, kämen bei der Wahl einer geeigneten Hardware zur Zeit eigentlich nur proprietäre Lösungen in Frage.

Die Größe der Anwendungen, insbesondere des Unternehmens- Datenbanksystems definiert somit die Grenze zwischen einem großen SMP-System und einem MPP-Rechner: Momentan liegt die, so Richardson, bei etwa 500 GB und einem 1 TB. Mit Numa-Systemen, die Anfang 1997 auf den Markt kommen dürften, verschiebt sich diese Grenze in den TB-Bereich. Erst wer Datenbanken fährt, die über diese Größenordnung hinausgehen, wird auch in Zukunft noch auf MPP-Maschinen wechseln müssen.

Der Analyst vertritt die Meinung, daß ökonomische Regeln, die heute für den PC-Markt gültig sind, in Zukunft auch auf das Marktsegment leistungsstarker Server-Segmente übertragbar sein werden. Das liegt ganz einfach daran, daß in solchen Rechnern - Stichwort Intel-Prozessoren, Windows-Anwendungen etc. - im häufiger Standardkomponenten zum Einsatz kommen werden.

Auf dem Servermarkt werden sich deshalb auch weniger diejenigen Hersteller durchsetzen, die das jeweils leistungsstärkste Rechnergesamtsystem besitzen. Entscheidend wird vielmehr sein, welche sogenannten weichen Kritierien die Systemanbieter aufweisen: Richardson meint damit die Eigenschaften, vertrauensvolle Geschäftsbeziehungen sowohl zum Anwender als auch zu den Wiederverkäufern und Distributionspartnern und vor allem Softwarehäusern aufzubauen.

Das rät die Meta Group

Folgende Überlegungen sollten DV-Verantwortliche vor der Wahl ihrer zukünftigen Servertopologie anstellen:

-Wie flexibel ist die Hardware bezüglich der im Unternehmen benutzten Anwendungen?

-Müssen die Anwendungen und Datenbanksysteme erst aufwendig angepaßt werden, um die Skalieroptionen der Hardware nutzen zu können? Wenn ja, dann sollte man möglichst die Finger von solchen Hardware-Architekturen lassen.

-Bestehen Zweifel, welche Optionen eine neue Architektur wirklich bietet, sollte man klein anfangen. Das heißt, eine kleine SMP- Maschine sollte als Testumgebung dienen, um herauszufinden, wie sich ein großes SMP-System verhalten könnte.

-Wer SMP- beziehungsweise Shared-Memory-Cluster- (SMC-) beziehungsweise Numa-Systeme als Rückgrat seiner zukünftigen DV- Architektur ins Auge faßt, sollte dabei nie vergessen, daß in solch einer Rechnerumgebung Verbindungs-, Kommunikations- und I/O- Konzepte für die Leistung des Gesamtsystems eine herausragende Bedeutung bekommen.

-Last, but not least: In Zukunft sollten sich DV-Manager mit dem Gedanken anfreunden, nicht immer nur Geschäfte mit den ganz Großen der DV-Szene machen zu müssen. Durch die Standardisierung der Technologiekomponenten gleichen sich die Pro- duktangebote einander an. Was mehr und mehr zählt, sind die "weichen" Qualitäten von Anbietern, also die Art, wie die partnerschaftlichen Beziehungen zu den Kunden, zu Distributoren und Wiederverkäufern sowie zu den Independant Software Vendors (ISV) sind.