Skalierbarkeit und Verfügbarkeit entscheiden

Skalierbarkeit und Verfügbarkeit entscheiden Bei der Server-Auswahl zählt nicht nur die Rechenleistung

19.02.1999
MÜNCHEN (CW) - Die Auswahl der geeigneten Server-Plattform gehört zu den weitreichendsten Entscheidungen, die IT- Verantwortliche zu treffen haben. Die Angleichung der verschiedenen Plattformen aufgrund zum Teil identischer Bauteile darf nicht darüber hinwegtäuschen, daß es fundamentale Unterschiede gibt. Entscheidend sind die Kriterien Skalierbarkeit und Verfügbarkeit.

"Die populärste Plattform ist nicht unbedingt die beste", betont Fred Moore, Chef des US-Beratungshauses Horison Information Strategies. Neue Anwendungen wie etwa E-Commerce führten zu besonderen Problemen hinsichtlich der Skalierbarkeit von Server- Systemen. "Angesichts der Vielzahl von Standardsoftware-Paketen, die sowohl für Großrechner als auch für Unix- und PC-Server verfügbar sind, wird es immer schwieriger, für eine vorgegebene Aufgabe die passende Plattform auszuwählen."

Dabei bestehen laut Moore fundamentale Unterschiede, die IT- Verantwortliche bei der Auswahl des passenden Systems für geschäftskritische Anwendungen zu berücksichtigen haben. Der Consultant hat deshalb in Zusammenarbeit mit dem Marktforschungsunternehmen Xephon die Server-Plattformen S/390, AS/400, Unix und NT hinsichtlich Ska- lierbarkeit, Verfügbarkeit und weiterer Auswahlkriterien unter die Lupe genommen (siehe Tabelle).

Unter das Kriterium Skalierbarkeit subsumieren die Autoren unter anderem die Fähigkeit der 64-Bit-Adressierung. Ein 64-Bit-System kann einen Hauptspeicher ansprechen, der gegenüber herkömmlichen 32-Bit-Systemen um den Faktor vier Milliarden größer ist. Damit könnten Anwender auf absehbare Zeit Kapazitätsgrenzen für ein künftiges Anwachsen ihrer Applikationen beseitigen. Insbesondere große Datenbanken, etwa für Data-Warehouse-Modelle, dürften davon profitieren. Die Autoren weisen darauf hin, daß sich die Vorteile dieser Technik nur dann voll ausschöpfen lassen, wenn sowohl die Applikationen selbst als auch die darunterliegende Hardware und das Betriebssystem dafür eingerichtet sind. Für die AS/400 wie auch für Unix-Umgebungen seien diese Voraussetzungen gegeben. S/390-Großrechner werden 64 Bit voraussichtlich erst mit der nächsten CMOS-Prozessorgeneration unterstützen. Windows NT wird nach Auffassung der Experten frühestens Mitte oder Ende des Jahres 2000 entsprechende Fähigkeiten bieten. Außerdem erwartet Moore, daß vor der Verfügbarkeit von NT 6.0 ohnehin weniger als fünf Prozent aller NT-Anwender überhaupt auf 64-Bit-Hardware mi- griert haben werden. Angesichts der zahlreichen Verzögerungen, die schon beim NT-4.0-Nachfolger Windows 2000 aufgetreten sind, steht das Auslieferungsdatum dieser Version jedoch in den Sternen.

Kernpunkte bei der Beurteilung der Skalierbarkeit sind auch die Multiprozessor- sowie die Clustering-Fähigkeiten von Server- Plattformen. Hier schneiden NT-basierte Rechner wiederum schlecht ab.

So erlaubt etwa die Standardversion von Windows NT Server Enterprise Edition zwar den Einsatz von bis zu acht Prozessoren. Rechner mit sechs oder acht CPUs bringen aber gegenüber einem Vier-Wege-System unter NT keine nennenswerten Leistungszuwächse. Auch die Clustering-Fähigkeiten von NT stecken noch in den Kinderschuhen. Das Microsoft-Betriebssystem kommt gegenwärtig über eine Failover-Lösung mit zwei Rechnerknoten nicht hinaus.

Als Maßeinheit für die Bewertung von Skalierbarkeit schlagen Xephon und das Beratungshaus Horison unter anderem die maximale Anzahl der Benutzer vor, die gleichzeitig auf ein System zugreifen können (Concurrent Users). Auch die höchstmögliche Plattenspeicherkapazität, die eine Plattform im praktischen Einsatz unterstützt, ist von Interesse. Der Mainframe hat an diesen Punkten die Nase vorn (über 32 000 gleichzeitige Benutzer mit OLTP-Anwendungen). Unix- und AS/400-Server liegen mit jeweils gut 3000 Concurrent Users etwa gleichauf (siehe Tabelle Seite 35). NT-Systeme reichen an diese Leistungswerte zwar noch nicht heran, weisen aber hinsichtlich Speicherkapazität und Rechenleistung Wachstumsraten von mehr als 50 Prozent auf. Ähnliches gilt allerdings auch für Unix-Rechner.

Verfügbarkeitswerte sprechen gegen NT-Server

In puncto Verfügbarkeit, dem zweiten und oft entscheidenden Auswahlkriterium für Server-Plattformen, machen NT-Server noch immer eine denkbar schlechte Figur. OS/390-basierte Rechner etwa warten nach Erhebungen von Horison mit einer Verfügbarkeit von 99,995 Prozent auf. Das entspricht einer jährlichen ungeplanten Ausfallzeit von 50 Minuten. NT-Server dagegen versagten im Durchschnitt 440 Stunden pro Jahr ihren Dienst. Die Verfügbarkeitswerte schwanken zwischen 90 und 95 Prozent. Die von einzelnen Herstellern angegebenen Zahlen liegen zum Teil deutlich über diesen Werten. Auch einige Branchenexperten publizieren diesbezüglich bessere Werte.

Entsprechende Angaben für Unix-Umgebungen können nach Ansicht der Analysten nur als Anhaltspunkte dienen, da etliche Anbieter inzwischen spezielle Up- time-Garantien für ihre Rechner geben. Der jüngste Streit zwischen Hewlett-Packard (HP) und Sun bezüglich der garantierten Verfügbarkeit ihrer Unix-Server liefert dafür ein Beispiel. HP gibt neuerdings auch für einige seiner NT-Server Uptime-Garantien. Xephon und Horison belegen die Bedeutung von Verfügbarkeitswerten anhand einer Auflistung der durch einen Systemausfall im Durchschnitt verursachten Kosten (siehe Kasten "Das kosten Systemausfälle"). Im Börsenhandel etwa könnten als Folge eines einstündigen Rechnerstillstands Schäden von über sechs Millionen Dollar entstehen.

Als weiteres wichtiges Kriterium bei der Server-Auswahl werten die Experten die Frage, wer eine Rechnerplattform besitzt oder deren Entwicklung kontrolliert. Von den vier genannten Architekturen liegen drei in der Hand eines Herstellers (OS/390, AS/400 und NT). Die Open Group überwacht mit ihrem Branding-Prozeß zwar in gewisser Weise die unterschiedlichen Unix-Systeme; gleichwohl existieren gegenwärtig über 25 Versionen des Betriebssystems, die untereinander nur eingeschränkt kompatibel sind.

Betrachtet man ausschließlich die harten Fakten, so erscheint der Mainframe in vielerlei Hinsicht als die bessere Alternative. In diesem Zusammenhang ist anzumerken, daß das Marktforschungshaus Xephon traditionell der Großrechnerwelt verhaftet ist und sich in einschlägigen Publikationen in erster Linie mit High-end-Themen befaßt. Gleichwohl weisen die Auguren auch auf Auswahlkriterien hin, die die Großrechner in weniger günstigem Licht erscheinen lassen. So ist etwa der Mangel an qualifiziertem Personal in der MVS- oder S/390-Welt am stärksten ausgeprägt. Ähnliches gelte zwar gegenwärtig auch für NT-Systeme. Die Anzahl von Spezialisten für das Microsoft-System wachse aber kontinuierlich. Auch hinsichtlich verfügbarer Programme von unabhängigen Softwarehäusern erhalten die Big Irons die schlechteste Wertung. Hier liegt die Midrange- Plattform AS/400 einsam an der Spitze.

Anschaffungs- und Betriebskosten sind in dem Vergleich nicht berücksichtigt. Die Autoren raten IT-Entscheidern, anhand festgelegter Verfügbarkeitsniveaus - idealerweise getrennt nach Anwendungen - und möglicher Ausfallkosten zu entscheiden, wieviel Geld sie für zusätzlichen Ausfallschutz ausgeben wollen.

Das kosten Systemausfälle

Durschnittliche Kosten eines einstündigen Rechnerstillstands

Anwendung Branche Ausfallkosten Börsenhandel Finanzen 6,45 Millionen Kreditkartenhandel Finanzen 2,6 Millionen Pay per View Medien 150 000 Home-Shopping (TV) Einzelhandel 113 000 Katalogverkauf Einzelhandel 90 000 Flugreservierung Transport 89 500 Angaben in DollarQuelle: Xephon/Horison