High-end-Komponenten alleine reichen nicht aus

Der Weg in die Datenzentren ist für NT-Server noch weit

16.10.1998

Noch vor wenigen Jahren dienten Microsofts öffentlichkeitswirksam inszenierte Konferenzen in erster Linie dazu, Anwendern und Geschäftspartnern die neuesten Features in Windows und Office-Applikationen schmackhaft zu machen. Die Zeiten ändern sich. Im September 1998 hielt die Gates-Company in Las Vegas ihre erste "Business Applications Conference" ab. Zu den Teilnehmer zählten auch hochrangige Manager der IBM. Was früher undenkbar schien, verkündeten die Mainframe-Spezialisten aus Armonk nun mit großem Getöse: Die eigenen PC-Server der "Netfinity"-Serie sollen dazu beitragen, Windows NT als Plattform für unternehmenskritische Anwendungen zu etablieren (siehe Kasten "IBM rüstet PC-Server auf").

Die Schlüssel zum Tor in die Unternehmens-DV heißen Skalierbarkeit und Verfügbarkeit. Diese Eigenschaften konnten PC-basierte Server bislang nur in sehr begrenztem Umfang vorweisen. Fast alle Anbieter konzentrieren ihre Bemühungen deshalb darauf, PC-Systeme mit Komponenten und Funktionen auszustatten, die lange Zeit Unix-, Midrange- oder Mainframe-Plattformen vorbehalten waren.

Skalierbarkeit durch Clustering mehrerer Rechner, wie in der Midrange- und Mainframe-Welt häufig praktiziert, ist bei NT-Servern allerdings noch nicht in Sicht. Der von Microsoft mit großem Marketing-Aufwand angekündigte "Cluster Server" kommt im aktuellen Stadium über Fail- over-Funktionen für maximal zwei Rechnerknoten nicht hinaus. Selbst die mehrfach verschobene Version 5 von Windows NT wird voraussichtlich nicht mehr als zwei Server unterstützen.

Ein begrenztes Maß an Skalierbarkeit erhalten NT-Server über Multiprozessor-Konzepte wie Symmetrical Multiprocessing (SMP) oder Non Uniform Memory Access (Numa), das als Erweiterung des SMP-Ansatzes angesehen werden kann. Mit der Verfügbarkeit von Intels "Xeon"-CPUs haben die Wintel-Server einen weiteren Schub erhalten. Dramatische Leistungssteigerungen sollen zudem künftige 64-Bit-Prozessoren der Kalifornier bringen ("Merced", "McKinley"). Erste Produkte werden allerdings frühestens im Jahr 2000 verfügbar sein. Die Leistungsunterschiede zur Midrange- und Mainframe-Welt verringern sich dadurch theoretisch weiter.

In der Praxis steht und fällt die Performance Wintel-basierter Server allerdings mit den Skalierfähigkeiten von Windows NT. Zu den bitteren Erfahrungen in der IT-Branche gehört die Erkenntnis, daß die derzeit verfügbare Version 4.0 des Microsoft-Betriebssystems mit mehr als vier Prozessoren keine nennenswerten Leistungszuwächse bringt. Ob und wann die Gates-Company ihre diesbezüglichen Versprechen mit NT 5.0 einlösen wird, ist angesichts der zahlreichen Verzögerungen und Änderungen fraglich.

Nicht nur aus diesem Grund bezweifeln Experten, daß NT-Server bald Einzug in die Datenzentren halten werden. Die aktuellen Zahlen sprechen dagegen: "Die durchschnittliche Anzahl von Benutzern, die ein NT-Server unterstützt, liegt bei 25", sagt IDC-Analyst Dan Kusnetzky. Steige die Benutzerzahl auf mehr als 30, büße Windows NT an Robustheit und Zuverlässigkeit ein. Im Vergleich zu Unix-Systemen skaliere NT nicht gut, laufe bei größeren unternehmensweiten Anwendungen weniger stabil und sei nur schwer zentral zu administrieren.

Trotz solcher Warnungen haben manche Unternehmen die Grenze von 30 Usern weit hinter sich gelassen. Die größte funktionierende NT-Installation auf einem einzelnen Server, eine Datenbank-Transaktions-Applikation, unterstützt 450 Anwender gleichzeitig, berichtet Tom Bittman, Analyst bei der Gartner Group. Die mächtigste Datenbankinstallation auf einem einzelnen Unix-Server bediene demgegenüber rund 1800 Anwender. "Die Fachpresse macht die Leute glauben, daß NT die Mainframes verdrängt", so Bittman. "In der Praxis laufen heute aber nur sehr wenige Mission-critical-Systeme unter NT."

Ob sich diese Situation mit der Verfügbarkeit von Windows NT 5.0 gravierend ändern wird, darf bezweifelt werden. Eine Umfrage des US-Marktforschungsunternehmens Forrester Research zeigt, daß Anwender von den versprochenen Funktionen in NT 5.0 nur wenig halten (siehe Grafik Seite 51). Die Analysten verweisen zudem auf zahlreiche Schwierigkeiten, die das neue Release mit sich bringen werde: Anwender hätten mit aufwendigen Migrationsarbeiten, unzureichenden Supportkapazitäten und mangelnder Unterstützung von Softwareherstellern zu rechnen. Seinen Kunden empfiehlt Forrester deshalb, einen Umstieg auf breiter Basis nicht vor dem Jahr 2001 zu wagen.

Neben der umstrittenen Skalierbarkeit steht das Thema Verfügbarkeit ganz oben auf der Prioritätenliste der PC-Hersteller. Nach Angaben der IBM versagen LAN-Server im Durchschnitt 26 Tage im Jahr ihren Dienst. Dezentrale Unix-Systeme stehen dagegen nur neun Stunden pro Jahr still. Mit S/390-Großrechnern fallen gerade einmal fünf Minuten Downtime im Jahr an. Schon seit längerem gehören deshalb redundante Komponenten wie Lüfter, Stromversorgungsmodule oder auch Netzkarten mittlerweile zur Standardausrüstung leistungsstarker NT-Server. Hinzu kommen Festplatten, die sich bei laufendem Betrieb austauschen lassen (Hot-plug) und die Unterstützung von Raid-Plattenstapeln über entsprechende Controller.

Noch nicht so weit verbreitet sind Hot-plug-PCI-Funktionen. Mit Hilfe doppelt ausgelegter Module können Administratoren PCI-basierte Komponenten wie etwa Netz-Controller austauschen, ohne daß der Rechner heruntergefahren werden muß. Compaq bietet beispielsweise seine PC-Server "Proliant 6500" und "Proliant 7000" mit PCI-kompatiblen Hot-plug-Fähigkeiten an. Auch IBM und Hewlett-Packard führen Hot-swap-taugliche PCI-Steckplätze als Verkaufsargument für ihre Intel-Server ins Feld. Ein Teil der PCI-Slots in aktuellen Systemen ist mittlerweile in 64-Bit-Technik ausgelegt, was unter anderem den Datendurchsatz beschleunigen soll. In diese Richtung zielt auch die I2O-Technik, die mit Hilfe eines dedizierten Prozessors (Intel "i960") die CPUs von leistungsfressenden I/O-Aufgaben entlasten soll.

Um die Ausfallzeiten weiter zu reduzieren, installieren Anbieter verstärkt ausgefeilte Überwachungssysteme, die sich in unternehmensweite System-Management-Frameworks einbinden lassen. Ein Beispiel liefert IBMs "Predictive Failure Analysis" (PFA), das Server-Komponenten permanent auf drohende Ausfälle hin überprüft. Eine separate PCI-Karte mit einem unabhängig vom Server arbeitenden Prozessor steuert die Überwachungsfunktionen und ermöglicht es Administratoren, über das lokale Netz oder das Internet auf den Rechner zuzugreifen.

Ähnliche Funktionen stellt Hewlett-Packard mit seinen "HP Top Tools Server 4.1" zur Verfügung. Die jüngsten High-end-Modelle der "Netserver"-Linie sind ebenfalls mit einer Steckkarte für die Fernüberwachung ausgestattet. Der kalifornische Hersteller geht in puncto Ausfallzeit aber noch einen Schritt weiter. Auf Wunsch garantiert HP seinen Kunden eine Verfügbarkeit von 99,9 Prozent für Intel-basierte Systeme. Das entspräche einer Ausfallzeit von maximal 8,7 Stunden im Jahr. Zumindest in dieser Hinsicht kämen PC-Server damit den großen Brüdern aus den Datenzentren nahe.

IBM rüstet PC-Server auf

Mit dem Know-how-Transfer aus der Großrechnerwelt sieht sich die IBM in einer Vorreiterrolle bei High-end-PC-Servern. So sollen die Netfinity-Server mit Escon-Adaptern ausgestattet werden, die eine Hochgeschwindigkeitsverbindung zwischen NT-Servern und S/390-Mainframes herstellen können. Cluster auf Basis von Netfinity-Rechnern werden nach IBM-Prognosen künftig auf Interconnect-Technologien zurückgreifen, die ursprünglich für die massiv-parallelen "RS/6000-SP"-Server entwickelt wurden.

Auch in puncto System-Management rüstet Big Blue auf. Für 1999 sind Produkte geplant, die es erlauben, gemischte Server-Cluster aus RS/6000-SP-Knoten und Netfinity-Systemen zu betreiben, die sich über eine zentrale Management-Konsole verwalten lassen. Die Cluster würden in diesem Szenario über schnelle Switching-Komponenten aus der SP-Welt verbunden. Auch die von Experten geforderte Trennung von Servern und Speichersystemen im NT-Umfeld will IBM realisieren. Fibre-Channel-basierte Speichersubsysteme, skalierbar bis auf mehrere hundert TB Kapazität, könnten künftig bis zu sechs Meilen vom Server entfernt installiert sein, versprechen die Marketiers. Über diese Entfernung ließen sich 100 MB/s an Daten bewegen.