HP NonStop Server

Mainframe-Zuverlässigkeit auf Standard-Architektur

Dr. Klaus Manhart hat an der LMU München Logik/Wissenschaftstheorie studiert. Seit 1999 ist er freier Fachautor für IT und Wissenschaft und seit 2005 Lehrbeauftragter an der Uni München für Computersimulation. Schwerpunkte im Bereich IT-Journalismus sind Internet, Business-Computing, Linux und Mobilanwendungen.
Anzeige  Geht es um Ausfallsicherheit sind Großrechner ungeschlagen. Doch die sind teuer, unflexibel und proprietär - und haben das Dinosaurier-Image längst vergangener Zeiten. Mit den Itanium-basierten NonStop-Servern hat HP eine moderne High-Availability-Lösung entwickelt, die bei der Zuverlässigkeit mit Mainframes gleichzieht - dafür auf Standards beruht und deutlich preiswerter ist.

Verfügbarkeit ist heute wichtiger denn je. In modernen Unternehmen sind Tausende Systeme und Zehntausende von Anwendungen und virtuellen Maschinen im Einsatz. Viele davon sind geschäftskritisch und müssen ständig präsent sein. Zudem geht der Trend immer mehr in Richtung Echtzeit-Geschäftsmodellen, bei denen Transaktionen beinahe verzögerungsfrei durchgeführt werden müssen. Hardware-Ausfälle kann man sich hier nicht mehr leisten.

Während die ersten NonStop-Server noch einen ganzen Raum benötigten, brauchen die HP NonStop Blade Systeme heute in etwa den Platz einiger Schließfächer - mit Funktionalitäten, die bei den ersten Rechnern noch undenkbar waren.
Während die ersten NonStop-Server noch einen ganzen Raum benötigten, brauchen die HP NonStop Blade Systeme heute in etwa den Platz einiger Schließfächer - mit Funktionalitäten, die bei den ersten Rechnern noch undenkbar waren.
Foto: HP

Basis für hohe Verfügbarkeiten ist die Redundanz von Hardware und Software. Cluster-Architekturen sind eine Möglichkeit, Redundanz auf Hardware-Ebene bereitzustellen. Im Real Time-Business reichen solche Architekturen aber nicht mehr aus, da hier die Daten ohne Zwischenspeicherung im flüchtigen RAM sofort verarbeitet werden.

Geht beispielsweise bei Bestelleingang der Server kaputt, schaltet das Cluster-System auf den Reserverechner um - mit möglicherweise fatalen Folgen. Denn switcht das System genau bei Order-Eingang, sind die Daten, die gerade in der Maschine waren, verloren - trotz des zweiten Rechners. Zudem weiß niemand genau, ob das Umschalten auch funktioniert, weil nicht alle möglichen Szenarien im Vorfeld geprobt werden können.

Viele Jahre waren Mainframes das Maß aller Dinge, was die Zuverlässigkeit betrifft. Die redundante Auslegung der Komponenten und die hohe Fehlertoleranz des Betriebssystems sorgen für einen reibungslosen Betrieb. Großrechner machen es beispielsweise einfach, mehrere unternehmenskritische Applikationen parallel zu nutzen, ohne Kompromisse bei Sicherheit und Verfügbarkeit zu machen.

Weil die Hosts in der Regel Mehrprozessor-Maschinen sind, können einzelne Prozesse auf bestimmten CPUs laufen, so dass sich Applikationen garantiert nicht ins Gehege kommen. Diese Isolierung von Prozessen, die es auch ermöglicht, mehrere Betriebssysteme parallel auf demselben Host laufen zu lassen, trägt wesentlich zur Sicherheit bei.

Die hohe Zuverlässigkeit von Großrechnern hat jedoch ihren Preis. Herkömmliche Mainframes basieren auf teurer, herstellerspezifischer Hardware- und Softwaretechnik. Die Wahlmöglichkeiten von Unternehmen werden dadurch erheblich eingeschränkt - und sie sind auf Gedeih und Verderb der Preis- und Produktpolitik eines einzigen Herstellers ausgeliefert. High End RISC-Systeme sind zwar eine flexiblere und etwas kosteneffizientere Alternative, basieren aber ebenfalls auf relativ teurerer, herstellerspezifischer Hardware mit eingeschränkten Optionen.