Server-Strategien/Werden die flachen Server-"Klingen" zum Allzweckwerkzeug geplagter Administratoren?

Racks, Blades und Bricks - die Evolution der Intel-Server

22.03.2002
Für Intel-basierende Server steht zurzeit das größte Angebot an Standardanwendungen zur Verfügung. Außerdem bietet die Rechnerplattform den Kunden einen hohen Grad an Kompatibilität. Aus diesen Gründen wächst bei fast allen großen Unternehmen und Institutionen die Zahl der Installationen mit Intel-Architektur. Bei kleineren Unternehmen ist die Plattform heute fast schon De-facto-Standard. Von Frank Reichart*

In der Vergangenheit haben die IT-Verantwortlichen Intel-Rechner meist nur dezentral eingesetzt. Mittlerweile hat sich diese Architektur jedoch zu einem festen Bestandteil von IT-Infrastrukturen auch in Rechenzentren entwickelt. Dieser Trend hat in den vergangenen Monaten und Jahren eine hohe Dynamik bei der Evolution der Intel-Plattform bewirkt.

Lange Zeit orientierte sich das Systemdesign immer nach der gleichen Formel: Je mehr Prozessoren ein System hatte, desto größer war auch dessen Ausbaufähigkeit beziehungsweise die Anzahl der Festplatten. Dieser Grundsatz gilt auch heute noch bei dezentral eingesetzten Servern oder in Unternehmen, die nur einen oder wenige Server benötigen.

Kompakte Rechner lösen PlatzproblemeFür Rechenzentrums-Umgebungen ist dieses klassische Design jedoch ein schlechter Kompromiss. Zu viele ungenutzte Plätze für Festplatten oder Bandlaufwerke im System verursachen einen hohen Platzbedarf. Der ist aber insbesondere im engen Rechenzentren teuer. Dies gilt umso mehr, wenn die Datenhaltung außerhalb der Server auf Plattensubsystemen erfolgt. Dadurch lassen sich Festplatten den Servern flexibler zuordnen. Außerdem können die Administratoren Hochverfügbarkeitskonzepte wie zum Beispiel Clustering leichter realisieren. Allerdings müssen die IT-Leiter die Speichergeräte auch irgendwo unterbringen.

Um das Platzproblem in den Griff zu bekommen, benötigen die Kunden kompakte Rechnerknoten, die in Racks montiert werden, also Rack-optimierte Server. Ziel dieser Architektur ist, möglichst viel Rechenleistung auf kleinstem Raum zusammenzupacken. Wichtigstes Maß dabei sind die Höheneinheiten, die ein Server im Rack benötigt. Eine Höheneinheit oder 1 U entspricht zirka 4,5 Zentimeter. Standard sind heute Ein- oder Zwei-Prozessor-Server mit einer Höhe von 1 oder 2U sowie Server mit vier CPUs mit etwa 4U und Acht-Wege-Maschinen in 7U hohen Gehäusen.

Kabel müssen gut sortiert seinDer Trend in den IT-Abteilungen, verstärkt Rack-Systeme in die Server-Infrastruktur zu implementieren, hält bereits seit Monaten ungebrochen an. Laut Einschätzung von Experten machen bereits nach knapp eineinhalb Jahren die Rack-optimierten Server schon etwa 40 Prozent aller Neuinstallationen aus.

Große Server-Farmen stellen jedoch neue Anforderungen an die Rack-Infrastruktur. Da jeder Rechner mehrere Kabelverbindungen besitzt, müssen die Administratoren die Verkabelung so strukturieren, dass sich ein Rack noch vernünftig warten und überprüfen lässt. Ferner muss ein Rack so aufgebaut sein, dass die von den vielen integrierten Systemen produzierte Wärme abfließen kann. Ansonsten kann es passieren, dass sich das Gesamtsystem überhitzt und sich die Server abschalten.

Einige Anbieter setzen deshalb auf neue Versionen von Server-Racks, die zum Beispiel die Kabelführung auf die Seite des Racks verlagern. Damit wird verhindert, dass ein Kabelvorhang an der Rückseite der Server entsteht, der die Maschinen daran hindern könnte, die Warmluft aus dem Gehäuse hinauszublasen. Gleichzeitig sollen Kabelhalterungen mit Gelenken dafür sorgen, dass sich die Kabel beim Hinausziehen eines Servers nicht verheddern.

Die Rack-Variante ist eine Möglichkeit, das Platzproblem zu lösen. Mittlerweile haben sich viele Hersteller weitere Möglichkeiten einfallen lassen, die über das Sparpotenzial der Racks noch hinausgehen. So bietet beispielsweise die Architektur der Blade-Server zusätzliche Ansätze zur räumlichen Serverkonsolidierung. Blade-Server werden nach Einschätzung vieler IT-Analysten im laufenden Jahr ein beherrschendes Innovationsthema im Server-Geschäft bleiben.

Ein Blade-Server lässt sich als "Serverfarm in a Box" beschreiben. Im Gegensatz zu den Rack-optimierten Servern, von denen jeder seine eigene Infrastruktur wie Stromversorgung, Lüfter oder Netzteile mitbringt, teilen sich die Blade-Server diese Basiskomponenten. Ein einzelner Blade-Rechner besteht nur noch aus einem Systemboard mit Prozessor, Hauptspeicher und Festplatten. Der Server ist flach wie eine Klinge - daher der Name (englisch "Blade").

Ähnlich wie Module in einer Telefonanlage, werden diese Blade-Server vertikal in das Gehäuse gesteckt. Das vorherrschende Format sind Systeme mit einer Höhe von 3U. In einer Lage lassen sich durchschnittlich 20 Server-Blades unterbringen. Diese Anordnung erlaubt den Betrieb von bis zu 300 Servern in einem Rack. Das entspricht einer Platzersparnis gegenüber Rack-optimierten 1U-Servern um den Faktor sieben.

Zurzeit sind Blades mit ein oder zwei Prozessoren erhältlich. Beim Einsatz von Dual-Prozessor-Maschinen lassen sich bis zu 600 Prozessoren in einem Rack unterbringen. Daneben wird es künftig auch andere Blade-Server-Formate geben. Die Hersteller werden Rechner mit mehr Prozessoren anbieten, die jedoch eine nicht so hohe Verdichtung (Prozessor / Platz) wie die Ein- und Zwei-Wege-Maschinen erlauben.

Um diese kompakte Bauweise realisieren zu können, verzichten die Hersteller bei den Server-Blades auf den PCI-Bus. Die einzige Schittstelle der Rechner ist eine LAN-Verbindung. Dies bedeutet allerdings, dass Blade-Server ein Network-Attached-Storage-(NAS-)System für die Datenhaltung benötigen. Für einen optimierten Datendurchsatz eignen sich insbesondere Blades mit Gigabit-Ethernet-Technologie. Bei den Prozessoren verwenden die Anbieter stromsparende Varianten. Diese bieten zwar eine etwas schwächere Leistung als dedizierte Server-Prozessoren, sparen dafür aber erheblich am Stromverbrauch, wodurch die Systeme auch weniger Abwärme produzieren.

Typische Einsatzbereiche für Blade-Server sind Anwendungen, die sich durch das Hinzufügen von mehr Servern gut skalieren lassen (Scale-out-Szenario) und eine beliebige Zuordnung von Clients zu Servern erlauben. Auf diese Architektur gut angepasste Applikationen sind Web-Server und Terminal-Server-Farmen. In diesem Umfeld werden heute auch die meisten Mono- oder Dual-1U-Rack-Server eingesetzt. Für Web-Server-Farmen eignen sich Ein- oder Zwei-Prozessor-Blades am besten. Wegen des hohen Leistungsbedarfs empfehlen Experten für Terminal-Server-Anwendungen Blade-Systeme mit zwei CPUs.

Auch bei den oben im Zusammenhang mit den Rack-Gehäusen angeführten Verkabelungsproblemen können Blade-Server erheblich zur Senkung der Installations- und Wartungskosten beitragen. Voraussetzung ist allerdings, dass die Systeme über eingebaute Switches verfügen, um die LAN-Verbindungen nach außen zu konzentrieren. Dadurch lässt sich die Zahl der Netzverkabelungen im Vergleich zu Rack-Systemen bis um den Faktor drei reduzieren.

Nach Einschätzung vieler IT-Verantwortlicher könnte die Blade-Server-Architektur künftig dafür sorgen, die physikalische Konsolidierung großer Server-Farmen (Scale-out-Szenario) zu optimieren. Viele Geschäftsanwendungen erlauben aufgrund ihrer Struktur nur eine moderate Verteilung auf einige wenige leistungsstarke Server.

Alles eine Frage der SkalierungIm Fall von Datenbanksystemen wird die höchste Effizienz durch den Einsatz eines einzelnen großen Systems erreicht. Die Skalierung der Rechenleistung erreicht man hier durch mehr und stärkere Prozessoren in einem System (Scale-up-Szenario). Um in diesen Anwendungsgebieten mehr Flexibilität und niedrigere Verwaltungskosten zu erreichen, besteht bei vielen Administratoren ein großes Interesse an einem Großrechnerbetrieb auf Intel-Server-Basis - einer Art "Wintel-Mainframe".

Im Großrechnerbetrieb wird das System logisch in mehrere Untersysteme, Partitions genannt, aufgeteilt. Auf jeder Partition läuft ein eigenes Betriebssystem. Der Vorteil gegenüber mehreren physikalisch getrennten Systemen liegt darin, dass sich je nach Bedarf den einzelnen Partitionen Rechnerressourcen wie Prozessorleistung und Arbeitsspeicher dazuschalten oder entziehen lassen. Wird zum Beispiel über Nacht die Anwendung "Auftragsabwicklung" kaum genutzt, können die frei werdenden Ressourcen automatisch den Batch-Läufen wie zum Beispiel Lohnabrechnung zugeordnet werden. Damit lassen sich die eingesetzten Ressourcen des Systems effizienter nutzen.

Ressourcen dynamisch verteilenSinn macht das Ganze aber nur, wenn diese Zuordnung der Ressourcen dynamisch erfolgen kann, das heißt ohne bei einer Ressourcen-Verlagerung das System oder Teile davon abschalten zu müssen. Voraussetzung dafür ist, dass auch das Betriebssystem die dynamische Verteilung der Ressourcen unterstützt. Allerdings steht bislang eine dynamische Partitionierung bei Windows und anderen auf Intel ablaufbaren Betriebssystemen noch nicht zur Verfügung. Auch die Microsoft-Plattform .NET wird diese Funktion noch nicht enthalten, sondern laut den bis heute vorliegenden Informationen erst die darauf folgende Windows-Version.

Neben der Betriebssystem-Problematik gibt es noch einen weiteren wunden Punkt: die Synchronisation zwischen Systemhersteller, Prozessor- und Betriebssystemlieferant. Bei den aktuellen Großrechnern, Mainframes oder leistungsstarken Unix-Systemen, kommen die Prozessortechnologie, der Server und das Betriebssystem entweder aus einer Hand, oder es gibt eine sehr enge Beziehung der beteiligten Hersteller. Die CPU-Varianten werden eng mit der Entwicklung der Rechner und des Betriebssystem abgestimmt.

In der Intel-Welt sind diese Beziehungen längst nicht so stark ausgeprägt. Die Intel-Prozessoren weisen kurze Lebenszyklen auf, und Administratoren stoßen meist schnell an den Punkt, an dem man für die Server-Systemboards keine passenden Upgrade-Prozessoren mehr bekommt. Man kann zwar als Hersteller versuchen, durch einen möglichst modularen Aufbau der Systeme Umrüstmöglichkeit auf neuere Technologien zu ermöglichen. Dennoch ist die Gefahr groß, dass sich die Umbaukosten zu einer Summe addieren, die höher ist als der Preis für eine komplette Neuanschaffung. Dies wird bei Großrechner-Infrastrukturen, deren Kosten schnell in die Millionen gehen, kein Anwender akzeptieren.

Hochskalierte Intel-Systeme sind seltenDie meisten Anbieter von Intel-basierenden Servern bieten daher nur Maschinen bis maximal acht Prozessoren an. Viele Engagements darüber hinaus wurden in der Vergangenheit nach kurzer Zeit wieder beendet. Großsysteme mit bis zu 32 Intel-CPUs werden derzeit nur von Unisys angeboten. Es ist jedoch damit zu rechnen, dass sich das Angebot auf Basis des McKinley, der nächsten 64-Bit-Intel-Itanium Generation, ausweiten wird. Hier arbeiten die Hersteller bereits mit Hochdruck an der notwendigen Rechner-Infrastruktur wie zum Beispiel den Chipsätzen. Gleichzeitig bietet die 64-Bit-Technologie größere Funktionalitäten, insbesondere bei Hauptspeicher-intensiven Anwendungen wie beispielsweise Datenbanksystemen.

Eine Alternative zu hochskalierten Multiprozessor-Systemen bietet ein modularer Ansatz. In einer modularen Architektur mit "Bricks" lassen sich separate Systeme über einen herstellerspezifischen Bus koppeln und somit zu einem Mehrprozessorsystem ausbauen. Bei diesem Ansatz kann ein Anwender mit einem System herkömmlicher Größe starten. Falls Anwendungen mehr Leistung benötigen, zum Beispiel eine wachsende Datenbank, wird ein zweites System angekoppelt. Anwender müssen also nicht sofort die Infrastruktur für ein Muliprozessor-System kaufen, sondern erst dann, wenn sie gebraucht wird. Die Koppelung zwischen den Rechnern lässt sich jederzeit rückgängig machen. Beide Systeme können dann wieder separat genutzt werden.

Homogene Systeme bleiben frommer WunschAllerdings kommen die wenigsten Administratoren in den Genuss einer einfach zu verwaltenden homogenen IT-Landschaft. Da jede der oben beschriebenen Server-Architekturen Vor- und Nachtteile mit sich bringt und auch die Anwendungen unterschiedliche Anforderungen an die IT stellen, hat sich in den meisten größeren Unternehmen ein Mix aus unterschiedlichen Rechnerarchitekturen herausgebildet.

In der Schicht der Frontend-Server, also dem Teil der IT-Infrastruktur, in der die Clients über Web- und Terminal-Services mit den Anwendungen und Daten gekoppelt werden, sind Intel-Server die unangefochten dominierende Plattform. Selbst ein auf die Kombination Solaris-Sparc fokussierter Anbieter wie Sun Microsystems hat angekündigt, Intel-kompatible Server für diesen Bereich anzubieten. Ein Scale-out-Lastverbund von preisgünstigen Servern bietet in diesem Anwendungssegment bei niedrigen Systemkosten eine hohe Flexibilität, die sich mit Blade-Servern noch weiter erhöhen lässt. Bei den Web-Servern werden in Zukunft der Internet Information Server (IIS) unter Windows 2000 oder Apache unter Linux dominieren. Die Analysten der Meta Group rechnen bis 2004 mit einem Verhältnis bei den Web-Servern von 40 Prozent für die Windows- und 30 Prozent für die Linux-Plattform. Die restlichen Anteile verteilen sich auf verschiedene Unix-Derivate.

Im Umfeld der Geschäftsanwendungen wird Linux nach Meinung der meisten Analysten in großen Organisationen auf absehbare Zeit keine große Rolle spielen. Diese Schicht wird überwiegend mit Intel-Servern unter Windows, Enterprise-Unix-Systemen wie Sparc/Solaris oder PA-RISC/HP-UX sowie Mainframes (BS2000, MVS) betrieben. Für die Wintel-Plattform spricht hier der meist niedrigere Anschaffungspreis. Enterprise-Unix-Systeme und Mainframes bieten dagegen ausgereiftere Rechenzentrums-Funktionalitäten wie dynamische Partitionierung, einen hohen Automatisierungsgrad und Batch-Betrieb. Damit lassen sich niedrige Betriebskosten erzielen.

Im Datenbankumfeld, der bisherigen Domäne der Highend-Unix-Maschinen und Mainframes, haben Intel-Server mit dem SQL-Server und Oracle zuletzt Wachstumsraten erzielen können. Aufgrund der begrenzten Skalierung waren sie in der Vergangenheit keine Alternative im Falle großer Implementierungen. Mit Windows.NET in Verbindung mit Intels Itanium-Plattform sollen die Restriktionen, die das Wachstum der Intel-Architekturen im Highend-Segment des Server-Marktes bislang bremsten, in den nächsten Jahren weiter abgebaut werden. (ba)

*Frank Reichart ist Marketing Director für den Bereich Intel-based Server bei Fujitsu Siemens Computers in Augsburg.

Abb: Marktentwicklung der x86-Architekturen

Rack-optimierte Server und Blade-Systeme werden in den nächsten Jahren Marktanteile im Intel-Segment gewinnen. Quelle: IDC