Blade-Server, Virtualisierung und IT-Kosten

Die wichtigsten Server-Trends für IT-Manager

27.01.2009
Von 
Bernhard Haluschak war bis Anfang 2019 Redakteur bei der IDG Business Media GmbH. Der Dipl. Ing. FH der Elektrotechnik / Informationsverarbeitung blickt auf langjährige Erfahrungen im Server-, Storage- und Netzwerk-Umfeld und im Bereich neuer Technologien zurück. Vor seiner Fachredakteurslaufbahn arbeitete er in Entwicklungslabors, in der Qualitätssicherung sowie als Laboringenieur in namhaften Unternehmen.

Virtualisierung

In den letzten Jahren ist die Rechenleistung explosionsartig gestiegen. Um diese Rechner-Performance effektiv zu nutzen, ist aktuell die Virtualisierung das Mittel der Wahl. Neben der besseren Auslastung der Systeme sinkt auch die Leistungsaufnahme in Bezug auf die Rechenperformance, was dazu beiträgt, die Betriebskosten der IT zu senken. Wir wollten wissen, welchen Einfluss die unterschiedlichen Virtualisierungstechnologien auf die Server-Hardware haben werden.

Hans Schramm, Dell: Der Trend geht hier zu „anwenderfreundlichen“ Systemen. Die Aufgabe für die Hersteller lautet: „Vereinfachungen“ für den IT-Anwender bereits in die Hardware zu integrieren, um beispielsweise das Deployment, das heißt die Inbetriebnahme von Servern, zu beschleunigen und damit eine Kosteneinsparung zu ermöglichen. Was die Technik angeht, so werden verstärkt die Virtualisierung unterstützende Features in die Server integriert – sowohl auf Hardware- als auch auf Software-Seite.

Dr. Joseph Reger, FSC: Die Virtualisierung zählt zu den Schlüsseltechnologien für dynamische IT-Infrastrukturen, wie sie derzeit in den Rechenzentren Einzug halten. (Quelle: FSC)
Dr. Joseph Reger, FSC: Die Virtualisierung zählt zu den Schlüsseltechnologien für dynamische IT-Infrastrukturen, wie sie derzeit in den Rechenzentren Einzug halten. (Quelle: FSC)

Dr. Joseph Reger, Fujitsu Siemens Computers: Die Virtualisierung zählt zu den Schlüsseltechnologien für dynamische IT-Infrastrukturen, wie sie derzeit in den Rechenzentren Einzug halten. Für die Server-Hardware ergibt sich eine Reihe von Konsequenzen, sodass CPU-Performance, Arbeitsspeicher und I/O-Anforderungen neu aufeinander abgestimmt werden müssen. Um Server in Hinblick auf Virtualisierung zu optimieren, bedarf es mehr Speicher-DIMM-Slots und einer höheren I/O-Leistung. Insbesondere in dem 2-Socket-Segment wird die erforderliche I/O-Unterstützung für virtuelle Maschinen die Bandbreite der Netze herausfordern, und 10-Gbit-Ethernet wird die bevorzugte I/O-Verbindung für Server sein.

Carsten Unnerstall, Hewlett-Packard: Generell sollten Server für den Einsatz von Virtualisierungslösungen hochgradig skalierbar sein. Denn die Anforderungen, speziell beim Arbeitsspeicher, und die I/O-Bandbreiten sind hier nicht zu unterschätzen. Als typische Konfiguration gelten beispielsweise 4 GByte Arbeitsspeicher je virtueller Maschine – was selbst bei kleineren Servern mehr als 100 GByte RAM erforderlich machen kann, um einen leistungsfähigen Betrieb zu gewährleisten. Bei den Netzwerkanschlüssen wird künftig verstärkt 10-Gbit-Ethernet zum Einsatz kommen. Da die Images der Server in der Regel auf externen Speichersystemen liegen, sinken im Gegenzug die Anforderungen an die internen (Platten-)Speicher beziehungsweise werden diese ganz obsolet. Diese Besonderheiten gelten übrigens gleichermaßen für den Betrieb aufgesetzter Virtualisierungslösungen wie VMware, Citrix Xen Server oder MS HyperV einerseits und Servern mit systemeigenen Virtualisierungsfunktionen wie HP Integrity Servern andererseits.