Virtualisierte Rechenzentren

Chancen - und Herausforderungen

Dr. Klaus Manhart hat an der LMU München Logik/Wissenschaftstheorie studiert. Seit 1999 ist er freier Fachautor für IT und Wissenschaft und seit 2005 Lehrbeauftragter an der Uni München für Computersimulation. Schwerpunkte im Bereich IT-Journalismus sind Internet, Business-Computing, Linux und Mobilanwendungen.
Anzeige  Die Tage des klassischen, statisch aufgebauten Rechenzentrums sind gezählt. In immer mehr Unternehmen wird das herkömmliche RZ durch virtualisierte Hardware-Pools ersetzt: Sie lassen sich deutlich flexibler einsetzen und kostengünstiger betreiben - stellen IT-Manager allerdings vor neue Herausforderungen.

Virtualisierte und automatisierte IT-Landschaften sind auf dem Vormarsch. Sie versprechen eine flexiblere IT, die leicht zu managen und kostengünstig zu betreiben ist. Für diesen Trend haben sich verschiedene Bezeichnungen eingebürgert: Die Rede ist von dynamischen beziehungsweise virtualisierten Rechenzentren, Dynamic IT oder Dynamic Data Center, kurz DDC.

So verschieden die Begriffe: Der Grundansatz ist gleich. Die starre Zuordnung von Software und Hardware wird ersetzt durch einen Ressourcen-Pool mit Speicher- und Serversystemen. Virtualisierung entkoppelt dabei die Applikationen und ihre Daten von der Hardware. Je nach Bedarf können damit die Hardware-Ressourcen den Anwendungen zugewiesen werden. Diese Zuweisung erfolgt automatisch nach vorab festgelegten Regeln.

Herkömmlichen Rechenzentren droht damit das Aus. Die starre Verknüpfung von Hardware und Anwendung genügt modernen Anforderungen kaum mehr. Dutzend- und Hundertfach potenziert führt sie zu einem explosionsartigen, chaotischen Wachstum von Rechnern, Storage und anderer Hardware. Schließlich muss ein Maximum an Ressourcen bereit gestellt werden, um bestimmte Applikationen fahren oder Spitzenbelastungen abfangen zu können.

Dabei sind die Hardware-Komponenten die meiste Zeit nur gering beansprucht. So zeigt eine Symantec-Untersuchung von 2009, dass die Rechenzentren im Schnitt nur 53 Prozent ihrer Server-Kapazitäten nutzen. Im Storage-Segment ist der Auslastungsgrad mit 50 Prozent sogar noch geringer. Eine IDC-Studie von 2008 spricht gar nur von einem durchschnittlichen Auslastungsgrad von fünf bis zehn Prozent - laut IDC-Prognosen bedeutet das 140 Milliarden Dollar ungenutzte Server-Kapazität im Jahr 2010.