Virtualisierte und automatisierte IT-Landschaften sind auf dem Vormarsch. Sie versprechen eine flexiblere IT, die leicht zu managen und kostengünstig zu betreiben ist. Für diesen Trend haben sich verschiedene Bezeichnungen eingebürgert: Die Rede ist von dynamischen beziehungsweise virtualisierten Rechenzentren, Dynamic IT oder Dynamic Data Center, kurz DDC.
So verschieden die Begriffe: Der Grundansatz ist gleich. Die starre Zuordnung von Software und Hardware wird ersetzt durch einen Ressourcen-Pool mit Speicher- und Serversystemen. Virtualisierung entkoppelt dabei die Applikationen und ihre Daten von der Hardware. Je nach Bedarf können damit die Hardware-Ressourcen den Anwendungen zugewiesen werden. Diese Zuweisung erfolgt automatisch nach vorab festgelegten Regeln.
Herkömmlichen Rechenzentren droht damit das Aus. Die starre Verknüpfung von Hardware und Anwendung genügt modernen Anforderungen kaum mehr. Dutzend- und Hundertfach potenziert führt sie zu einem explosionsartigen, chaotischen Wachstum von Rechnern, Storage und anderer Hardware. Schließlich muss ein Maximum an Ressourcen bereit gestellt werden, um bestimmte Applikationen fahren oder Spitzenbelastungen abfangen zu können.
Dabei sind die Hardware-Komponenten die meiste Zeit nur gering beansprucht. So zeigt eine Symantec-Untersuchung von 2009, dass die Rechenzentren im Schnitt nur 53 Prozent ihrer Server-Kapazitäten nutzen. Im Storage-Segment ist der Auslastungsgrad mit 50 Prozent sogar noch geringer. Eine IDC-Studie von 2008 spricht gar nur von einem durchschnittlichen Auslastungsgrad von fünf bis zehn Prozent - laut IDC-Prognosen bedeutet das 140 Milliarden Dollar ungenutzte Server-Kapazität im Jahr 2010.