Anwendung und Hardware entkoppelt

Virtualisierung 2.0 anvisiert

28.05.2009
Von 
Holger Eriksdotter ist freier Journalist in Hamburg.
Schlechte Serverauslastung, horrender Energiekonsum und teure Klimatisierung: Diese drängenden Probleme hat die Server-Virtualisierung inzwischen weitgehend behoben. Das Potenzial von Virtualisierungstechnologien geht jedoch weit darüber hinaus: Analysten sprechen inzwischen von "Virtualisierung 2.0" und zielen damit auf eine einfachere, leichter administrierbare, agilere und kostengünstigere IT-Infrastruktur.

Gartner hat die Virtualisierung der IT-Landschaften schon vor zwei Jahren zum Mega-Trend ausgerufen, der bis zum Jahre 2012 den Infrastruktur- und Operations-Markt beherrschen wird. Und die Marktanalysten haben Recht behalten: Nach anfänglichem Zögern ist die Virtualisierung von Servern breitflächig in die Rechenzentren eingezogen.

"Gerade in Zeiten knapper Budgets stehen Unternehmen vor der Herausforderung, ihre IT-Infrastrukturen zu optimieren", sagt Nathaniel Martinez, Director Enterprise Server Europe bei IDC.
"Gerade in Zeiten knapper Budgets stehen Unternehmen vor der Herausforderung, ihre IT-Infrastrukturen zu optimieren", sagt Nathaniel Martinez, Director Enterprise Server Europe bei IDC.

Die Gründe für die Virtualisierung der IT-Landschaften sind breit diskutiert und unwiderlegbar: Kostenvorteile bei Hardware und Administration, geringerer Bedarf an Stellfläche und Energie für Betrieb und Kühlung, einfachere Business-Continuity-Lösungen und weniger Downtime. Allerdings erforderte der Umbau der IT-Landschaften eine komplette Abkehr vom bisher bestimmenden Denken, dass sich kurz und knapp in der Maxime "Eine Applikation - ein Server" zusammenfassen lässt.

Ohne Virtualisierung bald 41 Millionen Server im Einsatz

Ein unverändertes Fortführen dieses Paradigmas hätte nach Berechnungen der Marktforscher von IDC dazu geführt, dass im Jahre 2010 weltweit rund 41 Millionen Server in Betrieb wären - bei einer durchschnittlichen Auslastung von unter zehn Prozent. Das entspräche einer Verschwendung von rund 140 Milliarden Dollar an ungenutzter Server-Kapazität.

Während die erste Phase der Virtualisierung eher auf Kostensenkungen durch Konsolidierung, die Verbesserung der Auslastung der Server und eine bessere Energieausbeute zielte, gerät jetzt in den Fokus, was sich bisher meist nur als willkommener Nebeneffekt einstellte: Einfachere und flexiblere Infrastrukturen mit deutlich gestiegener Agilität, höhere Service-Level bei geringerem Administrationsaufwand und eine schnellere Reaktionsfähigkeit auf Business-Anforderungen. In Anlehnung an Web 2.0 ist bei Marktteilnehmern und Analysten gelegentlich von "Virtualisierung 2.0" die Rede, wenn sie auf die neue Dimension von Virtualisierungstechnologien anspielen.

Aber bis dahin ist es noch ein weiter Weg. Denn um die Rechenzentren im Sinne von Virtualisierung 2.0 umzukrempeln, bedarf es nicht nur eines anderen Verständnisses, sondern auch neuer Hard- und Software, die über das bisherige Maß an Server-Virtualisierung hinaus die Virtualisierung der Speicherlandschaft und Netzwerkschicht einbezieht. Ebenso fehlt es noch an ausgefeilten Management-Tools für großflächig virtualiserte IT-Landschaften, die eine einfache und einheitliche Administration von virtuellen und Hardware-Servern bis zur Netzwerk-Infrastruktur und Speicherlandschaft erlauben.