Anwendung und Hardware entkoppelt

Virtualisierung 2.0 anvisiert

28.05.2009 von Holger Eriksdotter
Schlechte Serverauslastung, horrender Energiekonsum und teure Klimatisierung: Diese drängenden Probleme hat die Server-Virtualisierung inzwischen weitgehend behoben. Das Potenzial von Virtualisierungstechnologien geht jedoch weit darüber hinaus: Analysten sprechen inzwischen von "Virtualisierung 2.0" und zielen damit auf eine einfachere, leichter administrierbare, agilere und kostengünstigere IT-Infrastruktur.

Gartner hat die Virtualisierung der IT-Landschaften schon vor zwei Jahren zum Mega-Trend ausgerufen, der bis zum Jahre 2012 den Infrastruktur- und Operations-Markt beherrschen wird. Und die Marktanalysten haben Recht behalten: Nach anfänglichem Zögern ist die Virtualisierung von Servern breitflächig in die Rechenzentren eingezogen.

"Gerade in Zeiten knapper Budgets stehen Unternehmen vor der Herausforderung, ihre IT-Infrastrukturen zu optimieren", sagt Nathaniel Martinez, Director Enterprise Server Europe bei IDC.

Die Gründe für die Virtualisierung der IT-Landschaften sind breit diskutiert und unwiderlegbar: Kostenvorteile bei Hardware und Administration, geringerer Bedarf an Stellfläche und Energie für Betrieb und Kühlung, einfachere Business-Continuity-Lösungen und weniger Downtime. Allerdings erforderte der Umbau der IT-Landschaften eine komplette Abkehr vom bisher bestimmenden Denken, dass sich kurz und knapp in der Maxime "Eine Applikation - ein Server" zusammenfassen lässt.

Ohne Virtualisierung bald 41 Millionen Server im Einsatz

Ein unverändertes Fortführen dieses Paradigmas hätte nach Berechnungen der Marktforscher von IDC dazu geführt, dass im Jahre 2010 weltweit rund 41 Millionen Server in Betrieb wären - bei einer durchschnittlichen Auslastung von unter zehn Prozent. Das entspräche einer Verschwendung von rund 140 Milliarden Dollar an ungenutzter Server-Kapazität.

Während die erste Phase der Virtualisierung eher auf Kostensenkungen durch Konsolidierung, die Verbesserung der Auslastung der Server und eine bessere Energieausbeute zielte, gerät jetzt in den Fokus, was sich bisher meist nur als willkommener Nebeneffekt einstellte: Einfachere und flexiblere Infrastrukturen mit deutlich gestiegener Agilität, höhere Service-Level bei geringerem Administrationsaufwand und eine schnellere Reaktionsfähigkeit auf Business-Anforderungen. In Anlehnung an Web 2.0 ist bei Marktteilnehmern und Analysten gelegentlich von "Virtualisierung 2.0" die Rede, wenn sie auf die neue Dimension von Virtualisierungstechnologien anspielen.

Aber bis dahin ist es noch ein weiter Weg. Denn um die Rechenzentren im Sinne von Virtualisierung 2.0 umzukrempeln, bedarf es nicht nur eines anderen Verständnisses, sondern auch neuer Hard- und Software, die über das bisherige Maß an Server-Virtualisierung hinaus die Virtualisierung der Speicherlandschaft und Netzwerkschicht einbezieht. Ebenso fehlt es noch an ausgefeilten Management-Tools für großflächig virtualiserte IT-Landschaften, die eine einfache und einheitliche Administration von virtuellen und Hardware-Servern bis zur Netzwerk-Infrastruktur und Speicherlandschaft erlauben.

70 Prozent der Unternehmen haben virtualisierte Server im Einsatz

Nach einer Untersuchung von Techconsult aus dem letzten Jahr liegt noch einiges im Argen: Während schon mehr als 70 Prozent der Unternehmen virtualisierte Server im Einsatz hatten, verfügte nur rund jeder zehnte Betrieb über virtualisierte Speicherumgebungen, weitere zehn Prozent planten deren zukünftigen Einsatz. Zu wenig noch, um das mit Virtualisierung 2.0 propagierte Ziel einer vollständigen Entkopplung der Anwendungen von der zugrunde liegenden Hardware-Infrastruktur zu erreichen.

Aber der Trend in Richtung übergreifender Virtualisierung im Data Center ist dennoch unverkennbar. So hat der Prozessor-Hersteller Intel unter der Bezeichung VT-x (Intel Virtualization Technology) in seine neue Xeon 5500-Serie eine Reihe von Funktionen integriert, die schon auf der Prozessor-Ebene den Betrieb in virtualisierten Umgebungen unterstützen.

Die Server-Hersteller bieten inzwischen Geräte an, die mit hoher Leistungsdichte, integriertem Hypervisor, Funktionen für die Virtualisierung der Netzwerkschicht und verbesserten Management-Tools für den Betrieb in virtualisierten IT-Landschaften ausgelegt sind. So hat etwa Fujitsu mit der neuen BX900-Serie eine neue Server-Generation vorgestellt, deren Design vollständig auf die Anforderungen virtualisierter Umgebungen abgestimmt wurde und die, ausgestatte mit Xeon 5500-Prozessoren, als erste den kompletten Funktionsumfang der Intel VT-x Technologie unterstützt.

Laut einer aktuellen Untersuchung von IDC werden Server zunehmend mit integrierter Virtualisierungslösung ausgeliefert. 358.000 dieser Systeme haben die Hersteller nach Angaben von IDC im letzten Jahr in Westeuropa verkauft - ein Anstieg um 25,5 Prozent im Vergleich zum Vorjahr. Schon in diesem Jahr werde es 10 Prozent mehr virtuelle Maschinen als Hardware-Server geben, bis zum Jahre 2013 soll sich die Zahl sogar auf ein Verhältnis von 3:2 zu Gunsten der virtuellen Server verschieben.

Dabei könnte gerade die Wirtschaftskrise den Trend zur Virtualisierung weiter befördern. Während die IDC-Analysten insgesamt mit verhaltenen Hardware-Investitionen rechnen, wäre das Segment der Virtualisierungstechnologien nach Einschätzung von Nathaniel Martinez, Director Enterprise Server Europe bei IDC, davon kaum betroffen. Gerade in Zeiten knapper Budgets stünden Unternehmen vor der Herausforderung, ihre IT-Infrastrukturen zu optimieren. Und dabei gilt Virtualisierung - egal ob als Konsolidierungs- und Kostensenkungsmaßnahme oder eben in Richtung 2.0 - derzeit als Königsweg.