Virtualisierung hat die Unternehmens-IT in den letzten Jahren gewaltig verändert. Und das aus gutem Grund: Virtualisierte IT-Strukturen reduzieren die Hardware-Ressourcen und führen zu einer besseren Auslastung von Server- und Storage-Systemen. Gleichzeitig erhöht dies die Flexibilität, senkt den Platz- und Energiebedarf und verringert so ganz allgemein die IT-Kosten.
Mit der zunehmenden Virtualisierung entstehen allerdings auch neue Gefahren. Viele Nutzer glauben, dass eine virtualisierte IT-Lösung automatisch Hochverfügbarkeit garantiert. In einer aktuellen Studie von Stratus zusammen mit dem Marktforschungsunternehmen ITIC waren 79 Prozent der befragten IT-Experten überzeugt, dass Virtualisierungssoftware die für kritische Anwendungen nötige Verfügbarkeit bereitstellen kann. Doch das ist ein gefährlicher Trugschluss. Tatsächlich ist Virtualisierungssoftware nicht für die Herstellung von Hochverfügbarkeit konzipiert. Die Gefahr von Ausfällen kann sie keinesfalls reduzieren - im Gegenteil, sie nimmt sogar zu. Der größte Schwachpunkt der Virtualisierung ist die Abhängigkeit der virtuellen Instanzen von der Hardware, die damit zum Single Point of Failure wird. War in Vor-Virtualisierungszeiten der Ausfall eines Servers verkraftbar, kann dies nun, wenn mehrere Applikationen auf einem System laufen, kritisch werden. Dies umso mehr, wenn unternehmenskritische Anwendungen auf einer Hardware betrieben werden.