Jeder Hersteller, der etwas auf sich hält, hat mindestens ein Virtualisierungsprodukt im Angebot. Zum Hype artet der schon vorher inflationär verwendete Begriff aus, seit IBM mit „On-Demand-Computing“, Hewlett-Packard (HP) mit „Utility Data Center“ und Sun mit „N1“ die IT-Landschaft umkrempeln wollen. Denn die Basis für die propagierte kurzfristig erreichbare Skalierbarkeit der Ressourcen liegt in deren Virtualisierung. Nur dadurch kann sichergestellt werden, dass Applikationen zeitgerecht mit der benötigten Infrastruktur versorgt werden, ohne dass die Kosten explodieren.
Markt für Speicher-Management-Software.
Virtualisierung hat eine lange Geschichte
Dabei ist der Begriff Virtualisierung nicht neu: Schon seit den späten 60er Jahren besitzen Großrechner die Fähigkeit, den Hauptspeicher für mehr als eine Instanz des Betriebssystems aufzuteilen. Seit Mitte der 70er Jahre lassen sich auch Festplattensysteme virtualisieren, und 20 Jahre später erlebte die logische Aufteilung der Bandgeräte ihren Aufschwung. Die Trennung der logischen Sicht von den physikalischen Gegebenheiten diente schon immer der besseren Ausnutzung der Ressourcen.