Vier Modelle

Virtualisierung bringt dynamische Prozesse

29.01.2009
Von 
Dipl. Inform. Johann Baumeister blickt auf über 25 Jahre Erfahrung im Bereich Softwareentwicklung sowie Rollout und Management von Softwaresystemen zurück und ist als Autor für zahlreiche IT-Publikationen tätig. Sie erreichen ihn unter jb@JB4IT.de

Servervirtualisierung heute = Parallelbetrieb der Server in einer Box

Der Parallelbetrieb mehrerer Serversysteme in einer einzigen Hardware weist gegenüber dem traditionellen Modell, bei dem jedes Serverbetriebssystem seine eigene Hardware hatte, Vorteile auf. Es spart Platz, Energie und Verkabelung. Die Virtualisierungskonzepte der ersten Generation packen hierzu mehrere Systeme parallel auf eine Box. Das ist sicher sinnvoll, kann aber immer nur der erste Schritt sein. Damit ist das Problem des wechselnden Ressourcenbedarfs für die CPU, den Arbeitsspeicher oder das Netzwerk aber noch nicht gelöst. Daneben stehen noch eine ganze Reihe weiterer Möglichkeiten, die sich durch die Virtualisierung ergeben und die bis dato kaum genutzt werden. Obgleich die Auslastung der verwendeten Hardware durch den Parallelbetrieb zweifelsfrei ansteigt, ein Optimum erreicht sie nicht. Was aber ist das Optimum? Das Optimum ist dann erreicht, wenn die bereitgestellte Rechnerleistung deckungsgleich mit der abgeforderten Last der Benutzer und Geschäftprozesse ist. Da die Last allerdings ständigen Schwankungen unterworfen ist, muss sich die bereitgestellte Leistung ebenso anpassen. Am deutlichsten ist das in den oftmals erwähnten Nachtstunden oder am Wochenende. Wenn die Benutzer nicht anwesend sind, so werden sie kaum IT-Dienste benötigen und abfordern.

Herausforderungen der Virtualisierung durch Laständerungen

Bei Applikationen mit stark schwankenden Lastanforderungen führt der Parallelbetrieb der Applikationen durch Virtualisierung auf einer Hardware zwar zu einer besseren, aber kaum optimalen Auslastung. Hinzu kommt, dass wohl der Großteil der Applikationen nichtlineare Lastprofile aufweisen. Im Windows-Umfeld beispielsweise sind die Anmeldeserver und Mailserver vor allem bei Arbeitsbeginn besonders belastet. Tagsüber wenn die Benutzer anwesend sind und Emails empfangen oder erstellen, ist dessen Auslastung sicherlich hoch. Ist das Mailsystem aber deswegen nachts gänzlich schlafen zu legen? Sicherlich nicht! Um ihre Anwendungssysteme zu optimieren, nutzen sie bereits heute diese schwankenden Lastanforderungen. Für Mailsysteme bedeutet dies beispielsweise, dass sie nachts durch Malwarescanner die Postfächer und Emails der Benutzer nach Angriffen durchforsten. Eine einfache Zeitsteuerung der Prozesse, also sie nachts abzuschalten und tagsüber zu aktivieren, ist daher nur die halbe Wahrheit. Ein Einschätzung für Webserver zu geben ist auch kaum machbar, da die Nutzer hierbei ja von außerhalb kommen. Aber auch die zentralen Unternehmensanwendungen wie ERP, CRM oder Warenwirtschaft weisen schwankende Lastanforderungen auf. Dabei ist die Situation von oszillierenden Anforderungen keineswegs ein neues Phänomen. In den Urzeiten der Datenverarbeitung schuf man, um dem zu begegnen, die Batchverarbeitung. Leistungsintensive Anwendungen wie Rechnungsläufe, Buchungen oder umfangreiche Auswertungen wurde dabei in die nächtlichen Batchjobs gelegt. Die heute meist eingesetzten Virtualisierungstechniken vermögen zwar die Auslastung zu erhöhen, sie können aber nur unzureichend mit unterschiedlichen Lastprofilen umgehen. Ein weiterer Aspekt, den es zu beachten gilt betrifft die Ausfallsicherheit. Durch die Zusammenführung mehrerer Serversysteme auf einen leistungsstarken Rechner wird dieser zum Single-Point-of-Failure. Vorkehrungen zur Ausfallsicherheit und Hochverfügbarkeit werden damit zu einer zwingenden Anforderung.