Grids: Die Fortsetzung der Virtualisierung

10.10.2006
Von Thorsten Langner

Systeme von Investment-Banken oder Automobilherstellern, die weniger mit dem Endkunden zu tun haben als mehr mit aufwändigen Berechnungen wie "Monte-Carlo"-Risikoanalysen beziehungsweise Crash-Simulationen, arbeiten nur dann, wenn die Analysten oder die Ingenieure sie genau für diese Aufgaben brauchen. Doch kontinuierlich wird nie gerechnet, schon gar nicht mit hoher Auslastung. Die teuren Rechner sind während eines Großteils der Zeit weitgehend inaktiv. Im selben Unternehmen gibt es jedoch andere Abteilungen, die genau zu der Zeit, in der diese Server nicht arbeiten, ihre eigenen Systeme beispielsweise für Monatsabschlüsse bis zum Anschlag auslasten und gerne mehr Rechenkapazität hätten. Allerdings fehlt diesen Abteilungen meist das nötige Budget, um sich entsprechend mehr IT-Leistung zu besorgen. Und zu anderen Zeiten nutzen auch sie ihre Rechnerkapazitäten nicht aus.

Das Grundproblem der Konsolidierung bei Peak-Auslastungen überzogen dargestellt: Kein einziger der drei Applikations-Server links ist im Tagesdurchschnitt zu 50 Prozent ausgelastet. Alle drei Anwendungen ließen sich auf einem einzigen dieser Server (rechts) zusammenführen. Um allerdings die dann inakzeptable Auslastung von 100 Prozent zu verhindern, würde man ihm zum Beispiel je 50 Prozent mehr CPU-, RAM- und I/O-Kapazität geben. Man hätte insgesamt immer noch die Hälfte der Hardwarekosten eingespart, gleichzeitig die Peak-Auslastung auf 66 Prozent gebracht und könnte die Extrakosten zur Erreichung dieses Auslastungsgrads auf den Servern 1 und 3 komplett sparen. Trotzdem wäre noch genug Reserve für künftige Peaks vorhanden.
Das Grundproblem der Konsolidierung bei Peak-Auslastungen überzogen dargestellt: Kein einziger der drei Applikations-Server links ist im Tagesdurchschnitt zu 50 Prozent ausgelastet. Alle drei Anwendungen ließen sich auf einem einzigen dieser Server (rechts) zusammenführen. Um allerdings die dann inakzeptable Auslastung von 100 Prozent zu verhindern, würde man ihm zum Beispiel je 50 Prozent mehr CPU-, RAM- und I/O-Kapazität geben. Man hätte insgesamt immer noch die Hälfte der Hardwarekosten eingespart, gleichzeitig die Peak-Auslastung auf 66 Prozent gebracht und könnte die Extrakosten zur Erreichung dieses Auslastungsgrads auf den Servern 1 und 3 komplett sparen. Trotzdem wäre noch genug Reserve für künftige Peaks vorhanden.

Dies hat zur Folge, dass Unternehmensabteilungen 100 Prozent einer Rechnerumgebung bezahlen, obwohl sie das System über den Tag verteilt nur zu 20 bis 30 Prozent nutzen. Je höher die Betriebskosten eines einzelnen Servers sind, desto unwirtschaftlicher ist das Gesamtsystem. Aus diesem Grund ist es vorteilhafter, wenn ein Server während der Zeit, in der ihn eine Abteilung nicht in Anspruch nimmt, anderen Abteilungen für andere Applikationen zur Verfügung gestellt wird. Ein Rechner ist eine Ressource und sollte sich von der Abteilung, die momentan einen erhöhten Ressourcenbedarf hat, "ausborgen" lassen. Sobald derjenige, der seine Ressource verliehen hat, sie wieder braucht, muss das Ausleihen rückgängig gemacht werden.

In sehr vielen Unternehmen, insbesondere aber in der Finanzdienstleistungsinformatik, sind die IT-Systeme auf "Peak"-Nutzung ausgelegt. Doch Peaks treten nur innerhalb eines kurzen, manchmal nur sehr kurzen Zeitfensters auf (siehe Grafik "Lastprofile"). Die Lastprofile der verschiedenen Applikationen zeigen, dass der Anteil der nicht genutzten CPU-Ressourcen deutlich höher ist als die in Anspruch genommene Rechnerkapazität. Es ist eine berechtigte Frage, wie sich zum einen die gewünschten Peak-Anforderungen bewältigen lassen und zum anderen die Kosten für die Anschaffung von Hardware auf ein Minimum reduzieren werden.

Grenzen der Virtualisierung

Lösungen für dieses Optimierungsproblem bieten sich mit On-demand Computing oder mit Virtualisierung an. Ersteres bedeutet, dass eine Rechnerkapazität im Moment der Anforderung sehr zeitnah bereitgestellt wird. On-demand-Systeme müssen flexibel sein, häufig Echtzeitforderungen erfüllen und vollen Zugriff auf die zur Leistungserbringung nötigen Ressourcen bieten. Sie werden in der Regel bei speziellen Dienstleistern gemietet und sind nicht unbedingt mehr physischer Bestandteil des eigenen Rechenzentrums. Wie viel Dienstleistung in Anspruch genommen wird, entscheidet in der Regel jede Unternehmensabteilung nach dem eigenen Budgetrahmen selbst.

Virtualisierung hingegen teilt eine einzelne, physische Ressource in mehrere virtuelle, nicht-physische ein. Jedoch ist die Zuteilung der virtuellen Ressourcen eine aufwändige manuelle Tätigkeit. Je größer die virtuellen Umgebungen werden, desto schneller nimmt die Administrationsarbeit zu, weil es erforderlich ist, jeden einzelnen virtuellen Server zu steuern. Daran ändern auch die heute verfügbaren Administrations-Tools für virtuelle Umgebungen letztlich nicht viel. In der Folge ist die Mehrheit der heute im produktiven Bereich existenten virtuellen Ressour- cen wieder fix konfiguriert. Die Wirkung der Virtualisierung schmilzt in großen Umgebungen dahin, und sie endet üblicherweise an den Grenzen der IT einer Unternehmensabteilung.