Supercomputer konkurrieren mit Grids

27.07.2005
Von Dr. Bernd

Im Enterprise-IT-Umfeld waren andere Strömungen wichtig. So wurden, bedingt durch die hohen Kosten zentraler IT, schon in den 80er Jahren abteilungsbezogene IT-Lösungen etabliert (räumlich und thematisch). In den 90 er Jahren entwickelte sich das Client-Server-Prinzip zum wichtigsten Schlüssel, um Kosten für die Hardwareinfrastruktur zu senken. Und im Zuge des E-Business entstanden zahlreiche neue themen- und prozessbezogene Sonderinfrastrukturen". Insgesamt wurden die Infrastrukturen enorm komplex und führten viele Rechenzentren an den Rand ihrer Leistungsfähigkeit. Allein um den laufenden Betrieb aufrechtzuerhalten, mussten fast alle verfügbaren Ressourcen eingesetzt werden. Damit ging die Fähigkeit zur Innovation in vielen Unternehmen nahezu verloren.

Seit dem Ende der 90er Jahre findet eine grundsätzliche Neuausrichtung der Enterprise-IT statt. Konsolidierung und Rezentralisierung ermöglichten aufgrund veränderter relativer Kosten von Infrastruktur, Telekommunikationsbandbreite und administrativ eingesetztem Personal hohe Effizienzsteigerungen. Noch höhere Effizienz lässt sich nun erreichen, wenn die zentral vorgehaltenen Kapazitäten unter Virtualisierung der Anwendungen mit dynamischer Provisionierung besser ausgelastet werden und sich ihre Administration durch Automatisierung vereinfacht. Genau dies ist das Konzept des "Enterprise Grid Computing".

Server in Teillast

Der Kern ist die Aufhebung der statischen Zuordnung zwischen Servern und Applikationen. Diese Zuordnung führt dazu, dass Server in Unternehmen lediglich zu 20 bis 40 Prozent ausgelastet sind. Im Enterprise-Grid-Computing-Konzept wird dagegen ein Pool mit Infrastrukturressourcen gebildet, die den (virtualisierten) Applikationen dynamisch zugewiesen werden. Das bewirkt eine wesentlich bessere Nutzung der verfügbaren Kapazitäten. Die Gesamtkosten sinken, Anpassungen an neue Anforderungen werden billiger.