Experten raten: Schon jetzt mit den Vorbereitungen beginnen

Erste Schritte zum Utility Computing

19.12.2003
MÜNCHEN (IDG) - Analysten schätzen, dass es noch sieben bis zehn Jahre dauern wird, bis Unternehmen eine umfassende Infrastruktur für Utility Computing aufbauen können. Dennoch sollten sie schon heute damit beginnen, die Weichen dafür zu stellen.

Mit Utility Computing soll der IT-Chef in die Lage versetzt werden, IT-Ressourcen im Unternehmen flexibel und je nach Bedarf an die Geschäftsprozesse anzupassen und die Leistung als Service zur Verfügung zu stellen. IBM, Hewlett-Packard und Sun Microsystems, die Hauptverfechter dieses Konzepts für das Rechenzentrum der Zukunft, beschwören die Vorteile, die insbesondere in einer besseren Ausnutzung der Ressourcen bei geringeren Betriebskosten liegen sollen.

Dazu wird die Rechen-, Speicher- und Netzkapazität durch Virtualisierung flexibilisiert, um dem IT-Manager die notwendige Freiheit zu verschaffen, auf Erfordernisse der Business-Abteilungen zu reagieren. Zu seiner Entlastung stellt die Industrie Equipment bereit, das sich selbst konfiguriert, überwacht und gegebenenfalls heilt. Manuelles Einrichten von Hardware oder Troubleshootings sind dann obsolet.

Die Vorteile von Utility Computing sind für jeden klar erkennbar, aber es existiert kein genauer Fahrplan dafür. Der Ansatz umfasst einerseits neue Hard- und Software, Services und IT-Kontrollmechanismen. Andererseits müssen der Aufwand für die Wartung alter Systeme und das Investment in strategische neue Produkte ausbalanciert sein. Was deshalb am Anfang der Bemühungen auf dem Weg zum Utility Computing zu stehen hat, ist eine Bestandsaufnahme: Anwender sollten sich zuerst ein genaues Bild von dem verschaffen, was bereits im Unternehmen genutzt wird, bevor sie in neue, intelligente Produkte investieren.

Inventur und Beziehungsanalyse

Dass dieser erste und scheinbar selbstverständliche Schritt für viele Unternehmen dringend angeraten ist, belegen Erfahrungen von Analysten wie John Phelps von Gartner: "Viele Firmen haben keinen Überblick darüber, wo ihre Server stehen, wie diese ausgestattet sind, wer über sie verfügt, sie kontrolliert und welche Applikationen dort ablaufen." Außerdem fehlt das Wissen darüber, wie die IT-Ressourcen zusammenspielen. So kann beispielsweise der erfolgreiche Abschluss einer Online-Transaktion von Daten abhängen, die aus verschiedenen Anwendungen auf unterschiedlichen Rechnerplattformen stammen, die in mehreren Geschäftsstellen aufgestellt sind. Das Aufspüren solcher Art von Beziehungen und Abhängigkeiten ist die Voraussetzung für ein höheres Computing-Niveau.

Die Basis: Management-Software

Die Management-Software der Zukunft wird sich nicht damit begnügen können, lediglich die Geräte zu überwachen. Ihr kommt im Gegenteil die wichtigste Aufgabe zu: Sie wird Regeln enthalten und durchsetzen, Devices automatisch erkennen, den Leistungshunger messen, Veränderungen verfolgen und bei Bedarf tätig werden, wenn Leistungsgrenzen unterschritten werden. "Die Herausforderung liegt darin, alle Systemdaten an einer Stelle so zu konsolidieren, dass sie für die Verwaltungsaufgaben effizienter zu nutzen sind", prophezeit George Hamilton, Chefanalyst der Yankee Group.

Keine leichte Aufgabe, denn heute verwenden viele Firmen verschiedene Management-Systeme, um Performance- und Verfügbarkeitsinformationen zu sammeln, mögliche Fehlerquellen aufzuspüren und Geräte und Applikationen für die Endanwender in ausreichendem Umfang bereitzustellen. Gelingen kann ein systemübergreifendes Management entweder mit Werkzeugen, die bestehende Verwaltungsprogramme verknüpfen, oder über Partnerschaften der Hersteller, die ihre Produkte untereinander integrierbar machen. So kooperiert beispielsweise BMC mit Symantec und EMC, um die jeweiligen spezifischen Verwaltungsdaten über die Systeme hinweg gemeinsam zu nutzen. Ebenso versuchen IBM und Cisco, Systemprobleme auf einheitliche Art und Weise aufzuspüren, zu protokollieren und zu lösen.

Noch einen Schritt weiter gehen Bemühungen einiger Softwarehersteller, Verwaltungswerkzeuge zu entwickeln, die nicht nur für die Überwachung von Geräten, sondern auch für das Monitoring von Geschäftsprozessen taugen. Verfolgt man den Weg eines Geschäftsprozesses, dann passiert man Web- und Applikations-Server, Datenbanken, Speichergeräte und diverse Router, die die Datenströme lenken. Soll eine Software diesen Pfad durchleuchten, dann müssen zuerst die Beziehungen zwischen den einzelnen Komponenten herausgefunden und in einer logischen Topologie abgebildet werden. Die beteiligten Stationen sind so zu konfigurieren, dass sie darüber berichten, inwieweit sie den Anforderungen der Applikation gerecht werden.

"Utility Computing lässt sich am einfachsten verwirklichen, wenn ein Rechenzentrum neu geplant wird", erklärt beispielweise HP für das hauseigene "Utility Data Center". Die Company räumt allerdings ein, dass das nicht der Normalfall sein wird. Schon jetzt und besonders in naher Zukunft eröffnen sich aber kostengünstige Möglichkeiten, intelligente Komponenten schrittweise in bestehende IT-Umgebungen einzufügen. Diese übernehmen neben ihrer "normalen" Tätigkeit auch Diagnoseaufgaben. Sie bereiten den IT-Administrator darauf vor, dass demnächst die Bandbreite nicht mehr ausreicht oder eine Festplatte ausfallen wird, die immer mehr defekte Sektoren meldet. Analysten raten deshalb dazu, bei Neubeschaffungen unbedingt auf Funktionen wie Selbstverwaltung, Eigendiagnose, Selbstheilung zu achten. Wichtig ist auch, dass die gesammelten Gerätedaten in übergreifende Systeme exportiert werden können.

Möglichst viel konsolidieren

Ein anderes probates Mittel, um sich dem Utility Computing anzunähern, ist die Konsolidierung des Equipments und dessen Virtualisierung. Einzelprozessorrechner können in Mehrprozessormaschinen umgewandelt, Speichergeräte in Pools zusammengefasst werden. Zu beachten ist dabei allerdings, dass die Möglichkeit zur Virtualisierung nicht beim Speicher oder Server endet, sondern auch von Programmen, Netzwerken und -geräten unterstützt wird. Hier sind die jeweiligen Hersteller aufgerufen, sich den Hardwarelieferanten anzuschließen.

Betriebssysteme und Anwendungsprogramme lassen sich - zumindest nach den Release-Ständen - ebenfalls vereinheitlichen. Der Rat von Experten: Zuerst feststellen, wer die strategischen Softwarelieferanten für das Unternehmen sind, damit diese nicht bei der Bereinigung der Plattformen ausgeschlossen werden. Gartner-Analyst John Phelps empfiehlt Anwenderfirmen auf dem Weg zu Utility Computing, sich Gedanken über Standards zu machen: "Definieren Sie für Ihr Haus Standards auf den Gebieten Datenbanken-Management-System, Applikations-Schnittstelle, Programmiersprache und Middleware." Viele Unternehmen versinken in einem Wust an unterschiedlichen Directories, Daten-Repositories und ausufernden Web-Servern. Die Ursache dafür ist oft, dass Abteilungen Projekte initiieren und unternehmensweite Standards fehlen. Die Bereinigung im Software- und Hardwareportfolio erhöht nicht nur die Effizienz von System-Management, sie reduziert auch die Komplexität der Umgebung.

Empfehlenswert ist nach Expertenmeinung auch der Einsatz von Werkzeugen für die Vereinheitlichung immer wiederkehrender Prozesse. Mit Hilfe eines Identifizierungs-Managements etwa können IT-Manager Sicherheitsprofile über unterschiedliche Anwendungen hinweg definieren und befreien sich so von Routineaufgaben wie der manuellen Änderung von Passwörtern. Sollen bestehende Installationen nicht angefasst, aber dennoch vereinfacht werden, dann helfen Tools zur Informationsintegration. Sie stellen eine Art Abstraktionsschicht dar, mit der sich Datenelemente unabhängig von ihrem Format zu einem unternehmensweiten Ressourcenpool zusammenfassen lassen. Bei all dem raten Experten dazu, im Zuge von Utility Computing mit Anwendungsprogrammen und Infrastrukturen zu experimentieren, die zunächst nur eine Abteilung im Haus nutzt.

Das Rechenzentrum der Zukunft bildet letztendlich aber auch die Geschäftsziele und -prozesse ab und funktioniert nur, wenn IT- und Business-Abteilungen zusammenarbeiten. "Die IT-Abteilung wird fast zum Sozialarbeiter", erklärt Mary Johnston Turner, Vice President von Summit Strategies. IT-Manager müssten mit all den verschiedenen Fachabteilungen im Haus zusammenarbeiten und sie davon überzeugen, dass es für das Unternehmen wichtig ist, dass auch der kleinste Geschäftsprozess in einer gemeinsam benutzten Architektur abläuft. Dabei müssen sie demonstrieren, dass die Interessen der einzelnen Fachabteilungen gewahrt bleiben. (kk)