Standardisierung

Grundlage für eine effiziente IT-Verwaltung

19.12.2008 von Johann Baumeister
Die Verwaltung der Rechnersysteme zählt seit Jahren zu den personalintensiven Bereichen beim IT-Einsatz. Dies resultiert nicht zuletzt aus der Vielfalt der eingesetzten Techniken, Produkte und Werkzeuge. Die Standardisierung auf weniger Varianten jedoch schafft Freiraum und erhöht gleichzeitig die Effizienz.

Untersuchungen haben bereits mehrfach ergeben, dass im Durchschnitt circa 80 Prozent der IT-Kosten auf die Aufrechterhaltung des laufenden Betriebs zu buchen sind. Damit verbleibt nur ein geringer Anteil für die Ausweitung des IT-Angebots für die Fachbereiche und der Neuentwicklung von Applikationen. Dies schränkt den Spielraum für neue Projekte ein. Gleichzeitig sind es aber die neuen Anwendungssysteme, die eine Differenzierung des eigenen Geschäftsbetriebs gegenüber den Wettbewerbern ermöglichen. Um eine Reduzierung der Kosten zu erreichen und damit Ressourcen für die Weiterentwicklung des Angebots gewinnen, gibt es mehrere Wege, wie etwa den Verzicht auf neue Hardware, auf Personal oder Applikationen. All diese Maßnahmen aber gehen in der Regel immer mit einer Senkung des IT-Angebots einher. Ist das allerdings nicht gewünscht, so müssen andere Wege zur Kostensenkung gefunden werden.

Möglichkeiten der Kostenreduktion

Welche Möglichkeiten zur Reduktion der Kosten bestehen, ohne den Servicelevel zu senken? Die Antwort darauf ist offensichtlich: in der Reduzierung der Komplexität und Vielfalt. Der hohe Aufwand zum Betrieb der Systeme heute resultiert nicht zuletzt aus ihrer Vielfalt und Komplexität. Dies wiederum erfordert ausgebildete Spezialisten für die einzelnen Bereiche. In den Unternehmen finden sich daher eigene Betreuungsgruppen für die unterschiedlichen Systeme. Dies sind beispielsweise die Administratoren zur Betreuung der Linux-Server, der Windows-Server, der Großrechner, der Verwaltung der Datenbanken, des Netzwerks oder der Benutzerverwaltung. Jedes eigene IT-Subsystem bringt heute seinen eigenen Konzepte, Verwaltungsverfahren und Werkzeuge zur Administration mit. Dies zeigt sich exemplarisch auch in einer recht jungen Disziplin der IT-Nutzung, der Verwaltung der Speichersysteme. Die Administration der Speichersysteme verlangt erneut nach ausgebildeten Spezialisten, so wie dies auch schon für die meisten anderen Bereiche der IT-Verwaltung gilt.

Um aber die Kosten zu senken, ohne das Angebot zu reduzieren, bleibt nur der Weg der Vereinheitlichung. Wenn es gelingt, zwei unterschiedliche Systeme auf eines zusammenzuführen, verringert sich der Verwaltungsaufwand enorm. Ausbildung, Tools und Verfahrensbeschreibungen werden nur noch für eines, statt bisher zwei unterschiedliche Systeme benötigt.

Vielfalt erschwert Verwaltung

Gleichzeitig, und das ist mindestens ebenso bedeutend, erschwert die Vielfalt der IT-Baugruppen die Verwaltung. Dies ist darin begründet, dass jedes der Systeme eigene Managementoberflächen und Herangehensweisen für die Verwaltung hat. Unterschiedliche Tools aber erhöhen den Verwaltungsaufwand und die Ausfallrate. Im Fehlerfall wird die Verantwortung für eine Störung nicht selten auf den jeweils anderen Bereich geschoben. Für den Anwender aber zählt schlussendlich immer nur die Verfügbarkeit des Dienstes. Für ihn macht es keinen Unterschied, ob der Applikationsserver, das Speichersubsystem, das Netzwerk oder der Client-Desktop die Ursache für eine Fehlfunktion ist. Eine Reduzierung auf weniger Komponenten mit gleichzeitiger Einschränkung der Vielfalt verringert gleichermaßen die Fehleranfälligkeit.

Die Vorteile einer Standardisierung sind enorm und betreffen nahezu alle Bereiche der IT. Das umfasst bereits die Planung für die Softwaresysteme, die Beschaffung und den Einsatz der Hardware, ferner die Betriebsphase mit dem Monitoring und Support. Bei einer Reduzierung der Vielfalt werden aber auch die Prozesse für den Einkauf, die Wartung, die Ersatzteilversorgung samt Reparatur und der Lagerhaltung übersichtlicher. Gleiches gilt für den gesamten Setupprozesse, das Rollout sowie die Schulungen der Administratoren und Servicetechniker.

Standardisierung bei der Planung und dem Design

Die Vorteile einer geringeren Vielfalt wirken sich bereits in den ersten Phasen eines geplanten Softwareeinsatzes aus. Falls eigenentwickelte Software zum Einsatz kommt, so reduziert sich durch die Standardisierung der Softwaresysteme auf weniger Varianten die Menge der zu pflegenden Codemodule, der Design- und Entwicklungswerkzeuge, der Testwerkzeuge, der Bibliotheken und aller weiteren Hilfsmittel, die bei der Softwarenentwicklung zum Einsatz kommen. Dabei vereinfachen sich die Prozesse zur Softwareerstellung. Es sind gleichzeitig weniger Applikations-Bibliotheken zu verwalten und der Aufwand für die Sourcecode-Pflege sinkt. Aber auch dann, wenn ein Unternehmen ausschließlich auf fremdentwickelte Produkte zurückgreift, werden in der Regel Adaptionen oder in jedem Fall Konfigurationen der Software notwendig. Diese müssen bereits vor dem eigentlichen Einsatz geplant und koordiniert werden.

Die gesamte Planung des IT-Einsatzes muss natürlich in Abstimmung mit der Hardware erfolgen, denn letztendlich bestehen Wechselwirkungen zwischen der Hardware und dem Betriebssystem mitsamt der Anwendungsoftware. Applikationen, die beispielweise eine 64-Bit-CPU und zentrales Speichersystem verlangen, sind eben nicht auf einem 32-Bit-Rechner mit DAS-Platten (Direct Attached Storage) zu betreiben. Gleichzeitig sollte die gewählte Plattform ausreichend Spielraum zur Skalierung besitzen, um auch für größere Einsatzszenarien gewappnet zu sein.

Die CPU - der Nukleus jeglicher Applikationen

Die Ausführung jeglicher Software passiert auf den Prozessoren. Durch sie wird bestimmt, welche Software auf einem Rechnersystem ausgeführt werden kann oder nicht. Für die Zukunftssicherheit ist daher die Wahl der CPU von entscheidender Bedeutung. Intel bietet beispielsweise mit dem Itanium einen Prozessor, der in dieser Hinsicht einen Standard darstellt und durch mehr als zehn Betriebssysteme unterstützt wird. Dies schließt mehr als 12.000 Applikationen, die speziell auf den Itanium ausgerichtet sind, ein. Auch hinsichtlich seines Leistungsvermögens lässt die CPU keine Wünsche offen.

Durch Dual-Core-Processing und der Ausführung mehrerer paralleler Prozesse mittels Hyper-Threading bringt jede CPU bereits die Möglichkeiten zu einer weitgehenden Skalierung mit. Aufgrund eines flexiblen Architekturdesigns lassen sich dabei Systeme mit 16, 32, 64 und sogar 128 Prozessorkernen aufbauen. Diese Rechnerboliden kommen mit bis zu zwei Terrabyte RAM zurecht. Rechnersysteme mit solch gewaltiger Rechenleistung weisen genügend Reserven für zukünftige Entwicklungen auf. Dies sorgt für Zukunftssicherheit und Verlässlichkeit. Die Grundlage dafür stellt eine 64 Bit Architektur dar, die ihrerseits viel Raum für Wachstum bietet.

Reduzierung der Softwarevielfalt

Einen positiven Einfluss hat die Wahl eines Softwarestandards auch auf den IT-Betrieb. Wird die Vielzahl der eingesetzten Softwaresysteme reduziert, so vereinfacht sich auch das Lizenzmanagement. Wenn beispielsweise statt sechs unterschiedlicher Editionen eines Datenbank-Managementsystems nur mehr vier zu verwalten sind, so sorgt das für eine schnellere Abwicklung. Gleichzeitig lassen sich Lizenzen besser nutzen und können in mehreren Szenarien zum Einsatz kommen. Dazu sind allerdings leistungsfähige und flexible Systeme notwendig. Volumenlizenzverträge sorgen außerdem für eine direkte Kostenersparnis.

Der Zwang zur Vereinheitlichung entsteht auch aufgrund gänzlich neuer Anforderungen. Die stärkere Ausrichtung an ITIL wird den Druck auf die Standardisierung ebenfalls erhöhen. Eine elementares Element der Rechnerverwaltung nach ITIL sind Baselines. Eine Baseline umfasst einen definierten Satz an Softwaresystemen samt ihrer Konfiguration. Die Baseline beschreibt somit einen Rechner und dessen Konfiguration. Die Definitionen nach ITIL und dessen Baseline wiederum stellen die Grundlage für eine vereinfachte und wenn möglich automatisierte Verwaltung der IT dar. Um nun nicht eben soviel Baselines wie Rechner aufbauen und pflegen zu müssen, bleibt nur der Weg der Vereinheitlichung.

Virtualisierung sorgt für Dynamik

Ähnlich verhält es sich beim Einsatz von Techniken zur Virtualisierung von Serversystemen. Die jüngsten Entwicklungen in diesem Bereich zielen auf vergleichbare Konzepte mit Baselines, wenngleich sie hierbei andere Namen tragen mögen. Die Servervirtualisierung der kommenden Jahre wird geprägt sein von einer weitaus höheren Dynamik, als sie heute noch anzutreffen ist. Vielmehr werden, unterstützt durch Automatismen und Skripte, Server bei Bedarf automatisch eingerichtet (provisioniert) und mit den geforderten Diensten versehen. Diese verlangt aber erneut nach Standards im Aufbau der Hard- und Softwaresysteme, denn nur dann ist eine größtmögliche Flexibilität beim Einsatz machbar.

Dies erreicht man durch den Einsatz von Blade-Systemen. Durch deren Vorteile aufgrund der gepackten Bauweise, den Formfaktor und der unterschiedlichen Modelle repräsentieren Blades kompakte Rechnersysteme mit geringstem Bedarf an Platz, Energie und Kühlung. Gleichzeitig sind die Blade-Systeme durch die Möglichkeiten der dynamischen Aktivierung für größtmögliche Flexibilität ausgelegt. Für HP stellen Blade-Rechner damit einen entscheidenden Schritt für zukunftsträchtige Rechnerarchitekturen dar. Hierzu liefert das Unternehmen einen integrierten Satz an Werkzeugen zur dynamischen Rechnerbereitstellung. Dieser umfassen all die Vorkehrungen zur schnellen und automatisierten Bereitstellung von IT-Diensten.

Durch den HP Capacity Advisor erfolgt dabei eine Lastanalyse der bestehenden Infrastruktur. Simulation und What-If-Szenarien ermöglichen eine optimale Anpassung der IT-Ressourcen an die erwartete Last. Unterstützend dazu übernimmt der HP Global Workload Manager (gWLM) die Lastverteilung. Er greift dabei auf die die Empfehlungen des HP Capacity Advisor zurück. Eine Voraussetzung für diese Dynamik in der Ressourcenzuweisung stellen austauschbare und standardisierte Rechnerbaugruppen, wie etwa die von Blade-Systemen, dar.

Standards helfen aber nicht nur beim Eigenbetrieb der IT-Infrastruktur. Bei der Hinwendung zum partiellen oder vollständigen Outsourcing werden sie gar zu einer unverzichtbaren Voraussetzung, denn wann immer Dienste durch Partner und nicht die eigenen Mitarbeitern erbracht werden sollen, so wird die Kostenersparnis immer mit dem Zwang zur Vereinheitlichung einher gehen.

Neben den Standards im Softwareeinsatz und der Erstellung gelten die Forderungen auch für die Hardwarekomponenten, also die Serversysteme die Racks und Bladeeinschübe, ferner die Stromversorgung, Speichersystem und Security Appliances. Die Vereinfachung in der Abwicklung und Verwaltung sorgt auch in diesen Segmenten für eine effizientere Verwaltung der IT-Baugruppen des Data Centers. Diese Vereinheitlichung steht im Schwerpunkt der kommenden Beiträge in diesen Berichtsreihe.

Fazit

Die IT-Systeme der Zukunft werden mit Sicherheit komplexer. Um diese zunehmende Komplexität nicht auf den Rücken der Anwender oder Administratoren auszutragen, müssen die Systeme mit mehr Eigenintelligenz ausgestattet sein. Diese verlangt nach mehr Dynamik und Automatismen, die ihrerseits wiederum nur durch den Rückgriff auf Standards zu bewerkstelligen ist. Die Standardisierung der Hardwarekomponenten kann so die wachsende Komplexität der Softwaresysteme in den oberen Systemschichten kompensieren. Eine zukunftsträchtige Prozessor- und Board-Architektur, wie sie beispielweise bei Blade-Systemen zu finden ist, stellt dabei einen unverzichtbaren Bausteine dar.