Moderne Rechenzentren stellen IT-Verantwortliche vor große Herausforderungen: Einerseits müssen sie extrem belastbare und hochverfügbare Systeme bereitstellen. Andererseits sollen die Prozesse so flexibel sein, dass sie sich schnell an veränderte Geschäftsanforderungen anpassen lassen. Die derzeit favorisierte Lösung liegt hier im Einsatz von virtualisierten Systemen. Damit können Unternehmen viele Aktualisierungen bereits im laufenden Betrieb vornehmen. Doch sobald Anzahl und Komplexität der zu verwaltenden Einheiten steigen, werden Abläufe nach einiger Zeit nur noch unzureichend dokumentiert und sind daher schlecht nachvollziehbar. Die gespeicherten Informationen zum Betrieb der Infrastruktur befinden sich häufig nicht mehr auf dem aktuellen Stand und sind zunehmend auf verschiedene Orte verteilt. Dadurch wird das manuelle Management äußerst fehleranfällig. Zudem fehlt der Überblick über den aktuellen Status der Serviceprozesse und die Systemressourcen lassen sich nicht optimal nutzen.
Mit Hilfe eines umfassenden Managementsystems können Administratoren die virtuellen Maschinen zentral und übersichtlich verwalten. Auf diese Weise wird die Last automatisch intelligent verteilt, sodass die Gesamtkapazität des Data Center reduziert werden kann. Dabei werden auch virtuelle Maschinen über physische Systemgrenzen hinweg verschoben. Erforderlich sind dazu eine einheitliche Bedienoberfläche für virtuelle und physische Systeme, die automatische Bereitstellung kompletter IT-Services und eine selbstständige Anpassung der Klimatisierung. Zudem müssen Automatisierungslösungen die im Unternehmen vorhandenen Technologien so kombinieren und ansteuern, dass sie sich auf die Geschäftsanforderungen des Unternehmens abstimmen lassen und trotzdem in einem vielschichtigen Rechenzentrumsumfeld praxistauglich sind.
Teaserbild Homepage: Elgris/Fotolia.com
Warum RZ-Automatisierung?
In einem typischen Rechenzentrum verursachen Konfigurations- und Änderungsprozesse über 60 Prozent der Betriebskosten. Entsprechend lohnt es sich, wichtige IT-Prozesse in der physischen und virtuellen Infrastruktur des Rechenzentrums zu konsolidieren und zu automatisieren. Dies reduziert die Fehleranfälligkeit, vereinfacht die Servicekonfiguration und erhöht die IT-Verfügbarkeit. So kann das Unternehmen deutlich flexibler auf neue Geschäftsanforderungen reagieren und Services schneller bereitstellen. Außerdem wird dadurch mehr Zeit für strategische Projekte wie den Aufbau eines eigenen Cloud-Computing-Angebots geschaffen.
Die Möglichkeit, IT-Prozesse systematisch zu überwachen und zu optimieren, sowie die transparente Verwaltung heterogener Systemlandschaften, helfen auch bei der Priorisierung der Kapazitäten. Gleichzeitig können Unternehmen die Kosten für das Rechenzentrum nutzungsabhängig zuweisen. Außerdem fördert eine optimale Auslastung den schonenden Umgang mit natürlichen Ressourcen durch geringeren Hardware-Bedarf sowie die Energieeffizienz bei Stromverbrauch und Klimatisierung.
Einsatzbereiche von Automatisierungs-Tools
Die automatische und toolgestützte Ausführung von Betriebsabläufen kommt überall dort zum Einsatz, wo entweder der Betrieb der IT-Infrastruktur komplex ist oder häufig wiederkehrende Aufgaben zu erledigen sind. Dazu gehören zum Beispiel die regelmäßige Behebung bekannter Probleme sowie routinemäßige Prüfungen von Umgebungen, etwa bei der allmorgendlichen Funktionskontrolle. Die manuelle Abarbeitung ist hier nicht nur fehleranfällig, sondern auch zeitaufwändig und kostenintensiv.
Aber auch seltene Ereignisse wie ein kontrolliertes Herunterfahren und Neustarten von Systemen im Katastrophenfall, zu Testzwecken oder bei Stromabschaltungen lassen sich gut automatisieren. IT-Administratoren können so schnell reagieren, ohne lange nach einer selten verwendeten Dokumentation suchen zu müssen. Auch IT-Mitarbeiter im Bereitschaftsdienst, die sonst nicht die erforderliche Autorisierung oder Qualifizierung besitzen, können diese selbstständig durchführen. Gleiches gilt für das Servicedesk, hier lassen sich ebenfalls viele Abläufe automatisieren, wenn diese in einer Wissensdatenbank für bekannte Fehlerfälle hinterlegt sind. Dies erhöht die Service-Qualität und beschleunigt die Behebung von Störungen.
Eine weitere Herausforderung stellt die schnelle Bereitstellung von Systemen und Diensten dar. Sollen diese bereichs- oder datenbankübergreifend verfügbar sein, dauert dies unter Umständen mehrere Wochen. So betrifft die Inbetriebnahme eines Servers in der Regel die Bereiche Netzwerk, Firewall, Betriebssystem- und Applikationsbetreuung sowie Speicherverwaltung. An den Schnittstellen kommt es oft zu Brüchen, so dass hier der Auftrag nicht genau definiert ist. Eine bereichsübergreifende Prozess-Automatisierung löst das Problem.
Einschlägige RZ-Tools werden hauptsächlich zur Abbildung von Prozessen und Arbeitsschritten genutzt, so dass diese automatisiert mit hoher Qualität und Geschwindigkeit durchgeführt werden. Dies geschieht entweder halbautomatisch, mit dem manuellen Start eines definierten Ablaufs, oder vollautomatisch. Die Prozesse werden dann von Fremdsystemen gestartet.
Vorbereitung des Tool-Einsatzes
Im Administrationsalltag ist die erste Stufe der Automatisierung in der Regel die Entwicklung von Skripten. Doch bei manuellen Einzelaktionen gibt es meist keine zentrale Ablage, sie sind selten system- und praktisch nie abteilungsübergreifend. Zudem werden sie kaum protokolliert und dokumentiert oder mit einer Rechtestruktur versehen. Um dieses Vorgehen zu strukturieren, sollten Unternehmen sämtliche Abläufe im Rechenzentrum übersichtlich darstellen, inklusive Dokumentation und geeignetem Rechtekonzept. Anschließend sind mit Hilfe eines effizienten Automatisierungstools regelmäßige Prozesse sowie seltene Aufgaben abzubilden. An dieser Stelle lassen sich auch vollständige Betriebshandbücher direkt im Tool integrieren. Wichtig ist dabei, dass die Prozesse im Vorfeld der Implementierung in einer Automatisierungslösung sauber aufgenommen und gegebenenfalls optimiert sowie dokumentiert werden. Erst diese Vorarbeit erlaubt eine qualitativ hochwertige Umsetzung in einem Tool.
Was Data-Center-Tools leisten
Die verschiedenen Automatisierungslösungen bieten zu rund 90 Prozent identische oder ähnliche Basisfunktionen. Hierzu zählen: eine grafische Oberfläche zur Erstellung und Konfiguration der Workflows, eine übersichtliche Darstellung von Prozessen, den Export von Dokumentationen nach HTML oder PDF, detaillierte Protokollierung, Versionierung von Abläufen, Debuggingfunktionen sowie diverse Schnittstellen. Die Tools können einzelne Abläufe ineinander verschachteln, Variablen verarbeiten, Kommando- oder Datenbank-Abfragerückgaben parsen, Ausgaben erzeugen, den Anwender nach Parametern fragen, Listen abarbeiten, Logik abbilden sowie von einer Umgebung in die andere übertragen. Dabei ist eine gleichzeitige Ausführung von Abläufen möglich. Die Prozesse können auch von Fremdsystemen gesteuert, protokolliert sowie von Nutzern mit niedrigen Berechtigungen ausgeführt oder an andere Nutzer übergeben werden.
Moderne Automatisierungswerkzeuge unterstützen bewährte Steuerungs- und Qualitätssicherungsmethoden wie Information Technology Infrastructure Library (ITIL), Control Objectives for Information and Related Technology (CobiT) und Six Sigma. Sie sorgen für geschlossene Prozesse im gesamten Servicelebenszyklus, warnen rechtzeitig bei Compliance-Verstößen und gewährleisten die Einhaltung von IT- und Geschäftsrichtlinien. Zudem werden Störungen im laufenden Betrieb durch eine konsequente Überwachung aller IT-Prozesse frühzeitig erkannt und die Services mit einer auf die Unternehmensabläufe angepassten Automatisierung schnell wiederhergestellt.
Das richtige Tool finden
Da sich die Lösungen der verschiedenen Anbieter zu einem großen Teil gleichen, sollten Unternehmen weitere Aspekte berücksichtigen, darunter die Bedienbarkeit, die Architektur, die Leistungsfähigkeit bei der Workflow-Erstellung, die einfache Umsetzung von Anforderungen, die Lösungsstrategie und vor allem die bereitgestellten Schnittstellen. Ausschlaggebend sind daneben auch die Analyse von Testfällen sowie eine individuelle Bewertung durch die zuständigen Mitarbeiter.
Viele der gängigen Automatisierungstools wurden ursprünglich von kleinen Softwareherstellern entwickelt und auf den Markt gebracht. Gerade in den vergangenen Jahren haben viele größere Hersteller diese leistungsstarken Lösungen übernommen, da sie die Bedeutung der Automatisierungs- und Orchestrierungslösungen für das Systemmanagement erkannt haben. Die am weitesten verbreiteten Lösungen sind:
Hersteller |
Name |
Vormals |
Attachmate |
Aegis |
NetIQ |
BMC |
Atrium Orchestrator |
BMC Runbook Automation, vorher Realops |
CA Technologies |
CA Process Automation |
Optimuity |
Cisco |
Tidal Enterprise Orchestrator |
Tidal |
EMC |
VMware vCenter Orchestrator |
Dunes |
HP |
Operations Orchestration |
Opsware |
Microsoft |
Opalis |
Opalis |
Symantec |
Workflow Solution |
Altiris |
UC4 |
Workflow / Decision |
Lösungen von Senective & Appworks integriert |
Die Tools unterscheiden sich in den folgenden Bereichen:
-
Anzahl der Schnittstellen mit Fremdsystemen, also Betriebssystemen, Protokollen (WMI, ssh, SOAP, etc.) oder Applikationen (Datenbanken, Systemmanagementlösungen, etc.)
-
Anzahl und Qualität von vorgefertigten Abläufen
-
Architektur (Lastverteilung, Skalierbarkeit, Anbindung von DMZ oder entfernten Standorten, Ausfallsicherheit, etc.)
-
Konzeptionierung von Berechtigungen (granular oder rudimentär)
-
Versionierung von Abläufen, so dass sich Änderungen jederzeit nachvollziehen und wieder rückgängig machen lassen
-
Exportfunktion zur Dokumentation der erstellten Abläufe. Manche Lösungen stellen einen Export zur Verfügung, der als Betriebshandbuch genutzt werden kann
-
Umfang der Workflow-Erstellung (Input / Outputmöglichkeiten, Variablenverarbeitung, Verarbeitung von Systemmeldungen / Ausgaben, Weitergabe von Parametern, Verzweigungsmöglichkeiten, logische Elemente, Wiederverwendbarkeit von Workflows, Verschachtelung, etc.)
-
Debuggingfunktion
-
Detaillierte Protokollierung der ausgeführten Aktionen
-
Mehrsprachigkeit
-
Leistungsfähigkeit des Berichtswesen
-
Unterstützung von Virtualisierungs- / Cloud-Technologien, wie VMware, HyperV, Amazon EC2
-
Preisgestaltung
Kriterien für die Tool-Auswahl
Kernkriterien für die Auswahl der richtigen Automatisierungs-Lösung sind die Leistungsfähigkeit bei der Workflowerstellung, die Architektur sowie Anzahl und Qualität der unterstützten Schnittstellen. Entsprechend müssen IT-Experten die unternehmenseigene Infrastruktur berücksichtigen und die Anforderungen angemessen gewichten. Dabei sollten sie eine klar strukturierte Vorgehensweise wählen sowie im Vorfeld klären, wie gut die bestehenden Prozesse und Arbeitsabläufe dokumentiert sind. Zudem müssen sie bei übergreifenden Prozessabbildungen alle involvierten Abteilungen früh einbeziehen.
Bei der Auswahl sollten IT-Entscheider folgende Einzelschritte gehen und jeweils umfassend dokumentieren:
-
Erstellung eines gewichteten, aussagekräftigen Kriterienkataloges. Dabei ist es wichtig, vor allem Kriterien in Merkmalen zu definieren, in denen sich die verschiedenen Lösungen unterscheiden.
-
Auswertung der Herstellerangaben und Einschränkung auf drei bis vier Anbieter
-
Erstellung von Testszenarien
-
Durchführung der Testszenarien mit Bewertung durch fachlich versierte Mitarbeiter (objektive Bewertung, subjektive Bewertung, Kommentierung, einheitliche Teilnehmer)
-
Auswertung der Testfälle
-
Eventuell ausgedehnte Testphase über mehrere Wochen mit dem präferierten Produkt
-
Vergleich der Preise und Preisverhandlungen
-
Entscheidung
Die Vorteile dieses strukturierten Vorgehens liegen darin, dass der Entscheidungsweg dokumentiert ist, jederzeit belegt werden kann und durch die Praxistests Stärken und Schwächen der Lösungen optimal aufgezeigt werden. Da es sich bei der Implementierung der Lösungen um nicht unerhebliche Investitionen handelt, ist die sorgfältige Auswahl eines Tools unerlässlich.
Fazit
Automatisierungs-Tools für das Data Center bieten vor allem bei Routineaufgaben oder selten genutzten Prozessen wertvolle Vorteile. Da sie sich in vielen Funktionen ähneln, stellen Bedienung, verfügbare Schnittstellen und einfache Integration in die Unternehmensstruktur die signifikanten Entscheidungskriterien dar. Bei der Auswahl des richtigen Tools stehen auch externe Dienstleister zur Verfügung, die durch eine strukturierte und erprobte Methodik bei der Evaluierung der geeigneten Lösungen unterstützen. (wh)