Arbeiten im virtualisierten Rechenzentrum

Sieben Herausforderungen für Admins

19.08.2014
Von Ennio  Carboni
Die Herausforderungen für Administratoren durch Virtualisierung und das Software-definierte Rechenzentrum sind groß und nicht nur technischer Natur. So lassen sich etwa Fehler in virtualisierten Rechenzentren schwerer finden und kaum zuordnen. Wie Sie die neuen Aufgaben in den Griff bekommen, beschreibt dieser Artikel.

1. Zusammen Fehler suchen, nicht den Schuldigen

Jede Kette ist nur so stark wie ihr schwächstes Glied, jede Datenverarbeitung nur so schnell wie der schmalste Engpass. Diesen Schwachpunkt in einem virtualisierten oder Software-definierten Rechenzentrum zu finden, ist schwer. Nur wenige Tools bieten durchgängige Transparenz in einem System - von der Perspektive der Endbenutzer bis zu den Backend-Systemen, die den Dienst bereitstellen. Überwacht man aber nur isolierte Silos, erkennt man immer nur die Symptome der Probleme am Rande beziehungsweise an der Grenze der Infrastruktur. Die Fehler lassen sich kaum zuordnen. Daher läuft es oft darauf hinaus, dass sich verschiedene Zuständigkeitsbereiche gegenseitig die Schuld an einem Fehler zuweisen, zum Beispiel Server- und Netzwerk-Admins. Ein Tool, das von der Endanwender-Perspektive bis hin zu den Spindeln einer Festplatte alles überwacht, liegt noch in weiter Ferne. So lange müssen IT-Teams es organisatorisch schaffen, an einem Strang zu ziehen und miteinander, nicht gegeneinander, an der Lösung zu arbeiten.

2. Richtig planen, nicht nur kaufen

Ein Netzwerk ist ein System aus vielen Komponenten. In einem guten Netzwerk spielen diese gut zusammen, in einem schlechten bremsen die einen Komponenten die anderen aus. Virtual Mobility beispielsweise, das Verschieben einer aktiven virtuellen Maschine von einem Datastore auf einen anderen, hat viele Vorteile, kann aber Bandbreite kosten.

Virtualisierung und Software-definierte Rechenzentren stellen Administratoren vor etliche Herausforderungen.
Virtualisierung und Software-definierte Rechenzentren stellen Administratoren vor etliche Herausforderungen.
Foto: Adrian Novak - Fotolia.com

Ebenso ist zu befürchten, dass Speichersysteme ins Hintertreffen geraten, wenn Rechenprozesse und Netzwerke stärker Software-definiert und flexibler werden. Technologien für die geografische Verschiebung von Workloads wie Metro vMotion und Storage vMotion reifen zunehmend und werden von immer mehr Unternehmen eingeführt. Der schnelle Workload-Transfer kann neue Probleme für das Unternehmensnetzwerk mit sich bringen. Es ist eben nicht mit der Anschaffung großartiger neuer Technik getan. Vielmehr erfordert das moderne Rechenzentrum Menschen, die genau planen können und zielgerichtet in Technologien investieren. Nur so können sie sicherstellen, dass Systeme der Mobilität gerecht werden, die durch Server-Virtualisierung und Software-definiertes Networking möglich wird.

3. Dazulernen, nicht nur abarbeiten

Es scheint, als müssten IT-Experten Virtualisierung in allen Ausprägungen und Formen durchdringen, um dann deren spezielle Bedeutung innerhalb der IT zu verstehen. Dazu sollten Unternehmen Schulungen anbieten, die über das Aufgabengebiet des einzelnen Administrators hinausgehen. So können Unternehmen eine hohe Sicherheit und Stabilität im Netzwerk fördern. Solche Schulungen werden aber bisher selten angeboten. Das IT-Team ist in aller Regel mit zu vielen Dingen auf einmal beschäftigt und muss eine zu große Anzahl von Aufgaben zur Aufrechterhaltung des Geschäftsbetriebs bewältigen. Somit fehlt die Zeit, um an Schulungen zum Erwerb von Fähigkeiten, die über die Kernaufgabe hinausgehen, teilnehmen zu können.

4. Services hochverfügbar machen, nicht Menschen

99,999 Prozent - die fünf Neunen der Verfügbarkeit entsprechen einer Ausfallzeit von nur 5,26 Minuten pro Jahr. Nur sehr wenige Mitarbeiter im Büro wissen, was hinter der Buchse in der Wand alles passiert, um sicherzustellen, dass sie rund um die Uhr auf Facebook oder Pinterest posten können. Sie haben sich daran gewöhnt, dass das Netzwerk wie elektrischer Strom stets verfügbar ist. Die IT-Mitarbeiter tragen die Hauptlast dieser Herausforderung. Sie sorgen für diese hohe "Uptime". Das Tragische: Manche scheuen sich schon vor ihrer eigenen "Downtime". Aber IT-Experten müssen nachts, am Wochenende und in der Urlaubszeit abschalten dürfen. Nicht die technische Seite der Upgrades von Programmen, die manchmal zu Wochenendeinsätzen führen, ist das Problem. Die wirklichen Probleme tauchen erst auf, wenn Benutzer anfangen, mit diesen aktualisierten Programmen zu arbeiten. Denn dann kommen die Support-Anrufe. Dies wird sich nie ändern lassen - und dennoch ist es die wichtigste Aufgabe von IT-Managern, ihre Mitarbeiter zu schützen. Sie müssen sie dabei unterstützen, Beruf und Privatleben zu vereinbaren, um einen Burnout zu vermeiden.

5. Das Wichtige in einer Konsole vereinen, nicht alles und jedes

Es ist der Traum jedes Admins: eine Oberfläche, von der aus sich alles steuern lässt. Diese Idee existiert seit vielen Jahren und wurde bis zum Überdruss vermarktet und verkauft. Dennoch: Sie ist eine Chimäre. Niemand besitzt eine solche Konsole. Solange Startups ständig Neuerungen hervorbringen, die unser Leben einfacher machen, werden wir bis in alle Ewigkeit umsonst darauf warten. Zwar kann jeder IT-Verantwortliche eine Konsole finden und konfigurieren, mit der er den größten Teil der Aufgaben von einer Benutzeroberfläche aus abdecken kann, aber IT-Profis müssen sich damit abfinden: Wer sehr spezielle oder neue Technologie oder Hardware nutzt, wird immer auch spezielle Tools für bestimmte Tätigkeiten im Laufe des Arbeitstags benötigen.

6. Flexibilität vorantreiben, nicht übertreiben

Die meisten Fehler in der Unternehmens-IT haben eine einfache Ursache: eine Änderung. Daher überwachen die Teams, die für die Applikationen zuständig sind, ihre geschäftskritischen Anwendungen mit Argusaugen. Jegliche Veränderung muss genauestens geprüft und vorab getestet werden. Aber zu den schönen Seiten von Virtualisierung und Automatisierung gehört es gerade, dass sich mit ihnen schnell und unkompliziert neue Systeme erstellen lassen. Genauso leicht können Änderungen an bestehenden Systemen oder sogar an Clustern von Systemen und Anwendungs-Stacks vorgenommen werden. Wie passt das zusammen? Gar nicht. Hier prallen Kulturen aufeinander. Die zuständigen Teams müssen Wege finden, die Leistungsfähigkeit und Flexibilität der Virtualisierung zu nutzen, ohne Instabilität in kritischen virtualisierten Anwendungen zu riskieren - eine große Herausforderung.

7. Koordinieren, nicht nur virtualisieren

Netzwerk, Speichersysteme, Anwendungen und Rechenprozesse - diese vielfältigen Aufgabenbereiche treffen sich mittlerweile auf der Virtualisierungsschicht. Server-Virtualisierung ist die mit Abstand ausgereifteste Komponente eines Software-definierten Rechenzentrums. Die nächste Herausforderung wird darin bestehen, über die Grenzen der Rechenprozesse hinauszublicken. Es gilt herauszufinden, wie sich unterschiedlich reife Technologiebereiche am besten koordinieren lassen. Das Tempo der Veränderungen in diesen eng miteinander verbundenen Techniken nimmt ständig zu. Daher werden diejenigen IT-Experten, die die Virtualisierungsschicht managen, zunehmend als die koordinierende Stelle fungieren: Sie halten andere Teams auf Kurs.

Fazit

Diese sieben Aspekte zeigen: Die Herausforderungen für IT-Profis durch Virtualisierung und das Software-definierte Rechenzentrum sind gewaltig und keineswegs nur technischer Natur. Fehler in Software-definierten Netzwerken zu suchen, ist deutlich komplexer als in klassischen Netzwerken. Anwender werden von ihren Netzwerkmanagern und Systemadministratoren jedoch weiterhin erwarten, dass sie jegliche Probleme schnell eingrenzen und lösen. Die IT-Mitarbeiter an vorderster Front sind mit der Erwartungshaltung konfrontiert, dass sie jederzeit zur Verfügung stehen müssten, um unzufriedenen Benutzer zu helfen. Diese Herausforderung wird keine Technologie meistern können. Sie ist vielmehr eine Entwicklungsaufgabe für den einzelnen Mitarbeiter und eine Führungsaufgabe sowohl des IT- als auch des Topmanagements. (wh)