Ratgeber Server-Verwaltung

6 Tipps gegen den Server-Wildwuchs

16.08.2011 von Dirk  Schiller
Lesen Sie wie Unternehmen heterogene Server-, Storage- und Netzwerk-Systeme in den Griff bekommen und die Vorteile der Virtualisierung nutzen können.

In vielen Firmen herrschen „wilde“ Zustände - zumindest was ihre IT-Infrastrukturen betrifft. Netzwerkkomponenten, Server und Clients werden von unterschiedlichen Herstellern gekauft. Altsysteme existieren neben neuen weiter. Für jede Anwendung wird zeitaufwändig ein dedizierter Server angelegt, oftmals stark überdimensioniert. Die Serveranzahl in den Rechenzentren (RZ) steigt, während ihre Auslastung sinkt.

Derartige heterogene Serverlandschaften verhindern die optimale Ausnutzung von Ressourcen. Zudem sind sie kaum kontrollierbar, die Struktur ist fehleranfällig und arbeitsintensiv. Sie führt zu erheblichem Administrations- und Personalaufwand und somit zu Kosten. Denn jeder Server muss individuell gewartet werden und verlangt nach eigenen Sicherheits- und Disaster-Recovery-Konzepten. Administratoren sind damit beschäftigt, die Serverlandschaft am Leben zu erhalten, statt sich höheren Aufgaben zu widmen; eine Verschwendung von Personalressourcen, komplettiert durch die Vergeudung von Platz und Energie.

Reaktionen nur zeitverzögert möglich

Oftmals verfügen Administratoren nicht über das nötige Hintergrundwissen zu allen Servern, weil sie an deren Installation nicht beteiligt waren. Sie halten die Server am laufen, aber Zeit für genaue Analysen oder Verbesserungen bleibt ihnen nicht. Das Risiko, dass nach dem Austausch eines physischen Servers einzelne Funktionen ausfallen – oder gar komplette Geschäftsabläufe brachliegen – ist so groß, dass ein Austausch nur dann erfolgt, wenn ein Gerät ausgefallen ist. Doch auch dann geschieht dies nicht im Sinne einer homogenen Serverlandschaft zum Wohl des gesamten IT-Betriebs.

Auf neue Geschäftsanforderungen können Administratoren nur mit zeitraubenden Beschaffungs- und Implementierungszeiten reagieren. Tritt ein Problem auf, ist die schnelle Behebung schwierig (oder sogar unmöglich) und zudem zeitraubend, wenn die Systeme an weit entfernten Orten stehen. Doch auch ein Serverproblem vor Ort ist schwerwiegend, wenn die Hard- und Software des Systems nicht in einem Servermanagementsystem hinterlegt sind. Dann muss der Administrator die einzelnen Systemkomponenten aufwändig ermitteln und das Gerät auf Schwachstellen und Fehler analysieren.

Tipp 1: Der Weg aus dem Chaos – IST-Analyse und Systemabhängigkeiten

Eine IST-Analyse der aktuellen Situation der IT- und Serverinfrastruktur sowie der Systemabhängigkeiten untereinander ist der erste Schritt, um der Lage Herr zu werden. Ziel ist es, eine homogene Landschaft zu schaffen, vorhandene Serverressourcen besser auszulasten und Kosten zu sparen. Virtualisierung ist der Schlüssel hierzu. Denn virtualisierte Serverlandschaften bieten zahlreiche Vorteile: allen voran die bessere Auslastung vorhandener Serverressourcen. Denn die Entkoppelung von physischen Systemen macht flexibler. Des Weiteren locken niedrigere Hardwarekosten, geringere Ausgaben für Raum und Strom sowie reduzierte Kühlungsanforderungen. Auf veränderte Geschäftsanforderungen kann, anders als in physischen Serverlandschaften, eine sofortige Reaktion folgen – ohne zusätzliche Hardwarekosten.

Die größten Irrtümer bei der Server-Konsolidierung
Irrtum1:
Am Ende sollten möglichst wenige und möglichst große Server im Data Center stehen
Irrtum 3:
Server-Konsolidierung bedeutet, auf einen einzigen Hersteller zu setzen
Irrtum 4:
Alle Workloads lassen sich gleichermaßen virtualisieren
Irrtum 5:
Server-Konsolidierung reduziert die Total Costs of Ownership (TCO) drastisch
Irrtum 6:
Konsolidierte und virtualisierte Server arbeiten genauso wie vorher, nur eben auf weniger physischen Rechnern
Irrtum 7:
Hat man die Server konsolidiert, ist die Arbeit getan<br /><br />Bild: Mareen Friedrich/Fotolia.com

Administratoren müssen festlegen, welche Server und Applikationen für die Virtualisierung in Frage kommen und welche Ressourcen diese in einer virtualisierten Umgebung erfordern. Langzeittrends lassen Prognosen über zu erwartende Lastspitzen zu und ermöglichen so eine bedarfsgerechte Ressourcenplanung.

Tipp 2: Standardisierung vor Virtualisierung

Servervirtualisierung ist kein Garant für Homogenität. Um nicht in eine Verwaltungsfalle zu tappen, müssen Unternehmen vorher ihre Serverlandschaft standardisieren. Denn die Virtualisierung an sich verringert weder automatisch die Systemanzahl, noch löst sie das Problem der Heterogenität. Zwar sind die Server nach der Virtualisierung nur noch logisch vorhanden, wird aber die Menge und Unterschiedlichkeit der Systeme vorher nicht reduziert, gehen Virtualisierungsvorteile verloren und die Virtualisierungsschicht ist nicht effizient verwaltbar. Ein wichtiger Schritt, um die Heterogenität der Serverlandschaft zu überwinden, ist die Standardisierung, denn erst mit ihrer Hilfe können Routinebetriebsaufgaben automatisiert werden.

Tipp 3: Klare Regeln für virtuelle Maschinen und das Servermanagement

Zunächst scheint Virtualisierung geringe Auswirkungen auf das Systemmanagement zu haben. Denn im selben RZ laufen die gleichen Applikationen wie zuvor, nur auf einem anderen Gerät. Doch bei genauerem Hinsehen zeigen sich die Folgen für das gesamte Management. Fast alle Bereiche der Serververwaltung sind betroffen: Die Beschaffung und das Aufsetzen der Server, die Migration und Überwachung sowie die Laufzeitoptimierung und das Disaster-Recovery-Management.

Die besten Tools für Server
Software und Utilities für Server
Mit großem Zeitaufwand müssen Unternehmen für einen reibungslosen Betrieb der Server-Systeme sorgen. Mit den richtigen Tools können sie die Server-Verwaltung vereinfachen und zusätzliche Funktionen nutzen.
Disk2vhd
Mit dem kostenlosen Tool Disk2vhd aus den Microsoft Sysinternals können Sie über eine grafische Oberfläche per Mausklick ein Image von physischen Festplatten erstellen.
EventLog Inspector
Der EventLog Inspector erleichtert Administratoren den Umgang mit dem Ereignisprotokoll von Windows. Aufgelaufene Systemmeldungen der Clients lassen sich damit an zentraler Stelle sammeln und auswerten.
HWiNFO32
Das Tool informiert den Anwender detailliert über seine installierte Hardware und stellt sogar Benchmarks für Prozessor, Speicher und Festplatten zur Verfügung.
PowerGUI
Die Freeware PowerGUI von Quest ermöglicht das Zusammenstellen von PowerShell-Befehlen in einer übersichtlichen grafischen Oberfläche. Mit dem mitgelieferten Editor lassen sich darüber hinaus sehr effizient neue Skripts erstellen.
Prime95
Das kostenlose Stresstest-Tool Prime95 setzt die CPU und den Arbeitsspeicher in einem PC-System unter Volllast. Damit lassen sich Server, PCs und Notebooks sehr gut auf Dauerstabilität, ausreichende Kühlmaßnahmen und optimale BIOS-Einstellungen überprüfen.
ServerSentinel
Mit ServerSentinel lassen sich Server und andere Netzwerkressourcen automatisch und zuverlässig von zentraler Stelle aus überwachen. Treten Fehler oder Auffälligkeiten auf, informiert das kostenpflichtige Tool den Administrator zeitnah und erhöht so die Verfügbarkeit der IT-Infrastruktur.
WhoCrashed
Wenn Windows mit einem Bluescreen stehenbleibt, sind die Fehlermeldungen in der Regel nichtssagend - oder so kryptisch, dass die Ursache im Dunkeln bleibt. Deutlich bessere Chancen, das zugrunde liegende Problem zu lösen, bietet das in der Home Edition kostenlose Programm WhoCrashed.
WSUS Offline Update
WSUS Offline Update lädt alle vom Hersteller bereitgestellten Aktualisierungen für die Offline-Installation herunter und läuft auch unter Linux.
Cloudability
Bei Cloudability handelt es sich um einen Service, der Firmen adressiert, die die Kosten von Cloud-Diensten analysieren und stets im Blick behalten möchten.
Pingdom
Pingdom ist ein einfach gehaltenes, aber sehr nützliches Online-Tool für Web-Administratoren, die ihre Server und Websites professionell überwachen möchten. Es bietet neben den nötigen Features auch ein hohes Mass an Usability und Flexibilität. Dies macht das Tool sowohl für Einsteiger als auch für Profis attraktiv.
Chef
Chef zählt neben Puppet, Ansible und SaltStack zu den führenden IT-Automation-Systemen, die derzeit auf dem Markt verfügbar sind. Davon können vor allem größere IT-Organisationen profitieren, die die Verwaltung komplexer Systemlandschaften ohne Automatisierungstools kaum bewältigen könnten.

Durch Konsolidierung wie Virtualisierung nimmt die Komplexität des Systemmanagements ab. Die heterogenen Strukturen werden verschlankt, indem die Systeme voneinander entkoppelt und gemeinsam auf einem physischen Server betrieben werden. Ein zentralisiertes Serversystem ist entstanden, das Management und Support vereinfacht. Kapazitäten können effizient genutzt werden und Skalierbarkeit ist gegeben. Die Administratoren verwalten die virtualisierte Umgebung über die neu geschaffene Virtualisierungsebene. Durch die webbasierte Managementkonsole können sie das zentrale Serversystem von jedem PC an jedem Ort über weite Entfernungen überwachen und verwalten. Das vereinfachte Management schafft dann Freiräume für Administratoren, um sich strategischen Aufgaben wie der Analyse und Verbesserung widmen zu können.

Doch während sich die physischen Server durch Konsolidierung und Virtualisierung reduzieren, erhöht sich in Unternehmen oftmals die Anzahl der virtuellen Instanzen. Da virtuelle Maschinen (VM) schneller eingerichtet sind als physische, laufen Firmen Gefahr, irgendwann einen Wildwuchs an virtualisierten Systemen zu haben und nicht mehr zu wissen, welche von ihnen überhaupt noch gebraucht werden. Klare Regeln für die Bereitstellung neuer VMs sind zu definieren.

Tipp 4: Server-Kapazitätsplanung ist erfolgskritisch

Schafften Unternehmen früher neue physikalische Server, müssen sie in der neuen Umgebung analysieren, welche Ressourcen ein weiterer virtueller Server benötigt. Bei dieser Kapazitätsplanung helfen Analysewerkzeuge. Auch die Servereinrichtung verändert sich, denn die Virtualisierungstechnik sieht die Schaffung von Templates oder Imagepools vor, aus denen die individuellen Serverinstanzen abgeleitet werden. War die Laufzeitoptimierung bei physikalischen Servern eher unwichtig, weil diese immer Reserven für Lastspitzen hatten, so wird sie nun zum zentralen Aspekt. Denn gering ausgelastete virtuelle Server landen nun zusammen auf einem Host zwecks besserer Hardwareauslastung. Doch der verbleibende Host mit seinen Gästen kann Lastspitzen nur bedingt aufnehmen. Andererseits liefern virtuelle Systeme mit der Livemigration einer VM gänzlich neue Möglichkeiten zur Lastumverteilung.

Um einen Ausfall der Hostserver abzufedern, werden diese geclustert, was traditionelle Disaster-Recovery-Funktionen verändert. Auch in Sachen Backup ändert sich einiges. Denn wenn alle virtuellen Gäste gleichzeitig der Datensicherheit zugeführt würden, wäre der Host oft überlastet. Deshalb müssen Backups verteilt erfolgen. Das Energiemanagement umfasst nun Maßnahmen wie die temporäre Anpassung der Rechenleistung an den aktuellen Bedarf oder die Deaktivierung von Servern.

In virtualisierten Umgebungen ist eine lückenlose Überwachung in Echtzeit möglich. Administratoren können Risiken, die durch die Konzentration zentraler Applikationen auf wenigen physikalischen Servern entstehen, kontrollieren und schwerwiegende Folgen bei Ausfällen verhindern.

Tipp 5: Automatisierungs-Tools bündeln Server, Storage und Netzwerk

Viele der aktuellen integrierten Lösungen zur flexiblen Bereitstellung von Ressourcen, wie EMC VCE, HP Converged Infrastructure oder IBM Dynamic Infrastructure, beruhen auf einer Bündelung der drei Betriebsbereiche Server, Storage, Netzwerk. Da viele Unternehmen diese Bereiche jedoch trennen, passen viele der integrierten Plattformen nicht in deren bestehende Betriebsorganisation. Hier ist Automatisierung das Stichwort. Eine Automatisierungsschicht kümmert sich darum, die drei Bereiche durch Standardprozesse so zu steuern und zu bündeln, dass Virtualisierungslösungen einsetzbar sind. Eine „Out-of-the-Box“-Virtualisierung ist also nicht immer das Optimum, da sie nicht unbedingt zu jeder Betriebsorganisation passt.

Automatisierungstools überprüfen permanent alle virtualisierten Server auf Verfügbarkeit. Wird ein Grenzwert überschritten, informiert das System den Administrator. Auch um die Möglichkeiten von Private Clouds nutzen zu können und ein „Lizenzchaos“ zu vermeiden, sollten Unternehmen auf Automatisierung setzen. Denn Unternehmen verlieren oftmals den Überblick über ihre Lizenzen, die sie sowohl für die Virtualisierungslösung als auch für ihre Applikationen benötigen. Automatisierte Prozesse kümmern sich um den Lifecycle der Systeme. Nach Ablauf einer festgelegten Einsatzdauer wird das lizenzierte System entweder automatisch herunter gefahren oder die Administratoren erhalten automatisiert eine Mail, die auf die Lizenzfälligkeit hinweist. Besteht kein Lifecyclemanagement, kann das Ergebnis der Virtualisierung negativ ausfallen.

Tipp 6: Virtualisierung ist eine Strategie, kein Projekt!

Unternehmen müssen Virtualisierung als Strategie verstehen, nicht als einzelnes Projekt. Sie muss sich an den Geschäftszielen orientieren und auch ihre betriebspolitische Wirkung ist zu berücksichtigen. Mithilfe von Virtualisierung werden Ressourcen zusammengeführt, die im Unternehmen bisher von unterschiedlichen Verantwortungsbereichen abgedeckt wurden. Das bedeutet, dass die Zuständigkeiten zu klären sind. Auch Fragen zum Risiko- und Sicherheitsmanagement stellen sich neu. Virtualisierung ist demnach kein Allheilmittel. Sie kann und soll nur ein Baustein einer ganzheitlichen Optimierung der Infrastruktur sein.