Data Center Transformation

Vom Rechenzentrum zum Katalysator für Geschäftsprozesse

27.11.2008
Das Rechenzentrum erlebt angesichts der Rezentralisierung der IT-Dienste eine Renaissance. Gleichzeitig steht es enormen Veränderungen gegenüber. Durch die Ausweitung der IT in immer neue Geschäftsfelder ändern sich der Nutzerkreis, die Servicezeiten und auch die angebotenen Dienste. Um diese rapiden Änderungen stemmen zu können, müssen neue Techniken und Verfahren herangezogen werden.

Die Rechenzentren der Anfangsjahre waren in ihrem Einsatzspektrum relativ stark fokussiert. Die Aufgaben dieser Rechnerboliden bestanden meist darin, große Mengen an gleichförmigen Daten schnell zu bearbeiten. Ein typisches Beispiel dafür sind Kontenbewegungen einer Bank. Die Aufgaben sind einfach, die Menge ist das Problem. Die Computer der Anfangsjahre waren daher besonders auf relativ einfache Rechenoperationen mit meist großem Datenvolumen getrimmt.

Klassische Rechenzentren operierten in bekannter Umgebung

Diese Rechenzentren operieren dabei in einer Umgebung, die wenig Überraschungen bietet. Alle entscheidenden Faktoren, die den Betrieb des Rechenzentrums beeinflussen, sind dabei bekannt und planbar: Der Kreis der Benutzer, die tagsüber in der Dialogverarbeitung Rechenleistung abfordern, ist relativ konstant und in jeden Fall bekannt. In der Regel sind dies die internen Mitarbeiter des Unternehmens oder jene Nutzer, die über Satellitensysteme angeschlossen sind. Gleiches gilt für die Last der nächtlichen Batchläufe. Die eingesetzte Software wiederum wird im eigenen Auftrag entwickelt oder angepasst.

In der Summe lässt sich somit feststellen, dass alle Kriterien dieses IT-Einsatzes, der Nutzer und ihr Lastverhalten, als auch die Applikationen bekannt und unter eigener Kontrolle stehen. Engpässe oder Fehlentwicklungen lassen sich somit beheben oder zumindest verbessern.

Das Rechenzentrum der Zukunft

Bei den Anforderungen der Gegenwart und vor allem der Zukunft an die Rechenzentren sind nahezu alle hier betrachteten Aspekte diametrial anders ausgerichtet. Dies gilt zumindest unter der Maßgabe, dass sich die Unternehmen nicht nach außen abschotten. Durch die Kooperation mit Partnerunternehmen, dem 7/24-Stundenbetrieb, der Just-In-Time-Produktion bzw. der Just-In-Time-Lieferung und insbesondere der Öffnung der IT-Dienste hin zum Internet ist die Menge und Zusammensetzung der angeforderten IT-Leistung kaum mehr planbar.

Hinzu kommt die Forderung der Benutzer nach besserer Unterstützung, der sich beständig ändernden Geschäftsprozesse. Wie rapide sich Prozesse verändern, zeigen die Entwicklung und Umwälzungen dieser Tage beispielsweise in der Finanzwelt überdeutlich auf. Am 27.10.2008, just während der Autor an diesem Beitrag arbeitete, verzeichnete die Aktie der VW teilweise ein Puls von über 150 Prozent. Innerhalt von zwei Tagen wurde 400 Prozent erreicht. Dies ist der höchste Tagesanstieg, der jemals an der Börse ermittelt wurde. Das Transaktionsvolumen für Kauforders steigt dabei sprunghaft an, um dann wieder in Verkäufe umzuschlagen, wie auch die Kurse. Unschwer vorzustellen ist, was das von der dahinter liegende IT abverlangt.

Somit subsumieren sich all diese veränderten Rahmendaten, die heute an die Rechenzentren gestellt werden, in einem Mehr an Flexibilität in der Bereitstellung der IT-Dienste.

Geänderte Rahmendaten verlangen nach mehr Flexibilität.Um die sich ständig verändernde Last zu bewerkstelligen, müssen die Systeme in Zukunft weitaus dynamischer agieren, als dies heute meist der Fall ist, denn extreme Schwankungen im Bedarf der Rechen- oder Netzleistung erfordern ein hohes Maß an Flexibilität in der Bereitstellung der Dienste. Diese müssen gleichzeitig hochverfügbar und gegen Angriffe abgesichert sein.

Proprietäre Legacy Systeme, deren Entwicklungsursprung 20 und mehr Jahre zurück liegt und die auf Lastschwankungen und die sich ändernden Marktbedingungen nicht angemessen und schnell genug reagieren können, müssen sich mit Nischenmärkten begnügen, bevor sie wohl endgültig abgelöst werden. Gleiches gilt heute in nahezu allen Fällen für die Öffnung der IT-Dienste gegenüber dem Internet. Dies wird zu einem unabdingbaren Faktor für zukünftige Anwendungen, erfordert aber auch eine Dynamik in der Bereitstellung der Services, wie sie bis dato nicht notwendig war. Durch die Anbindung der internen IT-Systeme an das Internet kann dabei, im Extremfall, jeder Internetnutzer zum Konsumenten der eigenen Rechenleistung werden, der Informationen einsehen oder Bestellungen tätigen möchte.

Die IT - ein Business Enabler

Gleichzeitig verlangen die Geschäftsbereiche eine bessere und vor allem schnellere Unterstützung der Geschäftsziele. Die IT wird damit zum Katalysator für die Geschäftserfolge der Unternehmen. Umgekehrt allerdings werden die zentralen IT-Dienste gleichzeitig zum limitierenden Faktor, wenn sie neue Geschäftsmodelle nicht oder nur verzögert unterstützt. Dieser extreme Bedarf für höhere Dynamik und Anpassungsfähigkeit geht einher mit einer permanenten Ausweitung der IT zu einem Mehr an Leistung und einer höheren Verfügbarkeit, die letztendlich in einer immerwährenden Verfügbarkeit mündet.

Um schneller auf Veränderungen des Marktes reagieren zu können, müssen daher die Rechenzentren mit der Dynamik der geschäftlichen Änderungen Schritt halten und sich rasch anpassen. Hierbei helfen die Techniken der Virtualisierung. In Verbindung mit einer dynamischen Provisionierung lassen sich Services rasch und bedarfsgerecht bereitstellen. Erst durch die Virtualisierung ist es möglich, schnell und bei Bedarf auch automatisiert neue Geschäftsanforderungen zu unterstützen. HP offeriert hierzu ein ganzes Bündel an unterschiedlichsten Techniken und Lösungen, um Dienste schnell in virtuellen Umgebungen bereitzustellen.

Rechenzentrum werden sich ändern müssen

Die schnelle Anpassung an die sich ändernde Geschäftsanforderungen wiederum verlangen nach der geeigneten Infrastruktur in den Rechenzentren. Doch viele bestehende Rechenzentren sind dafür nicht oder nur ungenügend vorbereitet. Dies gilt für die Infrastruktur, die Hardwaresysteme und natürlich auch die letztendlich treibenden Softwaresysteme und ihre Applikationen. Die Notwendigkeit, die Geschäftsprozesse durch den Einsatz von weiteren Applikationen besser zu unterstützen, erhöht erneut den Bedarf für die Rechenleistung, die wiederum nur von den Serversystemen geboten werden kann. Doch die Rechenzentren stoßen bereits heute an ihre Grenzen, wie etwa dem Platzmangel oder einer ungenügenden Energieversorgung zum Betrieb der weiteren Server. Mehr Server, Speichersysteme oder Netzwerkbaugruppen aber ziehen zwangsläufig einen höheren Bedarf an Kühlung nach sich. Diese wiederum treibt den Energiebedarf erneut in die Höhe. Dem steigenden Energiebedarf und der Zunahme an benötigter Kühlung ist aber nicht so ohne weiteres beizukommen und schon heute operieren daher manche Datacenter bereits am Limit.

Um der steigenden Nachfrage nach Rechenleistung dennoch nachzukommen, bedarf es daher anderer Mittel. Diese reichen von der Senkung des Energieverbrauchs durch stromsparende IT-Baugruppen, erstrecken sich ferner in intelligenten Kühlsystemen mit höherem Wirkungsgrad und enden schließlich bei einem vollständigen Redesign des Rechenzentrums.

Der zentrale Aspekt hinsichtlich der Effizienz jedes IT-Service wird durch die Rechenleistung seiner Server und Prozessoren gebildet. Um die Forderungen nach Rechenleistung, Effizienz und Dynamik daher bestmöglich erfüllen zu können, müssen die eingesetzten Komponenten optimal aufeinander und auch auf die umgebende Softwarearchitektur abgestimmt sein. Dies war die Zielsetzung beim Design der Serverfamilie Integrity von HP und den hierbei verwendeten Itanium-Prozessoren von Intel. Diese Systeme sind, ausgehend von der internen Architektur der CPU, bis hin zum Design der Serversysteme, einschließlich aller angeschlossen Baugruppen, auf ein Höchstmaß an Leistung und Effizienz getrimmt.

Anforderungsorientierte Zuweisung der IT-Dienste

Wurden früher Systeme gerne auch überdimensioniert, um für Spitzenlast gewappnet zu sein, so verbieten allein die steigenden Energiekosten dieses Vorgehen in der Zukunft. Stattdessen fasst man die Rechenleistung in Pools zusammen und weist sie nach Bedarf den anfordernden Stellen zu.

Eine grundlegende Voraussetzung für eine dynamische Zuweisung der Rechenleistung allerdings ist die Standardisierung der Hardwarebaugruppen, denn unterschiedliche System verlangen häufig nach unterschiedlichen Verwaltungsverfahren.

Dazu müssen Mechanismen geschaffen werden, die diese Verteilung und Überwachung der Rechnerressourcen dynamisch verwalten. Hierzu bietet HP mit dem Virtual Software Environment (VSE) eine optimal abgestimmte Suite an Werkzeugen und Best Practicies für den sofortigen Einsatz.

Gesteuert und getrieben werden müssen all diese Anforderungen von sich ändernden Prozessabläufen und dynamischen Organisationsstrukturen. Das über viele Jahre etablierte Organisationsaufteilung in Gruppen zur Betreuung des Netzwerks, für das Operating, der Sicherheit und Benutzerverwaltung oder etwa das Datenbankmanagement wird sich zugunsten einer serviceorientierten Vorgehensweise verändern.

Fazit

Das Rechenzentrum der Zukunft wird einmal mehr zum treibenden Faktor für die Geschäftprozesse. Um allerdings die angebotenen Dienste zeitgerecht und in ausreichendem Maße bereitstellen zu können, sind Veränderungen notwendig. Dem Ruf nach mehr IT-Leistung bei begrenzten Ressourcen lässt sich am besten durch die Techniken der Virtualisierung begegnen. Dies wiederum erfordert eine Standardisierung der Rechnerbaugruppen. Damit die Vorzüge der Virtualisierung nicht ihrerseits durch höhere Verwaltungsaufwendungen zunichte gemacht werden, müssen die Abläufe weitgehend automatisiert werden. Auf der Grundlage der standardisierten Baugruppen und virtualisierten Dienste lassen sich dann dynamische Datenzentren effizient abbilden. Dies sorgt gleichzeitig für eine bessere Ausnutzung der eingesetzten Energie und trägt seinerseits zu sinkenden Energiekosten bei. In den weiteren Untersuchungen dieser Artikelreihe werden wir die Aspekte der Standardisierung, der Virtualisierung, der Energieeffizienz und Hochverfügbarkeit detailliert untersuchen und vorstellen.