Hans-Joachim Popp, Deutsches Zentrum für Luft- und Raumfahrt

"Wo die Daten liegen, ist unwichtig"

14.03.2008
Hans-Joachim Popp, CIO Deutsches Zentrum für Luft- und Raumfahrt, spricht mit CW-Redakteur Jan-Bernd Meyer über ideale Rechenzentren und die Tücken der Virtualisierung.

CW: Die Anforderungen an heutige Rechenzentren haben sich in den letzten Jahren in vielerlei Hinsicht verändert. Was sind die wichtigsten Neuerungen aus Sicht der Hightech-Forschung, wie sie beim DLR betrieben wird?

Hans-Joachim Popp, CIO Deutsches Zentrum für Luft- und Raumfahrt e.V. in der Helmholtz-Gemeinschaft, sagt, dass durch Virtualisierung in vielen Fällen die Komplexität von Betriebsumgebungen wächst.

POPP: Genauso wie in den allermeisten anderen Zweigen der Wirtschaft hat sich der Anteil der IT-getriebenen Prozesse an der Gesamtwertschöpfung drastisch erhöht. Gleichzeitig sind die Systeme gegen temporäre Ausfälle von Stromversorgung und Kühlung viel empfindlicher als früher. Wir müssen heute schon bei einem Stromausfall von wenigen Millisekunden mit einem Crash von bis zu fünf Prozent der Festplatten rechnen. Selbst in hochredundanten Anlagen kann es da sehr leicht zu längeren Ausfällen kommen.

CW: Man sollte meinen, dass heute jedes Rechenzentrum unterbrechungsfrei versorgt werden kann, oder?

POPP: Sollte man meinen. Aber die meisten Systeme werden auf die eine oder andere Weise in Legacy-Umgebungen betrieben, und früher ging es nun einmal um die schnelle Wiederaufnahme der Versorgung nach einem Crash. Der Diesel sprang an, das Licht flackerte, und dann war alles okay. Nach Einführung der unterbrechungsfreien Stromversorgungen (USV) hat man dann voll und ganz auf "unbegrenzte" Verfügbarkeit gesetzt, und prompt gingen die Pannen fortan auf das Konto defekter USV-Anlagen, obwohl die reguläre Versorgung durch den Energiekonzern immer stabiler wurde. Nur in ganz seltenen Fällen machen sich heute Rechenzentren die hervorragende Qualität und Verfügbarkeit der von den Versorgern kommenden Direkteinspeisungen zunutze, um die Redundanz auch dadurch zu erhöhen.

CW: Alle reden vom grünen Rechenzentrum. Wie wichtig ist das für Ihr Forschungszentrum?

30 Prozent der RZ-Betriebskosten für Klima und Energie

POPP: Sehr wichtig! Schließlich geben wir schon jetzt sage und schreibe 30 Prozent der Betriebskosten unserer Hochleistungsrechner für Energie und Klima aus. Mit den Herstellern feilschen wir um einzelne Prozente, beim Energieverbrauch ist aber bisher nicht viel passiert. Wir hoffen stark, dass die Technik auch in Richtung Energieeffizienz weiterentwickelt wird. Dabei reicht es nicht, die Betriebsspannungen immer wieder abzusenken oder langsamer zu takten. Auch die Wirkungsgrade der Netzteile und der Abwärmeverarbeitung müssen dringend verbessert werden. Da sehe ich eine exzellente Gelegenheit für die großen Anbieter, sich zu profilieren.

CW: Geht es um die bessere Auslastung von Servern, spielt das Thema Virtualisierung eine große Rolle. Sehen Sie darin einen nachhaltigen Trend, oder handelt es sich um einen kurzfristigen Hype?

Popp: 'Die Virtualisierung hat sicher einen festen Platz in der Palette der möglichen Werkzeuge, um Ressourcen zu sparen.'

POPP: Die Virtualisierung hat sicher einen festen Platz in der Palette der möglichen Werkzeuge, um Ressourcen zu sparen. In Wahrheit hat aber heute jedes Betriebssystem schon Virtualisierungsschichten. Doch man muss auch sehen, dass die Komplexität der Betriebsumgebung sich mit dem Einsatz von Virtualisierungstechniken nicht zwangsläufig verringert, sondern in vielen Fällen sogar anwächst. Außerdem verlangen Virtualisierungstechniken auch nach Know-how. Das muss man erstmal an Bord haben - und auch hier steckt der Teufel wie immer bekanntlich im Detail. Wir dürfen nicht die schiere Anzahl von Komponenten als Maß für die Komplexität nehmen. Die Zahl der Softwareschichten spielt ebenfalls eine Rolle.

CW: Welche Merkmale sollte das quasi ideale Data Center denn noch haben?

POPP: Eine große Rolle wird neben der möglichst ökonomischen Auslastung sicher auch die flexible Versorgung mit Services verschiedener Verfügbarkeitsstufen spielen. Es müssen nun einmal nicht alle Daten auf dem gleichen Backup-Level gehalten werden. Leicht wiederherstellbare und wenig veränderliche Datensätze können auch weniger teure Speichermedien und Verteilungsverfahren nutzen. Insgesamt wird der Wunsch nach einer "entorteten" Datenspeicherung steigen. Kriterium für den Speicherort ist dann nur noch das Verhältnis zwischen Volumen und Netzwerkbandbreite. Wo die Daten räumlich liegen, ist für den Anwender weder sichtbar, noch hat es eine Bedeutung. Natürlich spielt die Vertraulichkeit eine große Rolle, aber wenn wir heute einmal ehrlich sind, dann sind es doch immer noch die Grabenkämpfe zwischen den Anwendern, die eine optimale Ressourcennutzung torpedieren.

CW: "Entortete Datenspeicherung": Das klingt gut, aber es erfordert doch sicher das Durchhalten von Standards insbesondere in sehr verteilten Unternehmen oder?

Klare Verabredung mit dem Dienstleister

POPP: Oh ja, die Governance ist entscheidend. Für das DLR hilft da die klare Verabredung mit unserem Flächendienstleister T-Systems Solutions for Research. Die Serviceparameter sind vertraglich exakt festgelegt, und wir verpflichten uns zur Nutzung der Dienste für alle Basisanwendungen. Die viel zitierten "karierten Maiglöckchen", also eigentlich überflüssige Sonderwünsche, sind so im Einzelfall viel schwieriger zu begründen. Würden wir versuchen, das intern zu organisieren, wären Machtspiele an der Tagesordnung.

CW: Womit wir beim Thema Outsourcing wären. Müssen wir nicht mit weiteren gravierenden Veränderungen im Anforderungsprofil von IT-Services rechnen?

Popp: 'Eine große Rolle wird neben der möglichst ökonomischen Auslastung sicher auch die flexible Versorgung mit Services verschiedener Verfügbarkeitsstufen spielen.'

POPP: Ich will jetzt Nicholas Carr nicht das Wort reden, aber in diesem Punkt liegt er sicher nicht falsch. Wir werden schrittweise immer weiter konsolidieren und aggregieren, besonders bei den "einfachen" Leistungen wie Netz- und Speichertechnik, E-Mail und Web-Server-Hosting. Die Arbeit wird uns als IT-Schaffenden trotzdem niemals ausgehen. Die Wertschöpfung wird sich nur zu höherwertigen Anteilen hin entwickeln. Aber das sehen wir ja schon seit vielen Jahren: Früher hat man schon mal mit dem Lötkolben an einem Motherboard gearbeitet. Heute käme niemand mehr darauf, und das löst auch keine Verlustängste aus. Im Gegenteil: Wir sind froh, dass wir darüber hinweg sind und uns verstärkt der Prozessgestaltung zuwenden können.

CW: Wenn die Produktion in immer höherem Maße von IT-Systemen abhängig ist und gleichzeitig die Vernetzung und damit die Komplexität zunimmt, dann muss es doch für Dienstleister ein Problem sein, die Bedeutung einzelner Komponenten in Hinblick auf potenzielle Vertragsstrafen im Auge zu behalten.

POPP: Absolut richtig. Und es kommt noch viel schlimmer: Sowohl die Bedeutung einzelner Dienste für den Anwender als auch die Systemarchitekturen verändern sich oft schleichend, ohne dass es im Tagesbetrieb sichtbar wird. Gerade bei den heutigen, extrem hohen Verfügbarkeiten wähnt man sich bis zum Tag X in trügerischer Sicherheit. Hier wird sich in den nächsten Jahren das Monitoring der Architektur noch stark entwickeln müssen. Meine Vision ist da die selbstdiagnostizierende Configuration Management Database, die online ein klares Bild über alle Abhängigkeiten liefert.