Mit dem Wachstum der Cloud werden wir uns zugleich auf einen massiven Anstieg des Datenaufkommens einstellen müssen. Der weltweite Datenverkehr vergrößert sich enorm. Um nur ein Beispiel zu nennen: Laut dem Anbieter Akamai ist die Zahl der IP-Adressen, die sich der Distributed-Computing-Plattform des Cloud-Service-Spezialisten angeschlossen haben, innerhalb eines Jahres um 20 Prozent auf 533 Millionen angewachsen.
Parallel zu dieser Entwicklung stieg die Zahl der Breitbandnutzer, die über eine 5- bis 10-Mbit/s-Verbindung verfügen, um mehr als ein Viertel - zuzüglich weiterer sieben Prozent, die auf eine Datenrate über 10 Mbit/s zugreifen. Sofern es nicht bereits geschieht, wird ein Großteil der IT-Verantwortlichen in den kommenden Jahren auf die Vorzüge des Cloud Computings setzen. Auch hier sprechen Zahlen Bände: IDC prophezeit, dass das digitale Universum seine Dimensionen im Lauf der kommenden zehn Jahre von 1,2 Zettabyte auf 35 Zettabyte ausdehnen wird. Cloud-basierende Daten werden ohne Zweifel einen signifikanten Anteil an dieser wachstumsintensiven Entwicklung haben. Die Infrastruktur der Zukunft wird sich durch einen kontinuierlichen Zuwachs an IP-fähigen, smarten Endgeräten, eine Verlagerung von Storage-Ressourcen in Cloud-Umgebungen, aber vor allem durch schnellere Netze auszeichnen. Denn Unternehmen und Provider werden Wege finden müssen, die Suche nach und den Zugriff auf Zettabytes von Daten sicherzustellen.
Finanzbranche als Vorreiter
Banken und Kreditinstitute sind die Vorreiter, wenn es um die Umsetzung der Cloud-Computing-Philosophie geht. Die Motivation für die Innovationsfreude der Finanzbranche liegt auf der Hand: Ein massives Datenaufkommen, umfassende Reporting-Funktionen, Tausende von Zugriffen durch Online-Kunden und der fortlaufende Aktualisierungsbedarf von Content und Informationen verlangen nach skalierbaren und flexibel erweiterbaren Ressourcen. Es erstaunt also wenig, dass sich Banken immer stärker zu reinen IT- und Infrastrukturorganisationen entwickeln - eine Tendenz, die nicht nur hohe Bandbreiten und eine geringe Latenz, sondern auch starke Load-Balancing-Lösungen und eine flexible Lastverteilung fordert. Das sind Bedürfnisse, die sich mit Cloud-basierenden Ansätzen erfüllen lassen.
Bei aller Innovationsfreude ist es aber ein fundamentales Missverständnis, die Cloud als in sich geschlossene Entität zu betrachten: DIE Cloud gibt es schlicht und ergreifend nicht. Deshalb ist es von zentraler Bedeutung, öffentliche Cloud-Umgebungen von so genannten Community Clouds und die- se wiederum von privaten und damit nach außen hin stark abgegrenzten Cloud-Computing-Umgebungen zu unterscheiden. Im Gegensatz zu ihren großen Schwestern, die sich mit enormer Eigendynamik im WWW entwickeln, ist eine Private Cloud nicht nur deutlich kontrollierbarer, sondern wartet auch in Sachen Datensicherheit und Qualität mit vielerlei Vorzügen auf: Aspekte, die für Unternehmen und öffentliche Einrichtungen zur Einhaltung von Compliance- und Sicherheitsbestimmungen in der Regel unverzichtbar sind. Privates Cloud Computing beschreibt standortübergreifende, virtualisierte Infrastrukturen, die jedoch ausschließlich von einem Unternehmen betrieben werden. Den Übergang zwischen der privaten und der öffentlichen Cloud markieren Community Clouds, die von diversen Organisationen zur Erreichung gemeinsamer Interessen geteilt werden.
Unabhängig von ihrer Beschaffenheit - ob nun öffentlich, in der Community oder als private Unternehmensinfrastruktur - wird die Verbreitung von Cloud-Technologien maßgeblich aus drei unterschiedlichen Blickwinkeln betrachtet werden müssen: aus der Sicht der privaten Endnutzer, aus dem Blickwinkel des professio- nellen Anwenders und vom Standpunkt des IT-Managers.
Die Endanwender-Cloud
Es mag den wenigsten bewusst sein, doch viele Wohn- und Arbeitszimmer sind bereits über ihre Breitbandverbindung mit der "großen Web-Wolke" vernetzt. Zahlreiche Dienste, deren Anfänge im großen Web-2.0-Paradigma zu finden sind, bilden in ihrer Gesamtheit inzwischen durchaus eine Art Endanwender-Cloud. Eine wesentliche Nebenwirkung dieser Entwicklung besteht darin, dass private Daten und Applikationen - nicht zuletzt dank steigender Breitbandkapazitäten - mehr und mehr von der heimischen Festplatte in Cloud-Umgebungen abwandern.
Professionelle IT-Nutzer sehen sich derzeit mit ähnlichen, wenn auch tiefgreifenderen Veränderungen konfrontiert: Hinter der zunehmenden Virtualisierung von Arbeitsplätzen verbirgt sich die dezentrale Verwaltung von Anwendungen sowie Storage- und Sys-temressourcen. Der Zugriff auf den virtuellen Desktop verlangt nach größeren Bereitstellungskapazitäten - eine Entwicklung, die sich in den kommenden Jahren drastisch verstärken wird.
Für die Administration von Rechenzentren werden in den kommenden Jahren neben unternehmensinternen Cloud-Umgebungen im Wesentlichen hybride Cloud-Computing-Ansätze von wachsender Bedeutung sein. Schon heute sind zur Erweiterung von Datenzentren oder dem Rollout neuer Softwaresysteme enorme Pufferkapazitäten vonnöten, um kostspielige Ausfallzeiten zu vermeiden. Reservekapazitäten sind jedoch teuer, zumal sie die meiste Zeit brachliegen. In so einem Fall könnte es in Zukunft durchaus vorteilhaft für ein Unternehmen sein, zusätzliche Ressourcen je nach Erfordernis über die Public Cloud abzurufen und bedarfsgerecht einzusetzen. Neben der Nutzung von Reservekapazitäten wird das Thema Langzeitarchivierung eine tragende Rolle auf der großen Cloud-Bühne übernehmen. Schließlich wäre eine Cloud-basierende Storage-Lösung um einiges kostengünstiger als Storage-Area-Network-(SAN-) oder Network-attached-Storage-(NAS-)Technologien.
Doch bevor Sicherheitsmechanismen und Deployment-Policies zur Anbindung an die Public Cloud optimiert und standardisiert sind, sollte in den Unternehmen Zurückhaltung gelten: Vorerst ist es sinnvoll, nur nicht sicherheitskritische Daten in Public-Cloud-Storage zu hinterlegen, während sensible Informationen das Unternehmen besser nicht verlassen sollten.
Flexible Netze sind gefordert
Eine bedarfsgerechte Bereitstellung von Ressourcen bedeutet zugleich, dass sich die Bandbreite den entsprechenden Rahmenbedingungen schnell, flexibel und zuverlässig anpassen muss. Doch wie können unsere heutigen Netze der Cloud-Dynamik gerecht werden und dem massiven Anstieg im Datenverkehr standhalten? Und wie kann die Rentabilität der erforderlichen Investitionen sichergestellt werden? Fakt ist, dass künftig enorme Datenberge umgewälzt werden: Der Umzug eines einzelnen virtuellen Servers bedeutet zugleich die Verschiebung eines kompletten RAM-Images von Punkt A nach Punkt B. Wird ein kompletter Cluster zwischen zwei Cloud-Infrastrukturen hin- und herbewegt, entsteht schnell ein Datenstrom, der mit heutigen Breitbandkapazitäten von 10 Gigabit nicht mehr zu stemmen ist.
Eine mögliche Lösung liegt im Carrier Ethernet. Denn dank ihrer Flexibilität und ihrem hohen Standardisierungsgrad wartet diese Technik nicht nur mit den Eigenschaften einer erprobten Plug-and-Play-Infrastruktur, sondern auch mit moderaten Kosten für den Anwender auf. Bei diesem neuen technischen Ansatz zur Einrichtung von Cloud-Infrastrukturen erweist sich die Finanzwelt wieder einmal als Pionier: Der weltweit größte Börsenbetreiber NYSE Euronext hat ein durchsatzstarkes 100-Gigabit-Netz auf Basis von Carrier Ethernet aufgebaut. Laut NYSE ist man so für mehr als eine Milliarde Transaktionen weltweit gerüstet - und zwar täglich.
Egal, wie sich die Cloud-Szenarien im Einzelnen entwickeln: Mit Blick auf die zu erwartende stärkere Dezentralisierung sollten Netze schon heute dynamisch und damit zukunftsträchtig gestaltet werden. (hi)