Datenverkehr explodiert

Wie Cloud Computing die Netze herausfordert

03.02.2011 von Daniel Prokop
Schier unbegrenzte Speicher- und Rechenkapazitäten, reduzierte Kosten, maximale Flexibilität - die Cloud verspricht eine IT-Revolution. Damit verbunden ist aber ein massiver Anstieg des Datenverkehrs.
Experten rechnen mit einem massiven Anstieg des Datenverkehrs im Netz.
Foto: Brocade

Mit dem Wachstum der Cloud werden wir uns zugleich auf einen massiven Anstieg des Datenaufkommens einstellen müssen. Der weltweite Datenverkehr vergrößert sich enorm. Um nur ein Beispiel zu nennen: Laut dem Anbieter Akamai ist die Zahl der IP-Adressen, die sich der Distributed-Computing-Plattform des Cloud-Service-Spezialisten angeschlossen haben, innerhalb eines Jahres um 20 Prozent auf 533 Millionen angewachsen.

Parallel zu dieser Entwicklung stieg die Zahl der Breitbandnutzer, die über eine 5- bis 10-Mbit/s-Verbindung verfügen, um mehr als ein Viertel - zuzüglich weiterer sieben Prozent, die auf eine Datenrate über 10 Mbit/s zugreifen. Sofern es nicht bereits geschieht, wird ein Großteil der IT-Verantwortlichen in den kommenden Jahren auf die Vorzüge des Cloud Computings setzen. Auch hier sprechen Zahlen Bände: IDC prophezeit, dass das digitale Universum seine Dimensionen im Lauf der kommenden zehn Jahre von 1,2 Zettabyte auf 35 Zettabyte ausdehnen wird. Cloud-basierende Daten werden ohne Zweifel einen signifikanten Anteil an dieser wachstumsintensiven Entwicklung haben. Die Infrastruktur der Zukunft wird sich durch einen kontinuierlichen Zuwachs an IP-fähigen, smarten Endgeräten, eine Verlagerung von Storage-Ressourcen in Cloud-Umgebungen, aber vor allem durch schnellere Netze auszeichnen. Denn Unternehmen und Provider werden Wege finden müssen, die Suche nach und den Zugriff auf Zettabytes von Daten sicherzustellen.

5 geläufige Cloud-Irrtümer
Seit drei Jahren ist Cloud Computing eines der großen Trendthemen der Unternehmens-IT. Inzwischen profitieren zahlreiche Unternehmen aller Branchen von Cloud-Lösungen und viele weitere planen den Wechsel in die Cloud für die nahe Zukunft.
1. Cloud ist nur ein Hype:
Das Ausmaß der Berichterstattung könnte den Eindruck erwecken, dass es sich beim Thema Cloud um einen medialen Hype handelt. Ein Blick auf die Marktzahlen und Entwicklungen zeigt allerdings, dass die hohe Aufmerksamkeit, mit der das Thema behandelt wird, gerechtfertigt ist.
2. Cloud ist nur für start-ups geeignet:
Bei kleineren Unternehmen mit viel Wachstumspotenzial erfreut sich die Cloud großer Beliebtheit, da diese sich mit ihrer Hilfe schnell auf variierende Nachfragesituationen einstellen können. Laut Gartner steht Cloud Computing jedoch auch in Großunternehmen weit oben auf der IT-Agenda, gleich nach einer besseren Auslastung der eigenen Rechenzentren.
3. Mit der Cloud ist die interne IT-Abteilung nicht mehr notwendig:
Mehr als jede andere Industrie ist die IT durch rapide Veränderungen und Entwicklungen geprägt. Während der Umzug verschiedener IT-Bereiche in die Cloud bedeutet, dass einige der traditionellen IT-Skills nicht mehr im gleichen Umfang in der eigenen IT-Abteilung benötigt werden, steigt wiederum der Bedarf an neuen Fertigkeiten.
4. In der Cloud gibt es keine Performance-Probleme mehr:
Cloud Computing schafft größere Flexibilität und Kostentransparenz, ist allerdings kein Allheilmittel. Beim Performance Monitoring müssen sich Unternehmen in einer Cloud-Umgebung neuen Herausforderungen stellen. Um sicherzustellen, dass die Nutzer jederzeit Zugriff auf Geschäftsanwendungen haben, die vollständig oder teilweise in die Wolke ausgelagert sind, ist es wichtig die Performance auf allen Ebenen und - ganz entscheidend - aus der Sicht des Endanwenders, zu betrachten.
5. In der Cloud sind die Daten nicht sicher:
Unternehmen, die ihre Daten zuvor auf Servern am eigenen Standort verwalteten, stellen diese geographische Nähe häufig mit Sicherheit gleich. Diese Annahme ignoriert allerdings einen wichtigen Punkt: die Unternehmens-IT setzt sich aus vielen verschiedenen Systemen zusammen, deren Anbindung immer auch neue potentielle Sicherheitslecks ergeben können. Greifen die Nutzer wie bei Cloud Computing vor allem über das Internet auf Informationen zu, ist nur eine einzige Datenverbindung zu überwachen. Das erleichtert es Unternehmen, sich gegen Angriffe zu schützen und den Zugriff auf wichtige Daten zu kontrollieren.

Finanzbranche als Vorreiter

Banken und Kreditinstitute sind die Vorreiter, wenn es um die Umsetzung der Cloud-Computing-Philosophie geht. Die Motivation für die Innovationsfreude der Finanzbranche liegt auf der Hand: Ein massives Datenaufkommen, umfassende Reporting-Funktionen, Tausende von Zugriffen durch Online-Kunden und der fortlaufende Aktualisierungsbedarf von Content und Informationen verlangen nach skalierbaren und flexibel erweiterbaren Ressourcen. Es erstaunt also wenig, dass sich Banken immer stärker zu reinen IT- und Infrastrukturorganisationen entwickeln - eine Tendenz, die nicht nur hohe Bandbreiten und eine geringe Latenz, sondern auch starke Load-Balancing-Lösungen und eine flexible Lastverteilung fordert. Das sind Bedürfnisse, die sich mit Cloud-basierenden Ansätzen erfüllen lassen.

Mit tausenden von Zugriffen in der Cloud steigen die Anforderungen an das Netz.
Foto: Jetter AG

Bei aller Innovationsfreude ist es aber ein fundamentales Missverständnis, die Cloud als in sich geschlossene Entität zu betrachten: DIE Cloud gibt es schlicht und ergreifend nicht. Deshalb ist es von zentraler Bedeutung, öffentliche Cloud-Umgebungen von so genannten Community Clouds und die- se wiederum von privaten und damit nach außen hin stark abgegrenzten Cloud-Computing-Umgebungen zu unterscheiden. Im Gegensatz zu ihren großen Schwestern, die sich mit enormer Eigendynamik im WWW entwickeln, ist eine Private Cloud nicht nur deutlich kontrollierbarer, sondern wartet auch in Sachen Datensicherheit und Qualität mit vielerlei Vorzügen auf: Aspekte, die für Unternehmen und öffentliche Einrichtungen zur Einhaltung von Compliance- und Sicherheitsbestimmungen in der Regel unverzichtbar sind. Privates Cloud Computing beschreibt standortübergreifende, virtualisierte Infrastrukturen, die jedoch ausschließlich von einem Unternehmen betrieben werden. Den Übergang zwischen der privaten und der öffentlichen Cloud markieren Community Clouds, die von diversen Organisationen zur Erreichung gemeinsamer Interessen geteilt werden.

Unabhängig von ihrer Beschaffenheit - ob nun öffentlich, in der Community oder als private Unternehmensinfrastruktur - wird die Verbreitung von Cloud-Technologien maßgeblich aus drei unterschiedlichen Blickwinkeln betrachtet werden müssen: aus der Sicht der privaten Endnutzer, aus dem Blickwinkel des professio- nellen Anwenders und vom Standpunkt des IT-Managers.

Die Endanwender-Cloud

Es mag den wenigsten bewusst sein, doch viele Wohn- und Arbeitszimmer sind bereits über ihre Breitbandverbindung mit der "großen Web-Wolke" vernetzt. Zahlreiche Dienste, deren Anfänge im großen Web-2.0-Paradigma zu finden sind, bilden in ihrer Gesamtheit inzwischen durchaus eine Art Endanwender-Cloud. Eine wesentliche Nebenwirkung dieser Entwicklung besteht darin, dass private Daten und Applikationen - nicht zuletzt dank steigender Breitbandkapazitäten - mehr und mehr von der heimischen Festplatte in Cloud-Umgebungen abwandern.

Professionelle IT-Nutzer sehen sich derzeit mit ähnlichen, wenn auch tiefgreifenderen Veränderungen konfrontiert: Hinter der zunehmenden Virtualisierung von Arbeitsplätzen verbirgt sich die dezentrale Verwaltung von Anwendungen sowie Storage- und Sys-temressourcen. Der Zugriff auf den virtuellen Desktop verlangt nach größeren Bereitstellungskapazitäten - eine Entwicklung, die sich in den kommenden Jahren drastisch verstärken wird.

Die Datenmengen in der Cloud lasssen selbst 10-Gigabit/s-Netze kapitulieren.
Foto: Telekom AG

Für die Administration von Rechenzentren werden in den kommenden Jahren neben unternehmensinternen Cloud-Umgebungen im Wesentlichen hybride Cloud-Computing-Ansätze von wachsender Bedeutung sein. Schon heute sind zur Erweiterung von Datenzentren oder dem Rollout neuer Softwaresysteme enorme Pufferkapazitäten vonnöten, um kostspielige Ausfallzeiten zu vermeiden. Reservekapazitäten sind jedoch teuer, zumal sie die meiste Zeit brachliegen. In so einem Fall könnte es in Zukunft durchaus vorteilhaft für ein Unternehmen sein, zusätzliche Ressourcen je nach Erfordernis über die Public Cloud abzurufen und bedarfsgerecht einzusetzen. Neben der Nutzung von Reservekapazitäten wird das Thema Langzeitarchivierung eine tragende Rolle auf der großen Cloud-Bühne übernehmen. Schließlich wäre eine Cloud-basierende Storage-Lösung um einiges kostengünstiger als Storage-Area-Network-(SAN-) oder Network-attached-Storage-(NAS-)Technologien.

Datenschutz und Datensicherheit
Saugatuck hat einen Fragenkatalog zur Security im Cloud Computing zusammen gestellt, den Interessenten Ihrem potenziellen Cloud-Provider vorlegen sollten.
Fachliche Anforderungen
Wie kann der Kunde auf seine Daten zugreifen oder diese wiederherzustellen?
Fachliche Anforderungen
Wie wird Sicherung der Daten einschließlich Disaster Recovery gewährleistet?
Fachliche Anforderungen
Wie, in welchem Format und nach welchen Umständen oder Bedingungen werden bei Vertragsende die Daten des Kunden an ihn übergeben?
Die Technik für Datenschutz und -sicherheit
Sind die Rechenzentren uneingeschränkt, rund um die Uhr, physikalisch und auch nach Mehr-Personen-Prinzip gesichert?
Die Technik für Datenschutz und -sicherheit
Ist es sichergestellt, dass das Personal des Providers weder Zugang zu den Benutzerpasswörtern und Berechtigungen des Anwenders hat noch diese einsehen kann?
Die Technik für Datenschutz und -sicherheit
Werden die Vorschriften zu Passwortrichtlinien, Zugriffsbeschränkungen, Anmeldeprotokollierungen, Datenzugriffsmodellen sowie zum Feldebenenzugriff dokumentiert?
Die Technik für Datenschutz und -sicherheit
Werden alle Passwörter verschlüsselt übertragen?
Die Technik für Datenschutz und -sicherheit
Gibt es ein sicheres Session-Key-Management und besteht eine Multi-Tenant-Datenzugriffskontrolle?
Die Technik für Datenschutz und -sicherheit
Werden Sicherheitsverstöße überwacht? Werden Eindringversuche (Intrusion Detection) und sicherheitsrelevante Vorfälle (Security-Event-Management) dokumentiert?
Transaktionen im Internet
Gibt es eine 128-bit SSL-Verschlüsselung für jede Transaktion?
Transaktionen im Internet
Liegen Verisign-Zertifikate vor?
Transaktionen im Internet
Werden Perimeter und Firewalls ständig überwacht? Sind Intrusion Detection sowie vorausschauendes Log-File-Monitoring Standardverfahren?
Sicherheitsmonitoring
Werden erfolgreiche und fehlgeschlagene Logins dokumentiert?
Sicherheitsmonitoring
Werden Eindringversuche (Intrusion Detection) und sicherheitsrelevante Vorfälle (Security-Event-Management) dokumentiert?
Interoperabilität mit On-Premise-Anwendungen
Welchen Einfluss haben Security-Architekturen und -Praktiken des Cloud-Providers auf die lokalen Installationen des Anwenders?
Interoperabilität mit On-Premise-Anwendungen
Legt der Betreiber der Multi-Tenancy- und Cloud-Plattform die verwendeten Techniken und Abläufe für das Data-Partitioning offen und dokumentiert sie?
Gesetzliche Anforderungen
Ist bei Speicherung von personenbezogenen Daten außerhalb der Grenzen des Europäischen Wirtschaftsraumes ein angemessenes Schutzniveau gewährleistet, wie es das Bundesdatenschutzgesetz vorschreibt (Paragraf 4b Absatz 2 Satz 2 BDSG)?
Gesetzliche Anforderungen
Ist es sichergestellt, dass ausschließlich solche Anwender auf Anwendung und deren Daten zugreifen können, die auch dazu berechtigt sind?
Gesetzliche Anforderungen
Können personenbezogenen Daten bei der Verarbeitung, Nutzung und nach Speicherung nicht unbefugt gelesen, kopiert, verändert oder entfernt werden?
Gesetzliche Anforderungen
Lässt sich nachträglich prüfen und feststellen, ob und von wem personenbezogene Daten in Anwendungssystemen eingegeben, verändert oder entfernt worden sind?
Gesetzliche Anforderungen
Können zu unterschiedlichen Zwecken erhobene personenbezogene Daten getrennt verarbeitet werden?

Doch bevor Sicherheitsmechanismen und Deployment-Policies zur Anbindung an die Public Cloud optimiert und standardisiert sind, sollte in den Unternehmen Zurückhaltung gelten: Vorerst ist es sinnvoll, nur nicht sicherheitskritische Daten in Public-Cloud-Storage zu hinterlegen, während sensible Informationen das Unternehmen besser nicht verlassen sollten.

Flexible Netze sind gefordert

Eine bedarfsgerechte Bereitstellung von Ressourcen bedeutet zugleich, dass sich die Bandbreite den entsprechenden Rahmenbedingungen schnell, flexibel und zuverlässig anpassen muss. Doch wie können unsere heutigen Netze der Cloud-Dynamik gerecht werden und dem massiven Anstieg im Datenverkehr standhalten? Und wie kann die Rentabilität der erforderlichen Investitionen sichergestellt werden? Fakt ist, dass künftig enorme Datenberge umgewälzt werden: Der Umzug eines einzelnen virtuellen Servers bedeutet zugleich die Verschiebung eines kompletten RAM-Images von Punkt A nach Punkt B. Wird ein kompletter Cluster zwischen zwei Cloud-Infrastrukturen hin- und herbewegt, entsteht schnell ein Datenstrom, der mit heutigen Breitbandkapazitäten von 10 Gigabit nicht mehr zu stemmen ist.

Eine mögliche Lösung liegt im Carrier Ethernet. Denn dank ihrer Flexibilität und ihrem hohen Standardisierungsgrad wartet diese Technik nicht nur mit den Eigenschaften einer erprobten Plug-and-Play-Infrastruktur, sondern auch mit moderaten Kosten für den Anwender auf. Bei diesem neuen technischen Ansatz zur Einrichtung von Cloud-Infrastrukturen erweist sich die Finanzwelt wieder einmal als Pionier: Der weltweit größte Börsenbetreiber NYSE Euronext hat ein durchsatzstarkes 100-Gigabit-Netz auf Basis von Carrier Ethernet aufgebaut. Laut NYSE ist man so für mehr als eine Milliarde Transaktionen weltweit gerüstet - und zwar täglich.

Egal, wie sich die Cloud-Szenarien im Einzelnen entwickeln: Mit Blick auf die zu erwartende stärkere Dezentralisierung sollten Netze schon heute dynamisch und damit zukunftsträchtig gestaltet werden. (hi)