IT-Experten und Administratoren streiten seit Jahren darüber, ob es aus Sicherheit- und Performance-Gründen besser ist, IT-Ressourcen zu zentralisieren oder verteilt zu betreiben. Während große Unternehmen eher dazu tendieren, die Anzahl ihrer verteilten Rechenzentren zu verringern oder gar auf ein einziges zentrales Data Center zu setzen, schielen KMUs der geringen Kosten wegen und zur Erhöhung der Verfügbarkeit auf eine verteilte Daten- und Ressourcenhaltung mit Micro Datacentern.
IT-Infrastrukturen mit mehreren kleineren Datacentern - man spricht auch von Edge-Computing - bieten kleinen Unternehmen auch Geschwindigkeitsvorteile, wenn solche Micro Datacenter in geografischer Nähe der Endnutzer positioniert werden. In zentralen Infrastrukturen dagegen können Daten mit großem Bandbreitenbedarf, wie z. B. Streaming-Daten oder Videomaterial durchaus zu einem Problem für die Antwortzeit im Netzwerk werden und damit die Produktivität gefährden. Micro Datacenter bieten in einem solchen Fall die Möglichkeit, Daten in geografischer Nähe der Nutzer vorzuhalten, um dadurch für eine schnellere Auslieferung zu sorgen. Micro Datacenter sind auch dann vom Vorteil, wenn Angestellte und Kunden eines Unternehmens Zugriff auf Daten haben müssen, die sich naturgemäß an unterschiedlichen geografischen Standorten befinden.
Data-Center unter freiem Himmel
Bei Micro Datacentern handelt es sich per Definition um in sich geschlossene Komplettsysteme in Rack-Größe, die speziell für Zweigstellen oder für den mobilen Einsatz konzipiert sind, etwa im militärischen Bereich oder beim Katastrophenschutz. Mico Datacenter haben aber noch eine weitere Facette, indem sie eine erhöhte physische Sicherheit versprechen. So liebäugeln zwar viele Unternehmen mit einer dezentralen Lösung, etwa um erhöhte Kapazitätsanforderungen Vorort oder im mobilen Einsatz bedienen zu können, scheuen aber noch davor, diese neuartigen Systeme in kleineren, physisch nicht so gut gesicherten Gebäuden oder Open Air einzusetzen. Leider residiert in den Köpfen viele IT-Manager immer noch die Idealvorstellung großer, gut gesicherter und engmaschig überwachter Rechenzentren.
Markübersicht Micro Datacenter
Der Markt für Server und Datacenter-Server befindet sich im Hinblick auf den Micro-Datacenter-Trend momentan in einer Umbruchphase. Sogar traditionelle Hersteller wie Dell, HP und IBM entwickeln immer kleinere, schlankere und mobilere Systeme. Nischen-Anbieter und Spezialisten führen den Trend "klein und mobil" sogar ins Extreme, wie z. B. Schneider Electric, EMS oder Rittal mit seinen autonomen Micro-Datacenter-Tresor-Systemen.
AOL und EMS
So setzt z. B der einstige Online-Riese AOL massiv auf mobile Data-Center des Unternehmens Elliptical Mobile Solutions (EMS), die AOL beim Hurricane Sandy im Jahr 2012 erfolgreich erproben konnte.
AOL setzt auf Edge-Computing, seit das Unternehmen einige äußert reichweitenstarke Content-Seiten übernommen hatte, darunter unter anderem im Jahr 2011 das Video Distribution Network Goviral aus dem im Jahr 2013 AOLs AOL's premium Video Platform The AOL On Network hervorgegangen war.
AOL benötigte daher seinerzeit kurzfristig ein flexibles Netzwerk von Data Centern. Mit Micro-Datacenter-Systemen vom EMS konnte AOL dann in relativ kurzer Zeit seine einst riesige zentralisierte IT-Infrastruktur in ein System aus kleinen, ferngewarteten Standorten ohne eigenes IT-Personal überführen. Dort werden offenbar pro Standort tausende von VMs als Fundament von für AOLs Content Distribution Network (CDN) betrieben.
Content Distribution Networks
Unter Content Distribution Networks oder Content Delivery Network (CDN) versteht man im Datacenter-Umfeld ein regionales Netzwerk hunderter bis tausender, über das Internet verbundener Server, die gemeinsam einen Pool extrem großer Dateien, in der Regel Mediendateien, hosten und ausliefern. Die einzelnen CDN-Knoten sind dabei auf viele verschiedene Orte verteilt, in der Regel auch über unterschiedliche Backbones, wobei die Daten mit intelligenten Caching-Technologien im Hintergrund (transparent) vorgehalten werden. Dieses spezielle Konzept der Zusammenarbeit soll sicherstellen, dass die Anfragen der End-Nutzer möglich effizient, also entweder hinsichtlich Performance oder Bandbreitenverbrauch, bzw. Beides bedient werden können.
Physische Sicherheit und Ausfallsicherheit bei Rittal
Da Mico Datacenter aufgrund ihrer Konzeption üblicherweise an physisch weniger sicheren oder schlechter absicherbaren Standorten zum Einsatz kommen bis hin zum mobilen Einsatz, sind die Anforderungen an die physische Sicherheit hier besonders hoch.
So sorgen beispielsweise die Sicherheits-Tresore von Rittal in drei Sicherheitsstufen für maximalen Schutz auf minimalem Raum. Die Mico Datacenter von Rittal bieten laut Herstellerangabe eine Out-Of-the-Box-Absicherung gegen physischen Gefahren wie Feuer, Wasser, Staub, Rauchgasen und ungewollten Fremdzugriff. Ferner hat Rittal mit seiner Rittal Monitoring-Lösung Computer Multi Control (CMC) III ein System entwickelt, das bei zu hoher Temperatur, Feuchtigkeit oder bei einem Fremdzugriff automatisch Alarm auslöst. Sehr komfortabel und vorbildlich ist zudem der von Rittal bereit gestellte Online-Konfigurator.
Rittal-Safes in der Praxis
Nach Aussage des Herstellers setzt zum Beispiel das Klinikum Oberlausitzer Bergland die Sicherheitssafes von Rittal als Micro Datacenter an zwei Standorten zum Absichern der Verfügbarkeit seiner Patientendaten ein.
Da ein einziges zentrales Rechenzentrum mit Sicherheitsraum sowohl den Bedarf, als auch den Kostenrahmen überschritten hätte, entschied sich das Klinikum nach Aussage von Romain Seibt, Leiter Abteilung IT bei der Managementgesellschaft Gesundheitszentrum des Landkreises Görlitz, seinerzeit für eine Micro Datacenter- Lösung, die die hohen Anforderungen an die physische Sicherheit der IT-Infrastruktur des Klinikums in sämtlichen Punkten erfüllt.
So sorgen die Sicherheitssafes von Rittal in einer Vierer- bzw. Dreier-Verkettung nicht nur für die Absicherung der IT-Prozesse, sondern gewährleisten auch Schutz vor physischen Gefahren wie Feuer, Wasser, Staub, Rauchgasen oder Fremdzugriff, sodass den rund 800 Ärzten, Schwestern, Pflegern und dem medizinisch-technischen Personal die Patientendaten stets zuverlässig zur Verfügung stehen.
Das Überwachen der einwandfreien Funktion im Safe übernimmt die Rittal Monitoring-Lösung Computer Multi Control (CMC) III. Sie alarmiert bei zu hoher Temperatur, Feuchtigkeit und/oder Fremdzugriff. Im Brandfall reagiert die Brandmelde- und Löschanlage DET-AC schnell und zuverlässig. Die Stromverteilung erfolgt intelligent durch die Stromverteilungsleiste Power Distribution Unit (PDU) sowie das Stromverteilungssystem Power System Modul (PSM).
Zentralisierte IT versus Micro Datacenter
Dass Unternehmen zunehmend auf externe Data Center setzen hat vor allem wirtschaftliche Gründe, denn in einem traditionellen, zentralisierten Rechenzentrum mit mehreren hundert eigenen Servern steigen die Hardware- und Energiekosten mit jedem weiteren System. Dabei überschreiten die Energiekosten im Verlauf eines Serverlebens die Anschaffungskosten meist erheblich.
Der Energieverbrauch ist dabei nicht nur eine Kostenfrage, sondern tangiert auch Sicherheits- und Verfügbarkeits-Aspekte. So kann es z. B. bei sehr großen, zentralisierte Rechenzentren passieren, dass deren Energiehunger die Kapazitäten des öffentlichen Stromversorgungsnetzes überschreitet, etwa wenn das Unternehmen mit seinem Rechenzentrum in einer kleineren Gemeinde ansässig ist. Verteilte Data Center dagegen belasten das jeweilige Stromnetz nicht über das Normalmaß hinaus. Probleme diese Art können also hier nicht auftreten, weil sich der gesamte Energiebedarf auf mehrere Standorte verteilt. Was für den Energieverbrauch gilt, ist im kleineren Umfang übrigens auch für den Wasserverbrauch von Belang. Während der Kühlwasserbedarf eines großen zentralisierten Rechenzentrums - gerade an trockenen Standorten z. B. in den USA -, durchaus in Einzelfällen zu einem Problem werden kann, sind Micro Datacenter in diesem Punkt ebenfalls fein raus.
Nebenkostenrechnung
Außerdem steigen bei zentralisierten Rechenzentren etwaige Nebenkosten trotz sinkender Anschaffungskosten für Hardware im Einzelnen oder etwaiger Mengenrabatte beim Hersteller, denn je größer und komplexer ein Rechenzentrum ist, desto teuer und aufwendiger sind Administration, Überwachung und Fehlersuche, in Form entsprechender Softwarewerkzeuge. Demgegenüber stehen allerdings etwaige Einsparpotenziale, die sich durch die zentralisierte Infrastruktur an sich ergeben, weil diese potenziell weniger humane Ressourcen bindet. Auf der anderen Seite benötigt ein großes zentralisiertes Datacenter mehr Platz, was sich wieder in den Kosten für die Immobilie niederschlägt, egal ob Eigentum oder gemietet.
Aber auch eine dezentrale Infrastruktur hat ihre Vor- und Nachteile. So ist die Verwaltung einer verteilten Infrastruktur prinzipiell aufwendiger, trotz oder wegen des Einsatzes fortschrittlicher Fernwartungswerkzeuge. Je mehr verteilter Standorte involviert sind, desto stärker steigt dann auch der Aufwand für Fehlersuche.
Verfügbarkeit
Grundsätzlich ist aber die prinzipiell bessere Verfügbarkeit dezentraler Infrastrukturen, neben den Kosten, der wesentliche Treiber verteilter Systeme, denn heutzutage können auch kleine Unternehmen eine gewissen Downtime ihrer IT-Infrastruktur wirtschaftlich kaum noch verkraften, zu groß sind die Abhängigkeiten von funktionierender IT. Hier hat ein zentralisiertes System Nachteile, selbst wenn das Unternehmen redundante Systeme verwendet, einschließlich einer redundanten Stromversorgung für das Gebäude. Bei schweren Naturgewalten besteht dann nämlich immer noch die Gefahr, dass der gesamte Standort in Mitleidenschaft gezogen wird. Die ist umso prekärer, wenn Unternehmen nur einfache Backup- und Recovery-Lösungen einsetzen und etwaige Sicherungen sogar am gleichen Standort aufbewahren. Verteilte Data-Center bietet prinzipbedingt eine höhere Zuverlässigkeit. Auch bei einer der häufigsten Ursachen für einen kompletten Ausfall des Datacenters - dem Versagen der USV -, haben verteilte Datacenter daher naturgemäß Vorteile.
Virtualisierung erhöht Reaktionsfähigkeit
Einer höheren Verfügbarkeit, bzw. schnelleren Reaktionsfähigkeit nach einen Systemausfall ist außerdem zuträglich, wenn Unternehmen Ihre Infrastruktur virtualisiert betreiben. Die sollte heute eigentlich Standard sein, egal ob in einer zentralisierten oder dezentralen Struktur. Administratoren können dann im Problemfall die virtualisierten Workloads der betroffenen Systeme auf andere Knoten verlagern. Gängige Virtualisierungslösungen können dies wenn gewünscht automatisch tun (z. B. vSphere HA, vShere Fault Tolerance).
Alternative Co Location
Eine weitere Alternative, gerade für kleine Unternehmen, Ihre IT-Infrastruktur extern und konform mit aktuellsten Sicherheits- und Compliance-Standard zu betreiben, ist Colocation.
Hierbei nutzt ein Unternehmen eigene Hardware in einem Drittanbieter-Rechenzentrum, das z. B. hinsichtlich der Tier-Standards mehr bietet, als das Unternehmen mit eigenen Mitteln realisieren könnte. Das Unternehmen mietet dann z. B. einen Cage und die zugehörige Backbone-Infrastruktur und Mitarbeiter des Drittanbieters überwachen die Infrastruktur des Kunden je nach Vertragsumfang. Derartige Angebote gibt es mit den verschiedensten Fernwartungs- und Administrations-Möglichkeiten. Das Unternehmen kann dann als Kunde des RZ-Betreibers seinen Kunden gegenüber viel höhere Sicherheits- und Compliance-Standards anbieten. Außerdem ist es möglich, eigene Micro Data Center via Colocation bei einem RZ-Anbieter zu betreiben.
Fazit
Dezentrale Datacenter-Infrastrukturen haben gerade für kleine Unternehmen oder für Unternehmen mit spontanem Kapazitätsbedarf an unterschiedlichen Standorten oder beim mobilen Einsatz deutliche Vorteile. In jeden Fall erhören sie die Zuverlässigkeit. Zusätzliche Performancevorteile ergeben sich, wenn bandbreitenintensive Daten nahe "beim Verbraucher" vorgehalten werden können, was die die steigende Popularität von Mico Datacentern erklärt. (hal)