Neue Chancen im Software-defined Data Center

Mit SDDC automatisierte Cloud-Services anbieten

02.06.2014 von Diethelm Siebuhr
Mit der Software-defined-Data-Center-Technologie können Provider innerhalb kürzester Zeit softwaredefinierte Services weitestgehend automatisiert anbieten. Dabei sind einige wichtige Aspekte im Rechenzentrum zu berücksichtigen.

Die Servervirtualisierung im Servicerechenzentrum hat den Providern mehr Flexibilität und eine bessere Auslastung der Ressourcen ermöglicht. Mit dem Software-defined Data Center (SDDC) wird dieser Ansatz weitergedacht und um Storage- und Netzwerkvirtualisierung erweitert. Provider können auf diese Weise individuelle Cloud-Leistungen innerhalb kürzester Zeit einheitlich bereitstellen.

Ein Servicerechenzentrum war bis vor wenigen Jahren eine Ansammlung von Hardware- und Softwarekomponenten, die für die konkreten Anforderungen eines Auftraggebers konfiguriert, vernetzt und bereitgestellt wurden. Mit immer mehr Anwendungen und komplexen IT-Strukturen der Unternehmen wurde dieser Ansatz zu unflexibel. Der jeweilige Einrichtungs- und Installationsaufwand wurde ohne Automatisierungen und zentrale Steuerung sehr hoch. Besonders der steigende Bedarf der Unternehmen an flexiblem Wachstum und Skalierung ließ sich auf diese Weise nicht decken; es war zeitaufwendig und teuer, zusätzliche Komponenten zu integrieren. Mit diesem Konzept ließen sich die steigenden Anforderungen der Anwender nach "Kapazität-on-Demand" nicht mehr erfüllen.

Hans Schramm, Field Product Manager Enterprise, Dell
"Es ist sicherlich unumstritten, dass Software heute eine tragende Rolle bei allen Storage-Themen spielt, das wird sich zukünftig weiter verstärken."
Dr. Stefan Radtke, CTO Isilon Storage Division, EMC Deutschland
"Die Storage-Hardware besteht bei EMC schon heute fast ausschließlich aus Commodity Komponenten. Selbst die High-End Speichersysteme wie EMC VMAX oder Scale-Out-NAS Islilon Systeme bestehen mit wenigen Ausnahmen vollständig aus Commodity Komponenten."
Robert Guzek, Senior Alliance Manager CE FTS CE ISS Market Operations, Fujitsu Technology Solutions
"Nur wenn die Hardware selbst über eine gewisse Intelligenz verfügt, ist sie in der Lage, unmittelbar zu reagieren und die erwünschten kurzen Antwortzeiten zu liefern. Die Hardware muss in Zukunft deshalb eher an Intelligenz gewinnen, sie muss sich selbst besser verwalten und sich flexibler an die Geschäftsprozesse und betrieblichen Anforderungen anpassen können."
Thomas Meier, Chief Technologist Storage, Hewlett-Packard
"Das Software Defined Data Center ist bei HP bereits Realität: Die Cloud-Management-Lösung Cloud Service Automation, das offene Cloud-Betriebssystem Cloud OS sowie Lösungen für Software Defined Networking und Software Defined Storage sind bereits Bestandteil von HPs Portfolio für das Rechenzentrum der Zukunft.“
Dr. Georgios Rimikis, Senior Manager Solutions Strategy, Hitachi Data Systems
"Hardware wird im professionellen Umfeld auf absehbare Zeit mehr sein als bloße Commodity. Das gilt für 2014 und auch noch darüber hinaus."
Michael Achtelik, Storage Business Leader DACH, IBM Deutschland
"Bei der Umsetzung der Konzepte rund um den Begriff Software Defined Data Center engagiert sich IBM sehr stark. IBM verfolgt hier einen eher noch umfassenderen Ansatz als SDDC und hat hierzu den Begriff Software Defined Environments (SDE) geprägt.“
Johannes Wagmüller, Director Systems Engineering, NetApp
"Commodity-Hardware mag für Betreiber wie Amazon AWS und Google eine Option darstellen, da sie mit eigenen Entwicklungsabteilungen für Integration und Qualitätssicherung sorgen. Im Enterprise- und KMU-Markt, wo diese mächtigen Entwicklungs-Ressourcen nicht zur Verfügung stehen, wird weiterhin auf die Betriebssicherheit von Enterprise Speichersystemen Wert gelegt werden."
Vincenzo Matteo, Disk Product Management Director, Oracle
"Wir halten Software Defined Storage aufgrund der verdeckten Kosten für kein wirklich vorteilhaftes Konzept. Weil alle Integrations-, Prüfungs- und Wartungsaufgaben für das System vollständig auf den Anwender übergehen, erhöht sich der Aufwand in diesen Bereichen signifikant, die Ausgaben steigen deshalb gleichermaßen."

Für die Anbieter von Rechenzentrumsleistungen war aus den gleichen Gründen die Servervirtualisierung interessant: Herkömmliche und hardwarelastige Ansätze ließen sich in flexiblere und virtuelle Lösungsmodelle umwandeln. Das Ziel der Servervirtualisierung besteht darin, die vorhandenen Computerressourcen bestmöglich auszulasten und bedarfsweise kundenübergreifend zu nutzen.

Die unterschiedlichen Workloads von mehreren Rechenzentrumsinfrastrukturen können beispielsweise durch das Verschieben logischer Server so verteilt werden, dass alle Komponenten optimal ausgelastet sind. Das Management der virtualisierten Umgebungen erlaubt es zusätzlich, Ausfallsicherheit, Performance, Sicherheit und Stabilität bei deutlich niedrigeren Betriebskosten besser umzusetzen als bei Plattformen ohne Virtualisierungsanteil.

Das SDDC - Virtualisierung weiterdenken

Software-defined Data Center (SDDC) greifen die Idee der Servervirtualisierung auf und denken konsequent weiter: War die Virtualisierung bisher auf die Servervirtualisierung beschränkt, werden nun alle Komponenten eines Rechenzentrums unter dieses Konzept gestellt. Es werden also auch Storage- und Netzwerksysteme virtualisiert und gemeinsam mit der Servervirtualisierung gesteuert. Um individuelle Cloud Services einheitlich definieren und betreiben zu können, bedarf es also der ganzheitlichen Betrachtung der dafür benötigten Compute/RAM-, Storage- und Network-Ressourcen.

Mit dem SDDC-Ansatz haben sich Service-Provider im Cloud Computing neue Geschäftsgebiete erschlossen. Anbieter wie Amazon, Google oder Microsoft haben vor einigen Jahren damit begonnen, ihre Ressourcen auf Basis von Virtualisierungstechnologien anderen Nutzern gegen Entgelt zur Verfügung zu stellen. Bei diesen Anbietern können Unternehmen heute schnell und ohne großen Aufwand Rechenkapazitäten oder benötigten Speicherplatz buchen.

Klassisches (Public) Cloud Computing war so im Grunde immer auch schon ein SDDC: Es können auf der jeweiligen Plattform virtuelle Maschinen mit unterschiedlicher Ausstattung oder mit einer definierten Softwarekonfiguration inklusive der Netzanbindung aufgesetzt werden. Anwender können das Ganze im Self-Service-Verfahren zu vergleichsweise geringen Kosten buchen, alles funktioniert schnell und automatisch.

Kostenlose Virtualisierungslösungen im Vergleich
Kostenlose Virtualisierungssoftware im Vergleich
Microsoft Hyper-V Server 2012 R2, VMware ESXi 5.5, Citrix XenServer 6.2 und KVM 2.6.20 stellen sich dem Praxis-Check. Was taugen die kostenlosen Hypervisoren, und was bringen sie im Unternehmenseinsatz?
Microsoft Hyper-V SRIOV
Hyper-V unterstützt mit SRIOV eine flexible Netzwerkanbindung für VMs.
Microsoft Hyper-V Nested Virtualization
Der künftige Microsoft Hypervisor 2016 wird Nested Virtualization unterstützen.
Citrix XenServer XenMotion
Mit XenMotion beherrscht XenServer die Live Migration zwischen Hosts im selben Pool.
Citrix XenServer VM-Snapshot
Von VMs können in XenCenter Snapshots im Live-Betrieb als Backups erstellt werden.
VMware ESXI-Console
Die ESXi Textkonsole ermöglicht die lokale Host-Konfiguration.
VMware vSphere Webclient
Die Zukunft des Managements liegt bei VMware vSphere beim vSphere Webclient, der jedoch nicht für den kostenfreien ESXi verwendet werden kann.
KVM oVirt
Mit oVirt lassen sich komplexe KVM-Virtualisierungsumgebungen vom Webbrowser aus managen.
KVM RHEV
RHEV als umfassende Virtualisierungslösung auf Basis offener Software und Linux nutzt ebenfalls KVM als Hypervisor.

Wenn dieses Konzept, trotz großen medialen Zuspruchs, von den Unternehmen bis heute dennoch nur zögerlich angenommen wird, so deshalb, weil es sich dabei um ein meist stark standardisiertes Angebot handelt. Flexibel ist das Konzept nur in einem engen Korridor. Im Übrigen ist die Konstellation vorwiegend statisch: Der Nutzer kann beispielsweise die Zahl der Server, den benötigen Speicherplatz und die Softwareumgebung wählen; eine an seine individuellen Anforderungen angepasste Dienstumgebung muss er sich selbst einrichten.

Wer innerhalb dieser Cloud-Services Zugriff auf die gespeicherten Daten erhält, ist in vielen Fällen für den Nutzer nicht transparent. Die Spionageaffäre des vergangenen Jahres hat die grundlegenden Grenzen dieses Ansatz noch einmal deutlich gemacht: Als Nutzer des Services kann man hier nicht festlegen, wo sich die Daten aufhalten dürfen oder welche Rechtsprechung den Zugriff Dritter auf die gespeicherten Daten regelt. Ein weiterer wichtiger Punkt sind die Service Level Agreements (SLA), die die Güte und Verfügbarkeit dieser Cloud-Services regeln. Manche SLAs erfordern es, dass Systeme und Daten geografisch getrennt, in sogenannten Verfügbarkeitszonen, redundant vorgehalten werden.

Die Anwender befinden sich also in einem Dilemma: Sie können schnell und einfach ein Angebot wählen, dessen Standards sie sich unterwerfen müssen, oder sie können die maßgeschneiderte Lösung eines Service-Providers wählen, die, wie jede Maßanfertigung, nicht nur ihren Preis hat, sondern auch nicht gleich fertig zum Mitnehmen bereitliegt - Kaufhaus versus Savile Row.

SDDC nach Maß

Mit dem SDDC-Konzept können Service-Provider nun ihre Angebote aber so gestalten, dass sie beide Seiten erfüllen. Da ein SDDC keine statische Infrastruktur ist, kann ein Software-Layer geschaffen werden, der die individuellen Anforderungen Schritt für Schritt in eine technische Konfiguration umsetzt. Alle Server-, Storage- und Netzwerk-Ressourcen werden auf dieser Ebene durch ein entsprechendes automatisiertes Management so konfiguriert, dass am Ende ein "individueller" Service bereitgestellt wird; beim Provider Nexinto heißt diese Engine beispielsweise Electronic Workflow System (EWS). Zusätzliche Tools können sich aus einer Systemdatenbank Informationen über benötigte Parameter selbst beschaffen.

Foto: Nmedia, Fotolia.com

Der gesamte Prozess der Konfiguration einer Infrastruktur sieht dann etwa folgendermaßen aus:

Im Prozess werden nicht nur die Ressourcen der Infrastruktur bestimmt, sondern auch die sonstigen Funktionen bereitgestellt, die man für den Betrieb benötigt, also Performance-, Kapazitäts- und Availability-Management. Ziel ist ein ganzheitliches Lifecycle-Management des einzelnen Services und aller beteiligten Ressourcen, um beispielsweise Engpässe oder eine Überlastung rechtzeitig zu erkennen.

Cloud Computing im Mittelstand
Cloud-Einsatz in deutschen KMUs
Nur gut ein Drittel der kleinen und mittelständischen Unternehmen nutzt derzeit schon Dienste aus der Cloud.
Cloud-Betriebsmodelle im Mittelstand
Ein Viertel der mittelständischen Cloud-Nutzer greift auf eine Public Cloud zurück.
Arten von Cloud-Diensten
Am häufigsten nutzen die Umfrageteilnehmer Rechenleistung oder Speicher aus der Cloud (IaaS = Infrastructure as a Service).
Anwendungsbereiche fuer Software as a Service
Geht es um SaaS, nutzen kleine und mittelständische Unternehmen am häufigsten Collaboration-Anwendungen und Programme für das Kundenbeziehungs-Management (Customer Relationship Management, CRM).
Akzeptanz von Cloud-Marktplätzen
Magere zehn Prozent der Cloud-Anwender aus dem Mittelstand nutzen einen Cloud-Marktplatz oder –Appstore.
Vorteile genutzter Cloud-Dienste
Mehr Flexibilität ist mittelständischen Cloud-Nutzern offenbar wichtiger als niedrigere IT-Kosten.
Gründe gegen einen Cloud-Einsatz
Datensicherheit ist auch für KMUs das wichtigste Argument gegen einen Einsatz von Cloud-Services. Doch auch die Angst vor einem Kontrollverlust spielt eine Rolle.
Auswirkungen der NSA-Affäre
Mehr als die Hälfte der Nutzer hat den geplanten Einsatz von Cloud-Services aufgrund der NSA-Affäre reduziert.
Speicherort von Cloud-Daten
Für die Mehrheit der Cloud-Nutzer ist es wichtig, dass der Cloud-Provider Daten ausschließlich in Deutschland speichert.
Speicherort und Art der Daten
Knapp die Hälfte der Cloud-Nutzer gibt an, der Speicherort Deutschland sei für alle Daten gleichermaßen wichtig.
Datensicherheit in der Cloud
Eine Mehrheit der KMUs glaubt an die Schutzwirkung von Verschlüsselungstechniken.
Cloud-Einsatz Entscheider
In den meisten kleinen und mittelständischen Unternehmen ist der Einsatz von Cloud-Diensten Chefsache.

Die durch dieses Verfahren erreichte Automatisierung der Konfiguration der Infrastruktur sorgt für hohe Effizienz und niedrige Kosten. Vor allem lassen sich die Ressourcen auf diese Weise in sehr kurzer Zeit bereitstellen: Von den Anforderungen eines definierten Services bis zur Bereitstellung in der virtuellen Kundenumgebung vergehen so oft nur Minuten.

Damit können Service-Provider individuelle Lösungen erstellen, die in puncto Schnelligkeit mit den gängigen Cloud-Angeboten konkurrieren. Im Unterscheid dazu bieten sie aber die volle Flexibilität einer individuellen Konfiguration und zwingen den Anwender nicht unter einen vorgegebenen Standard. So lassen sich also beispielsweise kurzfristig Cloud-Lösungen implementieren, die dezidierte Orte für die Verarbeitung und Speicherung von personenbezogenen Daten berücksichtigen. Setzt sich das Verfahren des automatisierten SDDC durch, so könnte das Cloud Computing auch in den Bereichen Fuß fassen, die ihm bisher verschlossen waren. (hal)