Virtualisierung, Cloud, Big Data, SSD

Storage-Trends - Speichertechnologien für 2012

10.02.2012 von Christian Vilsbeck
Der Bedarf an Storage wächst, die Performance soll steigen, die IT-Budgets bleiben knapp. IT-Verantwortliche stehen vor vielen Herausforderungen bei der Storage-Planung. Experten führender Hersteller erläutern, welche Speichertechnik und Strategie 2012 wichtig sind.

Der Bedarf an mehr Storage bleibt ungebremst, unabhängig von der Wirtschaftslage. Es ist keine Seltenheit, dass Anwender in den Unternehmen jammern, weil kein Platz mehr auf den Netzwerklaufwerken ist. Oft müssen sich die Admins mit Anfragen nach mehr Kapazität auseinandersetzen… Hinzu kommt natürlich das stetige Verlangen nach mehr Performance. Hier dauert es ewig, bis eine Datenbank durchsucht wird, das Laden und Speichern von Word- oder Excel-Files könnte auch schneller gehen - die Liste von User-Beschwerden ist bestimmt lang

Die Anforderungen der Nutzer sind somit unverändert, doch die Speicherlandschaft dahinter wird immer komplexer. Vorhandene Storage-Ressourcen müssen noch effizienter genutzt und verwaltet werden. Und worauf IT-Verantwortlichen aktuell viel Wert legen, ist eine performante und effiziente Koppelung des Storage mit der virtualisierten Server-Infrastruktur. Um die Kosten in den Griff zu bekommen, werden auch zunehmend Cloud-Storage-Dienste validiert.

Und bei all den eingesetzten Storage-Technologien darf nach wie vor der Klassiker Backup und die gesetzeskonforme Speicherung der Daten nicht außer Acht gelassen werden.

Bildergalerie: Storage-Trends 2012
Hans Schramm, Field Product Manager Enterprise, Dell
"Geht es um Backup, sind Unternehmen heute schon durchaus bereit, über eine Cloud-Lösung nachzudenken."
Daniel Pelke, CTO, EMC Deutschland
"Die IT Abteilung wird sich zukünftig stärker mit den Cloud Providern messen müssen. Das hat sehr große Auswirkungen auf Architekturen und Prozesse."
Robert Guzek, Business Management Eternus, Fujitsu Technology Solutions
"Unified Storage wird bei Infrastrukturkonsolidierungen interessanter, da hier Produkte verschiedener Storage-Hersteller wirtschaftlich abgelöst werden können."
Guido Klenner, Senior Business Manager Online Storage, Hewlett Packard
"Technologien wie Deduplizierung und Thin Provisioning werden wir in den nächsten Jahren auch in Einsteigersystemen sehen. Denn sie machen die langfristige Speicherung und Archivierung effizienter."
Ralf Colbus, Leading Solution Sales Professional Storage, IBM Deutschland
"Heute werden fast zwei Drittel der Kosten für Administration und Management ausgegeben, das bedeutet, dass Einfachheit des Betriebs und Effizienz ein Schlüsselthema in 2012 sein wird."
Dr. Georgios Rimikis, Manager Solution Strategy, Hitachi Data Systems
"Kunden setzen statt auf 'Outsourcing' wieder vermehrt auf den inhouse-Betrieb."
Thomas Kao, Direktor Produktplanung, Infortrend
"Aufgrund der unsicheren globalen Wirtschaftslage sind Unternehmen deutlich vorsichtiger bei ihren IT-Investitionen geworden. Gerade bei der Implementierung von Storage Arrays stehen Effizienz und der Return on Investment (ROI) immer mehr im Vordergrund."
Herbert Bild, Solutions Marketing Manager, NetApp
"Zu den Herausforderungen 2012 zählt in erster Linie die Bewältigung des ungebremsten Datenwachstums. Hier liegt das Problem nicht zwangsläufig im Gesamtvolumen sondern darin, dass Informationen nicht differenziert betrachtet werden können."

Um auch 2012 einen reibungslosen Betrieb der Storage-Umgebung im Unternehmen zu gewährleisten, sollten Sie auf den richtigen Trend setzen. Wir haben die Experten der führenden Unternehmen im Storage-Segment um ihre Meinung gebeten, welche Trends sie im Jahr 2012 erwarten:

Mehr Funktionen für Einsteigersysteme

Mehr Daten mit weniger Budget zu speichern, bleibt besonders bei kleinen und mittelständischen Unternehmen ein zentrales Thema. Wandern Technologien wie Deduplizierung und Thin Provisioning zunehmend in die Einsteigersysteme, und reicht das aus?

Hans Schramm - Dell: "Anstatt von Einsteigersystemen, sollte man eher von Storage-Systemen für die unkomplizierte Nutzung von Massenspeichern sprechen. Als genereller Trend wird standardmäßig in Storage-Systemen integrierte Software eine immer größere Rolle spielen. Viele kostengünstige Gigabit-Ethernet-iSCSI-Arrays verfügen heute bereits über vielfältige Funktionen zur intelligenten Datenverwaltung, automatischen Anpassung von Systemressourcen und Leistungsoptimierung. Lange Zeit wurden angeforderte Kapazitäten auch komplett im Storage-Array reserviert (allokiert), was zu vielen, zum Teil ungenutzten Speicherbereichen führte. Heutige Array-Systeme dagegen agieren wesentlich effizienter. Verfahren wie Thin Provisioning nutzen die Brutto-Kapazitäten eines Systems besser aus und vermeiden "leere", aber allokierte Datenbereiche."

Daniel Pelke - EMC: " Die VNX Produktlinie wurde speziell für KMUs und dezentrale IT Organisationen erstellt. Als sogenannte Unified Platform bieten die VNX-Systeme eine einheitliche Unterstützung für Datei-, Block- und Objektspeicher. Unsere Kunden profitieren von der vollständigen Sichtbarkeit virtueller und physischer Ressourcen, können Speicher und Replikation transparent bereitstellen und Speicherfunktionen auf das Array verlagern."

"Des Weiteren können sie dank der Effizienzfunktionen der VNX-Serie wie Komprimierung, Datendeduplizierung, Virtual Provisioning und anwendungsorientiertem Schutz ihren Bedarf an Datenkapazität deutlich verringern und somit wertvollen Speicherplatz zurückgewinnen. F.A.S.T. VP sorgt mit automatischem, effizientem Tiering für eine weitere Senkung der Speicherkosten und steigert gleichzeitig die Performance."

"Prinzipiell muss aber gesagt werden, dass derartige Funktionen weiterentwickelt und gepflegt werden müssen. Das bedeutet, dass sie, egal ob integraler Bestandteil des Systems oder Option, einen Preis haben. Unter dem Blickwinkel des generellen Verfalls der Hardwarepreise ist die untere Grenze erreicht. "

Robert Guzek, Business Management Eternus, Fujitsu Technology Solutions: "Der Trend, höherwertige Storage-Services auch im Entry-Level zu implementieren, bleibt 2012 ungebrochen."
Foto: FTS

Robert Guzek - Fujitsu Technology Solutions: "Der Trend, höherwertige Storage-Services auch im Entry-Level zu implementieren, bleibt 2012 ungebrochen. Allerdings gibt es unter den Herstellern große Unterschiede. Viele haben kein durchgängiges Storage-Portfolio, oftmals kommt es zu Systembrüchen zwischen dem Entry-, Midrange- und Enterprise-Bereich. Hersteller mit einer durchgängigen Produktstrategie tun sich daher bei der Implementation entsprechender Softwarefunktionalitäten leichter. Die ETERNUS DX-Familie von Fujitsu bietet viele Enterprise-Funktionalitäten auch für den Entry-Bereich. Dazu gehören zum Beispiel Snapshots, Thin Provisioning und Cloning. Um den Einstieg in die Nutzung dieser Technologien zu erleichtern, werden ETERNUS DX Entry-Systeme kostenfrei mit der Speichermanagement-Software ETERNUS SF Express ausgerüstet. Weiter bieten ETERNUS DX Systeme mit der Funktionalität 'Data in Place' die Möglichkeit, von einem Entry- über ein Midrange- bis hin zu einem Highend-System zu wachsen."

Guido Klenner - Hewlett Packard: "Ja, Technologien wie Deduplizierung und Thin Provisioning werden wir in den nächsten Jahren auch in Einsteigersystemen sehen. Denn sie machen die langfristige Speicherung und Archivierung effizienter. Das hilft ihnen dabei, Compliance-Anforderungen einzuhalten. Es reicht jedoch nicht aus, die Kosten für die Speicherinfrastruktur dauerhaft niedrig zu halten, weil Unternehmen heute - oftmals vollkommen unnötig - Daten sammeln und aufheben. Wichtig ist daher ein umfassendes Informationsmanagement, in dem Unternehmen definieren, welche Daten mit welchen Serviceanforderungen wie lange aufbewahrt werden müssen. Die Daten werden dann automatisch auf das entsprechend günstigste Medium verlagert."

Dr. Georgios Rimikis - Hitachi Data Systems: "Die Entwicklung geht dahin, dass die Funktionalitätslücke zwischen den so genannten KMU- und Enterprise-Storage-Lösungen immer kleiner wird. Auch kleine und mittelständische Unternehmen haben mit dem rapiden Anstieg des Datenvolumens und damit verbundenen Hardware- und Ressourcenengpässen zu kämpfen. Um diese effizienter nutzen zu können, ist den Firmen nicht durch den einfachen Zukauf von Speicherlösungen mit zusätzlichen Funktionalitäten geholfen. Thin Provisioning ist eine Funktionalität, die mittlerweile auch den sogenannten Midrange-Speicherbereich erreicht hat und mit unseren Systemen standardmäßig geliefert wird. Diese Lösung liefert nicht nur Kapazitätsvorteile für Unternehmen, sondern ist, durch das Striping der Daten, mit signifikanten Performance-Verbesserungen verbunden. Deduplizierung im Backup-Bereich führt zu einer Verschlankung der Backup-Daten und zu einer Zeitreduzierung des Prozesses. Eine Lösung, die von unseren Kunden sehr geschätzt wird ist die Hitachi Data Protection Suite (HDPS): eine integrierte Datenmanagement-Plattform für Archivierung, Search, Backup & Recovery, Deduplizierung und Replikation. Um die IT-Umgebung flexibel ausbauen zu können, sollten Speicher- und Server-Virtualisierung in Angriff genommen werden. Da gerade in kleineren Unternehmen die Personalressourcen für IT knapp sind, sollte zudem das Datenmanagement mit Software und Services optimiert werden."

Ralf Colbus - IBM: "Gefragt sind effizientere Systeme. Damit sind Systeme gemeint, die sich selbst optimieren, mehr auf dem vorhandenen speichern, dem Administrator Standardaufgaben abnehmen und einfach zu bedienen sind. Das ist ein Trend, der sich überall, unabhängig von Systemgröße oder Branche, widerspiegelt. Dedup oder Compression kann ein Ansatz sein, mehr Daten bei weniger Budget zu speichern. Jedoch kann dies bei falschem Einsatz zu Leistungseinschränkungen führen, da nicht jede Applikation von Daten-Reduktionsmethoden profitiert."

Thomas Kao - Infortrend: "Eine effiziente Datenverwaltung ist für alle Unternehmen eine große Herausforderung. Wurden Daten-Deduplizierung und Storage Tiering ursprünglich vor allem im High-End-Bereich zur Verwaltung komplexer Rechenzentren großer Unternehmen eingesetzt, so werden in 2012 auch kleine und mittlere Unternehmen auf diese Funktionen setzen. Durch Deduplizierung werden doppelte Datensätze entfernt und bis zu 90 Prozent Speicherplatz eingespart. Dadurch können Anwender mehr Daten auf einem einzigen Array speichern und ihre Produkte länger nutzen sowie die ROI erhöhen."

Herbert Bild - NetApp: "Aus NetApp Sicht sind Funktionalitäten wie Deduplizierung und Thin Provisioning seit der Einführung unserer dedizierten Mittelstandssysteme der FAS2000 Reihe im Jahr 2007 Standard und kostenlos in allen Systemen integriert. Am großen Erfolg unserer 2000er Systeme zeigt sich der enorme Bedarf nach Effizienztechnologien bei KMUs. Daher werden Deduplizierung und Thin Provisioning nicht ausreichen. Kompression für Daten, bei denen Deduplizierung nicht viel ausrichtet, SAN/NAS-Integration, nahtlose Skalierbarkeit, einfaches Management und integriertes Backup sind weitere Funktionen, die im Mittelstand eine immer größere Rolle spielen und langfristig zu dem Standard werden, der Deduplizierung und Thin Provisioning bereits heute ist."

Datenmanagement und Big Data

Das Management der wachsenden unstrukturierten Daten - Stichwort Big Data - wird zunehmend schwieriger. Wie erleichtern Ihre Produkte für 2012 das Datenmanagement?

Hans Schramm - Dell: "Betrachtet man die Benutzeroberflächen eines Dell-EqualLogic-Systems oder auch eines Dell Compellent Storage Center SANs, wird deutlich, wohin der Weg in puncto möglichst einfacher Verwaltung führt. Ein EqualLogic-System ist in der Regel in weniger als einer Stunde installiert, konfiguriert und in Betrieb genommen. Leicht erfassbare Strukturen, klare Übersichten und ein integriertes verständliches Reporting sind weitere Beispiele für eine komfortable und kostensparende Administration im Alltag."

Daniel Pelke, CTO, EMC Deutschland: "Für EMC ist Big Data Analytics für Unternehmen eines der wichtigsten Themen in 2012."
Foto: EMC

Daniel Pelke - EMC: "Für EMC ist Big Data Analytics für Unternehmen eines der wichtigsten Themen in 2012. Unsere Big Data Analytics Plattform ist eine der leistungsstärksten und effizientesten. Sie erlaubt Unternehmen einen Mehrwert aus den wachsenden Datenmengen zu gewinnen. Wir sind auch auf der Speicherseite sehr gut aufgestellt mit Storage-Lösungen für virtuelle Rechenzentren und Unified Storage, die ein Höchstmaß an Automatisierung, Performance, Skalierbarkeit, Verfügbarkeit und Sicherheit bieten. Und wir haben darüber hinaus mit ATMOS auch eine Lösung für weltweit verteilte Cloud-Storage für Big Data. Für große Datenmengen haben wir mit Isilon eine der weltweit schnellsten NAS Platform. Isilon ist sehr leistungsfähig bei dateibasierte Anwendungen und Workflows. Das geht bis hin zu Backup und Archivierung mit unseren Data Domain Deduplication Storage System zur Optimierung von Backup und Recovery."

Robert Guzek - Fujitsu Technology Solutions: "Auch hier gilt das Stichwort 'Data in Place'. Die Integration dieser Funktionalität ermöglicht die Entwicklung eines Entry-Systems hin zu einem Highend-System, ohne dass Daten zu migrieren sind. Ein Hochrüsten des Systems erfolgt über den simplen Austausch des Controllers. Die auf den Disks ablegten Daten müssen hierfür nicht migriert werden. Dank dieser Funktionalität muss nicht mehr mit dem Erreichen des Endausbaus ein bestehendes Entry-System durch ein weiteres Entry-System ergänzt werden. Die herkömmliche Verwaltung vieler Systeme wird damit obsolet, wodurch sich wiederum das Management vereinfacht. 'Data in Place' ermöglicht die Skalierung in Performance und Kapazität."

Guido Klenner - Hewlett Packard: " Speicher ist immer noch billig: Was zunächst wie ein Vorteil für Unternehmen klingt, stellt diese tatsächlich vor ein großes Problem. Denn heute heben Unternehmen viele Daten auf, die nicht mehr gebraucht werden. Das führt auch dazu, dass Anwender ihre Informationen nicht wiederfinden oder die Suche sehr lange dauert. Mit den Lösungen von HP Autonomy bieten wir unseren Kunden nun die Möglichkeit, unstrukturierte, halb-strukturierte und strukturierte Daten in einer Verarbeitungsschicht vollständig zu analysieren. Dafür haben wir eine neue Plattform mit dem Namen IDOL 10 angekündigt. IDOL 10 verknüpft Autonomys Software für die automatische Verarbeitung und Analyse von unstrukturierten Daten mit der Echtzeit-Analyse-Technologie für strukturierte Daten von Vertica. So können Anwender beispielsweise auch den Inhalt aus Social Media, Videos und Tonspuren analysieren und Entscheidungen schneller treffen."

Dr. Georgios Rimikis - Hitachi Data Systems: "Der Speicherbereich wird massiv von dem Phänomen 'Big Data' beeinflusst. Die Erfassung, Speicherung, Suche und Analyse ihrer Daten ist eine große Herausforderung für Unternehmen. Sie sollten auf offene, skalierbare, flexible und zukunftsorientierte Speicherlösungen setzen. Hitachi Data Systems verfolgt die Strategie, traditionelle Rechenzentren in Information Center umzuwandeln, in denen Unternehmen alle Daten, Inhalte und Informationen unterbrechungsfrei sichern und abrufen können. Die drei Bestandteile dieser Strategie sind: Infrastructure Cloud, Content Cloud und Information Cloud. Sie basieren auf unserer Virtualisierungstechnologie, mit der Unternehmen die Effizienz ihrer IT-Umgebung steigern und gleichzeitig Kosten reduzieren können."

"Infrastructure Cloud beruht auf der Verbindung von Storage-, Software-, Compute- und Converged-Data-Center-Lösungen von Hitachi Data Systems. Ziel ist es, eine dynamische Infrastruktur und eine einzige Plattform für alle Daten zu schaffen. Diese kann dann auch als Grundlage für unterschiedliche Cloud-Angebote wie Storage, Infrastruktur oder Software as a Service genutzt werden. Die Content Cloud nutzt Data-Intelligence-Anwendungen, um das Indizieren, Suchen und Finden von Daten über verschiedene Plattformen hinweg zu ermöglichen. Durch die Eingliederung von BlueArc konnten wir unsere Expertise in den Bereichen File-basierte Virtualisierung, integriertes intelligentes Tiering und automatisierte Datenverwaltung weiter vertiefen und ein entscheidendes Bindeglied zwischen Infrastructure Cloud und Content Coud schaffen."

"Die Information Cloud nutzt Information Analytics, um die komplette Unabhängigkeit von Daten und Anwendungen zu gewährleisten und neue Möglichkeiten der Datenwiederverwendung zu schaffen. Teil des Information-Cloud-Angebotes ist die Hitachi Data Discovery Suite (HDDS). Sie bietet ausgereiften Suchfunktionalitäten für sehr große file- und inhaltsbasierten Datenmengen. Seit der Übernahme von ParaScale im August 2010 arbeiten wir zudem verstärkt an der Entwicklung einer neuen Technologie, über die Information-Analytics-Anwendungen und Prozesse mit der zugrundeliegenden Infrastruktur integriert werden können."

Ralf Colbus - IBM: "IBM hat, wie kein anderer Hersteller, Information Lifecycle Management, Virtualisierung und einheitliche Administrationsoberflächen für alle IBM Speichersysteme eingeführt. Ein Administrator kann ein Midrange System genauso verwalten wie ein Highend Disksystem. Dabei spielt es keine Rolle, ob er Blockspeicher, Network Attached Storage (NAS) oder virtualisierte Produkte einsetzt."

"Aber wie löst ein NAS-Administrator das Problem, dass ppt- oder xls-Dateien von 1987 noch immer auf dem Speichersystem liegen, obwohl diese nicht mehr benötigt werden? Wie kann das Backup oder die Wiederherstellung von Milliarden von Dateien bewerkstelligt werden? Die Systeme der IBM-Familie haben Information Lifecycle Management und Hierarchical Storage Management Funktionen eingebaut, die die Daten gemäß ihrer Wertigkeit verlagern. Die Wertigkeit kann vom Administrator definiert werden, es sollte aber generell in den Unternehmen für 2012 über eine definierte 'Deletion Policy' nachgedacht werden."

Thomas Kao - Infortrend: "Wir setzen bei unseren Speicher-Arrays auf automatisiertes Storage Tiering. In unsere Midrange-Speicherlösung ESVA können Anwender zudem SSDs effizient in das automatisierte Storage-Tiering integrieren. So kann die Speicher-Performance ohne zusätzliche Kosten um bis zu 150 Prozent gesteigert werden - im Vergleich zu einer Konfiguration ohne Storage-Tiering."

Herbert Bild - NetApp: "Objektorientierte Datenablage zur Archivierung riesiger Datenmengen aus den unterschiedlichsten Anwendungsgebieten, die zunehmende Zahl von Video-Inhalten oder wachsende High Performance-Entwicklungsumgebungen stellen IT-Infrastrukturen vor neue Herausforderungen. Zu den notwendigen Eigenschaften gehören ein kompakter, abgestimmter Stack aus Bandbreite, Rechenleistung und Speicherkapazität, Offenheit gegenüber Filesystemen, Grid-Architekturen und Software-Anwendungen sowie Cloud-Fähigkeit. NetApp geht diesen Weg mit der E-Series, deren drei Modelle für Big Data-Anforderungen wie Echtzeitanalysen, extrem schnellen Datenzugriff und sichere Skalierbarkeit optimiert sind. Zusätzlich können Storage-Effizienz-Technologien wie Deduplizierung, Komprimierung und Thin Provisioning helfen, das Datenwachstum einzudämmen."

Einbindung von Cloud-Storage

Cloud-Storage findet zunehmend Einzug in die Unternehmen. Sind neben dem Dauerthema Sicherheit vor allem die Verfügbarkeit (Quality of Service) und Abrechnungsmodelle die zentralen Fragen bei der Einführung?

Hans Schramm, Field Product Manager Enterprise, Dell: "Das zentrale Thema spielt sich im Kopf ab, es heißt Vertrauen."
Foto: Dell

Hans Schramm - Dell: "Das zentrale Thema spielt sich im Kopf ab, es heißt Vertrauen. Wenn dieses Vertrauen vorhanden ist, steigt die Bereitschaft eines IT-Leiters, seine Daten aus den Produktivsystemen - einem der wichtigsten Wirtschaftsgüter eines Unternehmens - in eine Cloud zu übertragen. Vielleicht wird der IT-Verantwortliche nicht gleich alles auslagern, sondern anfangs nur das, was als 'nicht ganz so wichtig' erscheint. Jedenfalls ist dies eine häufig anzutreffende Antwort von IT-Leitern. Dann aber stellt sich sofort die Frage nach der Klassifizierung von Daten: öffentlich, intern, vertraulich, geheim etc. Aktuell ist davon auszugehen, dass Unternehmen auch 2012 beim Thema Cloud-Storage noch eher verhalten agieren werden."

Daniel Pelke - EMC: "Ja, aber nicht ausschließlich. Aber es ist auch eine Frage der Managebarkeit. Schnell auf geänderte Businessanforderungen reagieren zu können ist eine der Stärken der KMU, das ist auch einer der treibenden Kräfte für Cloud Infrastrukturen. Wie einfach ist es beispielsweise 100 Mitarbeiter IT-technisch zu integrieren? Wie einfach ist es diese Infrastruktur zu verwalten?"

"Hinzu kommt die Frage der Funktionalität. Bietet der Cloud-Storage ausschließlich Kapazität oder auch erweiterte Funktionen wie Archivierung und Backup? Eine Cloud-Infrastruktur ist mit herkömmlichen Data Center Modellen nicht mehr vergleichbar. Man kann nicht mehr sagen hier stehen die Server, da der Storage, da das Archiv und dort die Backup-Systeme. Die Grenzen zwischen Storage und Compute werden verschwimmen."

Robert Guzek - Fujitsu Technology Solutions: "Eine der entscheidenden Fragen ist die, wo beziehungsweise in welchem Land die Daten liegen. Damit verbunden sind unter anderem rechtliche Fragen, Gerichtsstände und vieles mehr. Auch hier gibt es große Unterschiede zwischen den Anbietern. Weiter ist wichtig, welche Verfügbarkeit der Daten werden durch den Anbieter gewährleistet, können damit firmeninterne SLAs eingehalten werden, etc. Auch die Frage, ob der Anbieter die Möglichkeit bietet, die Daten gespiegelt in einem zweiten Rechenzentrum vorzuhalten, um gegebenenfalls einen Desaster-Fall abzufangen, muss geklärt sein. Fujitsu als einer der führenden Anbieter bietet für Cloud-Storage einen Full-Service, mit einer Datenhaltung in vorab definierten Ländern, zum Beispiel in Deutschland."

Guido Klenner - Hewlett Packard: "Cloud-Speicher steht ja oftmals nicht für sich alleine sondern wird mit anderen IT-Services kombiniert, beispielsweise bei Mail-Systemen aus der Cloud. Gerade für solche Services stehen natürlich die Themen Sicherheit, Verfügbarkeit und Abrechnungsmodelle im Vordergrund. Neben den genannten Punkten kommt es jedoch auch auf eine nahtlose Integration in die vorhandene IT-Infrastruktur und -Strategie an. Zu guter Letzt geht es natürlich auch um Kosten - und hier wird leider viel zu häufig der Datenverkehr vergessen: Deshalb empfehlen wir im Kontext mit Cloud-Storage immer auch über Deduplizierung nachzudenken, um das Volumen zu reduzieren."

Dr. Georgios Rimikis - Hitachi Data Systems: "Neben den Entscheidungen im Storage-Bereich müssen auch organisatorischen Voraussetzungen wie Abrechnungssysteme, SLAs und andere Prozesse für den Übergang zur Cloud abgeklärt und angepasst werden. Cloud Storage bringt einfachere Preismodelle und flexiblere Preisbücher für Unternehmen mit sich. Dies geschieht durch deutliche operative Vereinfachungen und eine bessere Nutzung des vorhandenen Kapitals. Wir arbeiten mit eigenen Software-und Hardware-Elementen, die sich in viele bestehenden Unternehmenslösungen integrieren lassen und die es Kunden ermöglichen, nach genutzten Einheiten, mit unterschiedlichen Leistungsarten und Leistungsdauern abzurechnen. Services spielen eine wichtige Rolle beim Wechsel von einer bestehenden Infrastruktur zu einer Cloud-Umgebung. Mit seinen Services unterstützt Hitachi Data Systems Unternehmen dabei, ihre Infrastruktur schnell und sicher zu transformieren."

Ralf Colbus - IBM: "Ja, das sind zentrale Fragen. Hinzu kommt die Schwierigkeit, dass die Anzahl der Cloud-Angebote inzwischen unüberschaubar geworden ist. Ich rate, sich zu diesem Thema zunächst umfangreich und kompetent beraten zu lassen, bevor eine Kaufentscheidung gefällt wird."

Herbert Bild - NetApp: "NetApp bietet als Storage-Anbieter keine eigenständigen Cloud-Lösungen für KMUs, sondern eine hochentwickelte Best-of-Breed Storage-Architektur für Cloud-Umgebungen. Damit unterstützen wir unsere Service Provider Kunden mit genau den Lösungen, die auf Cloud-Anforderungen zugeschnitten sind."

Cloud als Backup-Dienst

Wird besonders bei kleineren und auch mittelständischen Unternehmen die Cloud als Backup-Dienst zunehmend physikalische Systeme (Tapes/VTLs) verdrängen? Wie sehen Sie die Cloud-Storage-Entwicklung 2012?

Hans Schramm - Dell: "Geht es um Backup, sind Unternehmen heute schon durchaus bereit, über eine Cloud-Lösung nachzudenken. Zugegeben: Auch hier hat es einige Jahre gedauert, bis die bei diesem Service anzutreffenden Sicherheitsbedenken ausgeräumt waren. Gänzlich ist dies immer noch nicht der Fall. Dell geht davon aus, dass die Online-Datensicherung ein zentraler Trend ist."

Daniel Pelke - EMC: "Cloud Backup Dienste erfreuen sich bei Privatanwendern schon seit geraumer Zeit immer größerer Beliebtheit. Für Unternehmen stellen sich aber neben Verfügbarkeit und Preis noch weitere Fragen zu Beispiel: Unterliegen die Daten die ich transferiere bestimmten Compliance Regeln? Wie sieht die Verfügbarkeit aus? Die 'Strafzahlungen' die mit SLA Verstößen einhergehen stehen in keinem Verhältnis zu den Schäden, wenn wichtige Informationen nicht mehr wiederhergestellt werden können. Es geht also vornehmlich um Vertrauen. Kann ich dem Anbieter vertrauen, dass die Daten sicher und geschützt sind, dass die Plattform performant und sicher ist, das das Backup vollständig etc. Vergleichbare Fragen stellen sich für die Nutzung von Public-Cloud Storage. Hier werden sich lokale Anbieter, die die lokalen Anforderungen kennen und berücksichtigen, etablieren."

Robert Guzek - Fujitsu Technology Solutions: "Cloud-Storage bietet eine hervorragende Möglichkeit, das Backup an einen Dienstleister zu transferieren. Kurz- bis mittelfristig ist eine Zunahme dieser Dienste zu erwarten, da die meisten Anbieter Anforderungen, wie zum Beispiel die Verschlüsselung der Daten beim Transfer und der Datensicherung, mittlerweile anbieten können. Aktuell ist bei den KMUs zu beobachten, dass das klassische Tape im Entry-Bereich mit Dedup-Systemen ersetzt wird."

Guido Klenner, Senior Business Manager Online Storage, Hewlett Packard: "Cloud wird heute als Ergänzung zu den vorhandenen Speichern genutzt. Dadurch werden physikalische Systeme in Unternehmen nicht verdrängt, vielmehr werden sie ergänzt."
Foto: Hewlett Packard

Guido Klenner - Hewlett Packard: "2012 wird Cloud zunehmend Standard. Neben den klassischen Vorteilen wie flexibler Skalierbarkeit und verbrauchsabhängiger Bezahlung sehen Unternehmen den Vorteil auch in der geographischen Verteilung ihrer Daten. Das bietet beispielsweise Sicherheit bei Naturkatastrophen, Feuer oder Ähnlichem. Cloud wird heute als Ergänzung zu den vorhandenen Speichern genutzt. Dadurch werden physikalische Systeme in Unternehmen nicht verdrängt, vielmehr werden sie ergänzt. Das liegt vor allem auch an den Vorteilen der bestehenden Infrastrukturen: Das Medium Tape wurde beispielsweise zwar schon vor Jahren totgesagt, es ist jedoch noch immer das energiesparendste Medium und sehr leistungsstark. Physikalische Systeme haben darüber hinaus den Vorteil, dass die Daten nicht über das Internet übertragen werden müssen. Unsere neue Backup-Appliance B6200 kann beispielsweise bis zu 28 Terabyte pro Stunde deduplizieren - bei solchen Datenmengen und einem Cloud-Backup wird das Netzwerk dann schnell zum Flaschenhals."

Dr. Georgios Rimikis - Hitachi Data Systems: "Die Entwicklungen im Bereich Virtualisierung machen weiterhin gute Fortschritte und Server-Virtualisierung wird immer häufiger eingesetzt. Was Cloud Computing betrifft, wagen sich die KMUs gerade im File-basierten Bereich, wo es auf schnelles Provisioning ankommt, in neues Terrain. Generell sind Unternehmensapplikationen wie Enterprise Ressource Planning (ERP), Supply Chain Management (SCM) oder Personalwesen schon sehr gut aus der Cloud anwendbar. Darüber hinaus kann auch IT-Infrastruktur samt Backup, Remote Mirroring, Disaster Recovery sowie Archivierung über die Cloud verwaltet werden. Solange jedoch der Aspekt Sicherheit nicht hinreichend geklärt ist, wird die Mehrheit der Unternehmen nicht in die Public Cloud gehen."

"Ein Konzept, das vor allem auf regionaler Ebene weiter an Relevanz gewinnen wird, ist, dass KMUs ihre Daten in gemeinschaftlichen Rechenzentren speichern. Diese ermöglichen eine dynamische Performance-Anpassung und das Abfangen von Spitzen durch niedrige OPEX-Kosten und verhelfen den Firmen zu mehr Flexibilität."

Ralf Colbus - IBM: "Ich denke nicht, dass die Cloud als Backup-Dienst die physikalischen Systeme verdrängen wird. Aber die Themen Langzeitarchivierung und Fileservices wird im Zusammenhang mit Cloud Computing eine Rolle spielen."

Thomas Kao - Infortrend: "Für kleine und mittlere Unternehmen ist ein Cloud-Backup-Service in der Tat eine attraktive Wahl für die Sicherung nicht-unternehmenskritischer Anwendungen, wenn die Kosten akzeptabel sind. Allerdings sind herkömmliche Backup- und Wiederherstellungs-Technologien derart ausgereift, dass sie nicht leicht von Cloud-Backup-Diensten ersetzt werden können. Noch zögert der Mittelstand, seine Daten in die Cloud hoch zu laden. Sorgen um den Datenschutz und die Datensicherheit erhöhen die Nachfrage nach lokalem Storage und stärken die Position von Storage-Systemen. Wir glauben, dass Cloud-Storage-Anbieter ein neues Geschäftsfeld mit mobilem Netzwerkzugriff auf Musik-, Foto-und Video Dateien haben werden."

Herbert Bild - NetApp: "Nein, Cloud Backup-Lösungen sind heute nicht "Enterprise Ready". KMUs haben den gleichen Anspruch wie Konzerne, wenn es um die Sicherheit der Daten geht. Beim Backup geht es jedoch nicht um Datensicherung, sondern um Restore. Ich halte es für unwahrscheinlich, dass externe Cloud Backup-Anbieter ein Recovery Time Objective (RTO) erfüllen können, welches den Ansprüchen einer geschäftskritischen Applikation genügt. Hier geht es häufig um Minuten. Dies kann nur von einer lokalen Backup-Lösung abgedeckt werden. Daher ist die erste Wahl für primäre Backups eine Disk-basierte Snapshot-Lösung, für sekundäre Backups wie zum Beispiel Archivierung, das Tape. Für die VTL-Technologie sehe ich keine Zukunft."

VAAI-Support für VMware

Bei einer überwiegend mit VMware realisierten Server-Virtualisierung rücken die Performance und das einfache Management der Storage-Umgebung weiter in den Vordergrund. Was ist neben einer dedizierten Unterstützung von VAAI (vStorage-APIs for Array-Integration) wichtig bei Storage-Systemen in VMware-Umgebungen?

Hans Schramm - Dell: "Entscheidend ist die Integration und das Zusammenspiel der Software-Funktionen eines Storage-Systems mit der Virtualisierungslösung. Die Software der Storage-Systeme, wie Funktionen zur intelligenten Datenverwaltung, automatischen Anpassung von Systemressourcen und Leistungsoptimierung etc., sollten sich reibungslos in den Hypervisor integrieren lassen. Das bedeutet auch, dass bestimmte Funktionen eines Storage-Arrays aus dem Virtualisierungs-Layer gesteuert werden können oder auch umgekehrt Virtualisierungsfunktionen per Storage-Array. Dadurch bleibt der Administrator in seiner gewohnten Umgebung und die Verwaltung wird effizienter."

Daniel Pelke - EMC: "Die dedizierte Unterstützung von VAAI ist besonders wichtig weil sie unter anderem erlaubt, Rechenprozesse an das Speichersystem auszulagern. Dadurch kann die Belastung des Netzwerks zwischen Server und Speichersystem dramatisch verringert werden und die Performance der VMs verbessert sich. FAST Technolgien können dafür sorgen, dass die Performance in gewissen Szenarien wie VDI dramatisch gesteigert wird. Solche Effekte hängen natürlich sehr stark von den Anwendungen ab, die in der VM laufen."

"Was das Thema Management angeht, hat EMC sehr viel in Technologien investiert, die dem VMware-Administrator ermöglichen, Teile des Speichermanagements zu übernehmen. So kann beispielsweise aus vCenter Speicher hinzugefügt werden. vSphere 5 unterstützt Storage vMotion, was dem VMware-Verwalter erlaubt, zu VMs transparent auf performantere Speichermedien zu verschieben."

Robert Guzek - Fujitsu Technology Solutions: "In virtuellen Umgebungen bestehen besondere Herausforderungen hinsichtlich der Datensicherung. In der Regel ist das Datenvolumen höher als in klassischen IT-Infrastrukturen. Virtualisierung ist verbunden mit der Dynamisierung der IT und erfordert in der Regel mehr Performance der Storage-Systeme. Eine reibungslose Wiederherstellung der Daten gehört zu den Kernfaktoren. Die ETERNUS DX Systeme bieten auf Grund ihrer Zertifizierung eine exzellente Plattform für eine Storage-Virtualisierung mit VMware VAAI"

Guido Klenner - Hewlett Packard: "Die Performance ist nicht nur bei VMware-Umgebungen, sondern grundsätzlich bei Virtualisierung ein Problem. Dazu kommt, dass die mangelnde Integration von physikalischen und virtuellen Servern zu Fehlern führt, die oftmals der I/O-Schnittstelle angelastet werden. Um frühzeitig Informationen über Auslastung und potenzielle Performance-Probleme zu bekommen, ist ein integriertes Management für Server, Speicher und Netzwerk notwendig. Werkzeuge wie beispielsweise der HP Systems Insights Manager ermöglichen eine zentrale Verwaltung über diese IT-Domänen hinweg. Das vereinfacht die Konfiguration und das Management von virtuellen Systemen, deren Komplexität sich bisher durch das ständige Wachstum der physischen und virtuellen Server erhöht hat."

Dr. Georgios Rimikis, Manager Solution Strategy, Hitachi Data Systems: "Speicher-Virtualisierung ist ohne Server-Virtualiserung nur die halbe Miete."
Foto: Hitachi Data Systems

Dr. Georgios Rimikis - Hitachi Data Systems: "Speicher-Virtualisierung ist ohne Server-Virtualiserung nur die halbe Miete. Dem entsprechend spielt in virtualisierten Server-Landschaften auch das Thema Speicher eine immer wichtigere Rolle. Gerade wenn es darum geht, ihre Private- oder Public-Cloud-Anwendungen auszubauen, benötigen Unternehmen eine vollständig virtualisierte IT-Infrastruktur - hier müssen Server- und Speicher-Virtualisierung optimal ineinandergreifen. Die Virtual Storage Platform ( VSP) sowie die Adaptable Modular Storage 2000-Serie (AMS 2000) von Hitachi Data Systems erzielen auch bei der Integration mit Server-Virtualisierung große Wirkungstiefe und bilden somit die beste Grundlage für wachsende VMware-Umgebungen."

Ralf Colbus - IBM: "Neben den genannten Kriterien ist die Verfügbarkeit des Storage-Systems ohne Unterbrechung des Betriebs wichtig. Darüber hinaus sind eine Integrationsfähigkeit in die Applikation und selbst-optimierende Systeme zentrale Themen. Für die Zukunft sehe ich auch Daten-Reduktionsmechanismen und ein konsistentes sowie schnelles Backup und Restoring in den Vordergrund rücken. Es gibt aber auch noch andere Server-Virtualisierungs-Software als VMware."

Thomas Kao - Infortrend: "IT-Manager haben mehr Auswahl in der Datensicherungsplanung, wenn mehr Storage VAAI unterstützt. Wir empfehlen IT-Managern die Auswirkungen auf die Storage-Leistung mit VAAI, den System-Managementaufwand sowie die Recovery-Zeit zu berücksichtigen und die Planungen mit traditionellen und neuen VM-Datenschutz-Technologien durchzuführen, bevor sie diese in das System implementieren."

Herbert Bild - NetApp: "Hier sind mehrere Punkte zu nennen, zum einen die Effizienz: Durch Deduplizierung größtenteils identischer VMware Images lässt sich Plattenplatz sparen. Im Array integriertes Backup entlastet die stark ausgelasteten VMware Server und sorgt so für eine permanent hohe Performance. Des Weiteren die Verfügbarkeit: Wenn ein physikalischer Server nicht mehr auf Daten zugreifen kann, sind unmittelbar 10, 20 oder sogar mehr virtuelle Server von dem Ausfall betroffen. Es liegt auf der Hand, dass Storage hochverfügbar ausgelegt sein muss. Unified Storage sorgt ebenso für Flexibilität und einfache Skalierbarkeit. Der Anwender muss sich nicht von Anfang an bezüglich der Storage-Anbindung für eine Technologie entscheiden, sondern kann je nach Bedarf einfach wechseln, zum Beispiel von FC auf 10 GBit Ethernet mit NFS. Als letztes möchte ich die Skalierbarkeit nennen. Der Storage muss mitwachsen können und zum Beispiel auch Workloads wie eine umfangreiche VDI Implementierung performant und zuverlässig bedienen können."

Fibre Channel wird nicht verdrängt

Es wird viel über Unified Storage und Fibre Channel over Ethernet (FCoE) gesprochen. Wird in der Praxis nicht weiterhin FC unverändert neben Ethernet seinen Platz behalten, weil auch bei FC zunehmend mehr Performance notwendig wird?

Hans Schramm - Dell: "Fibre Channel hat sich einen festen Platz in der IT-Landschaft von Unternehmen erobert. Es sind viele Systeme im Einsatz, und daran wird sich auch so schnell nichts ändern. Fibre Channel over Ethernet setzt Data Center Bridging (DCB) voraus. DCB wiederum benötigt 10-Gbit-Ethernet, was bei weitem noch nicht flächendenkend in den Rechenzentren etabliert ist. Viele Unternehmen müssen zunächst einmal 10-GBit-Ethernet einführen. Wer von 8 Gbit auf 16 Gbit Fibre Channel geht, muss sich die Frage stellen, ob er nicht gleich auf DCB (FCoE) oder auf 10 Gbit iSCSI umsteigt."

Daniel Pelke - EMC: "Die Annahme, dass ein Protokoll bessere Leistung bringt als das andere trifft nicht immer zu, da meistens eine Vielzahl von Faktoren eine Rolle spielen. Performance-Engpässe können im Server genauso gut entstehen wie im Speichersystem. Im Speichersystem muss man das System als Ganzes sehen, also Anzahl der Platten, Busse, Memory, CPU usw. Das Protokoll ist nur ein kleiner Teil des Ganzen. In der Praxis werden Protokolle wie FC, iSCSI, NFS, CIFS, FCoE usw. koexistieren. Die Entwicklung bestimmen vor allem die Kunden; deren Entscheidung richtet sich oft nach Performance, Ease of Use und vorhandene Expertise um diese zu installieren und zu verwalten. EMCs Strategie ist es also, alle wichtigen Protokolle zu unterstützen und dafür zu sorgen, dass sie auch später hinzugefügt werden können, ohne dass der IT Betrieb gestört wird. Das erreichen wir mit unserer UltraFlex Technologie."

Robert Guzek - Fujitsu Technology Solutions: " FC wird nach wie vor seine Berechtigung haben, da insbesondere auch blockorientierte Anwendungen weiter auf FC setzen werden."

Guido Klenner - Hewlett Packard: " Für viele Unternehmen stellt FCoE eine interessante Alternative dar, vor allem jedoch beim Aufbau neuer Infrastrukturen. Kunden mit bestehender Infrastruktur hingegen bauen diese lieber auf den Standards iSCSI oder FC aus. Außerdem ist FCoE noch nicht vollkommen standardisiert. Aus diesen Gründen wird FC auch in den kommenden Jahren ein wichtiger Standard bleiben."

Dr. Georgios Rimikis - Hitachi Data Systems: "Hitachi Data Systems integriert 'Fibre-Channel over Ethernet' (FCoE) in seine Produkte und lässt dem Nutzer so alle Optionen offen. Fibre-Channel hat sich bisher als eine hoch zuverlässige Technologie bewährt. Viele Unternehmen haben enorme Summen in die Infrastruktur investiert und kennen sich erstklassig in deren Management aus. Um die bereits getätigten Investitionen zu schützen, setzen viele Firmen daher auf die Umrüstung auf 8 beziehungsweise 16 Gb-Technologie. Fibre-Channel wird uns noch die nächsten Jahre begleiten, denn über FCoE wird derzeit noch mehr gesprochen, als dass diese Technologie zum breiten Einsatz kommt."

Ralf Colbus, Leading Solution Sales Professional Storage, IBM Deutschland: "FCoE braucht noch eine gewisse Reifezeit, um in hochproduktiven Umgebungen eingesetzt werden zu können. Dies sollte Mitte oder Ende 2012 der Fall sein."
Foto: IBM

Ralf Colbus - IBM: "Ja, diese Meinung teilen wir auch. Zumal 16 Gbps verfügbar ist. FCoE braucht noch eine gewisse Reifezeit, um in hochproduktiven Umgebungen eingesetzt werden zu können. Dies sollte Mitte oder Ende 2012 der Fall sein."

"Neben den blockbasierten Systemen wird das neue SMB 2.2 und Network File System eine wichtige Rolle spielen. Unified Storage ist die richtige Wahl für klein- und mittelständischen Unternehmen, in größeren Installationen scheinen die Kunden jedoch beide Welten wieder trennen wollen."

Thomas Kao - Infortrend: " Wir denken, FC-Storage wird immer noch die erste Wahl für die meisten Unternehmen aufgrund seiner hohen Zuverlässigkeit und Leistung sein. FCoE wird bei FC-Storage Systemen eingesetzt, um ohne Änderung der System-Architektur die Storage Systeme zu erweitern, um so das Betriebsrisiko vor allem in großen Banken und Telekom-Unternehmen zu minimieren."

Herbert Bild - NetApp: "Der Trend geht vermehrt hin zu Ethernet und FCoE, nicht zuletzt aufgrund der Cloud- und Performance-Entwicklung. Aus Netzwerk-Konvergenzgründen ist FCoE die erste Wahl. Fibre Channel dagegen verzeichnet rückläufige Wachstumsraten, wird jedoch trotzdem noch weiterentwickelt und alleine auf Grund der hohen Verbreitung noch lange eingesetzt werden."

SSD-Verbreitung nimmt zu

Welche Verbreitung haben Solid State Disks in den Storage-Systemen inzwischen?

Hans Schramm - Dell: "Dell bietet SSDs in drei Array-Familien an: in der PowerVault MD-Serie, der EqualLogic PS-Serie und Dells Compellent Storage Center SAN. Die Nachfrage nach SSDs wird 2012 weiter zunehmen; wie stark hängt jedoch von verschiedenen Faktoren ab. Zu berücksichtigen sind erstens die vorhandenen Kapazitäten, die im Vergleich zu herkömmlichen Platten noch recht gering sind. Wichtiger aber sind Softwarelösungen in den einzelnen Storage-Systemen, die eine automatische Storage-Klassifizierung der Daten vornehmen. Geschieht das, können die noch recht bescheidenen SSD-Kapazitäten effizient genutzt werden. Denn um Daten "ungezielt" auf SSDs abzulegen, sind die aktuell verfügbaren Modelle noch zu klein und vor allem zu unwirtschaftlich."

Daniel Pelke - EMC: "EMC bietet heute in allen Primärspeichersystemen SSDs an. Die Strategie "Flash 1st" optimiert die Performance und die Kosten und ist am Markt einzigartig. Nur durch den Einsatz von Flash-Laufwerken und Festplattenlaufwerken mit hoher Kapazität in einem einzigen Speichersystem ist die Effizienz jedoch noch nicht automatisch gegeben. Für maximale Effizienz müssen Komponenten zur Überwachung und Verlagerung alternder Daten eingesetzt werden."

"Die Kombination aus FAST VP und FAST Cache optimiert Datenspeicher für die beste Performance bei den niedrigsten Kosten. In diesem Modell werden häufig abgerufene Daten auf Flash-Laufwerken oder auf Festplattenlaufwerken mit hoher Performance gespeichert. Wenn die Daten veralten, werden sie gemäß kundendefinierter Policies auf kosteneffizientere Laufwerke verschoben und geben Platz für im Verhältnis aktivere Informationen frei. Die FAST Technologien sind einer der Hauptverkaufsargumente von unseren VNX Systemen und die Verbreitung ist enorm."

Robert Guzek - Fujitsu Technology Solutions: "SSDs ermöglichen, sehr anspruchsvolle Kundenanforderungen gerade auch im Datenbankumfeld, bei denen eine niedrige Latenzzeit erforderlich ist, zu erfüllen."

"In den folgenden Bereichen ist eine zunehmende Investitionsbereitschaft in SSDs festzustellen:"

"Dank SSDs werden Enterprise-Speichersysteme in ihrer Performance nicht mehr beschränkt auf herkömmliche Festplattenlaufwerke und die damit verbundene kostspielige Praxis des Verteilens von Transaktionen auf viele nicht optimal genutzte Festplattenlaufwerke. SSDs vereinen die Leistung und Energieeffizienz der Flash-Technologie. Die zunehmende Verbreitung der SSDs hängt aber auch mit den fallenden Anschaffungskosten und der wachsenden Bedeutung von Storage Tiering zusammen."

Guido Klenner - Hewlett Packard: "Die Verbreitung von SSDs nimmt stetig zu. Jedoch gibt es verschiedene Faktoren, die aktuell dem noch rascheren Wachstum entgegenwirken: Einerseits liegt das beispielsweise an Software, die das volle Potenzial der Hochgeschwindigkeitsplatten noch nicht ausnutzen kann. Anderseits sind SSDs im Geschäftseinsatz immer noch sehr kostspielig."

Dr. Georgios Rimikis - Hitachi Data Systems: "Solid State Drives (SSD) werden weiter an Bedeutung gewinnen. Allerdings hat sich der Preis gegenüber den konventionellen Festplatten nicht entscheidend verbessert. Dieses Medium ist die letzten Jahre, wie die klassische Festplatte auch, günstiger geworden. Der Preisunterschied pro Megabyte ist sehr groß. Für die Anschaffung von SSDs ist also nach wie vor der wirtschaftliche Aspekt ausschlaggebend. Das bedeutet auch, dass SSDs immer voll ausgelastet werden sollten - gerade in hochperformanten Speicherumgebungen wie der Virtual Storage Platform (VSP) von Hitachi Data Systems. In diesem Zusammenhang spielen Funktionalitäten wie Dynamic Tiering eine entscheidende Rolle."

Ralf Colbus - IBM: "SSDs sind faktisch in allen IBM-Systemen verfügbar. Sie sind sozusagen 'massenkompatibel'. Teilweise werden sie als Cache-Erweiterung oder als Disk-Ersatz eingesetzt."

Thomas Kao, Direktor Produktplanung, Infortrend: "Sinkende Preise, Unempfindlichkeit gegen Stöße und Vibrationen und eine hohe Leistung machen die SSDs immer interessanter für den Speichermarkt."
Foto: Infortrend

Thomas Kao - Infortrend: "Sinkende Preise, Unempfindlichkeit gegen Stöße und Vibrationen und eine hohe Leistung machen die SSDs immer interessanter für den Speichermarkt. Infortrend wird so viele Speichersysteme wie möglich mit diesen Speichermedien ausstatten, damit Anwender mit den steigenden Anforderungen im Rechenzentrum Schritt halten können. Aktuell unterstützt Infortrend SSDs von Branchen führenden Anbietern wie Intel, STEC und Hitachi mit unterschiedlichen Kapazitäten."

Herbert Bild - NetApp: "Solid State Caching ist die effektivste Methode, um den technologischen Vorteil von Flash sinnvoll in skalierbaren und ökonomisch sinnvollen Dimensionen einzusetzen. Daher ist SSD in unseren Highend-Storage Systemen seit 2011 serienmäßig integriert. Durch das im Kaufpreis enthaltene Standard-Feature profitieren unsere Kunden durch den Einsatz von Flash Memory als intelligentem Cache von einer verbesserten Performance und Storage-Effizienz."

Storage-Herausforderungen 2012

Was sind die Herausforderungen der Unternehmen - Ihrer Kunden - im Jahr 2012 bei der Storage-Infrastruktur?

Hans Schramm - Dell: "Die Herausforderungen dürften sich gar nicht so stark ändern: Das Datenwachstum muss bewältigt werden, mehr und mehr Anwender wollen mit ihren mobilen Geräten auf zentral vorhandene Daten zugreifen, und dazu gibt es auch noch das immerwährende Thema Datensicherung und Datenschutz (Backup/Retrieval). Unternehmen benötigen dazu zentrale, effiziente Storage-Lösungen, die virtuell strukturiert sind und für ein einfaches Management bei gleichzeitig hoher Datensicherheit sorgen."

Daniel Pelke - EMC: "Die Herausforderungen kommen mit dem geänderten Enduser-Verhalten. Stellen sie sich vor, sie starten ein Projekt oder richten eine Taskforce ein und wollen im Team Inhalte bereitstellen. Die Devices, die die Teammitglieder nutzen, sind unterschiedlich wie Desktop PC, Tablets, Smartphones etc. und der Zugriff erfolgt jederzeit und von überall. Das entspricht ungefähr dem Profil der neuen sogenannten Knowledge Worker. Wie lange braucht eine traditionelle IT Abteilung um 20 GByte bereitzustellen? Wie lange dauert es, 10 GByte Kapazität bei einem Cloud-Storage-Provider für das Team bereitzustellen?"

"Die IT Abteilung wird sich zukünftig stärker mit den Cloud Providern messen müssen. Das hat sehr große Auswirkungen auf Architekturen und Prozesse. EMC als der führende Technologieanbieter im Bereich Cloud Infrastrukturen unterstützt seine Kunden bei der Bewältigung dieser Herausforderungen."

"Die Einfachheit mit der Kapazität und Funktionalität verfügbar gemacht wird, führt zu einem schnelleren Datenwachstum. Das stellt weitere Herausforderungen für den IT Betrieb dar, beispielsweise im Backup-Bereich. Auch hier bietet EMC seinen Kunden beispielsweise mit Soft- und Hardware-Produkten die Datendeduplizierung an, die eine große Hilfe ist."

Robert Guzek - Fujitsu Technology Solutions: "Gerade jetzt stehen Rechenzentrumsbetreiber vor schwierigen Aufgaben. Ein rasant steigendes Datenwachstum auf 4,4 Yotabyte bis 2050 (Quelle: Horizon) erschwert ein konsistentes Management der Infrastruktur. Gleichzeitig steigen die verfügbaren Storage-Budgets nicht im gleichen Maße wie die Datenmenge. Neue Technologien könnten Chancen bieten, den Herausforderungen zu begegnen, aber oft fehlen die Mittel, um Evaluierungen durchzuführen und Einsatz-Planungen einzuleiten. Sofern der Ist-Zustand nicht ausreichend bekannt ist, können die Vorteile neuer Technologien nicht detailliert bewertet werden. Es gilt mit dem Wachstum und der Komplexität der sich ständig verändernden Speicher- und Performanceanforderungen Schritt zu halten. Schulungen und eine klare Unternehmensstrategie können hier weiterhelfen. Hersteller mit einem durchgängigen Storage-Portfolio wie zum Beispiel bei Fujitsu können helfen, diese Herausforderungen zu meistern."

"Bleibt jedoch, dass die Klassifizierung unstrukturierter Daten, der mittlerweile größten Datengruppe im Unternehmen, die vergleichsweise größte Herausforderung darstellt. Unternehmen müssen sich dem stellen, da viele relevante Daten- und Wissensbestände ansonsten nicht oder nur mit großem Aufwand nutzbar sind."

Guido Klenner - Hewlett Packard: "Ein großes Thema ist in diesem Jahr der Festplatten-Engpass durch die Flutkatastrophe in Thailand. Entgegen dem sonstigen Trend werden Festplatten dadurch aktuell pro Monat 10 bis 15 Prozent teurer, gleichzeitig steigen die Lieferfristen. Das war so vor einem Jahr absolut nicht vorhersehbar und darauf müssen Unternehmen aktuell reagieren. Das hat die Unternehmen wachgerüttelt und so werden in diesem Jahr langfristige Speicher-Strategien entwickelt. Darüber hinaus bleibt der Kostendruck auf die IT bestehen. Also müssen IT-Abteilungen schauen, wie sie ihre Speicher durch Konsolidierung und Virtualisierung bestmöglich ausnutzen und durch ein integriertes Management die Verwaltungskosten senken."

Dr. Georgios Rimikis - Hitachi Data Systems: "Die Hauptherausforderung ist der Umgang mit dem exponentiellen Wachstum von digitalen Daten, besonders von unstrukturierten Daten und den damit verbundenen Hardware- und Managementkosten. Die Big-Data-Problematik wirkt sich drastisch auf Unternehmen und insbesondere auf die Anforderungen auf deren IT aus. Hitachi Data Systems unterstützt Unternehmen bei der Transformation ihrer IT hin zum Information Center, in dem ihre Daten jederzeit und von jedem Ort aus verfügbar sind - unabhängig von Infrastruktur und Anwendungen. Eine weitere Herausforderung ist es, die vorhandenen IT-Umgebungen noch effizienter zu nutzen und die so genannte 'Consumption Gap' zu schließen. Auch in diesem Bereich kommt unser umfangreiches Portfolio an Software und Services zum Tragen."

Ralf Colbus - IBM: "Die Herausforderung für unsere Kunden wird im kommenden Jahr der Umschwung von 70 Prozent Betriebskosten und 30 Prozent Investitionsaufwand hin zu neueren Technologien und effizienteren Systemstrukturen sein. Des Weiteren werden das starke Datenwachstum und die zunehmenden globalen Vernetzungen von Bedeutung sein."

Thomas Kao - Infortrend: "Aufgrund der unsicheren globalen Wirtschaftslage sind Unternehmen deutlich vorsichtiger bei ihren IT-Investitionen geworden. Gerade bei der Implementierung von Storage Arrays stehen Effizienz und der Return on Investment (ROI) immer mehr im Vordergrund. Zudem haben Unternehmen höhere Anforderungen an ihre Systeme in Bezug auf Auslastung, Flexibilität und Haltbarkeit."

Herbert Bild, Solutions Marketing Manager, NetApp: "Zu den Herausforderungen 2012 zählt in erster Linie die Bewältigung des ungebremsten Datenwachstums."
Foto: NetApp

Herbert Bild - NetApp: "Zu den Herausforderungen 2012 zählt in erster Linie die Bewältigung des ungebremsten Datenwachstums. Hier liegt das Problem nicht zwangsläufig im Gesamtvolumen sondern darin, dass Informationen nicht differenziert betrachtet werden können. Eine automatisierte, unternehmensweite Klassifizierung von Daten nach wichtig, unwichtig, aufbewahrungspflichtig, löschbar, sicherheitsrelevant oder öffentlich ist hier der Schlüssel und wird die größte Aufgabe im kommenden Jahr."

"Außerdem spielt weiterhin die Flexibilisierung der IT-Infrastrukturen eine entscheidende Rolle, um den wechselnden wirtschaftlichen Anforderungen des Business schneller gerecht zu werden. Storage muss damit noch flexibler, dynamischer und effizienter werden. Speziell in Zeiten wirtschaftlicher Unbeständigkeit und in denen Investments knapp sind, rückt dieses Thema verstärkt in den Vordergrund."

Ausblick: Weitere Storage-Trends 2012

Welche weiteren allgemeinen Storage-Trends sind 2012 zu erwarten?

Hans Schramm - Dell: "Cloud Computing in den verschiedensten Varianten (privat, öffentlich, hybrid) wird sich in den Unternehmen weiter durchsetzen. Zu nennen sind aber auch Themen wie automatisches Storage Tiering (Datenklassifizierung) sowie die Einbindung von Deduplizierungs-Algorithmen und Kompressionsverfahren."

Daniel Pelke - EMC: "Die Virtualisierung wird immer wichtiger. Die Entwicklungen von VMware, Citrix und Hyper-V schreiten immer schneller voran."

"Mit dem Verfall der Preise für Flash Speicher werden wir sicherlich noch einige neue interessante Anwendungsfälle sehen."

"Ein weiterer Trend sind sogenannte ScaleOut NAS Speichersysteme. Hier ist EMC mit ISILON bestens gerüstet. Bestimmte Anwendungsszenarien sprengen die Leistungsfähigkeit herkömmlicher Speichersysteme. Das ist ein Teil der Big Data Diskussion."

Robert Guzek - Fujitsu Technology Solutions: "Ein Trend ist natürlich Big Data, wobei sich Big Data vorrangig mit großen Datenmengen befasst. Für den Kunden selbst wird das Konzept des 'Efficient Data Use' immer wichtiger. 'Efficient Data Use' stellt die Betrachtung der Daten als Ganzes in den Vordergrund. Es basiert auf einem Drei-Schichten-Modell, wobei 'Efficient Data Use' die erste Schicht selbst darstellt. In der zweiten Schicht folgen Segmente wie Online-Data Management (Big Data), Efficient Data Protection, HSM, Datenklassifizierung und Migration. In der dritten Schicht sind Technologien wie zum Beispiel virtuelle Umgebungen, Deduplikationen, Tiered Storage und Provisioning angesiedelt."

"Somit geht 'Efficient Data Use' auf die Bedürfnisse der Nutzer ein, da nicht mehr nur Datenteilbereiche berücksichtigt werden, sondern das effektive Verwenden der Daten adressiert wird."

"Nachdem im Server-Umfeld die Virtualisierung weitgehend abgeschlossen ist, wird 2012 der Bereich Storage für Virtualisierung interessant bleiben. Auch Cloud-Storage bleibt ein Fokusthema, hier werden transparente kundenorientierte Services immer mehr in den Vordergrund treten."

"Unified Storage wird bei Infrastrukturkonsolidierungen interessanter, da hier Produkte verschiedener Storage-Hersteller wirtschaftlich abgelöst werden können."

Guido Klenner - Hewlett Packard: "2012 wird es keinen neuen großen Trend wie in den vergangenen Jahren geben. Vielmehr setzen sich die Trends der vergangenen Jahre in diesem Jahr fort: Dazu zählen unter anderem die Konsolidierung, für die HP im vergangenen Jahr mit der Converged Infrastructure und den Converged-Storage-Produkten Lösungen für Unternehmen jeder Größenordnung vorgestellt hat. Ein weiterer Trend des vergangenen Jahres sind Appliances, also Komplettlösungen bestehend aus aufeinander abgestimmter Hard- und Software beispielsweise für die Deduplizierung oder die Datenanalyse. Mit solchen Out-of-the-Box-Lösungen können auch Mittelständler Speicherlösungen anwenden, die bisher Großunternehmen vorbehalten waren."

Dr. Georgios Rimikis - Hitachi Data Systems: "Ein Trend, der uns auch in 2012 begleiten wird, ist das Thema 'Cloud'. Mit unserem Angebot an Storage-, Software-, Compute- und Converged-Data-Center-Lösungen adressieren wir hier den Bedarf der Unternehmen, die Ihre IT- Infrastruktur zukunftsfähig auf- und ausbauen möchten. So können Sie sich in ihrem eigenen Tempo schrittweise ihre Cloud-Umgebungen schaffen."

"Kunden setzen statt auf 'Outsourcing' wieder vermehrt auf den inhouse-Betrieb. Wir unterstützen diesen Trend durch das gezielte Einbeziehen unserer Kunden und die Übergabe des neugeordneten Betriebes zum vereinbarten Zeitpunkt."

Ralf Colbus - IBM: " Da gibt es einige Themen, die uns 2012 erwarten. Auf der einen Seite wird ein stärkeres Zusammenwachsen von Server und Storage erfolgen, während auf der anderen Seite nach wie vor spezialisierte Systeme für bestimmt I/O-Anforderungen gefragt sind. Beispiele hierfür sind Business Intelligence oder Data Warehouse Systeme, die spezielle IO-Zugriffe verlangen."

"Zudem werden wir mehr In-Memory Applikationen für verschiedene Storage-Disziplinen zu sehen bekommen. Das bedeutet, dass neue Server-Storage-Infrastrukturen und Technologien aufkommen werden."

"Cloud Computing und Cloud-Übergänge von Public über Private oder Hybride Clouds sind Trends, die auch für den Mittelstand in 2012 interessant sind."

"Trotz aller Neuheiten wird auch das alt bekannte Information Lifecycle Management im nächsten Jahr heftig an den Türen klopfen. Die Herausforderungen liegen darin, Tierstufen optimal zu nutzen und die Daten zu speichern. Die Speicherung auf Tapes gehört für uns ebenfalls dazu. Das alles muss transparent für die Applikation sein, denn das wirkt sich vor allem im unstrukturierten Datenumfeld positiv aus."

"Heute werden fast zwei Drittel der Kosten für Administration und Management ausgegeben, das bedeutet, dass Einfachheit des Betriebs und Effizienz ein Schlüsselthema in 2012 sein wird."

Thomas Kao - Infortrend: "Um dem wachsenden Datenaufkommen entgegenzutreten, werden Unternehmen in 2012 verstärkt auf Cloud Computing setzten. Auch wird das Thema Virtualisierung den Markt weiter beherrschen. Darüber hinaus müssen Unternehmen versuchen, ihre Speicherinfrastruktur möglichst effizient und kostengünstig zu betreiben, damit sie auch in wirtschaftlich unsicheren Zeiten gut aufgestellt sind. Neben Cloud Computing werden auch SSDs in 2012 ein großes Thema sein."

Herbert Bild - NetApp: "Kunden werden immer anspruchsvoller. Daher steigt die Nachfrage nach Best-of-Breed Lösungen. Vordefinierte und ausgereifte Rechenzentrumslösungen aus aufeinander abgestimmten IT-Komponenten wie NetApp FlexPod sind im Kommen."

"Nicht zu vergessen der anhaltende Trend hin zu Cloud-Lösungen. Standardisierte Applikationen werden zunehmend in Public Clouds ausgelagert, dennoch bleibt 2012 die private Cloud das beherrschende Konzept vieler deutscher Unternehmen. Der Trend zur Storage-Virtualisierung setzt sich fort und wird mehr und mehr zum Standard. Klassische Rechenzentrums-Provisionierungsprozesse müssen sich der Dynamik anpassen und Automatisierungstechnologien diese unterstützen. Auf dem Weg zur Service-orientierten Infrastruktur wird die Umsetzung dieser Anforderung 2012 eine Herausforderung sein."

(cvi)

Dieser Artikel basiert auf einem Beitrag der CW-Schwesterpublikation TecChannel.