Backup, Virtualisierung, Speicher-Management

Die wichtigsten Storage-Trends 2010

26.02.2010 von Christian Vilsbeck
Die Protagonisten der Speicher-Szene erläutern, auf welche Storage-Trends IT-Verantwortliche in diesem Jahr achten sollten.

Der Kostendruck auf die IT-Verantwortlichen in Unternehmen hält auch 2010 unvermindert an. Im Storage-Bereich stehen CIOs und andere Entscheider vor einem Dilemma: Die Menge der zu speichernden Daten wächst stetig, die IT-Budgets dagegen schrumpfen oder bleiben bestenfalls auf gleichem Niveau. In diesem Szenario werben die Anbieter von Speicher-Systemen mit einer ganzen Reihe neuer Techniken und Betriebsmodelle. Die Palette reicht von Cloud-Computing-Angeboten über neue Management-Methoden bis hin zu effizienzsteigernden Techniken wie Deduplizierung.

Wir haben die führenden Speicher-Hersteller gefragt, was aus ihrer Sicht die wichtigsten Storage-Trends für 2010 sind und wie Unternehmen davon profitieren können:

Bildergalerie: Storage-Trends 2010
Storage-Trends 2010
Andreas Bechter, Symantec: „Siebzig Prozent aller Unternehmen setzen noch keine Deduplizierung ein. Dies wird sich dieses Jahr ändern, da die Firmen diese Funktion aktivieren wollen, sobald sie standardmäßig in den Speichersystemen integriert ist.“ (Quelle: Symantec)
Storage-Trends 2010
Bernd Gill, HP: „Das Thema Energieeffizienz ist mittlerweile Bestandteil der meisten Ausschreibungen.“ (Quelle: Hewlett Packard)
Storage-Trends 2010
Detlef Lieb, FTS: „Die Auswirkungen der Finanzkrise sind mit einiger Verzögerung deutlich spürbar. Allerdings gibt es bezüglich Speichersysteme wenig Alternativen, um dem gewaltigen Datenwachstum Herr zu werden.“ (Quelle: Fujitsu Technology Systems)
Storage-Trends 2010
Georgios Rimikis, HDS: „Konsolidierung und Virtualisierung sind bei Hitachi Data Systems kein Widerspruch, sie gehen Hand in Hand.“ (Quelle: Hitachi Data Systems)
Storage-Trends 2010
Mika Kotro, EMC: „Die Verwaltung der immer weiter ansteigenden Datenmengen stellt weiterhin eine große Herausforderung dar.“ (Quelle: EMC)

Ausführliche Informationen rund um das Thema Storage finden Sie in unserer Storage-Rubrik.

Standardisierte Management-Software

Eine Standardisierung bei der Management-Software für Storage-Systeme wird für Unternehmen immer wichtiger. Was tun Sie?

Mika Kotro, EMC: EMC ist aktiv an der Weiterentwicklung des SMI-S Standards beteiligt und unterstützt diesen in allen Systemen. Des Weiteren sind auch die Produkte aus der EMC IONIX-Familie darauf ausgelegt, heterogene Umgebungen zu erkennen und zu verwalten.

Detlef Lieb, Fujitsu: Sicher nimmt jeder Storage-Hersteller für sich in Anspruch, für seine Systeme umfassende und einheitliche Management-Software anzubieten. Der Standardisierung sind durch die Unterschiede und Eigenheiten der Storage-Systeme jedoch Grenzen gesetzt. Entscheidend ist allerdings, wie gut sich hersteller- beziehungsweise produktspezifische Steuersoftware, in die meist bereits vorhandenen Management-Frameworks einbinden lassen. Anwender sollten sich daher weniger auf tiefgreifende Standardisierungen verlassen, sondern auf einfache Handhabung und gegebenenfalls gute Einbindung in übergeordnete Management-Frameworks.

Guido Klenner, Johannes Horneck & Bernd Gill, Hewlett Packard: IT-Abteilungen stehen unter hohem Effizienzdruck und fordern von den Speicherherstellern zentralisierte, übergreifende Managementwerkzeuge für heterogene Speicherumgebungen. Hierfür empfiehlt sich die Einführung einer übergeordneten Managementschicht, in der die verschiedenen Tools der Hersteller zusammengeführt und über eine einheitliche Oberfläche zentral bedient werden können. Unsere Kunden können über unser Storage Ressource Management Tool HP Storage Essentials alle gängigen Hardware-Plattformen zentral verwalten und durch Automatisierung von Verwaltungsaufgaben optimieren. Mit der HP SAN Virtualization Services Platform (HP SVSP) integrieren wir zusätzlich auch die Speicherressourcen selbst in einem virtualisierten SAN, so dass die Kapazitäten flexibler und effizienter eingesetzt werden können. Mit HP Insight Dynamics bieten wir außerdem eine übergreifende Management-Plattform, die auch die zentrale Verwaltung von nicht vernetzten Speicherressourcen wie beispielsweise direkt an den Server angebundenen Festplatten (Direct Attached Storage) ermöglicht. All diese Werkzeuge sind eingebunden in das übergreifende HP-Converged-Infrastructure-Konzept für ein zentrales Management aller IT-Domänen.

Georgios Rimikis, Hitachi Data Systems: Standardisierung wird in der Tat aus Kosten- und Management-Gründen weiterhin eine wichtige Rolle spielen. Alle großen Anbieter von Speicherlösungen agieren auf dem Markt mit Produkten, die unterschiedliche Segmente abdecken sollen, wie Highend, Midrange, SAN, NAS und Archivierung. Wir sind der einzige Anbieter, der eine einheitliche Software-Plattform zur Verfügung stellt, die alle Segmente zentral abdeckt: In Verbindung mit der Universal Storage Platform (USP V) und der Speichervirtualisierung kann HSCS auch Systeme anderer Hersteller verwalten. Wir vertreten den Standpunkt, dass nur eine Software-Komponente, die auf Standards basiert, langfristig überlebensfähig ist. Dies impliziert Investitionsschutz, Interoperabilität und Zukunftssicherheit. Unsere Speicher-Management-Familie Hitachi Storage Command Suite vereinfacht und zentralisiert die Verwaltung komplexer Speicherumgebungen und reduziert so die TCO. Sie basiert auf den folgenden Standards: Common Information Model (CIM), Web Based Enterprise Management (WBEM), Storage Management Initiative Specification (SMI-S) und Simple Object Access Protocol (SOAP). Für unsere Archivierungslösung haben wir eine Methode entwickelt, die Files in Standard-File-Formate wie HTML und XML speichert und mehrere Protokolle wie NFS, CIFS/SMB, http, WebDav, SMTP, NDMP, SNMP unterstützt.

Ralf Colbus, IBM: „Storage-Management-SW hat große Potentiale, um die Kosten zu reduzieren - Einsparungen von bis zu 25 Prozent könnten unseren Erfahrungen zufolge hier erreicht werden.“ (Quelle: IBM)

Ralf Colbus, IBM: Wir forcieren und unterstützen in den Normierungs-Gremien offene Standards, sehen aber, dass das Thema Storage-Management, speziell Ressourcen-Management, noch nicht auf der Top-Prioritätenliste der Kunden steht. Was wir jedoch auch sehen, ist die Tendenz zur SW-Automatisierung von Standardabläufen (Backup-Restore etc.) - dies wird speziell 2010 wichtig, da es helfen wird, SLAs besser einzuhalten. Storage-Management-SW hat große Potentiale, um die Kosten zu reduzieren - Einsparungen von bis zu 25 Prozent könnten unseren Erfahrungen zufolge hier erreicht werden.

Alexander Wallner, NetApp: Wir verfolgen für unsere eigenen Systeme seit jeher den Ansatz einer durchgängig einheitlichen Verwaltbarkeit. Egal für welches unserer Systeme oder für welche Applikation von Exchange bis VMware, das Management über unsere Manageability Software Suite hat immer dasselbe Grundprinzip. Das Feedback unserer Kunden ist sehr positiv, da der Lern- und Arbeitsaufwand sehr gering ist. Storage ist keine Insel, das heißt auch die Integration in große Management-Frameworks wie etwa Tivoli ist wichtig. Im Rahmen unseres Open-Systems-Ansatzes lässt sich auch das realisieren.

Andreas Bechter, Symantec: Sowohl die Branchenkonsolidierung als auch der zunehmende Wettbewerb werden den Bedarf für heterogene, standardisierte Management-Software 2010 wachsen lassen. Symantec hat diese Entwicklung früh erkannt und gefördert. Wir setzen uns seit Jahren verstärkt für Kompatibilität ein und werden diesen Ansatz weiter vorantreiben. Der Anwender wird in seiner Wahlmöglichkeit deutlich gestärkt.

Cloud-Storage

Ist in Deutschland nur ein Trend zur Private Cloud zu sehen? Welche Bedenken und rechtliche Fragen sehen Unternehmen bei Cloud/SaaS?

Mika Kotro, EMC: „Derzeit haben Unternehmen vor allem Bedenken hinsichtlich der Auslagerung sensibler Informationen in die Cloud, vor allem im Hinblick auf die strengen europäischen Datenschutzregelungen.“ (Quelle: EMC)

Mika Kotro, EMC: Cloud Storage ist nur ein Aspekt der Private-Cloud-Initiative. Neben Storage umfasst diese ebenso Compute und Netzwerk. Die Private-Cloud-Initiative verfolgt dabei einen modularen Ansatz. Je nach Bedarf des Nutzers können einzelne Komponenten, wie beispielsweise Storage, oder eben das gesamte Paket genutzt werden. Die Zielsetzung sind durchgängig virtualisierte IT-Infrastrukturen. Derzeit haben Unternehmen vor allem Bedenken hinsichtlich der Auslagerung sensibler Informationen in die Cloud, vor allem im Hinblick auf die strengen europäischen Datenschutzregelungen. Um die Sicherheit der Informationen in der Cloud, also auf der Virtualisierungsebene, zu gewährleisten, hat EMC Sicherheitstechnologien und -lösungen von RSA zur Verschlüsselung und Zugriffskontrolle integriert.

Detlef Lieb, Fujitsu: Cloud-Storage ist als moderne Bereitstellung von Services zu sehen. Ob dies als Cloud oder SaaS zu definieren ist, hat viel mehr mit theoretischem Disput als praktischer Relevanz zu tun. Zunächst wird die Wirtschaftlichkeit darüber entscheiden, ob Storage-Services auf Abruf für die kommerzielle Datenverarbeitung Marktanteile gewinnen werden. Dabei ist alles denkbar, was die Technik hergibt. Stehen Bandbreiten zu erschwinglichen Preisen zur Verfügung, werden auch Wide Area Storage-Clouds für kommerzielle Anwendungen entstehen. Dann werden Sicherheitsfragen natürlich im Vordergrund stehen. Es ist davon auszugehen, dass Netzwerkanbieter all ihre Kunst aufbieten werden, um akzeptable Sicherheit für Transfer und Inhalte zu gewährleisten.

Guido Klenner, Johannes Horneck & Bernd Gill, Hewlett Packard: Gerade im Mittelstand werden Cloud-Angebote im engen Sinn, bei denen ein unbekannter Rechnerverbund einer anonymen Kundschaft gegenübersteht, keinen großen Markt erobern. Stattessen werden Mittelständler auf Angebote von Anbietern zurückgreifen, bei denen bekannt ist, wo und wie die Daten gespeichert werden, und zu denen ein vertrauensvoller persönlicher Kontakt existiert. Das ist dann kein Cloud Computing im engeren Sinn mehr, wir sprechen hier von Utility Sourcing. Der Betrieb, beziehungsweise die Vorhaltung von Speicher-Ressourcen beispielsweise ist ein reines Commodity-Geschäft. Jedes Unternehmen muss daher genau evaluieren, ob es Storage selbst betreiben möchte, oder, ob es Storage aus cloud-ähnlichen-Lösungen – wie dem oben genannten Utility Sourcing – bezieht. Das HP Utility Sourcing bietet mit geringen Abstrichen die Vorteile des Cloud Computing wie schnelle Skalierbarkeit nach oben und unten und geringe bis keine Kapitalbindung – ohne aber dessen Nachteile in Kauf nehmen zu müssen. Darüber hinaus bietet HP Utility Sourcing höchste Sicherheit. Es ist jedoch unbestritten, dass auch das klassische Cloud Computing eine Menge Vorteile mit sich bringt: Unternehmen binden weniger Kapital in der Infrastruktur, werden flexibler und können vorhandene Ressourcen besser nutzen. Dennoch ist Cloud Computing im Unternehmensumfeld ein kritisches Thema. So gibt es gravierende Vorbehalte wegen rechtlicher Restriktionen. Das Steuerrecht schreibt beispielsweise vor, dass steuerrechtlich relevante Daten in dem Land vorgehalten werden müssen, in dem die Steuern gezahlt werden. Zum anderen gibt es erhebliche Bedenken in den Unternehmen, die Kontrolle über wichtige Daten und Prozesse in der Cloud zu verlieren. Denn im Gegensatz zum klassischen Outsourcing, bei dem eine dedizierte Infrastruktur für jeden Kunden aufgebaut wurde, sind beim Cloud Computing alle Ressourcen des Anbieters in einem virtuellen Pool gebündelt und werden nach Bedarf von den Kunden beansprucht. Hier fehlt aktuell das Vertrauen, dass alles mit rechten Dingen zugeht und virtuelle Infrastrukturen tatsächlich mandantenfähig sind. Mit dem Konzept der Private Cloud haben die Anbieter wirksame vertrauensbildende Maßnahmen ergriffen: Private Clouds bilden einen geschützten Bereich innerhalb einer virtuellen Infrastruktur, der unter voller Kontrolle des Eigentümers steht. Dazu werden Sicherheitstechnologien wie Verschlüsselung, Zoning und sichere Authentifizierungsverfahren eingesetzt. Private Clouds können sowohl in einer unternehmenseigenen Cloud-Infrastruktur eingesetzt wie auch in der Public Cloud angemietet werden. Durch intelligente Management-Verfahren können Unternehmen somit selbst steuern, welche Daten und Prozesse in der eigenen Umgebung liegen und was ausgelagert wird. Ein großer Wachstumsmarkt in diesem Bereich ist beispielsweise das gesamte Archivierungsumfeld.

Georgios Rimikis, Hitachi Data Systems: Cloud ist mit Sicherheit ein interessantes Konzept, das neue Möglichkeiten eröffnet und neben anderen Konzepten koexistieren wird. Im Bereich der Private Cloud, im Sinne des Cloud Storage, sind wir mit unserer Art der controller-basierten Storage-Virtualisierung de facto bereits seit einigen Jahren angekommen. Die Mandantenfähigkeit unserer Hitachi Content Platform (HCP) eröffnet uns im Cloud-Segment neue Möglichkeiten. Dieser Bereich wird auch in Zukunft weiter wachsen. Nichts desto trotz gibt es etliche rechtliche Bedenken, die vor allem im Bereich Public Cloud verhaftet sind. Standardisierung und einheitliche Schnittstellen sind bislang nur marginal vorhanden – die SNIA (Storage Networking Industry Association) hat dazu eigens eine Cloud-Storage-Gruppe gebildet, die sich dem Thema annimmt. Darüber hinaus gibt es nach wie vor Bedenken und Einschränkungen in den Bereichen Verfügbarkeit, Sicherheit und Compliance. Nicht zu unterschätzen sind außerdem der teils hohe Integrationsaufwand sowie die Leistungsfähigkeit von Clouds.

Ralf Colbus, IBM: Es werden mehr Private- und Public-Cloud-Angebote sichtbarer werden als noch in 2009 - das Thema ist aber in den Kinderschuhen und bedarf noch Aufklärungsarbeit der Hersteller. Private-Cloud-Technologien und Services sind leichter zu adaptieren - die sensitiven Daten werden in der Regel inhouse gespeichert und dabei Technologien der Cloud-Systeme genutzt. Public-Storage-Cloud ist sehr viel "Bauch-Sache" - hier nutzt ein Kunde die Dienstleistung des Cloud-Anbieters und übergibt ihm quasi "seine Daten". Klärungsbedarf sind unter anderem: Welche Modelle gibt es und wie kann ich sie nutzen? Wie wird die Sicherheit gewährleistet? Wie die Mandantenfähigkeit? Können die vertraglich zugesicherten SLA's gehalten werden? Wie sicher ist das Abrechnungsmodell? Was passiert, wenn der Cloud-Hersteller mit meinen Compliance-Daten / Archiv-Daten nach beispielsweise 14 Jahren nicht mehr existiert?

Alexander Wallner, NetApp: Nicht unbedingt. Auch öffentliche Clouds, die jeder Mensch mit einem Internetzugang nutzen kann, werden immer interessanter und beliebter. In diesem Bereich wird sich sicherlich noch einiges tun. Worauf Unternehmen bei der Einführung von Cloud Services achten sollten:

Andreas Bechter, Symantec: Cloud-Speicher fassen in Deutschland zunehmend Fuß. Denn immer mehr Unternehmen suchen nach Wegen, die Effizienz ihrer Speicher zu verbessern und gleichzeitig deren Verwaltung zu vereinfachen. Die Verantwortung für die Daten liegt allerdings bei den Unternehmen. Mit der Novellierung des Datenschutzgesetzes in 2009 hat sich die Rechtslage für Organisationen noch deutlich verschärft. Bedenken gegenüber einem Cloud-Anbieter in punkto Zuverlässigkeit und Sicherheit der Daten sind daher durchaus verständlich. Umso wichtiger ist es, mit Partnern zusammenzuarbeiten, die über eine langjährige Erfahrung im Security- und Storage-Bereich verfügen. Bei einem vertrauenswürdigen Anbieter sind diese Punkte transparent und überprüfbar.

Storage-Virtualisierung

Die Storage-Virtualisierung – besonders über verschiedene Systeme - wird in vielen Unternehmen kleiner und mittlerer Größe noch stiefmütterlich behandelt. Was sind die Haupthemmnisse bei den Unternehmen?

Mika Kotro, EMC: KMUs verfügen nur selten über eine große Anzahl an Speichersystemen. Funktionen zur Storage-Virtualisierung wie beispielsweise Virtual Provisioning sind oftmals bereits in die Speichersysteme integriert und für den Bedarf von KMUs auch ausreichend.

Detlef Lieb, Fujitsu: Es sind die menschlichen Vorbehalte gegenüber einer Technologie, die nicht eindeutig greifbar ist. Dabei muss jedem klar sein, dass ohnehin weite Gebiete der Datenverarbeitung, selbst für so genannte Insider nicht mehr fassbar, sondern nur noch, wie beschrieben, nutzbar sind. Anders kann man der Komplexität nicht Herr werden und die enorme Funktionsvielfalt und hohe Wirtschaftlichkeit nutzen. Es liegt also an den Architekten, Ingenieuren und Designern virtueller Darstellungsformen / Technologien, die Mensch-Maschine-Schnittstellen so zu gestalten, dass Hürden und Akzeptanzprobleme unter der Oberfläche verschwinden.

Johannes Horneck, HP: „Viele Mittelständler haben nur eine vage Vorstellung davon, welche Effizienzsteigerungen und Kostenersparnisse durch die bessere Auslastung, unterbrechungsfreie Datenmigrationen und geringere Infrastrukturkosten zu erzielen sind.“ (Quelle: Hewlett Packard)

Guido Klenner, Johannes Horneck & Bernd Gill, Hewlett Packard: Während Server-Virtualisierung mittlerweile zum Standard geworden ist, fristet das Thema Speicher-Virtualisierung vor allem in KMU in der Tat vielfach ein Schattendasein. Das hat Gründe auf verschiedenen Ebenen. Zunächst müssen wir über mangelndes Wissen um die Möglichkeiten und Potenziale von Speicher-Virtualisierung reden. Viele Mittelständler haben nur eine vage Vorstellung davon, welche Effizienzsteigerungen und Kostenersparnisse durch die bessere Auslastung, unterbrechungsfreie Datenmigrationen und geringere Infrastrukturkosten zu erzielen sind. Als nächstes stellen wir sehr häufig psychologische Vorbehalte fest: Kunden wollen wissen, welche Informationen auf welcher Festplatte liegen. Der dritte Grund liegt in der Tatsache, dass im mittelständischen Umfeld vielfach noch dezentrale, nicht vernetzte Speicherstrukturen vorherrschen. Es fehlt also die Grundvoraussetzung, um Speicherkapazitäten zu virtualisieren. Während bei den ersten zwei Barrieren vor allem Aufklärung hilft, ist letzteres natürlich auch eine Investitionsfrage. Mit LeftHand bietet HP einen Technologie, die passgenau auf die Anforderung der dynamisierten IT abgestimmt ist. LeftHand wird in zwei Ausprägungen ausgeliefert: Die physikalische Lösung HP LeftHand P4000 SAN sowie die HP LeftHand Virtual SAN Appliance, die den vorhandenen Plattenplatz von ESX-Servern nutzt.

Georgios Rimikis, Hitachi Data Systems: Auch der Mittelstand kann von den Vorteilen der Virtualisierung profitieren. Hier müssen die gleichen Probleme wie in großen Unternehmen bewältigt werden: sinkende Budgets, geringe oder keine Ausfallzeiten, Hochverfügbarkeit und Funktionsvielfalt. Oftmals beanspruchen KMUs Speichermengen, die in nur einem Speichersystem residieren. In diesem Fall würde Speichervirtualisierung wenig Vorteile bringen. Unsere Midrange-Lösungen sind speziell auf die Belange von KMUs ausgerichtet. Mit nahezu 99,999 Prozent Verfügbarkeit, Kopiermöglichkeiten über große Distanzen und ein breites Spektrum an Funktionalitäten kann die Serie Adaptable Modular Storage 2000 (AMS2000) von Hitachi Data Systems die Unternehmen dabei unterstützen, Ihre Geschäftsziele zu erreichen. Für die effektive Nutzung der internen Speicherressourcen sorgt die Virtualisierungsfunktion Hitachi Dynamic Provisioning.

Ralf Colbus, IBM: Viele KMUs halten Virtualisierung für zu komplex - es ist aber genau der Vorteil, dem virtualisierter Storage entgegensteht! Einfachere Zuordnung von Speicher über Systemgrenzen hinweg erleichtert zum Beispiel die administrative Arbeit enorm. Dies, kombiniert mit höchster Verfügbarkeit (inklusive Weiterführung der Geschäftsprozesse, besserer Nutzung der eingesetzten Ressourcen, Investmentschutz sowie Herstellerunabhängigkeit zahlen sich aus! Ich möchte hier gerne den KMUs zurufen, sich ein wirkliches Bild von Virtualisierung zu machen - keine Folien, sondern Live in unseren Demo-Centern. Über 280 Referenzkunden haben sich bereits - aus allen Bereichen der Industrie - für solch eine Lösung entschieden. Die Angst vor unerwarteten Kosten wird auch angeführt, ist aber ebenfalls unbegründet, da sich die Kostenstruktur klar aufzeigen lässt. Die Vorteile - wie oben genannt - überwiegen: Kunden, die virtualisieren, haben in der Regel einen sehr schnellen ROI!

Alexander Wallner, NetApp: Auch im KMU-Markt geht es um die Konsolidierung der Server- und Datenbestände. Der einfachste und verlässlichste Weg ist ein zentralisierter Storage, auf dem die Daten konsolidiert werden. In Kombination mit einem Unified Storage-System lässt sich dabei auch Storage-Virtualisierung nutzen. Das ist der einfachste und sicherste Weg, auch für KMUs. Die Virtualisierung über verschiedene Systeme hinweg wird im KMU-Markt tatsächlich wenig genutzt. Das liegt an der Art der Lösungen, aber auch an der Beschaffenheit der vorhandenen Umgebungen und am internen Know-how.

Andreas Bechter, Symantec: Gerade bei den KMUs besteht noch hoher Aufklärungsbedarf im Bereich Speicher-Virtualisierung. Dabei kommen gerade dem Mittelstand die Vorteile der Virtualisierung zu Gute. Sie stehen vor den gleichen Problemen wie die großen Unternehmen: sie sind auf Hochverfügbarkeit und Funktionsvielfalt angewiesen, kämpfen jedoch mit sinkenden Budgets. Viele KMUs haben die Vorteile einer Storage-Virtualisierung noch nicht erkannt und halten diesen Schritt immer noch für zu aufwendig, kostspielig und risikoreich. Dabei könnte eine Virtualisierung sowohl ihren Arbeitsaufwand als auch ihre Kosten senken.

Storage-Konsolidierung

Verstärkt sich 2010 der Trend zur Storage-Konsolidierung – viele kleine Systeme durch ein zentrales zu ersetzen – statt vorhandene Systeme zu virtualisieren?

Mika Kotro, EMC: In Bezug auf die Kapazität und die Performance nehmen Storage-Systeme an Leistungsfähigkeit zu, so dass die weitgehende Konsolidierung in ein einzelnes, zentrales System durchaus effizient wird. Denn auf diese Weise können Kosten reduziert werden.

Detlef Lieb, Fujitsu: Ja. Vorteile durch Konsolidierung werden unter den aktuellen Bedingungen noch intensiver gesucht und genutzt als je zuvor. Dabei spielt Virtualisierung in ihrer ganzen Breite eine wesentliche Rolle. Es wird sowohl die Methodik der systeminternen als auch die der SAN und Filesystem-basierten Virtualisierung mehr Beachtung finden. Zumal auch die SAN-basierten Methoden mittlerweile ihre Kinderkrankheiten hinter sich haben.

Guido Klenner, Johannes Horneck & Bernd Gill, Hewlett Packard: Die IDC-Zahlen aus dem Jahr 2009 dokumentieren, dass die Investitionen in Einstiegssysteme, die kaum erweiterbar sind, am stärksten zugelegt haben. Große Konsolidierungsprojekte haben kaum stattgefunden. Offensichtlich haben viele Kunden aufgrund der Budget-Situation im vergangenen Jahr nur die notwendigsten Investitionen getätigt: Viele haben lediglich kleine Kapazitäten möglichst günstig zugekauft und den damit einhergehenden höheren Management-Aufwand in Kauf genommen. Speichervirtualisierungslösungen wie HP LeftHand, die SAN-Umgebungen auch für kleine Unternehmen erschwinglich machen, haben zugelegt. Daran zeigt sich, dass Kunden durchaus daran interessiert sind, sowohl die Flexibilität als auch die Verfügbarkeit zu bekommen, aber aufgrund der wirtschaftlichen Situation Kompromisse eingehen.

Georgios Rimikis, HDS: „Konsolidierung und Virtualisierung sind bei Hitachi Data Systems kein Widerspruch, sie gehen Hand in Hand.“ (Quelle: Hitachi Data Systems)

Georgios Rimikis, Hitachi Data Systems: Konsolidierung und Virtualisierung sind bei Hitachi Data Systems kein Widerspruch, sie gehen Hand in Hand. Denn die Controller-basierte Virtualisierung bietet eine Konsolidierung unter einem einheitlichen Management Layer. Technologien wie das bei Hitachi „Dynamic Provisioning“ genannte Thin Provisioning sorgen für die effektive Nutzung von internen und extern angeschlossenen Speicherressourcen, die sogar in Systemen von anderen Anbietern physikalisch residieren können. Diese schlanke Speicherzuweisung spielt dem System vor, dass Speicher vorhanden ist, der noch nicht allokiert wurde – so kann Speicher bedarfsgerecht beschafft werden.

Ralf Colbus, IBM: Dies kommt auf die individuelle Systemlandschaft an: Tendenziell sehen wir ein stärkeres Wachstum im Virtualisierungsbereich. Interessant hier: oft ist die Server-Virtualisierung der "Auslöser", warum Kunden auch Storage-Virtualisierung einsetzen möchten. Der Vorteil der Virtualisierung entsteht unter anderem auch darin, angeschaffte Disksysteme mitzuvirtualisieren und dann - beispielsweise bei Abschreibungsende - unterbrechungsfrei beim Austausch der Altsysteme weiterzuarbeiten - es gibt keine Downtimes mehr!

Alexander Wallner, NetApp: Dieser Trend wird sich verstärken, da die Vorteile einfach zu groß sind. Zu nennen wären hier Auslastbarkeit, Ressourcenzuteilung, Stromeinsparung, Verwaltungsvereinfachung. Zudem lässt sich ein einzelnes Storage-System in einer virtualisierten Server-Umgebung besser in Sachen Verfügbarkeit absichern. Auch das Backup ist einfacher. Die Virtualisierung vorhandener Systeme, etwa mit der NetApp V-Series, ist dennoch ein Thema und greift besonders dann, wenn Hardware noch nicht vollständig abgeschrieben ist oder aus anderen Gründen nicht ersetzbar ist.

Andreas Bechter, Symantec: Dieses Jahr werden viele Unternehmen die jungen Windows-Plattformen evaluieren und nicht wenige auf die neue Microsoft-Plattform migrieren. Es ist eine ideale Ausgangsposition, gleich zu Beginn eines solchen Projekts an die Speicher- und Disaster-Recovery-Pflichten zu denken. Firmen sollten allerdings auch die Gelegenheit wahrnehmen und in neue Technologien investieren, die ihre alten noch laufenden Systeme mit abdecken. Auf diese Weise sind die neuen Anwendungen und Plattformen nicht mehr isoliert, sondern gleich mit Lösungen für Backup, Deduplizierung, Archivierung, Langzeitspeicherung und E-Discovery an einer zentralen Plattform angebunden.

Revisionssichere Archivierung

Vor welchen Problemen sehen sich ihre Kunden bei der revisionssicheren Archivierung?

Mika Kotro, EMC: In technologischer Hinsicht ist die revisionssichere Archivierung mittlerweile kein Problem mehr. Die oftmals bestehende Unkenntnis darüber, welche Informationen Compliance-relevant sind und somit wieder auffindbar, nachvollziehbar, und unveränderbar über ihren gesamten Lebenszyklus hinweg archiviert werden müssen, sowie die oftmals fehlende Einsicht der Notwendigkeit von revisionssicheren Archivierungssystemen stellen in Unternehmen derzeit die größten Hürden dar.

Detlef Lieb, Fujitsu: Es sind die bereits bekannten Probleme, erweitert um den nun noch höheren Handlungsbedarf. Die Schwerpunkte liegen in der Sicherstellung von Revisionssicherheit und Rechtssicherheit der Archivierungsverfahren. Hinzu kommen die Herausforderungen zur Aufbewahrungsdauer. Das bedeutet, dass alle fünf bis sieben Jahre Daten migriert werden müssen. Dabei ist die Lesbarkeit durch Migration von Datenträgern, Geräten und Formaten sicher zu stellen. Prozessbeschreibungen und Lösungen stehen zur Verfügung. Die Einführung erfordert die geeignete Methodik. Fujitsu bietet mit seinen methodischen Ansätzen „Efficient E-Mail“ und „Efficient Data Protection“ strukturierte Vorgehensweisen an.

Guido Klenner, Johannes Horneck & Bernd Gill, Hewlett Packard: Die ganze Problematik revisionssicherer Archivierung lässt sich an zwei Zahlen festmachen: einmal die gesetzlich vorgeschriebenen Archivierungsfristen von beispielsweise zehn, dreißig oder gar mehr Jahren, auf der anderen Seite der durchschnittliche Produktlebenszyklus beziehungsweise Abschreibungszeitraum von Speicherhardware von drei bis fünf Jahren. Rechnet man diese beiden Zahlen zusammen dann müssen Unternehmen ihre Archivdaten mehrfach innerhalb der gesetzlichen Aufbewahrungsfrist von einem Speichersystem/-technologie migrieren – mit allen administrativen Aufwenden und technischen Problemen, die dies mit sich bringt. Ein unter dem Strich sehr kostenintensives Unterfangen. Daher muss bei den Archivlösungen, sowohl bei der Applikation als auch der Archiv-IT-Infrastruktur, auf die Migrierbarkeit geachtet werden, um die Folgekosten zu begrenzen. Ein weiteres Problem ist die oftmals noch viel kürzere Halbwertszeit von Software: Oftmals wechseln die Versionen im Jahresrhythmus – und nicht immer ist gewährleistet, dass alle früheren Versionen weiterhin lesbar sind. Noch problematischer ist es, wenn ein kompletter Systemwechsel vollzogen wird. De facto bedeutet dies, dass die Unternehmen zwischen zwei Möglichkeiten wählen können: Entweder sie betreiben die Altsysteme und alten Versionen so lange bis die Archivierungsfristen abgelaufen sind. Wichtig hier zu beachten ist, dass Service und Support für „alte“ Versionen teuer werden kann. Oder aber sie migrieren alle Daten mit auf die aktuellen Systeme. Auch das ist extrem teuer. HP unterstützt deshalb offene IT-Standards und -Formate, damit der Migrationsaufwand möglichst gering ist und bietet so volle Flexibilität und Skalierbarkeit der Archivinfrastruktur.

Georgios Rimikis, Hitachi Data Systems: Unternehmen sind gesetzlich dazu verpflichtet, ihre Daten über eine bestimmte Zeit verfügbar und nachvollziehbar zu halten. Die Globalisierung bringt zusätzliche Anforderungen: Die Inhalte eines Archivs müssen nicht nur sicher, sondern schnell und von überall ermittelbar sein. Internationale gesetzliche Anforderungen kommen hinzu. Elektronische Archivierung ist ein Prozess, der fast alle Unternehmensbereiche einschließt und häufig mit großem organisatorischem Aufwand verbunden ist. Beispiel Gesundheitswesen: Patientendaten müssen zum Teil „ein Leben lang und darüber hinaus“ vollständig archiviert werden. Die Daten sollen deswegen leicht migrierbar auf neue Technologien sein. Das sorgt für Kontinuität und Investitionsschutz. Eine Ganzkörper-CT kann mehrere hundert Gigabyte Daten umfassen. Zu diesen medizinischen Daten kommen noch Daten aus dem betriebswirtschaftlichen Alltag wie E-Mail-Archivierung und Daten aus ERP-Systemen. Hohe Datenvolumina und Datenschutz benötigen ergo ausgefeilte Speicherstrategien. Daher sehen wir die plattenbasierte Archivierung wie sie die Hitachi Content Platform nutzt, als den richtigen Ansatz – dieses System bietet die Mechanismen und die Geschwindigkeit, um revisionssicher zu archivieren. Zudem haben die sonst häufig verwendeten DVDs nur eine beschränkte Haltbarkeit, die eine sichere Datenwiederherstellung nicht garantieren können.

Ralf Colbus, IBM: Es sind zwei Aspekte - die rechtlichen Aspekte beziehungsweise die Frage nach der Notwendigkeit der Archivierung ist immer noch ein großes Problem! Dann - im zweiten Schritt - die Technologie der Archivierung selbst - hier stehen Fragen nach der Datenmigration / Technologie / Austausch (zum Beispiel nach 10 Jahren) sowie TCO im Vordergrund.

Alexander Wallner, NetApp: „Schwierigkeiten tauchen für Unternehmen dann auf, wenn rechtliche Probleme zu erwarten sind. Das ist meist der Fall, wenn z.B. Mitarbeiter über das betriebseigene E-Mail-System auch private E-Mails versenden.“ (Quelle: NetApp)

Alexander Wallner, NetApp: Klar im Trend liegt der Wechsel von optischen Speichern auf Disk-Storage. Schwierigkeiten tauchen für Unternehmen dann auf, wenn rechtliche Probleme zu erwarten sind. Das ist meist der Fall, wenn zum Beispiel Mitarbeiter über das betriebseigene E-Mail-System auch private E-Mails versenden. Diese unterliegen gemäß Telekommunikationsgesetz (TKG) dem Datenschutz, da sie als persönliche Daten gelten. Eine Archivierung oder auch spätere Kontrolle durch den Arbeitgeber wäre hier unter Umständen als gesetzeswidrig anzusehen. Mögliche Lösungen für einen solchen Fall wären zum Beispiel Mitarbeitervereinbarungen, die eine private E-Mail-Nutzung untersagen, aber auch die technische Trennung von geschäftlichen und privaten E-Mails.

Energieeffizienz

Welchen Stellenwert besitzt die Energieeffizienz neu anzuschaffender Storage-Systeme bei Ihren Kunden?

Mika Kotro, EMC: Unsere Erfahrung zeigt, dass eine zunehmende Zahl von Kunden bei Neuanschaffungen von Speichersystemen aufgrund unternehmensinterner Richtlinien den Nachweis erbringen müssen, dass diese weniger Energie benötigen als die zu ersetzenden Geräte. Das Thema ist also durchaus relevant.

Detlef Lieb, Fujitsu: Das Bewusstsein für Ökonomie und Ökologie ist allgemein gewachsen. Die wesentlichen Kriterien in der kommerziellen Datenverarbeitung sind natürlich ökonomischer Art. Unsere Bestrebungen, in dieser Hinsicht effizienter zu werden, dauern mittlerweile über 20 Jahre. Fujitsu ist sich sicher, dass es dazu keine Alternative gibt. Alleine im ökonomischen Sinn kann es sich kein Hersteller mehr leisten, Systeme „ohne Rücksicht auf Verluste“ vermarkten zu wollen. Bei den Speichersystemen für mittlere IT-Umgebungen hat sich das Verhältnis Preis zu Kapazität bereits drastisch verbessert. Die kurze Antwort auf diese Frage lautet: Energieeffizienz hat einen hohen Stellenwert.

Bernd Gill, HP: „Das Thema Energieeffizienz ist mittlerweile Bestandteil der meisten Ausschreibungen.“ (Quelle: Hewlett Packard)

Guido Klenner, Johannes Horneck & Bernd Gill, Hewlett Packard: Das Thema Energieeffizienz ist mittlerweile Bestandteil der meisten Ausschreibungen. Ein Extrembeispiel ist London, wo heute schon keine neuen Rechenzentren gebaut werden dürfen, weil die Energieversorgung schlichtweg nicht gewährleistet werden kann. Aber auch in Deutschland wird der Stromverbrauch sehr genau evaluiert – nicht zuletzt, weil er einen erheblichen Kostenfaktor darstellt. Das zentrale Problem dabei ist allerdings, dass in den seltensten Fällen klar ist, wo die großen Stromfresser tatsächlich sitzen. Das fängt schon damit an, dass vielfach noch nicht einmal unterschieden wird zwischen Stromkosten für Gebäude, Kühlung und IT. Dann wird es natürlich auch schwer, die richtigen, wirksamen Stellschrauben im Rechenzentrum zu finden, um den Verbrauch spürbar zu senken. Zumal letztlich nur das Zusammenspiel von mehreren Maßnahmen spürbare Veränderungen mit sich bringt. Wir empfehlen daher im ersten Schritt den Einsatz eines einheitlichen und intelligenten Monitorings, beispielsweise durch das HP Data Center Smart Grid. Dieses umfasst Hardware, Software und Dienstleistungen zum Aufbau eines intelligenten Energiemanagements für das gesamte Rechenzentrum. Nichtsdestotrotz ist die Nachfrage nach energiesparenden Speichersystemen hoch. Und angesichts des massiven Datenwachstums in den Unternehmen ist das auch kein Wunder. Hier bieten sich verschiedene Möglichkeiten an, um den Stromverbrauch zu senken: So gibt es zunächst auf Festplattenebene die Möglichkeit, inaktive Platten abzuschalten oder die Drehzahl nach Bedarf zu variieren. Besonders energieeffizient sind Solid State Disks, also Flash-Speicher im Festplattenformat, die ohne bewegliche Bauteile auskommen und daher besonders wenig Energie aufnehmen. Am meisten bringt jedoch ein intelligentes Datenmanagement: In einer mehrstufigen Speicherinfrastruktur können Daten je nach Serviceanforderung auf mehr oder weniger energieintensiven Technologien gespeichert werden. Und alte Daten sollten am besten archiviert und auf Bänder ausgelagert oder – wenn sie nicht mehr benötigt werden – gelöscht werden.

Georgios Rimikis, Hitachi Data Systems: Energieeffizienz hat durch den Kostendruck der Wirtschaft enorm an Bedeutung gewonnen. Höhere Leistung und mehr Speicher auf weniger Platz bei niedrigerem Energieverbrauch sind Kundenanforderungen bei der Anschaffung von neuen Speichersystemen. Hitachi Data Systems hat diese Anforderungen zum zentralen Konstruktionsprinzip bei Speicherlösungen gemacht. Dabei setzen wir auf Speichertechnologien wie Virtualisierung, Tiered Storage oder Thin Provisioning. Diese tragen dazu bei, die Auslastung von Speichersystemen von durchschnittlich 30 bis 40 Prozent auf rund 80 Prozent zu steigern. So benötigen unsere Kunden weniger Hardware. Umweltfreundlichkeit ist aber mehr als Energieeffizienz. Viele unserer Kunden bevorzugen umweltfreundliche Lösungen für ihr Unternehmen. Derzeit sind bereits über 80 Prozent der Hitachi-Produkte eco-friendly. In den meisten Fällen erhalten unsere Kunden daher sozusagen automatisch umweltfreundliche Lösungen, selbst wenn sie nicht explizit danach fragen. Die Produkte von Hitachi Data Systems sind außerdem zu 96 Prozent recyclebar, unsere Adaptable Modular Storage-Serie sogar zu 98 Prozent.

Ralf Colbus, IBM: Hier gibt es wirkliche Extreme. Aussagen wie: "Energiekosten werden nicht auf meine Kostenstelle gebucht, sind mir egal! " bis zu "Wir können nicht mehr erweitern wegen Energieproblemen in unserem RZ"! - Fakt ist: Energie wird nicht mehr günstiger, wir haben desweiteren alle eine Gesamtverantwortung für unsere Umwelt.

Alexander Wallner, NetApp: Einen sehr hohen. Die Stromkosten sind laut Gartner der am schnellsten steigende Kostenfaktor im Datacenter. Pro Jahr lassen sich allein durch die Stilllegung eines einzigen x86-Servers 400 US-Doller an Stromkosten sparen. Ob man sich nun Green IT oder Effizienzsteigerung auf die Fahnen schreibt, ein Effekt ist derselbe: Ineffiziente „Stromfresser“ werden durch energieeffizientere Systeme ersetzt und um rationalisierte Infrastrukturen ergänzt. Die CO2-Debatte wird auch 2010 geführt werden. Green IT kann dazu einen Beitrag leisten, ob als Nebeneffekt von Konsolidierungen oder ganz bewusst.

Auswirkungen Finanzkrise

Welche Auswirkungen hatte und hat die Finanzkrise bei den Unternehmen bezüglich der Storage-Investitionen?

Mika Kotro, EMC: Hierzu kann keine einheitliche Aussage getroffen werden. Während einige Unternehmen ihre Investitionen insgesamt reduziert haben und somit auch die Ausgaben im Bereich Storage betroffen waren und sind, ist das bei anderen Organisationen insbesondere hinsichtlich der Speichersysteme nicht der Fall.

Detlef Lieb, FTS: „Die Auswirkungen der Finanzkrise sind mit einiger Verzögerung deutlich spürbar. Allerdings gibt es bezüglich Speichersysteme wenig Alternativen, um dem gewaltigen Datenwachstum Herr zu werden.“ (Quelle: Fujitsu Technology Systems)

Detlef Lieb, Fujitsu: Die Auswirkungen der Finanzkrise sind mit einiger Verzögerung deutlich spürbar. Allerdings gibt es bezüglich Speichersysteme wenig Alternativen, um dem gewaltigen Datenwachstum Herr zu werden. Selbst bei Ausnutzung aller Optimierungs- und Konsolidierungs-Möglichkeiten geht an der hinreichenden Bereitstellung ausreichenden Speicherplatzes nichts vorbei. Je nach Branche ist es direkt oder indirekt geschäftsrelevant. Dies führt unter anderem dazu, dass den Speichersystemen große Aufmerksamkeit zukommt.

Guido Klenner, Johannes Horneck & Bernd Gill, Hewlett Packard: Die Marktzahlen von IDC sprechen eine deutliche Sprache: Während Anfang des vergangenen Jahres die Zurückhaltung bei den Investitionen groß war, wurde in der zweiten Jahreshälfte die Kapazität des Vorjahres (2008) annähernd erreicht. Auf das gesamte Jahr bezogen lag der Rückgang zwischen 10 bis 20 Prozent. Letztlich dokumentiert dies, dass die Kunden um Speicherinvestitionen nicht herumkommen, um neue Daten zu speichern und ihre Infrastrukturen zukunftsfähig zu halten. Andererseits hat die Finanzkrise aber auch dafür gesorgt, dass viele Kunden auf einmal Zeit hatten, Kongresse und Lehrgänge zu besuchen und sich darüber zu informieren, was sie strategisch/mittelfristig tun können, um Kosten zu sparen und effizienter zu werden.

Georgios Rimikis, Hitachi Data Systems: Fakt ist, dass auch in so genanten schwachen wirtschaftlichen Zeiten, Datenwachstum eine der größten und kostspieligsten Herausforderungen für die IT ist. Es gibt sogar Geschäftsbereiche, bei denen das Datenwachstum stärker ausgeprägt ist als in Zeiten vor der Krise. Der Druck Kosten zu reduzieren und die Notwendigkeit mit weniger mehr zu erledigen, war nie so groß wie heute. Hier sind Methoden gefragt wie Virtualisierung, Tiered Storage Management, Automatisierung und Thin Provosioning.

Ralf Colbus, IBM: In einigen Bereichen der Industrie wird deutlich weniger investiert, keine Frage! Wenn investiert wird, dann steht ein schneller ROI im Vordergrund. Das Datenwachstum ist immer noch gegeben- es verschiebt sich teilweise in den sekundären und tertiären Datenbereich. Hier muss - trotz Kostendruck - die Serviceleistung erhalten und gegebenenfalls sogar erhöht werden!

Alexander Wallner, NetApp: Die Finanzkrise hat die IT-Branche nicht so stark getroffen wie andere. Es wurden überraschend viele Projekte umgesetzt. Insgesamt ist spürbar, dass die Botschaft des „Weniger ist mehr“ auch in der IT angekommen ist. Die Herausforderungen der IT sind immer noch die gleichen: Die Effizienz der Datacenter ließe sich verbessern, Einsparpotenziale sind ungenutzt, die IT-Infrastruktur könnte flexibler sein. Flexibilität, Wirtschaftlichkeit, Umweltschutz und operative Performance sind Aspekte, die IT-Verantwortliche zunehmend beschäftigen.

Andreas Bechter, Symantec: Gartner zufolge werden sich 2010 zwar die Ausgaben im Speicherbereich gegenüber 2009 erhöhen, viele der Befragten rechnen aber weiterhin damit, dass ihre Budgets stagnieren oder weiter beschnitten werden. Auf der anderen Seite wachsen die Daten durchschnittlich um 50 bis 60 Prozent pro Jahr. Eine gegenläufige Entwicklung, die an den IT-Abteilungen zerrt. Sie müssen mit gleichem oder geringerem finanziellen Einsatz mehr in den Griff bekommen. Dies wird ohne ein effizientes und kluges Storage-Management nicht mehr möglich sein. Ein modernes Storage-Management arbeitet mit integrierter Deduplizierung und Archivierungslösungen, die das zu speichernde Datenvolumen auf ein Minimum reduzieren und so Speicherplatz und Kosten sparen. Dies wird unter anderem dafür sorgen, dass Backup-Systeme nicht mehr zur Langzeitspeicherung missbraucht werden. Vielmehr werden sie wieder zu ihrem ursprünglichen Zweck zurückkehren, also der Datenwiederherstellung.

Storage-Herausforderungen 2010

Was sind die Herausforderungen der Unternehmen – Ihrer Kunden – im Jahr 2010 bei der Storage-Infrastruktur?

Mika Kotro, EMC: „Die Verwaltung der immer weiter ansteigenden Datenmengen stellt weiterhin eine große Herausforderung dar.“ (Quelle: EMC)

Mika Kotro, EMC: Die Verwaltung der immer weiter ansteigenden Datenmengen stellt weiterhin eine große Herausforderung dar. Obwohl Speichersysteme immer größere Kapazitäten aufnehmen können und zunehmend leistungsfähiger werden, steigen die Anforderungen an andere Bereiche, wie beispielsweise an das Backup. Denn in derselben Zeit müssen immer mehr Informationen gesichert und über ihren gesamten Lebenszyklus hinweg von der Entstehung und Erfassung über die Verwertung bis hin zur Archivierung und Löschung aufbewahrt werden.

Detlef Lieb, Fujitsu: Zur Erreichung der erforderlichen Einsparungen und Sicherstellung ausreichenden Speichers mit angemessener Verfügbarkeit ist Betriebs- und Anwendungsberatung von noch höherem Stellenwert als zuvor. Nur wer seiner Kundschaft den Betrieb komplexer werdender Systeme ermöglicht, die noch mit angemessenem Aufwand genutzt werden können, hat am Markt dauerhaft eine Chance.

Guido Klenner, Johannes Horneck & Bernd Gill, Hewlett Packard: Das Jahr 2010 wird eine ganze Reihe Herausforderungen mit sich bringen:

Georgios Rimikis, Hitachi Data Systems: Unternehmen müssen im IT-Bereich weiter sparen und gleichzeitig mehr Leistung erzielen. Zusammengefasst geht es um die Aspekte Qualität, Leistung und Transparenz. Die Qualität der Services muss stimmen, abgestimmt auf die Anforderungen. Das bedeutet: Hochverfügbare Daten auf den performanten Speicher, wohingegen günstige Systeme für Daten genutzt werden, auf die weniger oft zugegriffen wird. Die Leistungsfähigkeit der Systeme muss ebenfalls optimiert sein, Enterprise und Midrange werden sich weiter annähern. Und schließlich der Punkt Transparenz: Hier geht es um IT-Business-Alignment. Für das Business muss der Mehrwert der IT erkennbar sein. Auch hier sehen wir uns mit Storage Economics im Vorteil: Wir sprechen sowohl mit CIOs, CFOs als auch IT-Administratoren.

Ralf Colbus, IBM: Kosten reduzieren, SLAs halten und die Risiken minimieren. Alle Technologien und Funktionalitäten im Storage müssen sich an diesen drei Punkten messen lassen!

Alexander Wallner, NetApp: Die größte Herausforderung für Unternehmen 2010 wird es sein, IT-Infrastrukturen agiler, flexibler, dynamischer und vor allem effizienter zu gestalten. Nur wer darauf setzt, die Leistungsfähigkeit des eigenen Rechenzentrums zu optimieren, schafft es, Kapazitäten zu erweitern und gleichzeitig den Energieverbrauch sowie Kosten zu senken. Wichtig ist es dabei, auf ganzheitliche, umfassende Lösungen zu setzen. Ausschlaggebend für den Erfolg sind außerdem neue Technologien und eine bereichsübergreifende Zusammenarbeit im Unternehmen. Mit Methoden der Storage-Effizienz und der verbesserten Auslastung der bestehenden Infrastruktur lässt sich die Maxime „Mehr mit weniger erreichen“ erfüllen.

Ausblick: Weitere Storage-Trends 2010

Welche weiteren allgemeinen Storage-Trends sind 2010 zu erwarten?

Mika Kotro, EMC: Bei der Server-Virtualisierung wird eine immer engere Integration der Speichersysteme und deren Funktionen in der Virtualisierungsschicht stattfinden. Auch im Bereich des Speicher-Managements gewinnt die Verwaltung der virtuellen Systeme an Bedeutung. Eine zentrale Anforderung in virtuellen Infrastrukturen ist es, den Überblick darüber zu behalten, welche Ressourcen an welcher Stelle gerade in der virtualisierten Umgebung genutzt werden. Ein weiterer Trend geht hin zu einem breit angelegten Einsatz von Enterprise-Flash-Disks. Und im Bereich Backup wird Deduplizierung zukünftig die meist eingesetzte Technologie sein, da mit ihrer Hilfe die steigenden Anforderungen an das Backup durch die zunehmenden Informationsmengen effizient erfüllt werden können.

Detlef Lieb, Fujitsu: Es werden keine Revolutionen stattfinden. Einige Wundermethoden müssen auf den Boden der Tatsachen gebracht werden. Dazu gehört das Thema Deduplizierung, dessen Wert heute noch überschätzt wird. Es gibt Schwerpunkte wie Reduzierung von Backup-Recovery-Zeiten, Workflow- und Storage-Management mit den Themen revisionssichere und rechtskonforme Archivierung, Konsolidierung unter Nutzung von Technologien wie Speichervirtualisierung, SSD (Solid State Disk), Cloud Storage, S(torage)aaS und Managed Storage. In allen Fällen ist die Zuverlässigkeit von Technologie und Hersteller Grundvoraussetzung.

Guido Klenner, Johannes Horneck & Bernd Gill, Hewlett Packard: Langfristig betrachtet wird es einen Technologiewechsel im Bereich der Festplatten geben. Der Einsatz von SAS-Technologie im Fibre-Channel-Umfeld wird sich erhöhen, was allerdings keine direkte Auswirkung auf Kunden haben wird. Der Vorteil dabei ist eine höhere Packungsdichte in einem Rack, was wiederum Kosten reduziert. Ein weiterer Trend ist Fibre Channel over Ethernet. Zwar gibt es noch keine kompletten Rechenzentren auf Basis von FCoE, doch die Tendenz ist schon heute deutlich zu erkennen. Storage-Virtualisierung wird voraussichtlich eine ähnliche Entwicklung wie Server-Virtualisierung nehmen. Gefördert wird diese Entwicklung durch die Verbreitung von virtualisierten Server-Landschaften, die ihr volles Potenzial erst entfalten können, wenn auch die Speicherinfrastruktur virtualisiert ist.

Georgios Rimikis, Hitachi Data Systems: Cloud Computing und Virtualisierung werden wegen des weiterhin vorherrschenden Datenwachstums und Kostendrucks die bestimmenden Themen bleiben. Darüber hinaus treibt aber auch FCoE (Fibre Channel over Ethernet) die Optimierung von Rechenzentren voran – die Absegnung eines allgemein gültigen Standards ist in Sichtweite. Durch die höhere Server-, Speicher- und Netzwerkauslastung reduzieren sich die Kosten erheblich. Auch der Aufwand für Verkabelung und Ports sinkt durch den Einsatz von FCoE. Wenn dieser Standard vorliegt, werden wir darauf vorbereitet sein. Solid State Drives (SSD) wird ein weiterer Trend sein, wenn natürlich die Preise in diesem Sektor fallen. Auch wenn die klassische Platte noch lange nicht ausgedient hat, wird SSD an Bedeutung gewinnen, zumindest im Bereich hochperfomanter Speicher – Stichwort Tiered Storage.

Ralf Colbus, IBM:

Alexander Wallner, NetApp: Cloud Computing oder IT as a Service ist ein echter Paradigmenwechsel und markiert den Trend zu einer serviceorientierten Auffassung der Rolle der IT. Konsolidierungen werden sich weiter fortsetzen. Wer sich 2010 mit der Zukunft seiner IT-Infrastruktur auseinandersetzt, wird sich auch mit Storage befassen müssen und Kosten, Verfügbarkeit, Skalierbarkeit, Management-Qualität und Performance prüfen. Konsolidierung wird aber auch ein Thema für die Netzwerkentwicklung sein. Fibre Channel over Ethernet (FCoE) ist das Protokoll, das Speicher- und Kommunikationsnetzwerke zusammenführt und den Aufwand für Verkabelung, Ports und letztlich auch Stromverbrauch deutlich reduziert. Bei Solid State Disks ist mit sinkenden Preisen zu rechnen, so dass die schnellen Datenspeicher auch jenseits von Spezialbereichen im Enterprise-Segment interessant werden. Eine Performance-Option können aber auch Beschleunigerkarten und / oder Cache-Erweiterungen mit Solid State-Technik sein.

Andreas Bechter, Symantec: „Siebzig Prozent aller Unternehmen setzen noch keine Deduplizierung ein. Dies wird sich dieses Jahr ändern, da die Firmen diese Funktion aktivieren wollen, sobald sie standardmäßig in den Speichersystemen integriert ist.“ (Quelle: Symantec)

Andreas Bechter, Symantec: Siebzig Prozent aller Unternehmen setzen noch keine Deduplizierung ein. Dies wird sich dieses Jahr ändern, da die Firmen diese Funktion aktivieren wollen, sobald sie standardmäßig in den Speichersystemen integriert ist. Damit das Verfahren seine volle Stärke entfaltet, sollte es nicht nur durchgängig implementiert sein und einem Regelwerk gehorchen. Es sollte zugleich so nah wie möglich an der Quelle der Daten eingreifen. Eine kluge und effiziente Backup- und Storage-Software muss also einmal die Systeme zahlreicher Dritthersteller einbinden und deren Ressourcen intelligent verwalten. Sie muss zugleich genauso gut auch virtuelle Plattformen wiederherstellen und auch auf diesen jungen Systemen Deduplizierung einsetzen können. Symantec bietet Unternehmen diese vereinfachte und plattformübergreifende Storage-Lösung, die die Storage-Ressourcen klug ausnutzt und dadurch Zeit und Geld einzusparen hilft. (wh)

Dieser Artikel basiert auf einem Beitrag der CW-Schwesterpublikation TecChannel.de