Cloud, Virtualisierung, SSD

Die Storage-Trends 2011

12.03.2011
Von 
Ariane Rüdiger ist freie Autorin und lebt in München.

Neue Storage-Architekturen für die Cloud

EMCs neue VNX-Systeme vereinigen Eigenschaften von SAN- und NAS-Storage in einer Plattform
EMCs neue VNX-Systeme vereinigen Eigenschaften von SAN- und NAS-Storage in einer Plattform
Foto: EMC

Die Verbreitung von Cloud-Storage wirkt sich auf die architektonische Seite von Speichersystemen aus. Scale-Out und Grid-Storage heißen hier die Stichworte. Selbst EMC fühlt sich anscheinend unter Druck gesetzt, endlich kostengünstigere Produkte auf den Markt zu bringen, so geschehen jüngst mit der VNX-Plattform, die SAN- und NAS-Technologie unter einem Dach vereinigt. Anderen Herstellern reichen solche Ansätze nicht mehr: Der bereits erwähnte Anbieter ScaleUp beispielsweise verwendet als Infrastruktur-Basis die Softwareplattform Ring von Scality. Dabei handelt es sich um eine hochskalierbare Object Storage-Software, die vor allem auf unstrukturierte Inhalte und E-Mail ausgerichtet ist. Für das Speichern von Datenobjekten in der Cloud nutzt das System global verteilte Knoten aus individuell entwickelten Servern, die ihrerseits aus Standardkomponenten bestehen und eine offene Referenzarchitektur nutzen. Die Architektur wurde von einem amerikanischen Storage-Dienstleister entwickelt und kann frei verwendet und modifiziert werden. Vor Verlusten werden die Daten durch ständiges wechselseitiges Monitoring der Knoten und permanente Replikation geschützt. Scality kann unter anderem auf eine Kooperation mit dem Datensicherungs-Spezialisten Commvault verweisen.

Cloud-Infrastrukturen verändern das Storage-Management

Wenn Speichersysteme zur schnell disponiblen Ressource innerhalb mehr oder weniger virtualisierter Infrastrukturen werden, muss das auch Auswirkungen auf die nötigen Management-Werkzeuge haben. Tatsächlich kommen inzwischen Tools auf den Markt, die versuchen, die Leistung einer Infrastruktur ganzheitlicher zu betrachten und auch die Gesamt-Performance statt diejenige einzelner Komponenten oder Funktionen zu verbessern.

Einige Beispiele: IntelliMagic SPM (Storage Performance Management) ist eine Storage-Management-Suite, die sämtliche Speicher-Ressourcen verwaltet und ihre Leistung durch umfassende Datensammlung an den Geräten überwacht. Bei Fehlern analysiert sie die Ursachen und macht Vorschläge zur Schadensbehebung. Die Software prognostiziert zum Beispiel den zukünftigen Speicherbedarf, schlägt optimale Konfigurationen und Lastverteilungen vor und hilft bei der Datenmigration. Auch Mainframe- und Open-Storage-Systeme lassen sich in die zentrale Verwaltung einbeziehen.

Die von Netapp aufgekaufte Firma Akorri nimmt sich mit Balance Point gleich die Verwaltung der gesamten Infrastruktur vor. Der Ansatz des jungen Unternehmens heißt Cross Domain Analytics: Die Analyse der physischen und virtuellen Infrastruktur (Server und Storage) läuft über eine Plattform. Agenten auf den Systemen sind dafür nicht nötig. Um die Leistung des Gesamtsystems zu analysieren und zu optimieren, verwendet Akorri dynamische Modelle. Damit lassen sich zum Beispiel definierte Servicequalitäten von Cloud-Diensten zuverlässig einhalten.

COMPUTERWOCHE Marktstudie Datenqualität

Wir haben unsere Leser aus dem IT-Management gefragt, ob und mit welchem Erfolg sie für einen sauberen Datenbestand sorgen. Die Antworten möchten wir Ihnen nicht vorenthalten!

Zur Marktstudie

Amplidata verwendet zur Vermeidung redundanter Datenspeicherung ein Satellitenprotokoll, das Daten und Prüfsummen feingranular aufteilt
Amplidata verwendet zur Vermeidung redundanter Datenspeicherung ein Satellitenprotokoll, das Daten und Prüfsummen feingranular aufteilt
Foto: ad

Die belgische Neugründung Amplidata setzt ebenfalls auf global verteilte Speicherknoten und kombiniert diese mit einem Satellitenprotokoll. Dieses teilt Daten und Prüfsummen in viele kleine Blocks auf. Beides verteilt das Bitspread-Protokoll über so viele Knoten, dass sich bei Ausfällen einzelner Komponenten das gesamte Datenmaterial praktisch auch ohne Redundanz im Datenbestand immer wieder rekonstruieren lässt. Die Granularität der Verteilung definiert der Anwender, indem er angibt, wie viele Plattenausfälle jeweils maximal kompensiert werden sollen. „Wir brauchen nur 1,4 TB Rohkapazität, um 1 TB Daten zu speichern“, erklärt Yves Delongie, Vice President Sales des 2004 gegründeten Unternehmens. Auch der US-Hersteller OS Nexus präsentierte mit Quantastor schon im Vorfeld der CeBIT eine Lösung, die es erlaubt, Speichersysteme zu einer skalierbaren und Cloud-tauglichen Hardwarebasis zu machen.

Die Herausforderung, Speicherinfrastrukturen für das Cloud-Zeitalter zu vereinfachen, gehen andere Anbieter eher auf der Netzwerkebene an: Coraid etwa verzichtet mit seiner Ethernet-Storage komplett auf Fibre Channel und komplexe Protokollschichten. Die Technologie verwendet die Medienzugangsschicht (MAC) des Ethernet-Protokolls (Level 2) und das Open-Protokoll AoE (ATA over Ethernet). Server schreiben dabei auf die Disks, als wären es lokale Laufwerke. Virtuelle LANs trennen die Klienten logisch voneinander. Die Platten haben nur eine Ethernet-MAC-, aber keine Internet-Adresse. Die höheren Netzwerkfunktionen befinden sich in der Steuerungshardware im Rack. Ein Modul enthält jeweils bis zu 36 Laufwerke (SAS, SSD oder SATA) beliebiger Kapazität, die mit allen RAID-Technologien (0, 1, 5, 6 oder 10) gesichert werden können. „Wir bieten 30 Prozent mehr Leistung als Fibre Channel zu 20 Prozent des Preises“, sagt Coraids CEO Kevin Brown. Man habe bereits 1200 Kunden gewonnen, die vor allem aus dem Bildungsbereich stammten.