Ratgeber Speicherkonzepte

Mit Storage-Virtualisierung zur perfekten IT

08.12.2009 von Oliver Leisering
Speicher-Virtualisierung ermöglicht mehr Flexibilität, Effizienz und Ausfallsicherheit im Data Center. Lesen Sie, welche Konzepte sich in der Praxis bewährt haben.

Zu den Vorteilen der Storage-Virtualisierung zählen ein optimiertes Management, Flexibilität der Speicher-Ressourcen sowie eine verbesserte Ausfallsicherheit. Um diese Vorzüge ausschöpfen zu können, müssen IT-Verantwortliche jedoch einige Voraussetzungen schaffen. Um auch eine virtuelle Umgebung administrieren zu können, ist es notwendig, den Überblick über die jeweils eingesetzten und freigegebenen Ressourcen zu behalten. Damit eine virtualisierte Umgebung genauso stabil läuft wie ein herkömmliches SAN, ist ein hohes Maß an Standardisierung erforderlich. Regeln für die Speicher-Provisionierung, definierte Übergabepunkte und geeignete Prozesse liefern die Parameter für das Konzept einer modernen Speicher-Architektur. Von Anfang an ist ein erprobtes und qualitätsgesichertes Vorgehen wichtig, damit sich die Umstellung mit Blick auf die Betriebs- und Anschaffungskosten unter dem Strich lohnt. Die Frage nach der passenden Technik für die Speichervirtualisierungslösung hängt dann entscheidend von den individuellen Anforderungen an Performance, Funktionen und nicht zuletzt auch von der Umgebungsgröße ab. Die drei folgenden Beispiele geben einen Einblick in Virtualisierungskonzepte für kleine, mittlere und große Storage-Landschaften.

Storage-Virtualisierung in kleinen Unternehmen: FC-Systeme mit 8 TB

Die IT eines Autozulieferers wollte seinen internen Kunden einen besseren Service (zum Beispiel bei der Bereitstellung neuer Server) bei höherer Verfügbarkeit anbieten und gleichzeitig die Infrastruktur- und Betriebskosten senken. Durch das Konsolidieren und bessere Ausnützen der Server- und Speicher-Ressourcen wollte das Management vor allem die die Infrastrukturkosten drücken. Bei der Optimierung des Betriebs setzte das Unternehmen auf neue technische Funktionen im Zusammenspiel mit einer stringenten Prozessstandardisierung. Zur Erhöhung der Verfügbarkeit wurde der Einsatz von Cluster-Technologien erwogen. Die acht Terabyte große Storage-Umgebung war über zwei redundante Fibre-Channel-Systeme auf zwei Rechenzentrumsstandorte verteilt. Das Speichernetzwerk war mit insgesamt vier 16-Port-Fibre-Channel-Switches in redundanten Fabrics organisiert. Dabei bildeten jeweils zwei Switches mit standortübergreifenden ISL-Verbindungen eine Fabric. Die Anwendungen liefen auf jeweils einem ESX- und einem SQL-Server pro Standort.

Gemeinsam mit seinem IT-Dienstleister entschied sich das Unternehmen für eine Intel-Server-basierende In-Band-Speichervirtualisierung. Dabei liegt die Hard- und Software zur Virtualisierung direkt in den Datenpfaden zwischen Server und Speichersystem. Steuerdaten wie Nutzdaten laufen durch eine einheitliche Kontrollinstanz. Durch die Rechenleistung und den im Datenpfad vorgegebenen Cache wird ein Performancegewinn erreicht. Der Schreibvorgang wird bestätigt, sobald die Daten im Cache der Virtualisierungs-Server abgelegt werden. Der große Vorteil ist jedoch die direkte Beeinflussung des Datenstroms, der sogar ein für die Applikation transparentes Umschalten zwischen den Speichersystemen zulässt. Diese Topologie eignet sich gut für Unternehmen mit kleinen und mittleren Datenmengen und moderaten Performanceanforderungen, um mit geringem Aufwand die Verfügbarkeit der Speicherservices zu erhöhen und die Auslastung der Ressourcen zu verbessern.

Provisioning für Fortgeschrittene

Um optimal vom vorhandenen Speicher zu profitieren, setzt der Automobilzulieferer auf Thin Provisioning (virtuelle Provisionierung) vorhandener Kapazitäten. Beim Thin Provisioning wird der Anwendung physischer Speicher virtuell zugewiesen aber erst dann genutzt, wenn die Applikation auch tatsächlich Daten schreibt. Das System kann jederzeit zusätzliche Speicherkapazität für die benötigten Volumen aus einem gemeinsamen freien Pool zur Verfügung stellen. So wird erreicht, dass physikalische Kapazitäten besonders effizient genutzt werden.

Abgerundet wird die Lösung durch eine Server-Virtualisierung auf Basis von VMware VI3.5 und der VMware Distributed Resource Scheduler (DRS). Die Software überwacht die Auslastung über Ressourcenpools hinweg und verteilt die virtuellen Maschinen intelligent auf die verfügbare Rechenkapazität.

Stringentes Zoning und Dokumentation

Ein wichtiges Kriterium ist die Ausfallsicherheit der Storage-Infrastruktur. Daher werden sämtliche Daten in der Virtualisierungsschicht zwischen den Standorten gespiegelt. Dies ist für die produktiven Server vollkommen transparent, Ausfälle in den Speichersystemen oder im SAN werden in der Virtualisierungsschicht abgefangen und wirken sich nicht auf die Server und damit auch nicht auf den produktiven Betrieb aus. Die redundante Auslegung der Server-Hardware und der Einsatz von Clustern stellt die Verfügbarkeit der Microsoft SQL-Datenbanken und der VMware Server sicher. Voraussetzung für die Einhaltung der Verfügbarkeitszusagen der virtuellen Server- und Speicherumgebung ist es, den Überblick über die physikalische und virtuelle Schicht zu behalten.

Ein gut geplantes Zoning-Konzept (Single Initiator Zoning), nachvollziehbare und sprechende Namen für die Benennung der physikalischen Server, der Speichergeräte sowie der virtuellen Objekte sind eine wesentliche Grundlage. Nur so ist es möglich, in Fehlersituationen oder bei Planungen für Erweiterungen im Server- oder Speicherbereich die administrativen Aufwände gering zu halten und gleichzeitig die Anforderungen der Benutzer zu erfüllen. Unerlässlich für eine stabile, skalierbare Umgebung ist die Dokumentation der gesamten Infrastruktur. Denn nur bekannte Systeme und Abläufe lassen sich im Ernstfall rekonfigurieren oder mittelfristig automatisieren. Die erfolgreiche Implementierung des Virtualisierungsprojektes beruht nicht zuletzt auf dem aufmerksamen Umgang mit den Kompatibilitätslisten der Hersteller von verwendeten Switches, Servern und Speichersystemen.

Storage-Virtualisierung in mittelgroßen Unternehmen: SAN und NAS mit 150 Terabyte

Das Beispiel für eine mittelgroße Umgebung liefert ein Unternehmen der Versicherungsbranche. Die Motivation für die Einführung einer Speichervirtualisierung lieferte die aufwendige und unflexible Speicher-Provisionierung, durch die die Ressourcen nur ungenügend ausgenutzt wurden. Verschiedene Softwarelösungen für die Administrations-Software erforderten ein kompliziertes Scripting für LUN (Logical Unit Number)-Site-Failover-Szenarien sowie zeitintensive Tests. Site-Failover und geplante Wartungsarbeiten waren nur mit Downtime für die Anwendungen zu realisieren. Darüber hinaus entstand beim Austausch von Speichersystemen immer ein unverhältnismäßiger Migrationsaufwand, der stets eine Unterbrechung mit sich brachte.

Das Versicherungsunternehmen arbeitet mit einer zentralen Infrastruktur, die über zwei Standorte verteilt ist, und betreibt mehrere Microsoft-Cluster sowie eine IBM-AIX Umgebung mit virtuellen Systemen innerhalb der LPAR (Logical Partition)-Architektur. Die Datenspiegelung über beide Rechenzentren steuert der Logical Volume Manager (LVM). Als Cluster Manager für die IBM-Server wird HACMP (High Availability Cluster Multi Processing) eingesetzt. Daneben arbeitet der Versicherer mit einer zentralen Windows- und Filesystem-Infrastruktur für etwa 14.000 Anwender mit Thin Clients. Eine Citrix-Farm stellt die Anwendungen bereit. Die NAS-Speicher für die File-Daten sind in einem Cluster hochverfügbar zusammengefasst. Im 150 Terabyte umfassenden Speicherumfeld sorgen redundante Fabrics mit SAN-Direktoren für besonders hohe Verfügbarkeit. Die Highend- und Midrange-Systeme sind über beide Data Center verteilt. Die synchrone Spiegelung der Speicherdaten wurde mit internen Funktionen der Speichersysteme realisiert.

Split-Path für mehr Durchsatz und Skalierbarkeit

Einen deutlich effizienteren Betrieb erreichte das Unternehmen nun mittels der Out-of-Band-Virtualisierung, die auch Split-Path-Lösung genannt wird. Bei diesem Prinzip liegt die Virtualisierungs-Hardware im Datenpfad, die SCSI-Kontrollinformationen werden dort abgespalten und in den Management-Servern der Virtualisierung verarbeitet. Der hochverfügbare Betrieb wird durch die Verteilung der Infrastruktur über zwei voneinander getrennte Abschnitte sichergestellt. Im Gegensatz zur In-Band-Virtualisierung beruht die Architektur auf FC-Switches, bei der spezielle ASICs verwendet werden. Daher ist bei dieser Methode kein extra Cache-Bereich in der Virtualisierungsschicht vorgesehen.

Die Provisionierung von Speicherkapazität wurde maßgeblich flexibilisiert. Der Versicherer hat kostensparende Speicherebenen für unterschiedliche Datenklassen eingezogen. Zwischen den Speicherstufen, den Rechenzentren und den einzelnen Speichersystemen können Daten transparent per Knopfdruck online migriert werden. Neue Server lassen sich ebenfalls zeitnah und einfach in die Umgebung integrieren und in Betrieb nehmen. Die systembasierte Spiegelung der Speicherdaten wurde für die NAS-Farm und die Anwendungen des Microsoft-Clusters durch einen transparenten, synchronen Spiegel der Abstraktionsschicht ersetzt. Unter dem Strich erhöht die Virtualisierung die Verfügbarkeit, erlaubt ambitioniertere Service-Level und sichert einen schnelleren Wiederanlauf im Katastrophenfall.

Storage-Virtualisierung im Großunternehmen: Zwei Petabyte und virtuelles SAN

Im letzten Beispiel verwaltet ein Unternehmen der Chemiebranche zwei Petabyte im virtualisierten Speicher. Vor knapp zehn Jahren haben die IT-Experten dort bereits mit der Virtualisierung von Speicher begonnen. Im Lauf der Zeit hat sich die eingesetzte Lösung zunehmend stabilisiert und ist nun zu einer zentralen Säule der IT-Strategie avanciert. Vor dem Einstieg in die virtuelle Speicherwelt waren die Migrationen beim turnusmäßigen Wechsel der Speichersysteme sehr aufwendig, da erhebliche Anpassungen der Server, Betriebssysteme und teilweise sogar der Applikationen nötig waren. Im 24x7-Betrieb blieben keine Zeitfenster für die regelmäßigen Migrationen, die unter anderem durch das hohe Datenwachstum bedingt waren.

Aktuell betreibt das Unternehmen zehn Domänen für die Speichervirtualisierung mit insgesamt 48 Knoten. Dieser virtuelle Speicherpool liefert Kapazitäten für File Services, Datenbanken, Lotus Domino, VMware und SAP. Die Daten werden in drei definierten Service-Klassen verarbeitet: Basic (ein Server), Advanced (Cluster) und Critical (Cluster mit gespiegeltem Storage). Die Spiegelsysteme sind in getrennten Gebäuden untergebracht. Wichtig für den einfachen Betrieb und damit die Hochverfügbarkeit der Umgebung ist unter anderem die strikte Zuordnung dedizierter Speichersysteme und Storage-Pools für Datenbanken, File Services und eBusiness bis hin zu definierten Storage Ports im SAN für einzelne Applikationen. Im Back- wie im Frontend gelten auch hier klare Namenskonventionen.

Mit dieser virtuellen Infrastruktur gelang es dem Chemiekonzern, einen Raum im Rechenzentrum mit etwa 500 Servern in nur 30 Tagen zu leeren. Auch die Migration im laufenden Betrieb stellt jetzt kein Problem mehr dar: 200 Terabyte wurden online binnen 45 Tagen auf ein neues Speichersystem übernommen. Der größte Vorteil der SAN-Virtualisierung in dieser großen Umgebung mit zentralem Speicher-Management und ITIL-konformem, standardisiertem Betrieb ist die Einsparung bei den Betriebskosten. Nur zwei Administratoren kümmern sich um die Verwaltung der virtualisierten Speicherinfrastruktur. Der Kauf von Storage ist rein auf die Hardware beschränkt, Investitionen in teure Software entfallen. Außerdem kann das Unternehmen die günstigste Hardware unabhängig vom Hersteller in die Umgebung integrieren, und auch der Einkauf von Service-Leistungen und Spezial-Know-how der Speicherhersteller erübrigt sich.

Fazit

Die Storage-Virtualisierung birgt für Unternehmen aller Größenklasse ein großes Nutzenpotenzial. Kleinere und mittlere IT-Umgebungen profitieren in erster Linie von besseren Funktionen für das Disaster Recovery, beispielsweise Snapshots, oder für den Server transparente Datenspiegelung. In mittelgroßen Umgebungen lassen sich durch Virtualisierung im Zusammenspiel mit Konsolidierung die Speichereffizienz erhöhen und die operativen Kosten senken. Im Alltag bietet insbesondere das Einziehen von optimalen Speicherebenen (Tiered Storage) erhebliche Sparmöglichkeiten (siehe auch: Zehn Tipps zum Sparen beim Speichern). Großen Unternehmen versprechen eine konsequente Standardisierung der Speicherdienste und ein zentrales Management der SAN-Virtualisierung Erleichterungen bei Datenmigrationen und substanzielle Einsparungen beim Zukauf neuer Kapazitäten. Die Speichervirtualisierung gehört zu den grundlegenden Komponenten der IT-Strategie. Entsprechend weitsichtig sollten IT-Manager auch die Konzepte erstellen, so dass nicht nur die kurzfristigen Anforderungen erfüllt werden, sondern auch der langfristige Betrieb mit entsprechenden den Einsparungen sichergestellt ist. (wh)

Checkliste für Produkte zur Storage-Virtualisierung

Skalierbarkeit

Funktionen

Protokolle

Lizenzmodelle vergleichen