Storage-Kosten

Zehn Tipps zum Sparen beim Speichern

26.03.2011 von Ariane Rüdiger
Die Storage-Landschaft gehört zu den großen Blöcken im IT-Budget. Lesen Sie, wie Praktiker die Speicherkosten in den Griff kriegen.

Auch in wirtschaftlich schlechten Zeiten steigt die Informationsflut in den Unternehmen weiter an. Wir zeigen, wie IT-Verantwortliche das Datenaufkommen bewältigen und dabei trotzdem Storage-Kosten senken können.

Mehr zum Thema im Drilldown Storage-Kosten senken!

Daten löschen

Alles speichern ist out. Matthew Lodge, Storage-Spezialist beim IT-Security-Anbieter Symantec, empfiehlt neuerdings die Opt-In-Lösung: Mitarbeiter müssen Mails und Daten, die länger aufgehoben werden sollen, kennzeichnen - alles andere durchläuft einen Filter, der Daten mit einigen sehr kritischen Stichworten ("Steuerberater") schützt, der Rest wird gnadenlos gelöscht. Effekt: Das Speichervolumen schrumpft, die Kosten auch.

Prozesse analysieren, verbindliche Regeln definieren

Prozessdesign kann dazu beitragen, den Datenberg in Grenzen zu halten: Beim Projektmanagement alle Projektdokumente in einen zentralen Bereich stellen, wo jeder darauf zugreift, statt die Dokumentenflut per Mail jeweils an alle Betroffenen zu versenden. Das senkt das Mail-Aufkommen und verbessert die Projektdokumentation. Für das Speichern von Daten sollten Unternehmen Regeln entwickeln, die Bestandteil des Arbeitsvertrags werden. Dann werden zum Beispiel MP3-Dateien oder YouTube-Videos tabu auf Bürorechnern.

Zentralisieren

Wann immer möglich, Storage als zentralen Service zur Verfügung stellen, statt wichtige Daten vor allem auf Abteilungsebene oder gar auf Arbeitsplatzrechnern vorzuhalten. Die zentrale Speicherung erhöht die Auslastung, vereinfacht das Management, verstärkt den Schutz vor ungewollten Datenverlusten (dezentrale Systeme werden oft nicht ausreichend gesichert) und beugt durch die Implementierung von klaren Zugriffsregeln sowie, falls erforderlich, durch Verschlüsselung auf dem Zentralsystem dem Datenklau vor.

Kostenverantwortung herstellen

Speicherservices der IT sollten verursacherbezogen abgerechnet werden. Das setzt natürlich entsprechende Software voraus. Es könnte sich lohnen, über ein progressives Preissystem für Speicherdienste nachzudenken, dessen Tarife überproportional steigen, sobald ein im Dialog mit den Bereichen abgestimmtes, für einen bestimmten Zeitraum definiertes Speichervolumen überschritten wird.

Daten analysieren und Storage-Tiers definieren

Die vorhandenen Daten, die zu erwartenden Wachstumsraten der einzelnen Datentypen und die Storage-Anforderungen an jeden Datentyp genau analysieren. Unterschiedliche Daten auf unterschiedlichen Speicherklassen zu halten, spart Geld und sorgt dafür, dass jede Information optimal aufbewahrt wird. Meist reichen drei bis vier Speicherklassen aus, um alle wichtigen Bedarfe zu befriedigen: Ständig abgefragte Daten mit hoher Verfügbarkeit landen auf schnellen Fibre-Channel-Festplatten oder auf Solid-State-Disk-Speicher (SSD), beispielsweise transaktionsorientierte Daten beim E-Commerce. Daten, die noch gelegentlich nachgefragt werden, aber nicht blitzschnell auf dem Bildschirm erscheinen müssen, werden auf kostengünstigen SATA-RAID-Arrays ausgelagert genau wie Snapshots als erste Sicherungsschicht. Das Langzeitarchiv liegt noch immer am besten auf Bandspeichern, schon allein deshalb, weil Bänder nur dann laufen, wenn sie benötigt werden. Nur für Daten mit besonders langer Aufbewahrungsdauer (etwa Patientendaten) empfehlen sich als Archivmedium teurere optische Platten. Festplatten als erste Backup-Stufe gewinnen Freunde, sind aber nicht billig. Lohnend ist Backup-on-Disk als Zwischenstufe zwischen primärer Speicherung und Archiv vor allem dann, wenn nur kurze Backup-Fenster zur Verfügung stehen.

Speicherlandschaft vereinheitlichen

Zerklüftete Systemlandschaften verschlingen viel Energie und Geld für den Brückenbau, sprich: Integration und Management. Denn trotz sich entwickelnder SNIA-Standards lauern bei der Integration heterogener Storage-Landschaften noch immer Stolpersteine im Detail. Daher die Speicherlandschaft Schritt für Schritt auf wenige Hard- und Softwareanbieter begrenzen. Das senkt den Managementaufwand, weil die Administratoren weniger unterschiedliche Systeme und Bedienphilosophien erlernen müssen und die Systeme eines Herstellers in der Regel besser zueinander als zu denen von anderen Herstellern passen. Ob eine Ein-Vendor-Strategie sinnvoll ist, hängt von der Philosophie des Anwenderunternehmens, seiner Größe und seinen Ressourcen ab und lässt sich nur individuell entscheiden.

Speichersysteme virtualisieren

Vorhandene Speichersysteme virtualisieren. Damit ist es möglich, Daten mit wenig Aufwand zu verschieben, Volumes zu vergrößern oder zu verkleinern. Zwar enttäuschte die vollmundig angepriesene Technologie bisher oft, wenn sie in sehr heterogenen Speicherlandschaften mit der Erwartung eingesetzt wurde, nun erhalte man einen quasi grenzenlosen Storage-Pool. In der Box und zwischen Boxen einer Serie oder eines Herstellers ist Virtualisierung mittlerweile gerade bei hochwertigen Geräten üblich. Allerdings geht es langsam auch voran in Richtung übergreifende Virtualisierung. Ein Beispiel ist Netapps Hyper-V-Technologie. Schon länger lohnt sich Speicher-Virtualisierungssoftware als schnelles Tool für Datenmigrationen, die besonders in abgestuften Speicherlandschaften gang und gäbe sind.

Thin Provisioning und Snapshots nutzen

Eine neue Stufe erklimmt die interne Virtualisierung durch das sogenannte Thin Provisioning. Als Technologiepionier gilt hier 3Par. Inzwischen wird die Technologie aber von einer ganzen Reihe von Herstellern angewendet. Beim Thin Provisioning wird Betriebssystem und Anwendungen vorgegaukelt, sie könnten auf einen sehr großen Speicher zugreifen, während in Wirklichkeit nur auf der logischen Ebene so viel implementiert wurde. Auf der physischen Ebene wird nur das anafangs tatsächlich benötigte Speichervolumen vorgehalten, das der Administrator mit dem Wachstum des Datenbestands langsam und bedarfsorientiert aufstockt. Deutlichster Effekt ist eine erhöhte Auslastung.

Ein weiteres Beispiel für neue, sparsame Technologie sind Snapshots. Sie speichern in Bruchteilen von Sekunden logische Zeiger auf die Daten und verkleinern so das Backup-Fenster. Einen ähnlichen Effekt hatten vor der Snapshot-Ära nur breitere Datenwege und mehrere parallel arbeitende Backup-Systeme - mit entsprechenden Folgen für die Kosten. Snapshots sparen Zeit und Speicherkapazität auf der ersten Backup-Ebene, außerdem können sie für kontinuierliche Datenverfügbarkeit sorgen.

Deduplizieren

Deduplizierung entfernt redundante Speicherinhalte - je nach Technologie auf Datei- oder Blockebene mit fixer oder variabler Blocklänge - und spart so Speicherkapazität. Den Versprechungen der Hersteller, die mit Kapazitätsreduzierungen bis 90 Prozent werben, ist allerdings mit Vorsicht zu begegnen. Die Technologie wird teils bereits standardmäßig angeboten, zum Beispiel in Speichersystemen von Netapp, ist aber noch entwicklungsfähig und in ihren flexibleren Varianten eher teuer. So gibt es derzeit kaum ein Angebot für Datendeduplizierung auf dem Quellsystem und die Zusammenarbeit mit Verschlüsselungslösungen ist unklar. Deduplizierung könnte langfristig viel dabei helfen, das Datenvolumen in den Griff zu bekommen und so die Speicherkosten insgesamt zu senken.

Dienstleistung statt eigener Speicher (Storage as a Service)

Immer mehr Dienstleister bieten Storage-Services nach Bedarf an. Ziel ist immer, nur gerade so viel zu bezahlen, wie im gegebenen Moment auch genutzt wird. Manchmal greift der Anwender dabei übers Netz selbst auf die Speichersysteme zu, manchmal nur auf die Daten. Nur eine sorgfältige Individualkalkulation und der Vergleich mehrerer Angebote kann zeigen, ob und wie viel Kosten durch On-Demand- und reine Servicemodelle gespart werden können.

Speziell für kleinere Firmen, die wenige Ressourcen für das IT-Management haben und überschaubare Datenmengen verwalten müssen, dürften externe Storage-Komplettservices eine interessante Alternative sein. Anwender sparen auf diese Weise nicht nur die Hardware samt Wartungsverträgen ein, sondern auch noch die Software samt Support. Außerdem ist für die Sicherheit der gesamten Speicherlandschaft jemand anders verantwortlich. Datenverluste aufgrund von Inhouse-Systemabstürzen sind so nahezu ausgeschlossen. Allerdings sollte man darauf achten, dass das ausgewählte Angebot dem eigenen Professionalitäts- und Sicherheitsbedürfnis auch entspricht. Viele größere Unternehmen werden es wohl noch lange vorziehen, zumindest sensible Daten im eigenen Haus zu behalten. (wh)