Speichernetze für den Mittelstand

Enterprise-Lösungen zum kleinen Preis

13.09.2002
MÜNCHEN - Speichernetze sind heute nicht mehr nur den Großunternehmen vorbehalten. Auch immer mehr kleine und mittelgroße Firmen gehen dazu über, Storage und Rechenpower zu trennen und Speicher-Pools zu bilden. Die Gründe dafür reichen von höherer Geschwindigkeit bis hin zu Hochverfügbarkeit. CW-Bericht, Kriemhilde Klippstätter

Der Markt für Festplattenspeicher, die direkt an einen Server (Direct Attached Storage Device = DASD) angeschlossen sind, wird sich nach Ansicht von Robin Burke, Chefanalyst von Gartner Dataquest, bis zum Jahr 2005 drastisch verkleinern. Lag der Marktanteil dieser Speicher 1998 noch bei etwa 80 Prozent, so werden es in drei Jahren nur mehr zehn Prozent sein. Dafür explodiert die Zahl der Speicher, die in ein Storage Area Network (SAN) eingebunden sind. Etwa 60 Prozent der Festplattenkapazitäten werden schon 2005 für ein SAN angeschafft, weitere 30 Prozent sollen als Network Attached Storage (NAS) im LAN Dienst tun.

Schon jetzt investieren diesen Zahlen zufolge kleinere und mittelgroße Unternehmen kräftig in Speichernetze. DASD-Speicher werden immer stärker in das Segment Home-Office zurückgedrängt. Die Industrie hat diesen Trend ebenfalls erkannt. Die drei großen Anbieter von Highend-Systemen - EMC, IBM, Hitachi Data Systems - erneuern derzeit ihr Produktportfolio im mittleren Leistungsbereich. Auffällig ist, dass sie dabei Funktionen der Highend-Systeme auch für die modular aufgebauten Midsize-Arrays zur Verfügung stellen. Arun Taneja, Markforscher bei der Enterprise Storage Group, kommentiert das so: "Wegen der Softwareverbesserungen bei Mittelklassespeichern erhalten IT-Manager mit diesen Systemen viel Leistung zu einem deutlich geringeren Preis, als er für Highend-Geräte verlangt wird."

Dass die Hersteller damit den Bedarf der Mittelständler richtig einschätzen, bestätigt indirekt Andreas Lehmann, Managing Director der Onsite Consulting GmbH. Er hat beobachtet, dass Großunternehmen hauptsächlich wegen der besseren Verfügbarkeit der Daten in SANs investieren. Performance- und Preisüberlegungen seien demgegenüber nachrangige Kriterien. Die Einsteiger dagegen hätten vor allem Kosten im Blick, erst danach Leistung und Connectivity.

Lehmann glaubt allerdings nicht, dass bei mittelgroßen Firmen nur das Kostenargument für den Kauf einer vernetzten Speicherlösung zählt. Seiner Meinung nach gab es in der Vergangenheit für den Mittelstand drei Gründe, ein Fiber-Channel-basierendes Netz anzuschaffen. Es sei darum gegangen, Speicher zu konsolidieren, den Zugriff mehrerer Server-Plattformen auf einen Datenpool zu ermöglichen und den Datentransfer gegenüber SCSI-Lösungen zu beschleunigen. Nach Meinung des Experten ist jetzt aber auch beim Mittelstand der Trend zur Hochverfügbarkeit zu erkennen.

Gespiegelte Daten

Eine höhere Datenverfügbarkeit wollte beispielsweise die Stadt Heidelberg erzielen. Manfred Leutz, stellvertretender IT-Leiter der Stadt, hat vor über einem Jahr mit Hilfe eines Speichernetzes ein Ausfallkonzept realisiert. Es stützt sich im Wesentlichen auf die Software "SAN-Symphony" von Data Core, mit der über zwei "Storage-Domain-Server" zwei räumlich getrennte Datenzentralen eingerichtet wurden. Jeder der acht angeschlossenen Intel-Server, die unter Netware, Windows NT und 2000 arbeiten, hat über getrennte FC-Switches eine Verbindung zu beiden Storage-Domain-Servern. Außerdem sind die Daten auch aus Brandschutzgründen doppelt abgelegt.

Mit den gespiegelten und räumlich getrennten Datensilos umgeht Leutz die Gefahr, bei einem Stillstand des SANs den Zugriff auf alle Produktivdaten zu verlieren. Speichernetze müssen deshalb seiner Meinung nach immer redundant ausgelegt sein, sonst kehrt sich der Vorteil des Speichernetzes - die zentrale Verwahrung aller gespeicherten Daten - in einen fatalen Nachteil um: Steht ein SAN still, kommt niemand mehr an die Daten heran. Bei einem direkt an den Server angeschlossenen Array (DASD) ist dagegen im Falle eines Defekts nur ein Teil der Daten betroffen. Hochverfügbarkeit ist im SAN deshalb ein Muss.

Andererseits gestaltete sich früher der Neustart des Servers und damit auch der Zugriff auf die dort abgelegten Daten ziemlich umständlich: Kabel waren umzustöpseln und manchmal sogar der Raid-Controller aus dem defekten Server aus- und in das Ersatzgerät einzubauen. Heute erledigt Leutz bei einem Server-Defekt den Datenzugriff über einen neuen Server mit ein paar Mausklicks.

Intelligente Speicher

Mit der neuen Version 5.0 der Data-Core-Software löst der IT-Manager das Problem mit den Servern, deren Betriebssysteme es nicht gestatten, während des laufenden Betriebs das Speichervolumen zu erhöhen. Das hatte dazu geführt, dass manche Speichernetze so unflexibel zu handhaben waren wie DASD-Speicher. Bislang musste am Storage-Domain-Server für jeden angeschlossenen Server der Speicherplatz definiert werden. Reichte der nicht aus, begann das gewohnte Procedere: Server herunterfahren, neues, größeres Volume anlegen, Daten umkopieren, System neu konfigurieren und hochfahren.

Die neue SAN-Symphony-Funktion "Network Managed Volumes" umgeht mit einem Kniff diese Limitierung. Leutz stellt mit Hilfe von SAN Symphony dem Server virtuell eine sehr viel größere Festplatte zur Verfügung als ihm tatsächlich zugeordnet ist. Zugleich setzt Leutz im Storage-Domain-Server einen Marker, der ihn beispielsweise bei einer tatsächlichen Auslastung der Speicherkapazität von 80 Prozent auf den drohenden Engpass aufmerksam macht. Dank der virtuell größeren Platte kann dem Server dann "on the fly" mehr Speicherplatz zugeordnet werden.

Mehr Intelligenz von seiner Speicherlandschaft wünschte sich auch Frank Markgraf, IT-Manager der Stuttgarter LTG Mailänder GmbH. Im Zuge einer Erweiterung und Homogenisierung der IT - SAP wurde von Unix auf NT umgestellt - sollte auch ein Speichernetz eingerichtet werden. Die Stuttgarter entschieden sich dabei für IBMs "Fast-T-500"-Array, das knapp ein TB fasst. Der Speicher lässt sich ausfallsicher konfigurieren und ist über Hot-Spare-Festplatten zusätzlich gesichert. Doppelt ausgelegt sind die Switches sowie die Fibre-Channel-Karten in den angeschlossenen Servern. Derzeit hat Markgraf sechs Intel-basierende Rechner im Speichernetz, mittelfristig sollen es 14 werden.

Homogene IT hilft bei Verwaltung

Markgraf blickt jetzt auf eine homogene Umgebung mit durchgängig Microsoft-Betriebssystemen auf Intel-Rechnern und lobt die damit erreichte einfachere Administration: "Die Wartung ist für uns leichter geworden und zugleich können wir die Ressourcen besser verteilen", resümiert der Manager. Das Speichernetz kommt insbesondere den Benutzern der R/3-Datenbank zugute, die jetzt viel schneller auf die Daten zugreifen können. Außerdem muss kein Know-how für Unix mehr vorgehalten werden.

Sowohl Markgraf als auch Leutz haben sich für die Realisierung ihrer neuen IT-Umgebung der Hilfe von Systemhäusern bedient, denn die Komplexität der IT-Infrastruktur hat sich prinzipiell nicht vereinfacht. Im Gegenteil: Der Aufwand, sich in die neue Technik einzuarbeiten, bedeutet zunächst eine höhere Arbeitsbelastung. Berater Lehmann setzt deshalb auf gut ausgebildetes Personal: "Mitarbeiterschulung ist schon im Vorfeld wichtig." Das bloße Wissen um den Fibre Channel reiche nicht aus, vielmehr müssten sich die verantwortlichen IT-Manager heute mit Themen wie SAN-Planung, -Implementierung und -Betrieb auskennen und zudem über das Management der Speichernetze Bescheid wissen.

Deshalb beurteilt er die seit diesem Jahr verfügbaren Komplettpakete "SAN-in-a-Box" auch kritisch. Mit solchen Konzepten werde zwar der Qualifizierungs- und Implementierungs-Aufwand minimiert, dies könne aber nur als ein kostengünstiger Einstieg in die FC-Technik angesehen werden. "Ein SAN ist das noch nicht." Erst wenn die Routing-Fähigkeiten genutzt werden und ein komplettes Netz aus mehreren Servern aufgebaut wird, entsteht ein SAN. Nicht zu vergessen sei auch das Management der Speichernetze, das zwingend notwendig sei, um von den Vorteilen wie höhere Verfügbarkeit der Daten, bessere Ausnutzung der Kapazitäten oder schnellere Durchsatzraten auch profitieren zu können.

Für die Verwaltung der Netze nutzen Mittelständler gerne die Werkzeuge, die die Komponenten-Hersteller mitliefern. Bei der Verwaltung der Stadt Heidelberg erledigt SAN Symphony das Management der zwei Dell-Arrays, die jeweils maximal 1,5 TB fassen. Auf die zwei "Powervault-660" greifen die acht Intel-Server zu, die rund 1200 PCs bedienen, die ebenfalls mit Microsoft-Betriebsystemen arbeiten.

LTG-Manager Markgraf nutzt die Fast-T-Tools der Speicher-Arrays für die Administration und ist damit zufrieden. Neuerungen gab es auch beim Backup, das jetzt der "Tivoli Storage Manager" (TSM) erledigt. Für die Archivierung der Daten schafften die Stuttgarter eine LTO-Bandbibliothek mit 72 Slots an, die Markgraf als "genial" bezeichnet. Sein Leben sei durch die Investition einfacher geworden und zugleich könne Speicherplatz flexibler disponiert werden als früher.

Gartner-Analyst Burke geht in seiner Vorschau noch einen Schritt weiter und proklamiert das "Storage Area Management" (SAM): "SAM regelt die Beziehung zwischen Applikationen und ihrem Speicher - und alles dazwischen." Die Technik liefert die zentrale Verwaltung der Ressourcen und Daten über eine Speicher-Domain hinweg und stellt einer Gruppe von Servern und Applikationen teilbare Dienste zur Verfügung. Damit rückt er die Anwendung in den Vordergrund.

Eine zentrale Aufgabe der Speicherverwalter ist die Sicherung der Daten. Sie ist in vielen Fällen ebenfalls ein Grund für die Anschaffung von Speichernetzen. Durch das Anwachsen der Datenberge (siehe Kasten), der immer öfter verlangten Verfügbarkeit von Applikationen rund um die Uhr sowie der steigenden Anzahl von "Mission-critical"-Applikationen auch bei kleineren Unternehmen, stoßen herkömmliche Datensicherungsverfahren an ihre Grenzen.

Wird das Backup zentralisiert, ergeben sich schon allein dadurch Vorteile, dass Bandbibliotheken mehrere Server bedienen und sich die LAN-Belastung reduziert. Setzen die Unternehmen zudem Speicher der neueren Generation, schnelle Bandbibliotheken sowie intelligente Software ein, dann profitieren auch Mittelständler von den Funktionen, die früher nur für das Highend-Segment zu haben waren. "Enterprise-Lösung zum Midrange-Preis" nennt Onsite-Manager Lehmann das, was als "Remote Copy", Snapshot", "Flashcopy" oder "Cloning" mittlerweile auch im mittleren Preissegment angeboten wird.

Sein Fazit: "Es ist keine Frage der Quantität, sondern der Wertigkeit, ob Daten für ein Unternehmen ,mission critical'' sind." In vielen Betrieben würde pauschal alles gesichert, auch Spiele, MP3-Files oder x-mal das gleiche Dokument. Großunternehmen setzen zunehmend Optimierungswerkzeuge ein, die den Datenbestand dahingehend durchforsten. Mittelständler müssen sich die Frage stellen, wie sie das Know-how aufbauen, um die neuen Funktionalitäten auch nutzen zu können.

Tipps für Desaster Recovery

Die meisten Unternehmen verfügen über bewährte Prozeduren für die regelmäßige Sicherung der Daten. Nur wenige Firmen haben allerdings eine Strategie für Desaster Recovery entwickelt. Legato, Hersteller von Speichersoftware, hat Beratungsanfragen, die nach dem 11. September eingingen, analysiert. Es zeigte sich, dass "die größten Probleme bei der Wiederaufnahme des Geschäftsbetriebs durch Planungslücken entstehen." Die Legato-Manager stellen fünf Gebote auf, die diesen Planungslücken vorbeugen sollen:

1. Systemkonfiguration soll dokumentiert und archiviert werden.

2. Die Prozeduren für das Desaster Recovery sollen ebenfalls dokumentiert, archiviert und außerdem trainiert werden.

3. Bandmedien sollen sicher aufbewahrt, dokumentiert (beschriftet) und deren Lagerung dokumentiert sein.

4. Alle geschäftskritischen Rechner sollen als solche identifiziert und abgesichert werden.

5. Die Rücksicherung soll durch Online-Datensicherung erleichtert werden.

So viel Information

Die Datenmengen, die in den Unternehmen gespeichert werden, steigen Jahr für Jahr. Neue Applikationen, digitalisierte Geschäftsprozesse und rechtliche Vorschriften sind der Grund dafür, dass sich das Speichervolumen jährlich verdoppelt. Die University of California School of Information Management and Systems ist der Frage nachgegangen, welche Anwendungen besonders speicherhungrig sind. Die Wissenschaftler schätzen, dass weltweit pro Jahr neue Informationen in Printmedien, Filmen, optischen und magnetischen Inhalten erzeugt werden, die 1,5 Milliarden GB oder 1,5 Exabyte entsprechen. Das sind 1500000000000000000 Byte. Die etwa eine Milliarde Mailboxen auf der Welt produzieren 900 TB, für die teilweise Aufbewahrungspflicht besteht. Bekannt ist, dass Anwender dazu neigen, E-Mails nicht gerne zu löschen. Pro Sekunde werden 2700 digitale Fotos geschossen, errechneten die Forscher und veranschlagen die Anzahl der zu speichernden Bilder auf 80 Milliarden im Jahr. Zwischen 1895 und 2000 sollen 287000 Spielfilme produziert worden sein, die Zug um Zug digitalisiert werden. Trotz Datenkompression benötigt eine Stunde Film zwei GB. Bei einer durchschnittlichen Filmlänge von zwei Stunden fallen 1,2 Exabyte an Daten an - und das nur für jeweils eine Kopie der Filme. Ein weiteres Speichergrab sind die zwei Milliarden Röntgenaufnahmen pro Jahr, die - bei durchschnittlich 8 MB pro Aufnahme - 17 Petabyte erzeugen.

Abb: Wo sitzen die Speicher?

Vernetzte Speicher im Vormarsch: 2005 sind nur zehn Prozent am Server angeschlossen. Quelle: Gartner