Hochverfügbar, konsolidiert und performant

Speichern im Netz gehört die Zukunft

25.09.2002
Storage Area Networks sind heute nicht mehr nur den Großunternehmen vorbehalten. Auch kleine und mittelgroße Firmen gehen dazu über, Speicherung von Rechenpower zu trennen und Pools zu bilden. Die Gründe: höhere Geschwindigkeit und Verfügbarkeit.

DER MARKT für Festplattenspeicher, die direkt an einen Server angeschlossen sind (Direct Attached Storage Device = DASD), wird sich nach Ansicht von Robin Burke, Chefanalyst von Gartner Dataquest, bis zum Jahr 2005 drastisch verkleinern. Lag der Marktanteil dieser Speicher 1998 noch bei etwa 80 Prozent, so werden es in drei Jahren nur mehr zehn Prozent sein. Dafür explodiert die Zahl der Speicher, die in ein Storage Area Network (SAN) eingebunden sind. Etwa 60 Prozent der Festplattenkapazitäten werden schon 2005 für ein SAN angeschafft, weitere 30 Prozent sollen als Network Attached Storage (NAS) im LAN Dienst tun.

Angesichts dieser Zahlen investieren schon jetzt kleinere und mittelgroße Unternehmen kräftig in Speichernetze. DASD-Speicher werden immer stärker in das Segment Home-Office zurückgedrängt. Die Industrie hat diesen Trend ebenfalls erkannt: Die drei großen Anbieter von Highend- Systemen - EMC, IBM, Hitachi Data Systems - erneuern derzeit ihr Produktportfolio im mittleren Leistungsbereich. Auffällig ist, dass sie dabei Funktionen der Highend- Systeme auch für die modular aufgebauten Midsize-Arrays zur Verfügung stellen. Arun Taneja, Marktforscher bei der Enterprise Storage Group, kommentiert das so: „Wegen der Softwareverbesserungen bei Mittelklassespeichern erhalten ITManager mit diesen Systemen viel Leistung zu einem deutlich geringeren Preis, als er für Highend- Geräte verlangt wird.“

 

 

 

 

 

 

 

 

Dass die Hersteller damit den Bedarf der Mittelständler richtig einschätzen, bestätigt indirekt Andreas Lehmann, Managing Director der Onsite Consulting GmbH. Er hat beobachtet, dass Großunternehmen hauptsächlich wegen der besseren Verfügbarkeit der Daten in SANs investieren. Performanceund Preisüberlegungen seien demgegenüber nachrangige Kriterien. Die Einsteiger dagegen hätten vor allem Kosten im Blick, erst danach Leistung und Connectivity.

Lehmann glaubt allerdings nicht, dass bei mittelgroßen Firmen nur das Kostenargument für den Kauf einer vernetzten Speicherlösung zählt. Seiner Meinung nach gab es in der Vergangenheit drei Gründe, ein Fiber-Channel (FC)-basierendes Netz anzuschaffen. Es sei darum gegangen, Speicher zu konsolidieren, den Zugriff mehrerer Server- Plattformen auf einen Datenpool zu ermöglichen und den Datentransfer gegenüber SCSI-Lösungen zu beschleunigen. Nach Meinung des Experten ist jetzt aber auch beim Mittelstand der Trend zur Hochverfügbarkeit zu erkennen.

Mehr Intelligenz von seiner Speicherlandschaft wünschte sich Frank Markgraf, IT-Manager der Stuttgarter LTG Mailänder GmbH. Im Zuge einer Erweiterung und Homogenisierung der IT - SAP wurde von Unix auf NT umgestellt - sollte auch ein Speichernetz eingerichtet werden. Die Stuttgarter entschieden sich dabei für IBMs „Fast-T-500“- Array, das knapp ein TB fasst. Der Speicher lässt sich ausfallsicher konfigurieren und ist über Hot-Spare- Festplatten zusätzlich gesichert. Doppelt ausgelegt sind die Switches sowie die Fibre-Channel-Karten in den angeschlossenen Servern. Derzeit hat Markgraf sechs Intel-basierende Rechner im Speichernetz, mittelfristig sollen es 14 werden. Markgraf blickt jetzt auf eine durchgängig homogene Umgebung mit Microsoft-Betriebssystemen auf Intel-Rechnern und lobt die damit erreichte einfachere Administration: „Die Wartung ist für uns leichter geworden, und zugleich können wir die Ressourcen besser verteilen“, resümiert der Manager. Das Speichernetz kommt insbesondere den Benutzern der R/3-Datenbank zugute, die jetzt viel schneller auf die Daten zugreifen können. Außerdem muss kein Know-how für Unix mehr vorgehalten werden.

Schulungen sind nötig

Markgraf hat sich für die Realisierung der neuen IT-Umgebung der Hilfe von Systemhäusern bedient, denn die Komplexität der IT-Infrastruktur ist nicht geringer geworden. Im Gegenteil: Der Aufwand, sich in die neue Technik einzuarbeiten, bedeutet zunächst eine höhere Arbeitsbelastung. Berater Lehmann setzt deshalb auf gut ausgebildetes Personal: „Mitarbeiterschulung ist schon im Vorfeld wichtig.“ Das bloße Wissen um den Fibre Channel reiche nicht aus, vielmehr müssten sich die ITManager mit Themen wie SANPlanung, -Implementierung und - Betrieb auskennen und zudem über das Management der Speichernetze Bescheid wissen.

 

 

 

 

 

 

Deshalb beurteilt er die seit diesem Jahr verfügbaren Komplettpakete „SAN-in-a-Box“ kritisch. Mit solchen Konzepten werde zwar der Qualifizierungs- und Implementierungs- Aufwand minimiert, dies könne aber nur als ein kostengünstiger Einstieg in die FC-Technik angesehen werden. „Ein SAN ist das noch nicht.“ Erst wenn die Routing-Fähigkeiten genutzt werden und ein komplettes Netz aus mehreren Servern aufgebaut wird, entsteht ein SAN. Nicht zu vergessen sei auch das Management der Speichernetze, um von den Vorteilen wie höhere Verfügbarkeit der Daten, bessere Ausnutzung der Kapazitäten oder schnellere Durchsatzraten auch profitieren zu können. Für die Verwaltung der Netze lassen sich die Werkzeuge nutzen, die die Komponenten-Hersteller mitliefern. LTG-Manager Markgraf nutzt die Fast-T-Tools der Speicher-Arrays für die Administration und ist damit zufrieden. Neuerungen gab es auch beim Backup, das jetzt der „Tivoli Storage Manager“ (TSM) erledigt. Für die Archivierung der Daten schafften die Stuttgarter eine LTOBandbibliothek mit 72 Slots an, die Markgraf als „genial“ bezeichnet.

Flexibler Speicherplatz

Gartner-Analyst Burke geht in seiner Vorschau noch einen Schritt weiter und proklamiert das „Storage Area Management“ (SAM): „SAM regelt die Beziehung zwischen Applikationen und ihrem Speicher - und alles dazwischen.“ Die Technik liefert die zentrale Verwaltung der Ressourcen und Daten über eine Speicher-Domain hinweg und stellt einer Gruppe von Servern und Applikationen teilbare Dienste zur Verfügung. Damit rückt er die Anwendung in den Vordergrund.

Eine zentrale Aufgabe der Speicherverwalter ist die Sicherung der Daten. Sie ist in vielen Fällen ebenfalls ein Grund für die Anschaffung von Speichernetzen. Durch das Anwachsen der Datenberge, der immer öfter verlangten Verfügbarkeit von Anwendungen rund um die Uhr sowie der steigenden Anzahl von „Mission-critical“- Applikationen auch bei kleineren Unternehmen stoßen herkömmliche Datensicherungsverfahren an ihre Grenzen.

Wird das Backup zentralisiert, ergeben sich schon allein dadurch Vorteile, dass Bandbibliotheken mehrere Server bedienen und sich die LANBelastung reduziert. Setzen die Unternehmen zudem Speicher der neueren Generation, schnelle Bandbibliotheken sowie intelligente Software ein, dann profitieren auch Mittelständler von den Funktionen, die früher nur für das Highend-Segment zu haben waren. „Enterprise-Lösung zum Midrange- Preis“ nennt Onsite-Manager Lehmann das, was als „Remote Copy“, Snapshot“, „Flashcopy“ oder „Cloning“ auch im mittleren Preissegment angeboten wird.

Sein Fazit: „Es ist keine Frage der Quantität, sondern der Wertigkeit, ob Daten für ein Unternehmen ,mission critical’ sind.“ In vielen Betrieben würde pauschal alles gesichert, auch Spiele, MP3- Files oder x-mal das gleiche Dokument. Großunternehmen setzen zunehmend Optimierungswerkzeuge ein, die den Datenbestand dahingehend durchforsten. Mittelständler müssen sich die Frage stellen, wie sie das Know-how aufbauen, um die neuen Funktionalitäten auch nutzen zu können.