SAN

Was ist ein Storage Area Network?

13.06.2023 von Ann Bednarz und Florian Maier
Ein Storage Area Network bündelt zentral verwaltete Speicherressourcen. Lesen Sie, wie sich ein SAN von einem NAS unterscheidet – und mehr.
Ein Storage Area Network (SAN) bündelt Speicherressourcen. Lesen Sie, wozu das gut ist und welche Rolle dabei Flash-Speicher, KI und hyperkonvergente Infrastrukturen spielen.
Foto: optimarc - shutterstock.com

Ein Storage Area Network (SAN) ist ein dediziertes Hochgeschwindigkeitsnetzwerk, das Festplatten-Subsysteme und Bandspeicherlaufwerke mit Server-Systemen verbindet. Der Zugriff auf Daten in einem SAN funktioniert Block-basiert, das heißt, der zugreifende Rechner verwaltet alle damit zusammenhängenden Vorgänge, unabhängig vom Dateisystem auf dem Storage-Device. Storage Area Networks wurden eingeführt, um die Verfügbarkeit und Leistung von Applikationen zu verbessern, indem der Speicherverkehr vom restlichen LAN getrennt wird. SANs ermöglichen Unternehmen, Speicherressourcen einfacher zuzuweisen und zu managen und so eine höhere Effizienz zu erreichen.

"Anstatt isolierte Speicherkapazitäten auf verschiedenen Servern zu haben, kann man einen Kapazitätspool für eine Reihe verschiedener Workloads gemeinsam nutzen und nach Bedarf verteilen. Das ist einfacher abzusichern und zu managen", erklärt Scott Sinclair, Senior Analyst der Enterprise Strategy Group.

Storage Area Network - Definition

Ein Storage Area Network besteht aus miteinander verbundenen Hosts, Netzwerk-Equipment wie zum Beispiel Switches und den Speichergeräten. Diese Komponenten lassen sich über eine Vielzahl von Protokollen miteinander verbinden:

Zu den wichtigsten Anbietern auf dem SAN-Markt für Unternehmen gehören:

Diese Provider bieten SAN-Switches der Einstiegs- und Mittelklasse sowie High-End-Optionen für Umgebungen, die mehr Kapazität und Leistung erfordern.

Die Marktforscher von Gartner definieren ein Storage Area Network folgendermaßen: "Ein SAN besteht aus zwei Ebenen: Die erste Ebene - die Speicherverdrahtungsebene - stellt die Konnektivität zwischen den Knoten in einem Netzwerk her und transportiert geräteorientiert einzelne Befehle und informiert über den Status. Mindestens ein Speicherknoten muss mit diesem Netzwerk verbunden sein. Die zweite Schicht - die Software-Schicht - verwendet Software, um Services bereitzustellen, die über die erste Schicht laufen."

SAN vs. NAS vs. Unified Storage

Sowohl Storage Area Network als auch Network Attached Storage (NAS) sind netzwerkbasierte Speicherlösungen. Das sind die wesentlichen Unterschiede zwischen SAN und NAS:

"Die meisten Unternehmen haben sowohl NAS als auch SAN in irgendeiner Form im Einsatz - oft hängt die Entscheidung darüber von den damit verbundenen Workloads oder Appplikationen ab", erklärt Sinclair.

Aus dem Bestreben, SAN und NAS - beziehungsweise Block- und Dateispeicher - in einem System zu vereinen, ist Unified Storage (Multiprotocol Storage) entstanden. Damit kann ein singuläres System sowohl Fibre-Channel- und iSCSI-Blockspeicher als auch Dateiprotokolle wie NFS und SMB unterstützen. Obwohl inzwischen diverse Anbieter Optionen in diesem Bereich im Portfolio haben, wird die Entwicklung von Unified Storage dem Unternehmen NetApp zugeschrieben.

SAN im Unternehmen - Status Quo

Storage-Anbieter ergänzen ihre SAN-Angebote regelmäßig um neue Funktionen, um ihre Lösungen effizienter zu machen und den Anwendern zu ermöglichen, diese besser skalieren und managen zu können. In Sachen Performance gehören vor allem Flash-Speicher zu den maßgeblichen Innovationen in diesem Bereich. Es gibt sowohl hybride Arrays, die traditionelle Festplatten mit Flash-Laufwerken kombinieren, als auch Storage Area Networks, die ausschließlich auf Flash-Storage basieren. In der Enterprise-Storage-Welt hat sich Flash bisher vor allem in SAN-Umgebungen durchgesetzt, da die strukturierten Daten-Workloads in einem SAN in der Regel kleiner und leichter zu migrieren sind.

Maßgeblich beeinflusst wird die Entwicklung von SAN-Produkten außerdem von künstlicher Intelligenz: Mit AIOps-Funktionalitäten versuchen die Anbieter KI in ihre Monitoring- und Support-Tools zu integrieren. Dabei werden Machine Learning und Analytics kombiniert, um Unternehmen dabei zu unterstützen,

Die Marktforscher von Gartner zählen AIOps-Features in ihrem jüngsten "Magic Quadrant for Primary Storage" zu den wichtigsten Storage-Funktionen, wenn es darum geht, eine Plattform für strukturierte Daten-Workloads auszuwählen: "AIOps kann auf Geschäftsanforderungen einzahlen, zum Beispiel wenn es um Kostenoptimierung und Kapazitätsmanagement, proaktiven Support, Workload-Simulation, Wachstumsprognosen und/oder Asset-Management-Strategien geht."

Während konvergente Arrays und Appliances die Grenzen zwischen SAN und NAS verwischten, gehen hyperkonvergente Infrastrukturen (Hyperconvergent Infrastructures, HCI) bei der Konsolidierung der Speicheroptionen noch einen Schritt weiter: HCI vereint Storage, Computing und Netzwerk in einem System, um die Komplexität von Rechenzentren zu reduzieren und die Skalierbarkeit zu erhöhen. Hyperkonvergente Plattformen laufen in der Regel auf handelsüblichen Servern und umfassen:

HCI kann jede Art von Speicher enthalten - Block-, Objekt- und Dateispeicher lassen sich in einer Plattform kombinieren. Um Storage-Pools mit gemeinsam genutzter Kapazität zu schaffen, können mehrere Knoten zu Clustern zusammengefasst werden. Das findet bei Unternehmen großen Anklang, zumal viele moderne Anwendungen auf Datei- und Objektspeicher angewiesen sind und die Menge unstrukturierter Daten deutlich schneller wächst als strukturierte Daten. Hyperkonvergente Infrastrukturen können SAN-Implementierungen nicht in jedem Fall vollständig ersetzen - Unternehmen sollten gemäß ihren jeweiligen Anforderungen entscheiden.

Storage Area Networks - in der Pay-Per-Use-Ära?

Ein weiterer Trend, der sich auf die Entwicklung traditioneller SAN-Speicher auswirkt, ist der Shift hin zu einer verbrauchsbasierten IT: Pay-per-Use-Hardware-Modelle sind darauf ausgelegt, Cloud-ähnliche Preisstrukturen für On-Premises-Infrastruktur anzubieten. Die Hardware wird vor Ort bereitgestellt und im Wesentlichen von den Herstellern betrieben und verwaltet. Kunden mieten diese Anlagen über ein variables monatliches Abonnement, dessen Abrechnung auf der Nutzung der Hardware basiert.

Das kommt bei den Unternehmen, die nach Alternativen zum Direktkauf von IT-Gerätschaften suchen, gut an: Laut einer Studie von IDC planen 61 Prozent der befragten Unternehmen, in Sachen Infrastruktur auf ein Pay-per-Use-Modell umzusteigen. Die Marktforscher gehen davon aus, dass die Hälfte der weltweiten Rechenzentrumsinfrastruktur bis zum Jahr 2024 als Service genutzt wird. Die Analysten von Gartner gehen davon aus, dass bis zum Jahr 2025 mehr als 70 Prozent der Storage-Kapazität in Unternehmen auf Basis von Pay-per-Use-Angeboten bereitgestellt wird. Gegenüber den 40 Prozent im Jahr 2021 wäre das ein signifikanter Anstieg.

Virtueller Round Table "Enterprise Storage"
Alexander Best, Datacore
"Der Vorteil von SDS liegt vor allem in der Vielfältigkeit: Sie lassen sich in diversen Architekturen einsetzen, liefern technologische Unabhängigkeit und eine schnellere Time-to-Market. Mit Blick auf die aktuell eingesetzte Hardware wird Storage aber auch die nächsten 20 Jahre noch ein “Bottleneck” bleiben."
Andreas Schmidt, Dropbox Business
"Als Cloud-Provider reden wir nicht über Platten oder Tapes, sondern über Verfügbarkeit und einfaches Datenmanagement. Gerade jetzt im neuen Lockdown wird doch klar, worum es dem User geht: Die eigenen Daten von jedem beliebigen Ort abrufen und produktiv mit ihnen arbeiten zu können."
Stefan Roth, Fujitsu
"Es ist fundamental wichtig, die Datenströme in einem Unternehmen zu analysieren, zusammenzuführen und zueinander kompatibel zu machen. In Enterprise SDS Lösungen können Sie relativ einfach komplette Data Workloads abbilden und auch analysieren. (Beispiel ETERNUS DSP oder Qumulo)"
Kristian Bacic, Huawei
"Um den Storage der Zukunft im Blick zu behalten braucht es mehr als ein zentrales Dashboard. Über kurz oder lang werden AI-Systeme das Herz einer vielfältigen Automatisierung und Lastverteilung sein."
Götz Mensel, IBM
"Mit der Red-Hat-Akquise kam ein nahezu perfektes Ökosystem zu unserem Portfolio hinzu. Unsere Aufgabe lag vor allem darin, dieses ebenso perfekt in unser Portfolio zu integrieren: Das heißt erstens, im Container-Bereich die Sicherung persistenter Daten zu realisieren. Zweitens, es zu schaffen, diese Container zu backupen. Und drittens, auch die notwendige Automatisierung zu erreichen."
Johannes Wagmüller, NetApp
"Wir beobachten den wachsenden Wunsch beim Kunden, Storage als Service zu konsumieren und positive Szenarien aus der Public Cloud auch in eine On-Premises-Infrastruktur zu überführen."
Markus Grau, Pure Storage
"Kunden wollen Daten konsumieren und nicht ihren Storage managen. Die Kernfrage lautet: Wie bekomme ich die nötige Innovation für meine Daten, ohne das komplette System erneuern zu müssen? Dabei ist es auch wichtig, eine gewisse technologische Sparsamkeit walten zu lassen. Denn je mehr spezialisierte Systeme ich parallel einsetze, desto größer ist das Risiko, dass neue Silos entstehen."
Marco Arnhold, Tech Data
"Als Distributor sitzen wir immer ein Stück weit zwischen den Stühlen. Bei der heute im Markt herrschenden technologischen Vielfalt ist es wichtig, über ein breit gefächertes Netzwerk an Spezialisten zu verfügen. Auf diese Weise können wir klassische Storage-Elemente mit Themen wie Hybrid Cloud, Containerisierung und Co. in den Kundenprojekten verknüpfen."
Manfred Berger, Western Digital
"Das Thema “Network Attached Storage” (NAS) kommt mir in der Diskussion häufig zu kurz. Mit integrierten Platten bin ich beim Platz und bei der Geschwindigkeit meistens beschränkt. Wenn ich allerdings sehr große Datenmengen speichern und analysieren will, muss ich eigentlich über das Netzwerk gehen. Das Stichwort lautet hier, Ressourcen zu disaggregieren und scheibchenweise zur Verfügung zu stellen. Gerade im Umgang mit künstlicher Intelligenz und anderen datenintensiven Prozessen liefert NAS, bzw. „NVMe over Fabric“, wertvolle Lösungsansätze."

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Network World.