Ist das Plattensystem 33803880 ein altes Eisen?

An der Schwelle zu einem neuen Online-Konzept

19.05.1989

Die Datenspeicherung explodiert, manuelles Speichermanagement und DASD-Verwaltung zeigen Grenzen auf. Das derzeitige Plattenequipment scheint ausgereizt, Kapazitäts- und Performancegrenzen werden sichtbar. Zudem lassen neue Konzepte (wie SMS), neue Plattenankündigungen und auch kommende CPU-Generationen die derzeitige Produktpalette "alt" aussehen. Marketing oder Realität

Wie so oft, gibt es auch hier den feinen Unterschied zwischen Wunsch und Wirklichkeit. Natürlich tut sich etwas und dies wird auch notwendig: Die Plattenfamilie vom Typ 3380 befindet sich bald acht Jahre am Markt, MVS/XA wird seit 1983 eingesetzt. Andererseits wurden ESA und SMS 1988 angekündigt und die Steuereinheit IBM 3990 steht heute bei den ersten Kunden. Das neue Online-Konzept, vorerst nur in Teilen vorhanden, nimmt langsam Gestalt an und ist ohne Zweifel die große Langzeitperspektive, an der sich die Anwender orientieren können. Am aktuellsten sind dabei die neuen Hardware-Produkte. Doch betrachten wir zunächst die Marktentwicklung.

Die Datenbasis wächst gigantisch

Unbestritten ist die Tatsache, daß die Datenbasis gigantisch wächst und sich immer deutlicher Schwierigkeiten zeigen. Derzeit geht man (nach Gartner Group) von maximal 35 Prozent durchschnittlichem Kapazitäts-Zuwachs pro Jahr aus. Das bedeutet zwar eine Reduzierung gegenüber den Vorjahren, doch darf man die angewachsene, riesige Installationsbasis nicht vergessen: Schätzungen unterstellen weltweit rund 320 000 Einheiten des Magnetplattentyps 3380.

Dataquest taxierte den Absatz an IBM-Plattenkapazität allein 1987 in den USA auf 117 000 GB. Anders ausgedrückt wurde in einem Jahr viermal so viel Kapazität verkauft, als die Anwender während der gesamten Produktlebenszeit der Platte IBM 3350 (Vorgänger der 3380, 1975-1982) jemals installiert hatten! Wahrlich eine Herausforderung für jede EDV-Installation, die sich mittlerweile auch im Budget niederschlägt: rund 55 Prozent der Ausgaben betreffen die Datenhaltung. Dies muß auch im Zusammenhang mit der Rechnerleistung gesehen werden. Firmen sind heute in einem sehr hohem Maße von der EDV durchdrungen, fast täglich kommen neue Anforderungen hinzu. Dementsprechend wird mehr Leistung erforderlich, und CPUs mit 50 - 100 MIPS sind durchaus keine Seltenheit.

Zur Steuerung dieser Großrechner und der Datenversorgung wurde auch eine leistungsfähigere Architektur eingeführt: ESA/370 mit MVS/ESA. Doch wer bedenkt schon, daß er nun einen Adreßraum bis zu 8192 Data Spaces zu je 2 GB kreieren kann (entspricht rund 800 Strängen E-Disks!), auch VM/XA SP 2 verwaltet schon bis zu 16 000 GB Zusatzspeicher. Nach wie vor müssen (virtuelle) Daten auf Externspeichern vorgehalten werden. Insbesondere wird eine drastische Zunahme der Page/Swap Data Sets erwartet, deren Verwaltung (mit MVS/XA 2.2) bereits auf 256 Data Sets vorbereitet wurde Ergänzende Untersuchungen von Storagetek sehen für 1992 durchschnittlich 448 MIPS, 1280 GB Daten und einen Online-Grad von 70 Prozent je Installation voraus. Dabei darf auch die Bandverarbeitung nicht vergessen werden.

Ob Backup/Recovery-Verfahren oder langfristige Sicherungen - wächst die Plattenbasis, so nimmt auch die Bandverarbeitung zu. Hier müssen zum quantitativen Wachstum (Stellfläche, Operating, etc.) insbesondere der zeitliche Engpaß und die Fehlermöglichkeiten aufgrund manueller Eingriffe bedacht sein.

Das Arbeitspferd dieser Plattenfarmen ist der Magnetplattenspeicher vom Typ IBM 3380 (IBM und Kompatible). Mit der Auslieferung wurde im vierten Quartal 1981 (FCS der 3380-AA4 in USA nach Ankündigung im Juni 1980) begonnen, die ersten kompatiblen 3380-Disks kamen ab 1983 (z.B. Storagetek 8380) auf den Markt. Die Entwicklung der IBM 3380 geht sogar bis zum Jahr 1969 zurück. Allein dieser Zeitraum läßt ein langsames Ende der 3380-Technologie erkennen. Zwar erfolgte 1987 mit Ankündigung der 3380-J beziehungsweise. 3380-K nochmals eine Leistungsverbesserung, und sicher könnte mit der heutigen Plattengeneration noch eine Kapazitätserweiterung (4X bzw. 6X) realisiert werden, zur Lösung der Probleme erwartet man jedoch eine neue Plattenarchitektur, die auch mit den Anforderungen der nächsten Jahre mitwachsen kann. Dabei gilt als sicher daß neue Generationen nicht mehr so lange am Markt bestehen werden. Einmal könnte aus Wettbewerbsgründen ein rascher Modellwechsel erfolgen, denn die PCMer halten zirka 15 bis 20 Prozent Marktanteil. Zum anderen war in den letzten Jahren primär die Platte IBM 3380 ein konstantes Element, während die Rechner und Betriebssystemversionen häufig wechselten. Möglicherweise ließ sich aber nur durch diese Ruhe an der Datenbasis der Umstieg von Batch auf Online verwirklichen, zukünftig entfällt dieser Zwang zur Rücksicht.

Die Geräte müssen erst abgeschrieben sein

Nun bedeutet dies nicht zwangsläufig, daß 3380-/3880-Geräte plötzlich "alt" geworden sind. Im Gegenteil, ein großer Teil wird bis in die erste Hälfte der 90er Jahre bestehen bleiben. Solch eine Riesenbasis muß erst abgeschrieben und unwirtschaftlich sein, bevor sie einfach verschwindet beziehungsweise in den Secondhand-Markt abwandert. Daher ist in der Ankündigung der IBM 3990 auch eine Brücke zur erwarteten Nachfolgeplatte zu sehen. Jedenfalls wird der alten Steuereinheit IBM 3880 noch ein längeres Leben vorausgesagt.

Doch welche Probleme sind mit dem heutigen Plattentyp verbunden? Die 3380 muß praktisch ein Alleskönner sein. Von MVS über VM bis zu DOS werden Systemdateien, Datenbanken, das virtuelle Speichersystem, dazu shared DASD-Betrieb in Multi-CPU-Umgebungen und sowohl Batch als auch Online bedient. Dabei hat jede Anwendung ihre spezifischen Eigenheiten, die bedacht sein sollten. Dies auch mit Blick auf die wachsenden Datenmengen, neuen Applikationen und leistungsfähigeren CPUs (3000 I/Os pro Sekunde und mehr).

Im Gegensatz dazu steht weiterhin die Mechanik der Magnetplatte und daraus abgeleitet die Seek-, Latenzzeit- und RPS-Miss-Problematik, bis hin zu den eingeschränkten Pfadlastprofilen und das bei weiter anwachsenden Datenmengen je Zugriffsarm. Folgende Problemkreise ergeben sich:

- Kapazitätsprobleme: Weitaus die meisten Installationen konfigurieren in einem Strang 20 GB (E-Modell), mit zehn GB (Standard) bei performancekritischen Daten. Dazu gibt es noch etliche EDV-Shops, die alte IBM-Modelle 3380-AA4/B04 einsetzen. Hier kann man aus Performancegründen oft erheblich weniger als zehn GB pro Strang finden. Bedenkt man das vorher angesprochene Wachstum, so wird anhand eines Beispiels sehr schnell die Problematik klar: 40 Prozent Wachstum führen innerhalb von fünf Jahren zu einer Verfünffachung der Datenmenge! So wird auch die seit 1988 sprunghaft angestiegene Nachfrage nach Platten mit Dreifachkapazität (Typ 3380-K) verständlich. Laut IDC macht dieser :Plattentyp rund 45 Prozent aller Auslieferungen aus, neben IBM liefern auch Hitachi und Storagetek seit einigen Monaten.

- Sorgen mit der Stellfläche: Alle EDV-Shops haben zum Wachstum allerdings noch andere Nöte. Aus Performancegründen kann man Magnetplatten nicht vollständig belegen (Utilization 45 - 80 Prozent). Somit benötigt man zusätzliche Platten, weitere Steuereinheiten, Kanalanschlüsse etc. Trotz kapazitiver Verbesserung um 50 Prozent (3380-K gegenüber E-Disk), rechnet man in den nächsten Jahren mit einer Verdoppelung beziehungsweise gar Verdreifachung der Stellflächen. Neben neuen Datenhaltungskonzepten (zum Beispiel ACS/4400 von StorageTek mit 100 GB/qm) können nur neue Konfigurationskonzepte Abhilfe schaffen. Hier sei das Plattensystem 8380-R von Storagetek erwähnt, bei dem für 30 GB lediglich 2,15 qm benötigt werden (inklusive Servicefläche und Steuereinheit zirka 3,2 GB/qm).

- Problem Performance: Eine wirksame Verbesserung ergibt sich mit den neuen Seekzeiten der Einheiten IBM 3380-J/K (und Kompatiblen). Die dadurch besseren I/O-Service-Zeiten werden bei jedem Plattenzugriff realisiert. Andererseits befinden sich aber wesentlich mehr Dateien unter einer Adresse (Modell K), was zu Staus führen kann. Erste Erfahrungen besagen, daß man eine K-Platte nur zu 40 Prozent belegen sollte, um die Zugriffsleistung (bei gleichen Servicezeiten) einer zu 75 Prozent belegten E-Platte zu erreichen. Der Cache wird somit unerläßlich. Dies erklärt vielleicht den zunehmenden Einsatz der Platte IBM 3380-J (und kompatiblen). Viele Anwender überspringen aus diesen Gründen die K-Platte und setzen verstärkt E-Modelle ein - hier schließt sich der Kreis zum Stellplatzproblem.

Quad Port muß auch erwähnt werden, sind doch 4 gleichzeitige I/Os auf unterschiedliche Subsystemadressen möglich beziehungsweise öfters freie Pfade je Zugriffsarm vorzufinden. Doch mit den vier Strängen und den maximal 120 GB an Daten, die eine IBM 3990 verwalten kann, deutet sich ein Entstehen großer Datenpools an. Wiederum ein Anlaß, den Cache einzusetzen, wohl auch die Begründung der neuen Cachegrößen (bis zu 256 MB). Ebenfalls einen Cache setzt die Übertragungsrate von 4,5 Megabit pro Sekunde voraus, arbeiten doch alle Plattensubsysteme vom Typ 3380 intern noch mit 3 Megabit pro Sekunde. Der Vorteil der schnelleren Übertragung wirkt sich während des verhältnismäßig kleinen Anteils des Datentransportes aus. Sehr wichtig sind hier die Trefferraten, die sich mit der Cachegröße regeln lassen.

- Verwalten von Datenmengen: Ein ursprünglicher Planungswert von 15 GB, die ein Speicherverwalter betreuen sollte, wurde vor einigen Jahren bereits auf 35 GB erhöht. In der Realität fahren große Installationen 400 - 800 GB mit 3-5 Leuten unter Einsatz entsprechender Tools. Doch dynamisches Reagieren und planende Eingriffe sind schwer durchführbar. Problematisch wird es zudem wenn Plattenmigrationen anstehen (neue Trackgrößen, Linklibs etc.).

Unter diesen Eindrücken wird verständlich, daß die Steuereinheit IBM 3990 mit einer neuen Plattenfamilie im Hintergrund große Aufmerksamkeit bewirkt. Dies wird weiter verstärkt durch die Tatsache, daß erstmals die Hardware als Teil einer Gesamtstrategie für Online-Daten gesehen werden kann. Durch eine Softwarebrücke (SMS) im Zusammenwirken mit den erweiterten Funktionen der Cache-Einheit beginnt eine funktionale Integration in das aktive Betriebsgeschehen - auch wenn sich die Perspektive über mehrere Jahre hinzieht. Betrachten wir also zuerst die neue Online-Peripherie.

- Die Steuereinheit IBM 3990, als Nachfolger der IBM 3880, wird insbesondere zur Unterstützung der Platten IBM 3380-J/K (zum Beispiel Quad Port) erforderlich. Die Ankündigung erfolgte demgemäß auch im September l987. Zusätzlich gewinnt dieses Produkt dadurch an Aktualität, daß die 3880-Produktreihe (zum Beispiel -3, -23) vom Markt genommen wurde. Zweifelsohne gibt es im technischen Bereich wesentliche Verbesserungen. Das moderne Design, in dem sicherlich noch Luft für neue Funktionen steckt, bietet neben erhöhter Zuverlässigkeit, besseren Umgebungswerten auch Stellflächenvorteile. Besonders wichtig erscheint die unterbrechungsfreie Installation von Platten durch das "Zweikreissystem" (Quad Port gleich verdoppeltes Dual Port). Die IBM 3990-1 bietet mehr oder weniger einen neuverpackten Standardkontroller, wodurch die 3880-3 preislich weiterhin sehr interessant bleiben dürfte. Mit der IBM 3990-2 werden vier unabhängige Pfade je Subsytem eingeführt, doch nur in Verbindung mit 2 gekoppelten A-Einheiten (IBM 3380-J/K).

Erweiterte Funktionen spielen eine wichtige Rolle

Der Vorteil liegt in der höheren Pfadverfügbarkeit, letztlich im besseren I/O-Durchsatz der Subsysteme. Das interessanteste, für IBM strategisch kritische Produkt ist die IBM 3990-3. Diese intelligente Cache-Steuereinheit soll den Engpaß zwischen den zukünftigen, schnelleren CPUs und den weiterhin verhältnismäßig langsamen Platten überbrücken. Daher spielen hier die "erweiterten Funktionen" (EF) eine wichtige Rolle. Wurde beim bisherigen Modell IBM 3880-23 der Cache ausschließlich zum Lesen verwendet (mit Performancenachteilen für den Schreibzugriff), so soll gerade diese Problematik mit der IBM 3990-3 beseitigt sein, indem Daten primär im Cache hinterlegt und später (asynchron) auf die Platte geschrieben werden. Durch diese Überlappung lassen sich je Last und Hit Servicezeiten von sechs bis elf erreichen. Unverzichtbare Voraussetzung sind die neuen Funktionen (EF):

- DASD Fast Write: mit Kanalgeschwindigkeit werden Daten in den Cache geschrieben, der Write-Vorgang abgeschlossen (CE/DE) und eine Kopie im Non Volatile Storage (NVS) hinterlegt. Je nach Bedarf erfolgt ein asynchrones Schreiben auf die Platte. Entsprechend der Konzentration der Schreibzugriffe auf den Cache könnte hier ein Leistungsverhalten ähnlich der bisherigen Read Hit-Situation - mit höheren I/O-Raten - erreicht werden.

Cache Fast Write: für spezielle Daten (zum Beispiel temporäre Arbeitsdateien von DFSORT, ab R 9.0) muß nicht auf Platte zugegriffen werden. Diese Daten stehen im Cache (ohne NVS-Absicherung) zur Verarbeitung bereit: CPU-Puffer können reduziert große Datenmengen (Plattensorts) schneller verarbeitet werden.

- Dual Copy: dupliziert automatisch Daten auf eine andere Adresse im Subsystem. Statusinformationen hierzu werden im NVS gehalten. Um die Steuereinheit zu entlasten, können DASD Fast Write und Dual Copy zum Fast Dual Copy kombiniert werden. Ein genereller Vorteil liegt in der Reduzierung von Host-Zyklen (für bisherige Sicherungsläufe), allerdings muß ein Duplex Pair (zweite Adresse) im Subsystem vorgehalten werden. Der Copy-Vorgang erfolgt nach Aktivierung transparent für die Applikationen. Hier ist insbesondere an RACF, ICF-Kataloge, aber auch IMS zu denken, IPLs und Katalog-Recovery werden reduziert. Man erkennt bereits das Zusammenwirken von HW und SW, zum Beispiel DFSORT und Cache Fast Write. Zunehmend werden Funktionen in die Hardware ausgelagert. Allerdings gibt es aber gerade bei den neuen Funktionen (Dual Copy, DASD Fast Write) erhebliche Verzögerungen.

Über die Bekanntgabe der Erstauslieferung im 2. Halbjahr 1989 (nach Ankündigung in 9/87) wird derzeit spekuliert. Weiterhin stehen größere Cachespeicher (maximal 256 MB) und ein batteriegestützter Permanentspeicher (NVS) von 4 MB zur Verfügung. NVS wird für die Funktionen DASD Fast Write und Dual Copy benötigt. Ausfallsichere Subsysteme lassen sich zum Beispiel durch eine Dual Frame-Kopplung zweier IBM 3990-3 mit Dual Copy realisieren.

- Neue Platte "3390". Während die 3990 für die Konnektivität sorgt und als Brücke zur nächsten Plattengeneration dient, müssen die (bereits angesprochenen) Probleme der Kapazität, des I/O-Durchsatzes und der Stellfläche durch neue, verbesserte Plattenlaufwerke beseitigt werden. Dieses Nachfolgeprodukt zur IBM 3380 bezeichnet man (nach Gartner) spekulativ als IBM 3390 und erwartet die Ankündigung in 1990 - möglicherweise zu dem Zeitpunkt, ab dem alle PCMer volume shipment beim derzeitigen Equipment (K-Disk und 3990) erreicht haben. Hier spielen aber sicherlich auch SW-Gesichtspunkte (ESA, SMS/EF) und neue Rechner (Summit) eine ebenso wichtige Rolle.

Wie wird nun die neue Platte aussehen? Als sicher gilt zunächst ein kleinerer Plattenscheibendurchmesser zirka 10,25 Zoll - heute 14 Zoll).

Das Zukunftsbild der neuen Hardware

Neben der vordergründigen Stellflächenreduzierung läßt ein kleineres Laufwerk (HDA) Gewichtseinsparungen zu. Dies führt zu geringeren Stromaufnahmewerten und Wärmeabgaben. Nicht zu vergessen sind auch die neuen Seekzeiten (average seek unter 10 ms) aufgrund der kürzeren Distanzen. Die Größe der Plattenscheiben spielt zudem bei den Beschichtungen eine große Rolle, da bei kleineren Durchmessern die Rotationskräfte geringer sind. Zunächst erwartet man Eisenoxid-/ Kobaltbeschichtungen, zukünftig würde der Einsatz anderer Verfahren (zum Beispiel Dünnfilmbeschichtung) für höhere Aufzeichnungsdichten erleichert. Ergänzend werden höhere Umdrehungsgeschwindigkeiten möglich (cirka 5400 U/ min.), was wiederum zu geringeren Latenzzeiten (um sechs ms) und höheren, internen Übertragungsraten (bis zu 4,5 Megabit pro Sekunde?) führt. In Verbindung mit Cache-Steuereinheiten ließen sich somit Datenübertragungsraten von mindestens sechs Megabit pro Sekunde und mehr erzielen. Unterstellt werden auch neue Spurformate (bis zu 60 KB?), die sowohl im "native mode", als auch übergangsweise im emulierten 3380-Modus genutzt werden könnten. Verschiedene Kapazitätsversionen ließen sich zum Beispiel mit unterschiedlicher HDA-Anzahl pro Platteneinheit realisieren, so daß pro Box 6 - 15 GB möglich wären. Man erkennt also ganz deutlich die neue Plattengeneration, die (nach bewährtem Muster), auch zukünftige Kapazitäts-/Performanceanforderungen abfangen könnte.

Soweit das Zukunftsbild der neuen Hardware. Verfügbar ist derzeit die Steuereinheit IBM 3990, wobei die 3990-3 mit reduzierter Ausstattung (ohne NVS und Extended Functions) ausgeliefert wird.

Den vollen Leistungsbereich eröffnen diese Produkte (dann mit NVS und EF) erst durch die Einbettung in das SMS-Konzept (System Managed Storage). Stellvertretend sei hier nochmals Dual Copy (Auslagern von backup copy) oder DFSORT (als Teil von SMS) mit Cache Fast Write aufgeführt, weitere Funktionen werden sicher folgen (denkbar wären zum Beispiel Kopien von Platte auf Kassette). Solche Konzepte sind auch sinnvoll, denn nachdem mit XA die "unbegrenzten" Applikationen und ausgelagerten I/O-Funktionen eingeführt wurden, muß nun mit ESA die schnelle Datenversorgung folgen. Wurden bisher Daten von Platte gelesen, in der CPU verarbeitet und zurückgeschrieben, ermöglicht das neue Konzept ein Vorladen kompletter Datenbestände im zentralen Speicher, die nach Bearbeitung einfach "verlagert" werden. Hierzu dienen ja Einrichtungen wie Data Spaces und Hiperräume. Je mehr Daten aber im Rechner vorgehalten werden, um so schneller sollte der Zugriff auf die umfassendere, externe Datenbasis erfolgen. Dabei müssen die Daten den einzelnen Leistungsstufen der Speicherpyramide (aus (Kosten-/Performancegründen) zugeteilt und bei Bedarf verschoben werden. Diese Aufgaben sind nicht mehr manuell zu bewältigen, diese Funktionen übernimmt SMS.

Eigentlich fehlt dann nur noch ein dynamisches Management. Nach IBM soll diese übergeordnete Online-Daten-Strategie die Integration von Hardware, Software, Mikrocode und Kundendefinitionen (wie Storage Class, Data Class etc.) bewirken, um so den Platz, die Performance und die Verfügbarkeit der Daten während ihrer Lebenszeit sichern und steuern zu können. Langfristig ließen sich so die logischen und physikalischen Abhängigkeiten (JCL, Gerätecharakteristika) der Datenhaltung beheben, somit geräteunabhängige Datenströme realisieren, ein höherer I/O-Level einführen und damit eine neue Speicherarchitektur verwirklichen.

Möglichkeit zur Migration von primärem Interesse

Der vorerst wichtigste Punkt dürfte jedoch die erleicherte Migration auf neue Plattengenerationen sein. Diesen Punkt sollte man nicht unterschätzen: Erwartet man in den nächsten zwei Jahren die Platte IBM 3390, so wird bereits über deren Nachfolger, eine mutmaßliche IBM 3395 (laut Gartner Group) diskutiert. Die Anwender können kürzere Produktzyklen aber nur dann mitmachen, wenn eine Migration erleichtert (automatisiert) wird. SMS bietet bisher die Bündelung der schon bekannten Produkte DFP (zur Verwaltung aktiver Daten), DFHSM (zur Verwaltung inaktiver Daten), DFSORT (Datenarrangements) sowie DFDSS (Datenverlagerungen) und RACF (Zugriffskontrolle zu den Ressourcen). Zusätzlich werden ICF-Funktionen (ICFVSAM) vorausgesetzt, da ja auch alle Datenbestände für SMS-Einsatz katalogisiert sein müssen. In den USA wurde zum Jahreswechsel mit der Erstauslieferung von DFHSM 2.4 und DFP 3.1 begonnen, den ersten "SMS-tauglichen" Versionen. Erste Schritte zum SMS-Konzept und der Start für die zukünftige Plazierung der Jumborechner: als Versorgungszentralen der vernetzten Verarbeitungsknoten mit den gewünschten Daten.

Auf den ersten Blick also eine vernünftige Lösung. Leistungsfähigere Magnetplattensysteme mit intelligenteren Steuereinheiten, die in Zusammenarbeit mit dem Betriebssystem - gesteuert über Software (SMS) und Mikrocode (EF) - für den optimalen Datennachschub sorgen. Abgesehen davon, daß die einzelnen Funktionen/Programme erst mit der Zeit verfügbar werden, darf man aber nicht übersehen, daß hier der Weg auf ein neues Systemniveau freigegeben wird. Erste Abhängigkeiten sind bereits erkennbar. Zunächst benötigt DFSMS als Basis mindestens DFP 3.0, was wiederum MVS/ESA voraussetzt. Für ESA ist bekanntermaßen auch ein Rechner der Serie 3090-E notwendig. In einem Multi-CPU-Verbund ist die Installation von DFP 3.1 auf jedem Rechner und natürlich Data Sharing notwendig, um DFSMS überhaupt testen zu können. DFP 3.1 wird aber gerade erst verfügbar. Mögliche Katalog-Inkompatibilitäten zwischen der DFP/SMS-Version und früheren DFP-Levels sind unter Umständen zu beachten.

Interessant auch, daß das SMS-Konzept unter XA (V2.x) nicht vor dem drittem Quartal 1989 verfügbar sein wird. Darüber hinaus sollte auch an die Vielzahl der DOS-, VM-, und MVS/SP-Installationen gedacht werden, die die neuen Fähigkeiten nicht nutzen können. Hier bleibt wohl nur der Umstieg über XA auf die neuen OS-Systeme. Nicht ganz auszuschließen ist, daß der volle Funktionsumfang erst mit "Summit" (Nachfolger für Serie 3090) zur Verfügung stehen wird.

Allein diese Argumente machen deutlich, daß es noch ein weiter Weg ist. Die Lösungen sind wohl in Sicht, bis SMS jedoch zur Alltagspraxis wird, vergehen noch einige Jahre. Natürlich wird hier aus der Sicht der Peripherie geurteilt, es gibt ausreichend andere Gründe, ESA mit seinen Komponenten einzusetzen. Genauso läßt sich auch die neue Hardware schon gewinnbringend nutzen, aber auch hier darf auf einige Dinge hingewiesen werden. So sollte zum Beispiel bei extensiver Nutzung aller Funktionen eine großzügige Dimensionierung von Cache und NVS vorgesehen werden. Konkurrierende Aktivitäten (zum Beispiel 4,5 Megabit pro Sekunde Datenübertragung und Cache Fast Write, später auch Dual Copy) könnten die Cache-Verarbeitung der Applikationen temporär tangieren. Für Quad Port sind jeweils zwei A-Einheiten zu koppeln, was ausschließlich auf die Einheiten IBM 3380-J/K begrenzt ist. Insbesondere bei K-Laufwerken muß aufgrund der Kapazität auf die Performance geachtet werden, was wiederum nur über Cache zu regeln ist.

Hier sei ein Vergleich mit dem "alten" Modell 3380-23 erlaubt, das mit maximal 64 MB Cache zwei Direktoren (Dual Port) und in der Regel 20 GB Plattenspeicher (der Standard war immer ein Strang) bedient. Bei der 3990-3 müssen 256 MB Cache (Faktor vier) nun für vier Direktoren ausreichen und der Ausbau wird standardmäßig mit bis zu 120 GB ermöglicht. Bei einer solchen Datenkonzentration konkurrieren noch mehr Applikationen um die Zugriffsmöglichkeiten. Große Cachespeicher werden also Standard sein, doch müssen sich dann auch die Kosten im angemessenen Rahmen bewegen.

Sind nun damit die Probleme der Datenhaltung vollständig gelöst? Sicherlich nicht, denn alle bisher angesprochenen Lösungen dienen ausschließlich den Online-Daten. Aufgrund der Performancelücke läuft alles auf eine Vergrößerung von Zentralspeicher und Plattenkapazität hinaus. Dies ist unbestritten notwendig - aber Online ist nur ein Teil der Datenhaltung.

Höhere Speicherkapazitäten fordern Automatisierung

Das Lagern inaktiver Dateien und das Wachstum machen deutlich, daß allein ein "Aufbohren" bekannter Ressourcen nicht ausreicht. Auch bei den Peripherieprodukten sind neue Überlegungen, insbesondere zur Automatisierung, erforderlich.

Hierzu neuere Untersuchungsergebnisse: Daten mit einer hohen Durchsatzdichte (viele I/Os pro Sekunde pro MB) repräsentieren oftmals weniger als zehn Prozent der Datenmenge einer Installation, generieren jedoch bis zu 70 Prozent aller I/O-Zugriffe. Dies sind ideale Kandidaten für die Halbleiterspeicher (SSD), Cache-Steuerungen lassen sich in Teilbereichen (Lesezugriff!) einsetzen, Quad Port sollte Standard sein. Auf jeden Fall sind K-Platten für diese Daten ungeeignet und für eine ausschließliche Speicherung im Expanded Memory ist dieser zu teuer und die Datenmenge zu groß. Ein weiterer Anteil von 30 - 50 Prozent der Daten generiert lediglich ein Prozent der I/Os. Für diese inaktive, große Datenmenge ist der Plattenplatz zu teuer, hier eignet sich ein Automatisches Kassettensystem besser. Dessen Kosten liegen bei 0,40 bis 0,90 Mark je MB im Vergleich zu zu vier bis 15 Mark bei Magnetplatten. Somit lassen sich 40 - 60 Prozent aller Daten (71 Prozent aller I/Os) auf alternativen Speichermedien optimaler unterbringen. Verbleiben max. 60 Prozent der Daten (ca. 30 Prozent der I/O-Aktivitäten), die auf herkömmlichen Platten (J, K, E mit/ ohne Cache) zu verteilen sind.

Je mehr die Datenbasis anwächst, desto eher wird eine Ergänzung zum Online-Speicher notwendig - zum Beispiel das Nearline-System von StorageTek. Hier stehen Datengruppierungen auf Kassetten (stellplatzoptimal) jederzeit im Direktzugriff, automatisch nach Anforderung des Betriebssystems. Dies ergänzt sich hervorragend mit SMS, zumal schon publiziert wurde, daß langfristig SMS die Zuweisung von Data Spaces und Kassetten unterstützen wird. Es kann also in Einklang mit SMS die Hardware-Pyramide erweitert werden, was StorageTek bisher sehr erfolgreich verwirklichte: 1979 mit Einführung des Schnellspeichers, 1982 mit der ersten Cache-Installation und eben 1987 mit der Auslieferung des Automatischen Kassettensystems ACS/4400.

Ohne die Langzeitperspektive aus den Augen zu verlieren, müssen zugleich die heutigen Probleme angegangen werden. Während sich der Anwender schrittweise in die neue Zukunft vortasten kann, sind ergänzend zur IBM 3990 auch für die heutigen Probleme bereits optimale Alternativen vorhanden. Dies erfordert lediglich ein auf den Kundenbedarf zugeschnittenes Konzept, um so Stellplatzbeschränkungen, Kapazitätsanforderungen und Performanceziele unter einen Hut zu bringen.

Neben optimalen Cachegrößen (zum Beispiel 72 MB für Dual Port-Konfigurationen), die sich mit Analyse- und Simulationsverfahren ermitteln lassen, gehören hierzu auch BIND-/FREE-Funktionen (zum Beispiel für Directories) bei gleichzeitiger Kompatibilität zur 3880-23 und die dynamische Cache-Überwachung und Steuerung im Onlinebetrieb.

Cache-Speicher rücken in den Mittelpunkt

Durch die Möglichkeit, in einem Strang J-, E-, K-Einheiten zu mixen, läßt sich auch im Plattensubsystem eine optimale Konfiguration erreichen. Bei Stellflächenproblemen reduziert das System 8380-R den Flächenbedarf (inklusive Service) um rund 50 Prozent, gleichzeitig lassen sich hohe Kapazitäten und High Performance kombinieren. Besondere Vorteile bietet der Actuator Level Buffer (ALB) für lesende Zugriffe: Hier läßt sich ein höherer Durchsatz erzielen als zum Beispiel mit Quad Port. Zur Erklärung muß man die Unterschiede beachten: ALB zielt auf die Reduzierung der RPS-Miss-Auswirkungen, Quad Port ermöglicht vier parallele I/O-Zugriffe zu unterschiedlichen Adressen. ALB bietet auch die ideale Ergänzung zur Cache-Steuereinheit: Durch die Beschleunigung der Lesezugriffe, wirkt sich dies auch auf einen Cache-Read Miss positiv aus. Umgekehrt sind alle Adressen, die nicht vom Cache bedient werden (niedrige Aktivitäten), über ALB lokal unterstützt, denn ALB wird für alle Adressen des Subsystems installiert.

Dies sind Beispiele zur Verbesserung der herkömmlichen Online-Peripherie, dazu bieten sich kosten-/ nutzenoptimale Ergänzungen auf den angrenzenden Speicherhierarchien an. Diese Möglichkeiten werden durch das SMS-Konzept nicht überflüssig, sondern sorgen auch hier wiederum für eine zusätzliche Leistungsverbesserung. Zweifelsohne ist die neue Perspektive ein sehr vernünftiger Ansatz zur Lösung der vor uns stehenden Probleme, doch werden wir noch sehr lange mit den heutigen Produkten leben müssen und diese möglicherweise sogar eine (kostenmäßige) Renaissance erleben.