Preisverfall bei Speicher-Chips forciert neue Einsatzideen:

Halbleiterplatte ermöglicht schnellen Zugriff

13.09.1985

Die Datenspeicherung steht heute unwidersprochen im Mittelpunkt. Verfügbarkeit und Sicherheit von Daten als Basis der EDV-Organisation beeinflussen maßgeblich die darauf aufbauenden Strukturen. Sinkende Chip-Preise ermöglichen in bestimmten Anwendungen den Einsatz der Halbleiterplatte.

Die daraus abgeleiteten Anforderungen, dazu Wachstumssprünge bei der Speicherkapazität in Kombination mit Leistungsanforderungen, die mittlerweile an die Grenze der Mechanik gehen, lassen eine Reihe neuer Produktvarianten am Plattenmarkt auftauchen und Spekulationen über zukünftige Lösungen entstehen. Ein interessanter und diffiziler Markt zugleich, der einmal Produkte benötigt, die den aktuellen Marktbedürfnissen zuverlässig gerecht werden, aber auch durch seine Entwicklungsinvestitionen enorme Anforderungen an die Potenz der Hersteller/Vertriebsorganisationen stellt.

Während nun in den Labors spektakuläre Lösungen "kochen", hilft derzeit die Evolution weiter, und einer dieser neuen Wege zum Performancehorizont ermöglicht auch die Überbrückung aktueller Engpässe.

Während DOS-Anwender im Regelfall 15 Prozent bis 20 Prozent Wachstum aufweisen, gibt es nicht wenige MVS-Anwender, die sich mit 60 Prozent Zuwachs und mehr plagen müssen. Doch dieses Argument gilt schon seit Jahren. Was heute allerdings auf relativ hohem Niveau konstant bleibt, ist die Nachfrage nach Online-Speicher-Kapazität - ein guter Durchschnitt liegt hier bei 40 Prozent.

Einerseits fördert das Festplattenkonzept (keine Datenauslagerung Online-Betrieb) generell das Speicherwachstum, aber auch neue Anwendungen werden notwendig, und die Abhängigkeit von CPU-Leistung zu Datennachschub tut ein übriges. So gehen derzeitig Schätzungen von einer Verdreifachung der Stellflächen innerhalb der nächsten Jahre aus. Platzprobleme lassen sich derzeit halbwegs mit Großraumplatten in den Griff bekommen. Großraumsysteme beinhalten aber mit der Zeit so unterschiedliche Datentypen, wie online-batch, tag/nachtaktiv oder high performance beziehungsweise Testleichen.

Hatte ein Anwender in den 60er Jahren vielleicht 120 Data sets, kann er heute durchaus 5000 vorweisen, und in den kommenden Jahren werden 40 000 Data sets keine Seltenheit sein. Sofern also keine optimale Verteilung stattfindet, können sich durch die Vielzahl der Dateien, unterschiedliche Zugriffsmuster oder dominante Zugriffsarme erhebliche Zugriffszeiten aufstauen. Es kann auch durchaus vorkommen, daß VTOC-Zugriffe beim Durchsuchen aller Formate während dieser Zeitspanne den Pfad belegt lassen. Contentionprobleme sind also heute meist die Folge aus dem Widerspruch Kapazität, Zugriffsgeschwindigkeit und CPU-Leistungsvermögen. Mit Teilsystem-Tuning, kurzen Strängen und halb belegten Zugriffsarmen versucht man sich zu behelfen - trotz der enormen Verbesserungen bei den Zugriffszeiten.

Mechanischer Anteil wird minimiert

Allein die derzeitige Technologie erforderte enorme Anstrengungen. Die Dünnfilmtechnik kam mit der IBM-3370 erstmals auf den Markt. Mit der 80er Platte wurde Anfang 1981 eine der möglichen Basistechnologien eingeführt. Doch hat diese Technik manch kommerzielles Kopfzerbrechen bereitet.

Nun versucht man, die Probleme nicht nur technisch in den Griff zu bekommen. Wer kennt nicht die double density Lösung 3350 DD: Zwei logische Volumes unter eine UCB. Verbesserung brachte hier beispielsweise das Dual Port-Cross Call-Konzept der AS/7360, als Vorläufer der heute gängigen Architekturen; Weitere Spezialisierungen wie Cache und paging devices, dazu double capacity-Systeme und neuerdings die Integration des Paging im Rechner, (XSTOR bei 3090) zeigen die Entwicklung. Feinheiten wie Command stacking dienen als Ergänzung, dynamische Pfadzuordnung (XA) sind der derzeitige Stand.

Immer wieder versucht: man, den mechanischen Anteil (Positionieren, Rotation) beim I/O-Vorgang zu minimieren. Bild 3 zeigt anschaulich die Komponenten und den Ablauf eines I/O-Vorganges auf der Basis eines bekannten Candle-Modelles. Daraus kann man den Anteil ersehen, der bei seek, Kanalfreigabe, Reconnectversuch etc. als Kanalbelastung, Contention und Warteschlangenverwaltung durchschlägt. Dennoch muß man damit leben. Schätzungen gehen von einem derzeitigen 80er Plattenbestand von etwa 55 000 Einheiten aus; wie diverse Announcements zudem bestätigen, wird Plattentyp die zukünftige Basis sein.

Also versucht man, Abhilfe in spezifischen Situationen zu erreichen, indem man zum Beispiel Cachespeicher einsetzt. Tatsächlich lassen sich bei einem Treffer (record im cache) die Komponenten T3, T4 und T5 eliminieren. Bei vielen Anwendungen aber (random, hoher Schreibanteil) bewirkt dieses Konzept zusätzlichen Overhead. Eine andere Spezialisierung sind die paging devices, die auch hohe Page-Wechselraten erträglich machen. Dieses Konzept, mittlerweile rund fünf Jahre alt, vermeidet ebenfalls Mechanik und nutzt zudem die spezielle Eigenschaft von Pagingdaten - Datenflüchtigkeit hat meist keine wesentlichen Auswirkungen.

So haben heute viele Gerätevarianten ihre Berechtigung und Anwendungen werden danach ausgerichtet:

- XX80-Platte = Standard

- zeitkritische Dateien, single track Dateien werden nur zögernd von 50er Platten genommen

- große Datenbanken, periodisch benötigte Daten, können mit/ohne Cache auf double density gelegt werden

- Cache, hält aus dem jeweiligen Plattensubsystem die durch die Nachfragehäufigkeit der verschiedenen Anwenderaktivitäten selektierten Daten vor.

Aber was ist beispielsweise mit CAD/CAM-Anforderungen? Für die Datenmenge einer 3-D-Bearbeitung ist der Speicher einer CPU zu teuer, herkömmliche Datenspeicher zu langsam; oder optimale Zugriffe bei RACF und Datenbank indices aber auch Multi-CPU-DASD. Wer glaubt schließlich daran, daß eines Tages der Hauptspeicher groß genug sein wird, um paging zu umgehen? Sicherlich laufen in den Labors die Entwicklungen auf Hochtouren. Optical Disk ist im Gespräch. Vertikale Aufzeichnungen mit einem Faktor größer als 10 (derzeit vier bis fünf) würden Abhilfe schaffen.

Doch dies ist alles noch nicht in "volume" als IBM-kompatible Geräte auf dem Markt. Aber andere Konzepte, die auf Mechanik gänzlich verzichten, sind denkbar. Sie sind derzeit schon verfügbar.

Der Chip-Preisverfall ist allgemein bekannt; interessant ist auch der Entwicklungsfortschritt. Nach dem derzeitigen Stand der Technik sind 256 KBit-Chips in den Produkten. Dies ermöglicht erstmalig die standardmäßige 2-Bit-Fehlererkennung und Korrektur. Dieses Preis- und Leistungsvermögen ist aber notwendig, um die Idee eines elektronischen Plattenspeichers realisierbar zu machen. Die Meßlatte wird durch den Preisverfall derzeitiger Plattensubsysteme bestimmt.

Doch alle Problemlösungen stoßen an Grenzen. Sofern die Geräte nicht von der IBM-Software unterstützt werden - man denke an die Angabe 3350P bei Generierung und deren Auswirkungen auf ASM-Algorithmen/Geräteklassifizierung (spezielle CCW's, access methods) - müssen alle Produkte ein herkömmliches Gerät emulieren (zum Beispiel 3380).

Kompatibilität ist also in jedem Fall das Zauberwort. Dies bedeutet nicht nur eine signalmäßige Verständigung; Kompatibilität baut auf Principle of operation (CCW's plus Conditioncodes), Softwareunterstützung (access method) auf, beinhaltet disk features (wie reconnect), SYSGEN/ IOCP (bekannter Gerätetyp). Vorausgesetzt werden dabei keine Änderungen am (lizensierten) Betriebsystem und natürlich eine mindestens vergleichbare Performance. Das Bindeglied dafür heißt Mikrocode, was heute bei Controllern bereits selbstverständlich ist. Da ,mit lassen sich auch zukünftige Änderungen abfangen.

Die vorausgegangenen Ausführungen lassen erkennen, daß es sich beim Halbleiterspeicher, wie dem AS/7900, nicht um ein "weiteres" Paging device handelt. Vielmehr stellt sich hier ein Plattenspeichersubsystem auf Halbleiterbasis ohne jegliche Mechanik vor, worauf sich unterschiedliche Plattentypen abbilden lassen. Wichtig: Erstmalig können einem solchen Gerät auch kritische Daten anvertraut werden. Die eingebaute Flexibilität erlaubt ein kundenorientiertes Maßschneidern.

Zusätzlich bieten eine Reihe neuartiger Fähigkeiten an der Standardschnittstelle erhebliche Leistungsvorteile.

Wesentliche Vorteile des Halbleiterspeichers sind

- permanente Datenverfügbarkeit. Waren bisher Halbleiterspeicher aufgrund der Datenflüchtigkeit in ihrer Verwendung eingeschränkt, so bietet das neue Halbleiterkonzept zwei Einrichtungen, die auch das Speichern von "wichtigen" Daten geradezu anbieten:

a) Winchesterdisk, integraler Bestandteil jeder Speichereinheit. Sichert die Daten automatisch beim Abschalten der Einheit.

b) Batterieeinheit, mit deren Hilfe die Daten bei plötzlichem Stromausfall etwa eine halbe Stunde im Speicher gehalten werden. Zugleich wird automatisch die Winchestersicherung durchgeführt. Weiterer Nebeneffekt ist die Überbrückung von Stromstörungen im Zeitraum von bis zu 150 Millisekunden (ms). Neuere Untersuchungen bestätigen eine Zunahme solcher Störungen.

- maßgeschneiderte Konfigurationsmöglichkeiten. In Inkrementen von 32 MB kann ein Halbleitersubsystem von 32 MB bis maximal 512 MB ausgebaut werden. Davon unabhängig werden die einzelnen Volumes dem jeweiligen Bedarf angepaßt (4 MB bis 128 MB) und unterschiedliche Gerätetypen emuliert. Dabei können im Feld bestehende Konfigurationen jederzeit in kurzer Zeit geändert werden (backup/restore notwendig!) - einmaliges Formatieren: Bei bisherigen Systemen muß nach Stromausfall jedes Volumen neu formatisiert/initialisiert werden. Dieser Aufwand wird bei dem neuen Produkt nur noch einmal im Rahmen der Installation notwendig.

- schnellste derzeitig mögliche Zugriffszeit einer Platte. Nach 0,3 ms stehen die Daten zur Übertragung bereit.

- die unter anderem damit erreichbaren, kurzen Device-Servicezeiten von rund 1,7 ms (bei 4-KB-Blöcken) sind unabhängig von hit ratio, Zugriffsarten oder prozentualem Schreibanteil.

- ein remote-Operator panel zeigt Zustände/Vorgänge an

- neueste Technologie mit 256KBit-Chips: damit steht eine 2-Bit-Fehlererkennung und Korrektur zur Verfügung. Dadurch entfällt beispielsweise das Anlegen von alternate tracks.

- flexible Anschlußmöglichkeiten: Durch Kombination von zwei Kontrolleinheiten per Subsystem können damit bis zu 16 Prozessoren bedient werden. Anders betrachtet ermöglicht diese Quadport vier gleichzeitige I/O's per Subsystem beziehungsweise eine aggregierte Übertragungsleistung von bis zu 12 MB/s.

- keine Mechanik: Somit entfällt der zeitliche seek-Vorgang mit dem dadurch bedingten Kanalabhängen, reconnect-Versuch eventuell auch RPS-Miss und die Latenzzeit bei set sector.

Man denke an die search und transfer in channel-Schleife, die zeitlich nicht mehr zum Tragen kommt, da der record ja sofort verfügbar ist (kein rotierendes Medium!). Abbau von Queues und Contention sind die Folge, I/O-Abläufe werden "beschleunigt" Weil nach seek/set sector sofort channel end und device end zurückgegeben wird (im Gegensatz zur konventionellen Platte), kann der I/O-Vorgang sofort bis zum Datentransfer abgearbeitet werden. Kanalbestimmungen sind bis zu 70 Prozent und mehr möglich, denn die Belastung besteht im wesentlichen aus Datentransfer.

Da der Halbleiterspeichers eine Platte emuliert, hat dies zur Folge, daß auch alle damit zusammenhängenden Eigenschaften (disk feature) wie track overflow zur Verfügung stehen. Auch die 100prozentige logische Kompatibilität (CCW's, damit Unterstützung der Zugriffsmethoden) ist gewährleistet, Generierungen erfolgen mit den bisher bekannten Geräteangaben.

Beispiel: Sollte ein Halbleiterspeicher als 3380 und ein Controller als 3880 definiert werden, unterliegt der Speicher automatisch auch dem Nutzbarkeitsgrad der 3380. Das bedeutet maximal 91 Prozent Utilization per track entsprechend der verwendeten Blockgröße.

Was die Software betrifft, so werden keine zusätzlichen Produkte oder speziellen Releases benötigt. EREP, DFP etc. sind wie bisher einzusetzen. Vorausgehen muß allerdings ein Planungsprozeß, der zur Konfiguration führt. Nach Selection der in Frage kommenden Dateien müssen deren Größen ermittelt werden, um daraus die durchschnittliche Volumengröße einer Speichereinheit abzuleiten. Somit läßt sich auch der notwendige Speichereinheiten bestimmten.

Der Halbleiterspeicher läßt sich generell empfehlen für

- Systembetrieb, wo schnelle Zugriffe bei Engpaßdateien (bezogen auf Daten, die für die gesamte Systemsteuerung wichtig sind, zum Beispiel RACF, user catalog, reserve/release, multi CPU-Betrieb) die Grundperformance beeinflussen können.

- benutzungsintensive Dateien im Anwenderbereich (compile-/Sort-Arbeitsbereiche, Tabellenverarbeitung)

- interaktive Programmentwicklung unter TSO (CLIST-Lib, SPF-Menüs etc.)

- online DB/DC: DB-Index, ACB-i PGM-Libs, MFS, CICS-temporary storage and tables, aber auch DB2/ SQL/QMF

- CAD/CAM-Anwendungers so CADAM-Libs, roll files und dergleichen

- derzeitige Systemengpässe, um den Planungshorizont zu verlängern (Kanalengpaß, Speichererweiterungen wie extended storage bei Großsystemen).

Produktivität der Online-Nutzer ist heute als Leistungs-/Imagekriterium wesentlich wichtiger als pure maximale Auslastung einzelner Systemkomponenten. Daran gekoppelt ist ja oftmals das effiziente Umsetzen von .Unternehmenszielen. Wichtig zu betonen bleibt, daß derzeitige Produkte dadurch keinesfalls obsolet werden, vielmehr bietet sich der Halbleiterspeicher als optimale Kombinationsmöglichkeit bei speziellen Anforderungen an.

*Günter Gutstein ist leitender Berater bei der National Advanced Systems GmbH, Frankfurt.