SNA - und was davon zu halten ist

31.10.1975

MÜNCHEN - Im September 1974 kündigte IBM mit SDLC (Synchronus Data Link Control) ein neues Verfahren der Übertragungs-Steuerung an. Unumstritten: Alle wollen es. Die internationalen Normenausschüsse ECMA und ISO bemühten sich seit Jahren, eine allgemeingültige Leitungsprozedur zu entwickeln. Allerdings hatte man sich an HDLC (High Lavel Data Link Control) genannten Protokoll für die Datenübertragung gearbeitet - mit welchem Erfolg, ist bekannt. Denn nahezu jeder der heute am Markt tätigen Computerhersteller hatte parallel sein Konzept für den Rechnerverbund entwickelt, um - wie spitzzüngige Kritiker behaupten - der Diversifikation von Aufgaben und der dementsprechend verteilten maschinellen Ausstattung entgegenzuwirken, die ja mit dem Risiko verbunden ist, einen Kunden zumindest

zum Teil an den Wettbewerb zu verlieren. Dahinter steht die Überlegung, daß die Integration herstellerfremder Komponenten erschwert, wenn nicht unmöglich gemacht werden soll. IBM hat allerdings erst sehr spät seine "Doktrin der großen Zentralen" gelockert und mit dem Datenfernverarbeitungskonzept SNA (System Network Architecture), zu dem SDLC gehört, seine einheitliche Kommunikationstechnologie propagiert. SNA besteht weiter aus der eigentlichen Zugriffsmethode VTAM (Virtual Teleprocessing Access Method) und dem eigentlichen Netzwerk-Steuerprogramm NCP(Network Control Program). Für IBMs Alleingang können zwei Gründe angenommen werden: Erstens sind schon seit einiger Zeit die Grenzen der mit Hilfe von Einzelsystemen möglichen Datenfernverarbeitung deutlich erkennbar (die Anforderungen an Kommunikationssysteme wachsen ständig) und zweitens gab die Kombination von BSC-Prozedur (Binary Synchronous Communications), Zugriffsmethoden wie QTAM, BTAM oder HASP sowie Hardware, die IBM-Terminals emulierte, den unabhängigen Herstellern die Möglichkeit, ihre in der Regel preiswerteren Geräte in den Randzonen großer IBM-Installationen zu placieren.

Die Grenzen der Stand-Alone-Konzeption resultieren aus

- der Beschränkung auf die Leistungsfähigkeit der jeweils vorhandenen Rechnersystems, das sich den stetig wachsenden und sich ändernden Bedürfnissen nicht beliebig in diskreten Schritten anpassen läßt,

- den Sicherheitsanforderungen, die vor allem an Großsysteme gestellt werden und derzeit durch wirtschaftlich häufig nicht vertretbare Back-Up-Rechner nur unvollkommen erfüllt werden,

- und dem zu langsamen Datenaustausch zwischen Einzelrechnern, die für Teilaufgaben größerer Problemkreise arbeiten.

Einzelrechner und intelligente Datenstationen zu Verbundsystemen zusammenzuschließen, wird deshalb für die nächste Jahre vorherrschender Trend sein, weil damit diese Einschränkungen weit hinausgeschoben, wenn nicht sogar aufgehoben werden.

Dem trägt der Marktführer IBM Rechnung und bekennt sich neuerdings zur dezentralen Intelligenz. Das SNA-Konzept ist IBMs Versuch, den Benutzern eine einheitliche Kommunikationstechnologie bereitzustellen, gleichzeitig wird damit den allzu lästigen Aktivitäten der unabhängigen Hersteller zunächst ein Riegel vorgeschoben. Denn es dürfte kein Zweifel bestehen, daß die neue Kombination aus VTAM, NCP und SDLC in Anwenderkreisen zum Standard erhoben werden wird und sich die anderen Mainframer wohl oder übel - und im Geschäft zu bleiben - anpassen müssen. Dieser Prozeß wird nicht über Nacht geschehen, es wird voraussichtlich Jahren dauern, bis bei den Anwendern der Übergang zu SNA und SDLC ganz vollzogen ist. Erst dann können die unabhängigen Hersteller wieder unter den gleichen Voraussetzungen arbeiten, wahrscheinlich mit größeren Chancen als heute. SNA schafft

die Voraussetzungen dafür: Zu IBMs "General Networking Concept" gehört die einheitliche Prozedur für die konkurrierenden Betrieb unterschiedlichster Terminals ebenso wie die Möglichkeit, über eine Leitung mit den verschiedensten Programmen und Betriebsarten im Zentralsystem zu arbeiten.