Der Kauf von Zusatzsystemen löst organisatorische Probleme nicht immer:

Mikro-Host-Verbindung krankt oft am Konzept

28.02.1986

Viele Hersteller von Zusatzkarten bieten Erweiterungen an, die die 327X-Emulation an einem PC möglich machen. Diese Karten sind recht teuer, zumal es ja mit ihnen alleine nicht getan ist: Auch die Leitung und die Mainframe-Seite erfordern Einstiegsinvestition. Der Anwender braucht Hilfe um die zweckmäßigste Einsatzart herauszufinden.

Die erste Idee, den Arbeitsplatz-PC an den Mainframe anzuschließen, keimt meist dann, wenn man Anwendungen, die nur auf dem Großrechner laufen, auch am Arbeitsplatz verfügbar haben will. Das sind oft Auskunftsfunktionen, die sich einer Datenbank bedienen, die auf dem Host beheimatet ist.

Die Wirtschaftlichkeits-Betrachtung für die Verbindung leidet im Normalfall unter folgendem Dilemma: Wenn der Anwender sehr viele "Durchschalt-Funktionen" benutzt, muß er sich fragen, wozu er eigentlich einen PC braucht und ob denn nicht ein ganz normales dummes Terminal die richtige Lösung wäre. Wenn er dagegen nur selten von dem Link Gebrauch macht, ist die Investition in die Karte, die Leitung und die Endeinrichtung am Großrechner sehr fragwürdig. Wäre es dann nicht zumutbar, in den wenigen Bedarfsfällen, die Daten offline zu transportieren?

Kopplungs-HW erfüllt oft nicht die Erwartungen

Zum wirtschaftlichen Problem kommt das technische: Eine durchgeschaltete Verbindung Mikro-Mainframe ist technisch sehr viel komplexer zu realisieren als zum Beispiel eine normale Erweiterungskarte mit Zusatzspeicher und Uhr einzubauen. Nicht nur die PC-Seite muß stimmen, auch auf der Leitung und am Host muß die Verbindung einwandfrei sein.

Manchmal wird der Anknüpfungsversuch auch von den auf der Mainframe-Seite Verantwortlichen nicht mit aller Kraft unterstützt: Sie sind an der Kopplung nicht allzusehr interessiert, weil sie die Rechnertopologie in der Gesamtunternehmung unerwünscht kompliziert (die Autorität der Zentral-Datenverarbeitung schwächt und die Abhängigkeit der Fachbereiche von den Gurus mindert).

Die technische Komplexität zusammen mit der endlichen Hilfsbereitschaft auf der anderen Seite läßt leicht den Eindruck der Unzuverlässigkeit solcher Verbindungen entstehen. Dabei ist die Komplexität nicht der springende Punkt. Skandalös ist allenfalls, daß dem PC-Anwender die Kopplungs-Hardware unter Vorspiegelung falscher Tatsachen ("plug'n play" ) verkauft wird. Hier sind die Händler aufgefordert, dem Produkt kein verlogenes Image mit auf den Weg zu geben.

Hinzu kommt das allgemeine Problem der Unverträglichkeit mehrerer PC-Erweiterungen untereinander. Viele Kartenhersteller konfrontieren den Kunden mit einer inakzeptablen Starrheit ihrer Produkte. Das ständige Ärgernis hierbei ist der auf der Karte fest verdrahtete Interrupt, dessen sie sich bedient. Hat man zwei Karten, die - inflexibel produziert - sich auf denselben Interrupt versteifen, dann bleibt dem Nutzer nur noch die Wahl "entweder - oder".

Dabei wäre es ein leichtes, hier mit einem "Mäuseklavier" Flexibilität zu offerieren. Tritt solch ein Konflikt auf, so entsteht natürlich beim Anwender erneut der Eindruck des unzuverlässigen Produktes. Das zuletzt beschriebene Problem beschränkt sich aber nicht nur auf Kommunikationskarten.

Experten sehen zwei Entwicklungen, durch die Wirtschaftlichkeit in der Kopplung gewonnen werden kann. Die erste zeichnet sich auf der Softwareseite ab, die zweite kommt von den Hardware-Konstrukteuren.

Erfreulicherweise findet man in jüngerer Zeit immer wieder neue Softwarepakete, die speziell auf die arbeitsteilige Organisationsform Mikro-Großrechner eingerichtet wurden. Beispiele dafür sind die Datenbank Oracle, die Planungspakete FCS/EPS, IFP oder System W, die als Statistikpakete bekanntgewordenen Produkte SAS oder SPSS sowie das Spreadsheet 20/20.

Mit solchen Paketen macht nun die Kopplung richtig Spaß: Der Großrechner hält die Massendaten und fährt solche Auswertungen, die für den Mikro einfach zu umfangreich sind. Der PC spielt seine meist schönere Benutzerschnittstelle und seine Grafikfähigkeit aus. Daneben wird es natürlich immer noch den Fall geben, daß man eine ganz normale Großrechneranwendung an den PC holt. Für die Abwicklung der anwenderfernen Protokollschichten werden hierbei Standardprodukte (zum Beispiel IRMA für FCS/EPS) eingesetzt. Der Benutzer aber sieht diese Produkte nicht, die Anwendung schirmt sie von ihm ab.

Je mehr solcher Pakete erhältlich werden, um so besser wird sich die Kopplung rechnen. Denn jetzt ermöglicht sie eine Form der Arbeit, die das dumme Terminal "alt" aussehen läßt.

Unterstützt wird dieser Trend durch neue Entwicklungen auf der Hardwareseite: Während bei klassischer Lösung jeder Mikro eine Kommunikationskarte und eine eigene Leitung benötigte (und eine Datenendeinrichtung auf dem Host), sind nunmehr Produkte auf dem Markt, die es erlauben, mehrere PCs über eine Leitung mit dem Mainframe zu verbinden. Dabei erhält ein PC eine "Master-Karte", für die anderen gibt es Slave-Karten, die mit der Master-Karte kommunizieren. Die Master-Karte ist eigentlich ein eigener kleiner Rechner mit separatem Prozessor: Die Leitung zum Host überlebt sogar das Booten des Heimat-PCs der Master-Karte.

Von der Möglichkeit des Datenaustausches her könnte man fast von einem lokalen Netz sprechen. Allerdings fehlt die für LANs typische Möglichkeit der gemeinsamen Datenhaltung, und die einzige gemeinsam genutzte Ressource ist eben die Hostkopplung. Hier soll die Betrachtung bei der hier vorgestellten Topologie abgebrochen werden. Was möglich ist, wenn man tatsächlich ein Netz an den Host koppelt, soll später einmal beschrieben werden.

Die Zuverlässigkeit der Kopplung steigt zum einen durch die Abschirmung der Kommunikation in den beschriebenen Produkten. Letztlich aber bleibt sie eine Ausbildungsfrage. Der Anwender muß die komplexe Umgebung "intellektuell" meistern.

Nun wurde viel von software- und hardwaretechnischen Möglichkeiten gesprochen. Wirtschaftlichkeit aber entsteht erst durch die sinnvolle betriebswirtschaftliche Nutzung dieser Möglichkeiten.

Das Einrichten der betrieblichen Organisation und Planung auf die Möglichkeiten der arbeitsteiligen Software scheint das größte und auch am schwersten zu lösende Problem zu sein. Es ist ja nicht damit getan, daß der Controller die richtigen Funktionstasten drückt, um die Daten hin- und herzuschieben, das Konzept muß passen! Und dies ist eine Frage seiner Fachqualität: In wieweit ist wer in der Lage, die Möglichkeiten des Werkzeuges für seine Problemstellung zu nutzen?

Die Ausbildungslandschaft ist größtenteils werkzeug- anstatt anwendungsbezogen. Ausnahmen bestätigen die Regel. Man beachte das Kursangebot in den gängigen Zeitschriften an. Angeboten werden WordStar und Lotus. Was aber gebraucht wird, sind Kurse in Kostenplanung, in Auslastungs- und Liquiditätsplanung, in Erfolgsrechnung,

Absatzprognose und Personalplanung (mit dem Computer). Vielleicht könnte auch ein bißchen deskriptive Statistik nicht schaden, damit man weiter was die Torten und Balken eigentlich aussagen (und was nicht).

Natürlich müssen diese Disziplinen so gelehrt werden, wie man sie mit dem PC (und der Hostkopplung) anwenden kann.

Der Rechner aber muß in die Rolle zurück, die ihm zukommt. Er ist nicht das Ziel, sondern das Mittel. Durch die Kopplung von PC und Mainframe werden die Mittel noch umfangreicher und komplexer. Es besteht deshalb die Gefahr, daß sie die Sicht auf das Ziel völlig verstellen. Alles spricht dann nur noch von 3270, von Leitung und Kommunikation, vom Interrupt-Vektor und der Speicheradresse. Der Zweck des Ganzen gerät aus dem Visier.

Und diese Gefahr ist größer und schwerer zu bekämpfen, als es Unwirtschaftlichkeit sein kann.

Dr. Herbert Neumaier ist Geschäftsführer der Interface Concilium GmbH, München.