Individuelle DV im Verbund erfordert klare Linie und klaren Kopf

Die Angst des PC-Anwenders vor der Einsamkeit im Netzwerk

15.12.1989

MÜNCHEN - Allzu wörtlich genommen wurde in den letzten Jahren der Begriff "Personal Computer" in vielen Unternehmen. Erst war die Freude groß, bot die flinke Kiste doch vielerlei ungeahnte Einsatzmöglichkeiten und Arbeitserleichterungen.

Doch die Stand-alone-Lösung als individueller Arbeitsplatz führte nach kurzer Zeit zu Hard- und Software-Wildwuchs, zu Inkompatibilitäten und Sand im Getriebe. Die Integration bestehender Systeme in ein Netz, sowie der Anschluß an Mainframes ist ein Gebot der Stunde. Bei der Vernetzung bestehender Systeme, dem Zusammenwachsen von Organen zu einem Organismus, sind jedoch Anwender, Logistiker und Techniker gleichermaßen gefordert - und nicht zuletzt die Psychologen.

Kommunikation erst jetzt ein Thema

Der Mensch ist ein Gewohnheitstier, und Tradition ein hehres Gut - das gilt auch in der Datenverarbeitung, wie nach knapp zehn Jahren PC-Geschichte in etlichen Unternehmen schmerzlich bewußt wird. Jahrelang wurde auf Standards und Einheitlichkeit zugunsten der individuellen, "maßgeschneiderten" Lösung verzichtet. So finden sich nicht selten PCs verschiedenster Provenienz unter einem Dach - XTs, ATs und PS/2-Systeme ebenso wie Macintoshes, Unix-Rechner oder auch mal Exoten wie ein Atari.

Bis dato wurden diese Stand-alones mit mehr oder weniger Erfolg eingesetzt, Kommunikation war nicht das Thema des Tages, Kompatibilität war schwer auszusprechen und Papier das Medium Nummer eins.

Datenbanken spielen eine Schlüsselrolle

Diese Dezentralisierung der Datenverarbeitung wirft zunehmend Probleme auf, die bisweilen existenzbedrohende Ausmaße annehmen können. Dabei spielen die verteilten Datenbanken eine Schlüsselrolle - das Wirtschaftsgut Information wird durch die Dezentralisierung immer schwerer verfügbar.

Während für Kleinbetriebe mit wenigen PCs aus Kostengründen ein Netzwerk für rationelles Peripherie-Sharing angesagt ist, müssen sich größere Unternehmen, die bislang mit diesem System-Wildwuchs gelebt haben, auf Informations-Sharing konzentrieren - umfassende Netzwerk-Konzepte für die Homogenisierung der unterschiedlichen Hard- und Software-Lösungen werden überlebenswichtig.

"Netzwerk-Standardprodukte sind wichtig, gerade wenn die Hard- und Software-Komponenten völlig uneinheitlich sind", so Dieter Kondek, Bereichsleiter Kommunikation und Netzwerke der Computer 2000 AG in München. Denn erstens lege man mit Standardprodukten die Basis für eine spätere Vereinheitlichung der unternehmensinternen DV, und zweitens böten nur gebräuchliche Netzwerke die Sicherheit, auch später zwischen verschiedenen Anbietern und Händlern wählen zu können. Netzwerk-Exoten machen von einem oder wenigen Händlern abhängig, so der Fachmann.

Wenn das Unternehmen sich dazu entschließt, die unterschiedlichen Rechnerwelten zu behalten und nicht, was sich als (allerdings kostspielige) Alternative anbietet, die Hardware komplett erneuert und vereinheitlicht, muß zuerst eine Analyse des Ist-Zustands gemacht werden. Denn das Problem ist vielschichtig.

Neben ihren verschiedenen PCs wünschen die Anwender auch die angestammte Software mit ins Netz zu übernehmen, dazu kommt vielfach noch die Frage der Host-Anbindung auf den Netzwerker zu. Doch die Technologie hat ihre Grenzen: "Heute kann kein Netz alles", so Kondek.

Er plädiert für eine vorsichtige Eliminierung der hinderlichsten Bausteine, um dann ungestört so viel wie möglich einbinden zu können. Als absolutes Muß betrachtet er die Integration von DOS-, OS/2- und Macintosh-Rechnern. Damit komme man auch den angestammten Gewohnheiten der meisten Anwender entgegen.

Einheitliche Software ist unabdingbar

Noch konservativer als bei der Hardware sind die Anwender zumeist in puncto Software. Hier ein Netzwerk zu konzipieren, das seine Vorteile ausspielen kann, und dennoch eine gewisse Kontinuität zu schaffen, ist nach Aussage der Fachleute gar nicht einfach. Wichtigstes Kriterium ist hier die Netzwerkfähigkeit der verschiedenen Pakete. Kondek hält es durchaus für einen gangbaren Weg, beispielsweise verschiedene Textverarbeitungs-Systeme in einem Netz zu betreiben. Zumindest über ASCII sei der Informationsaustausch nahezu immer gewährleistet.

Dem gegenüber plädiert Marlon Müller, Leiter Marketing Service der Unterhachinger Adcomp GmbH, für eine zügige

Vereinheitlichung des Software-Angebots. So nachvollziehbar der Wunsch nach Kontinuität und persönlicher Vertrautheit auch sei, "Individualität wird im Netz weichen müssen", urteilt der Novell-Experte.

Ein Stufenplan sichert den Übergang ins Netz

Das gesamte Netzwerk wird mit dieser Beschränkung leichter zu steuern sein und übersichtlicher. Will man unbedingt ein angestammtes Software-System behalten, bleibt natürlich die Möglichkeit, lokal damit zu arbeiten.

Das jedoch widerspricht, so Müller, dem Sinn eines Netzwerks völlig und sollte möglichst unterbunden werden. Nur die Einheitlichkeit der Software in einem Unternehmen schaffe die Vorteile, die mit dem Netzwerk erreicht werden sollen: Transparenz, Flexibilität und Kommunikationsfähigkeit.

Computer-2000-Fachmann Dieter Kondek spricht sich für einen Stufenplan aus: Schritt für Schritt sollte die Integration nach den unternehmensspezifischen Prioritäten erfolgen. Ihm scheint es sinnvoll, die genaue Planung jeder Abteilung separat an den Anfang zu steIlen. Die endgültige Gesamt-Vernetzung sollte dann laut Kondek entsprechend den drückendsten Problemen erfolgen. Dabei müsse man unbedingt mit kompetenten Partnern planvoll vorgehen. Die Befragung von vergleichbaren Referenzkunden sollte ein Auswahlkriterium für den Netzwerk-Partner darstellen. Zum einen lasse sich daran dessen Kompetenz einschätzen, darüber hinaus könne man aber auch aus deren Erfahrungen viel lernen.

Im Endeffekt ist die Vernetzung keine Affäre

Für einen exakten Plan bei der Vernetzung spricht sich auch Reinhard Laskowski, Systems Engineer der 3Com GmbH in München, aus. Dieser Plan auf der Grundlage umfassender Ist- und Bedarfs-Analysen sichere nicht nur ein Netzwerk, das allen Anforderungen konzeptionell gerecht wird, sondern ermögliche auch die Durchsetzung eventueller Regreßansprüche. Denn die Techniker installieren, so Laskowski, was ihnen aufgetragen wird, für konzeptionelle Fehlplanungen seien sie nicht verantwortlich. Im Endeffekt jedoch ist laut dem 3Com-Fachmann die Vernetzung keine allzugroße Affäre: "Unterschiedliche Rechner, Software-Chaos, Hostanschluß - das klingt alles gewaltig, und in Wirklichkeit ist es alles gar nicht weit her damit."

Bei der Host-Anbindung muß exakt geplant werden

Doch gerade die Host-Anbindung erfordert durchaus einige Überlegungen, hat man es hier doch mit einer völlig anderen Rechnerwelt zu tun. Hier tummeln sich nicht selten noch DV-Fachleute, für die PCs kaum Computer darstellen und die auf die Power ihrer Maschinen pochen. Womit sie partiell (noch) recht haben. Unter diesem Gesichtspunkt sollte, so die Fachleute, vor allem das Thema Datenbanken, angegangen werden. Die Stand-alone-PCs haben in vielen Unternehmen dazu geführt, daß Datenbestände nicht allgemein zugänglich sind. Nicht einmal eine zentrale Verwaltung der verteilten Datenbanken ist so möglich. Daraus ergibt sich ein eklatantes Informationsdefizit, das die Vorteile der eingespielten Individualität zunichte macht. Denn diese langjährige Professionalität ist nicht selten gleichbedeutend mit einem allseitigen "Sich-Durchwursteln".

Die Datenbankserver werden zum Schlüsselelement

Zentrale Datenbanken sind angesagt, da sind sich die Experten einig. Nur sie können im notwendigen Maß gepflegt, gewartet und gesichert werden. Verteilte Datenbanken auf lokalen Speicherplatten sind zwar technisch möglich, doch erscheinen sie nicht sinnvoll: Der Zugriff aus dem Netz auf eine lokale Platte legt für die entsprechende Zeit den dazugehörigen Arbeitsplatz lahm.

Darüber hinaus stellt sich die Frage, woher ein Anwender wissen kann, auf welcher der diversen Platten im Netz sich die gewünschte Information befindet. Hier kommt dem Host oder einem separaten Datenbank-Server eine Schlüsselrolle in der Integration zu - auch hier natürlich wieder auf Kosten der Individualität.

Als technisches Problem stellt sich die Vernetzung einer heterogenen DV-Landschaft kaum dar. Zwar geben die Experten übereinstimmend zu, daß ab einer bestimmten Größenordnung ein Netz gewisse Geburtswehen mit sich bringt, doch diese liegen viel eher in Kleinigkeiten: "Ein einziges abgeknicktes Kabel kann schon eine Menge Ärger bereiten", meint Reinhard Laskowski. Das technische Equipment sollte allerdings vom Feinsten sein, gerade Billigprodukte können teuer werden. No-Name-PCs sind da ebenso risikoreich wie dubiose Adapterkarten. Auch hier wieder ein Argument gegen die Individualisten: Zwar ist mit dem nötigen technischen Aufwand fast jeder PC ins Netz zu integrieren, es ist jedoch fraglich, ob sich die Investition lohnt. So haben gerade ältere Rechner laut Laskowski erhebliche Schwierigkeiten mit Ethernet, und der oben erwähnte Atari verkommt zum simplen dummen Terminal.

Die Preisgabe der unbeschränkten Individualität im Netz wird für die Anwender jedoch mit dem Vorteil der freien Kommunikation aufgewogen. Hausintern und mit der ganzen Welt können, standardisiert und somit einfach und schnell, Daten ausgetauscht und Informationen eingeholt werden. Netzwerktechnisch stehen drei Leitungstypen zur Verfügung: Für kurze Entfernungen und kontinuierliche Nutzung sieht Adcomp-Mann Müller die Standleitung als geeignetes Medium an. Sie hat den Vorteil, daß sich der Anwender nicht weiter um den Übertragungsweg kümmern muß, was der Akzeptanz zugute kommt. Für längere Entfernungen, die öfter genutzt werden, empfehle sich Datex-P. Hier kommt ein nicht unerheblicher Preisvorteil zum Tragen, da der Anwender nach übermittelter Datenmenge bezahlt. Die Übertragung via Modem und Telefon gewährt größtmögliche Flexibilität.

Alle diese Kommunikationsformen stehen selbstverständlich auch Stand-alones zur Verfügung, doch der technische, und damit finanzielle Aufwand für solch ein komplettes Kommunikations-Equipment steht bei Einplatzsystemen in keiner Relation zum Nutzen. Erst die gemeinsame Nutzung dieser Technologien macht Kommunikation rentabel.

Soweit individuelle Datenverarbeitung im betrieblichen Kontext sinnvoll scheint, ist sie im Netzwerk genauso gewährleistet wie auf dem einzelnen PC. Der Keyboard-Schlüssel wird abgelöst vom Paßwort, so daß Vertrauliches oder Geheimes auch bei Benutzung gemeinsamer Speicher-Ressourcen nicht in die Hände Unbefugter gelangen kann. Die Angst Vieler Anwender vor allzugroßer Transparenz im Netz ist also unbegründet. Durch die Nutzung einer gemeinsamen Oberfläche wie X-Windows oder integrierter Pakete wie dem kürzlich vorgestellten HP-NewWave-Office ist der "persönliche" Arbeitsplatz jedoch nicht mehr an einen "Persönlichen Computer" gebunden. Die Möglichkeit, sich an jedem beliebigen Rechner im Netz einloggen und sich auf einer standardisierten Oberfäche ohne Mühen zurechtfinden zu können, schafft im Netz eine neuartige Transparenz. Unter der gemeinsamen Oberfäche findet dann jeder Anwender, entsprechend seiner Zugriffsberechtigung, die individuellen Applikationen wieder.

Doch bei aller Individualität, die trotz empfohlener Standardisierung durch gezielte Abschottung bleibt, besteht die Möglichkeit, mit allen Mitarbeitern im Netz zu kommunizieren oder mit ihnen gemeinsam Anwendungen zu bearbeiten. Individuelle Datenbank-Updates stehen jedermann zur Verfügung, Texte können, soweit mit demselben Programm erstellt, papierlos vom einen zum anderen Arbeitsplatz transportiert werden, getrennte Gestaltung von Schriftstücken (Text, Grafik, Layout) wird problemlos möglich.

Das Verlassen gewachsener Strukturen, die Preisgabe angestammter Hard- und Softwaresysteme ist der Preis, der unter Umständen für die Vernetzung gezahlt werden muß. "Mit der Einstellung, Das habe ich immer so gemacht, das will ich im Netz genauso machen' kommt man nicht weit", so Dieter Kondek. Doch die Experten sind sich darin einig, daß die Installation eines Netzwerks dort, wo bereits seit Jahren mit Stand-alones gearbeitet wurde, nicht nur ein technisches Problem ist. Hier ist, so die Fachleute, Psychologie und Mitarbeiterbetreuung gefragt.

Bereits im ersten Planungsstadium müssen die Anwender nach ihren Bedürfnissen befragt werden. Marlon Müller hält hier die Bildung von Abteilungsausschüssen für sinnvoll, die die generellen Anforderungen festlegen. Denn nur wenn sichergestellt ist, daß den Bedürfnissen der Anwender umfassend Rechnung getragen wurde, bietet die spätere Netzwerklösung die größtmögliche Effizienz, so der Fachmann.

Die Frage der Vereinheitlichung des Hard- und Software-Bestands sollte konsequent, aber nicht übereilt angegangen werde, empfiehlt Reinhard Laskowski. Wer die Mitarbeiter mit Gewalt aus ihren angestammten Umgebungen reißt, schafft nur Frustrationen. Es sollte nicht das Gefühl aufkommen, daß man die Mitarbeiter aus der gewohnten Nestwärme in die Einsamkeit und Kälte eines unbekannten Netzes wirft. So schlägt Marlon Müller nach der Installation des Netzwerks intensive Schulungen nur noch an dem System vor, das später die Aufgabe aller anderen bestehenden Softwarepakete übernehmen soll. Somit steige die Bereitschaft der Mitarbeiter zum Wechsel. Daß die Vereinheitlichung kommt, sollte aber unmißverständlich feststehen. Denn individuelle Datenverarbeitung werde häufig noch falsch verstanden: "Nicht daß ich eine bestimmte Hose trage, macht mich individuell, sondern wie ich sie trage."