Loesungen von der Stange kommen meist nicht in Frage

Installation eines Netzes macht ein Drittel der Gesamtkosten aus

07.05.1993

Brauchen wir ein neues Netzwerk? Diese Frage wird von immer mehr Verantwortlichen mit Nein beantwortet. Denn die Entscheidung fuer ein System groesserer Leistungsfaehigkeit machen die meisten Entscheidungstraegern nicht davon abhaengig, ob mit einem Netz 64 000 oder mehrere Millionen Rechner angesprochen werden koennen. Diese Frage stellt sich fuer die meisten Unternehmen so nicht. Dagegen ist bekannt, dass die Investition in eine neue Technologie oft teuer auf der Personalseite zu Buche schlaegt.

Exakte wirtschaftliche Analyse ist Voraussetzung

Doch diese Polaritaet beschreibt das Thema sehr reduziert, so das Ergebnis von Untersuchungen der Inteco GmbH aus Bonlanden bei Stuttgart: Denn neben nackten Powerfacts wie der Zahl der in einem Netz verknuepfbaren Rechner stehen einerseits weitere Qualitaeten beim Einsatz neuer Netzwerksysteme zur Debatte, andererseits muss nicht jede Umstellung eines Netzes hohe Personalkosten mit sich bringen.

Eine exakte wirtschaftliche Analyse ist die Voraussetzung fuer diese Entscheidung, die letztlich ueber die Faehigkeit eines Unternehmens entscheidet, wichtige Bereiche seines Informationsflusses im Sinne eines Informations-Managements zu gestalten.

Bei dieser Fragestellung bestehen durchaus Parallelen zu anderen Bereichen der DV: Die Bewaeltigung der faktisch in nahezu jedem Unternehmen mit mehr als 50 Mitarbeitern vorhandenen Heterogenitaet von Hard- und Software durch offene Standards laesst sich am Beispiel des Betriebssystems Unix verdeutlichen: Trotz verschiedener Schwaechen, etwa durch die nicht grundsaetzlich implementierte Multiprozessor-Faehigkeit, den relativ schwachen Zugriffsschutz, hohen Speicherbedarf, die Sensibilitaet des Betriebssystems und nicht zuletzt die fehlende echte Softwarekompatibilitaet zwischen verschiedenen Derivaten und auf unterschiedlichen Hardware-Umgebungen wurde Unix trotzdem Weltstandard, weil es sich bei diesem Betriebssystem um einen offenen De-facto-Standard handelt, mit dem man sich nicht in die Abhaengigkeit von einem Hard- oder Software-Anbieter begibt.

Unabhaengig wird man durch einen offenen Standard aber auch von Serviceanbietern. Was im Rahmen von transparenten Normen entwickelt wurde, kann durch andere Unternehmen gewartet werden. Die Zeiten, in denen die Entscheidung fuer ein System den Kaeufer in die voellige Abhaengigkeit vom Anbieter trieb, sind also vorbei. Ausserdem ist der Migrationsaufwand zwischen verschiedenen UnixSystemen relativ gering. Dies gilt insbesondere fuer die Personalkosten, die sich in Schulungen und Einarbeitungszeiten niederschlagen. Da verschiedene Unix-Systeme analog konzipiert sind, ist der Lernaufwand nach einem Systemwechsel relativ gering, hier kann also von einer Know-how-Kompatibilitaet gesprochen werden.

Aber auch bei der Einstellung von neuen Mitarbeitern haben offene Standards ihre Vorteile: Nahezu jeder Hochschulabgaenger kennt Unix und kann sich mit relativ wenig Aufwand in die Betriebssystem- Umgebung eines neuen Arbeitgebers einarbeiten.

Vergleichbar mit diesen Vorteilen eines offenen Betriebssystems ist aber insbesondere das Advantage-Network von Digital Equipment, da es den Standard OSI (Open System Interconnection) mit dem Quasi-Standard DNA (Digital Network Architecture) und TCP/IP verbindet. Ausserdem werden Gateway-Funktionen zu SNA von IBM realisiert. Die direkte Abdeckung moeglichst vieler Standards ohne zusaetzliche Gateways oder Konverter ist dabei eine entscheidende wirtschaftliche Forderung. Denn gerade in einem so zeitkritischen Bereich wie der Connectivity erfordern Gateways einen hohen technischen Aufwand, verschlechtern Konvertierungen die Performance. Ausserdem lassen sich viele Services eben nur bedingt oder gar nicht ueber Systemgrenzen hinweg nutzen.

Damit kommen wir aber zum zweiten Gesichtspunkt der eingangs genannten Polaritaet: Der Frage, ob es denn so viele Rechner sein muessen, die miteinander verbunden werden. Das elektronische Datenuebertragungsmedium Nummer eins, das Telefax, ist in praktisch jeder Hinsicht eine Kruecke. Es hat eigentlich nur einen Vorteil: Jeder hat es, inzwischen in zunehmendem Masse sogar viele Privatleute, und praktisch jeder nutzt denselben Standard, die Gruppe III. Doch in den meisten Faellen sorgt die Umwandlung von Text in Grafik nur dafuer, dass eine viel zu grosse Datenmenge uebertragen werden muss. Fuer eine weitergehende Datenverarbeitung waere es sinnvoll, Informationen als ASCII-Files zu transferieren, die sich dann per Empfaengerrechner weiterverarbeiten lassen. Und selbst wenn eine Grafik beim Adressaten von der DV genutzt werden soll, ist die vom Fax unterstuetzte Aufloesung von 200 dpi meist viel zu schwach.

Ein direkter Datenaustausch auf der Basis eines transparenten Verfahrens sollte also in Zukunft genauso zum alltaeglichen Kommunikationsmedium werden, wie Fax und Telefon es bereits heute sind. Damit koennten Arbeitsplaetze weltweit von Bildschirm zu Bildschirm Informationen austauschen, Programme auf unterschiedlichen Rechnern direkt Daten einander zur Verfuegung stellen und dies im Gegensatz etwa zum Fax mit Authentifizierung, also mit gerichtstauglicher Verbindlichkeit. Solche Verfahren stellen nahezu alle Netzwerke zur Verfuegung.

Wichtige Kriterien fuer die Netzplanung

Mit diesem Verbund- und Datensicherheitsdenken werden dann aber auch Fragen wie die Zahl der adressierbaren Netzrechner interessant. Insgesamt muessen bei der Netzplanung also folgende Punkte bedacht werden:

- Uebertragungs- und Datensicherheit,

- 24-Stunden-Bereitschaft an sieben Tagen die Woche, moeglichst ohne jegliche Ausfallzeit,

- Wirtschaftlichkeit,

- hohe Performance,

- Offenheit fuer heterogene Hardware, Software und Netzwerke,

- die Moeglichkeit, so viele Endgeraete weltweit miteinander verknuepfen zu koennen, wie kuenftig an Arbeitsplaetzen stehen, also hunderte Millionen sowie die

- Unterstuetzung von Multimedia.

Zwei Drittel der Kosten fuer Betrieb und Wartung

Hier bietet die 160-Bit-Adressierung - dieser Wert ist groesser 10hoch48 - des Advantage-Networks die Voraussetzung, neben einer moeglichst effizienten Adresse auch noch das Management des Unternehmens-Backbones zu betreiben, um ein Netz moeglichst effektiv zu nutzen und gerade auf der Hardwareseite die Kosten durch gezielten Ressourceneinsatz zu senken.

Auf der wirtschaftlichen Seite greift hier wieder ein Effekt, der fuer jegliche Software typisch ist: Da die Entwicklungskosten hoch und die Zusatzkosten fuer die Einzelinstallation sehr niedrig sind, wird eine besonders hohe Einsparung erreicht, wenn eine haeufig eingesetzte Software den Hardware-Aufwand minimiert.

Auch eine Gesamtkalkulation zeigt, dass eine Fixierung auf die Anschaffungskosten bei Netzwerken den Schwerpunkt auf einen kleinen Faktor legt.

Dazu besagt eine Studie der Index Group, dass die Anschaffungskosten eines Netzwerks nur ein Drittel (36,1 Prozent) betragen, waehrend Betrieb und Wartung innerhalb der folgenden fuenf Jahre zwei Drittel (63,9 Prozent) der gesamten Netzkosten verschlingen:

Ein Netz, das durch einen hohen Automatisierungsgrad Personalkosten, durch eine optimale Topologie und effektive Uebertragungsprotokolle Kommunikationskosten und durch fehlende Gateways Kosten fuer die technische Ausruestung spart, kann deshalb schon bei einer Analyse der direkten Betriebsaufwendungen guenstiger abschneiden als ein veraltetes System.

Voraussetzung dafuer ist allerdings eine exakte Analyse der Informationsstruktur und der daraus folgenden Beduerfnisse, eine genaue Bestandsaufnahme des Ist-Zustandes gerade in Hinblick auf die Betriebskosten sowie eine detaillierte Marktkenntnis, die eine wirtschaftlich begruendete Entscheidung ermoeglicht, ob und welches Netzwerksystem in einem Unternehmen angeschafft wird. Loesungen von der Stange und isolierte Einzelprodukte scheiden dagegen aus.

*Diplominformatiker Rolf-Dieter Haerter ist technischer Geschaeftsfuehrer der Inteco Gesellschaft fuer Telekommunikation- Informatik-Systeme mbH.