HP bedeutet keine Festlegung für alle Zeiten

SW-Portabilität und Datenaustausch sind entscheidend

21.02.1992

Offene Systeme, dieses Thema beschäftigt die Branche seit geraumer Zeit. Fragt man jedoch nach Produkten oder nach vorhandenen Installationen, so stellt man fest, daß noch eine nicht unerhebliche Lücke zwischen Theorie und Praxis besteht. Um die Zeit bis zur entgültigen Festlegung und Verfügbarkeit von Standards nicht ungenutzt verstreichen zu lassen, hat man in der Drägerwerk AG ein "Dräger-Offenes-System" geschaffen.

Das jetzige DV-Umfeld bei Dräger ist geprägt durch eine Vielzahl von verschiedenen Systemen und Herstellern (heterogenes Umfeld). Kostensteigerungen und steigender DV-Bedarf im Unternehmen haben in der Vergangenheit dazu geführt, sich mit neuen Technologien zu beschäftigen. In Zusammenarbeit mit einer Unternehmensberatung ist dann die Strategie für die 90er Jahre entstanden.

Ziel dieser DV-Planung war es, die Kosten zu senken, ohne einen Verlust an Innovation und Leistung zu erwirken. Im Zuge der Beratung wurden alle DV-Bereiche durchleuchtet und auf ihr Kosten-Nutzen-Verhältnis geprüft. Aufgrund dieser Daten wurde dann in Absprache mit dem Vorstand, den DV-Bereichen und unter Berücksichtigung von Standardisierungsbestrebungen der Hersteller ein Strategiepapier entwickelt. Auch hier ist der Einfluß des Marktes und die derzeitige Diskussion stark zu spüren. Client-Server, auch im kommerziellen Bereich, heißt die Devise.

Für den technischen Sektor stellt diese Analyse im Prinzip nichts Neues dar, da man aufgrund des Einsatzes von Unix-Systemen und Netzwerken von Anfang an mit der Client-Server-Architektur geplant oder gearbeitet hat. Dennoch sind auch hier noch einige Unwegsamkeiten zu beseitigen.

Im technischen Umfeld, das heißt hauptsächlich in den Bereichen Entwicklung und Konstruktion, ist man dabei, diese Strategie weiter vorzubereiten und umzusetzen. Hier fällt die Umsetzung auch leichter, da man hier schon in der Vergangenheit neuen DV-Ideen aufgeschlossener gegenüberstand. So ist die Aussage des Leiters der Entwicklung und Konstruktion auch leicht zu verstehen: "Ende der 90er Jahre wird jeder Entwickler seine eigene Workstation auf dem Arbeitstisch stehen haben." Gefordert wird der Arbeitsplatz-Rechner für jeden Mitarbeiter, über den dann der Zugriff auf gemeinsame Projektdaten erfolgen soll.

Anwender sollen von jedem Arbeitsplatz aus ihr spezifisches Arbeitsumfeld vorfinden. Hier ist jedoch der erste Punkt zu nennen, in welche Richtung sich ein Unternehmen entwickeln soll: Zum jetzigen Zeitpunkt schon auf Workstations unter Unix umzusteigen bietet sich aufgrund noch fehlender Standardsoftware und des (noch) hohen Preises eigentlich nicht an.

Der vollständige Umstieg auf die DOS-Welt ist aber unter den sich abzeichnenden Entwicklungen auch nicht der richtige Weg. Daher ist der goldene Mittelweg zu suchen: Arbeitsplatz-Rechner unter DOS, Server unter Unix, Software so weit wie möglich im Netzwerk verteilen.

Wichtig bei dieser generellen Überlegung ist letztendlich der Datenaustausch und die Softwareportabilität im eigenen Hause. Sind diese Punkte gewährleistet, spricht eigentlich nichts gegen den Einsatz. Große Unterstützung der Hersteller bei solchen Konzepten ist natürlich nicht zu erwarten. Diese wollen einerseits ihre eigenen Produkte verkaufen, andererseits die Kunden für solche Standards begeistern, an denen sie entweder selbst mitwirken oder unter denen sie ihre Produkte unterbringen können.

Aus diesen Überlegungen heraus wurde eine umfassende Hardware-Auswahl, getroffen, welche Systeme am Arbeitsplatz zum Einsatz kommen.

Drei Arten von Systemen: Erstens: PCs

Der PC dient als Entwicklungsstation unter MS-DOS mit Standardsoftware und Einbindung in das Netzwerk (siehe Abbildung 6). Die Hardware-Auswahl wurde so getroffen, daß in Zukunft auch der Umstieg auf ein Unix-Betriebssystem möglich ist. Nach unserer Überzeugung wird einerseits ein Intelbasiertes System aufgrund seiner großen Verbreitung nicht vom Markt zu drängen sein, auf der anderen Seite dürfte ein Software-Anbieter wie Microsoft es auf Dauer auch nicht durchhalten, sein Betriebssystem MS-DOS zu halten. Auch hier wird eine Entwicklung in Richtung Unix unvermeidbar sein. Ohne großes Risiko einzugehen, ist die Hardware-Auswahl trotz fehlender offizieller Standards sicherlich richtig.

Die zweite: Low-cost Unix-Workstations

Am Arbeitsplatz werden Low-cost-Workstations eingesetzt, wenn spezielle Rechnerleistung notwendig und Software schon unter Unix verfügbar ist. Im Moment läßt sich noch keine generelle Aussage zu RISC-basierten Systemen treffen, zu unterschiedlich ist die Lauffähigkeit von Software auf solchen Systemen. Aufgrund der Marktentwicklung und der Bestrebungen der Softwarehäuser, diese Systeme zu unterstützen scheint aber die Durchsetzung am Markt nur eine Frage der Zeit zu sein.

Die dritte Kategorie: Der Unix-Server

Server unter Unix dienen der Bereitstellung von Rechnerkapazität für PC-Systeme. Auch hier gilt wieder die gleiche Begründung wie bei den Low-cost-Workstations.

Aufgrund der starken Verbreitung von HP-Systemen im Hause, der großen Preis-Leistungs-Verhältnisse und des Engagements von HP in diversen Standardisierungsgremien hat man sich bei Dräger für Systeme von Hewlett-Packard entschieden.

Dies muß natürlich nicht für alle Zeiten gelten. Bei entsprechenden Rahmenbedingungen können jederzeit andere Hersteller zum Einsatz kommen. Hauptfaktor ist hier ausschließlich die Softwareportabilität und der Datenaustausch.

Im PC-Bereich wurde die Entscheidung für einen No-name-PC getroffen, wobei man bei der Auswahl der Hardware und des Lieferanten darauf achtete, daß ausschließlich Markenprodukte verwendet werden, zum Beispiel Festplatten von Seagate, VGA-Karte von Tseng etc. Diese Entscheidung ist zum größten Teil durch den massiven Preisunterschied zwischen Markenprodukten und No-name-Systemen entstanden. In der Zwischenzeit hat sich diese Preisspanne aber reduziert, so daß letztendlich der Service des Anbieters und die Leistung des Systems, weniger der Preis oder der Name des Produktes im Vordergrund

steht.

Nach rund einem Jahr Erfahrung mit diesen Systemen bleibt anzumerken, daß in bezug auf Auswahl und Definition von Service im PC-Bereich noch eine Menge zu klären ist. Gerade hier verläuft die Grenze zwischen Hardware- und Softwarefehlern beziehungsweise Problemen sehr fließend.

Eine Durchführung von Service ausschließlich durch externe Kräfte ist hier im Gegensatz zu den Unix-Systemen nicht zu empfehlen, da der Fehleranteil einfach zu hoch ist.

Zur Vernetzung der Systeme untereinander heißt hier die Parole Ethernet, sprich: TCP/IP. Die Verbindung der PC-Systeme mit den Unix-Systemen erfolgt unter Sun-NFS, bei Einbindung im reinen PC-Bereich mit Novell.

Um der Forderung Rechnung zu tragen, daß jeder Benutzer an jedem Arbeitsplatz sein Arbeitsumfeld vorfindet, wurden bindende Vereinbarungen getroffen.

Bei Dräger darf auf PC-Ebene folgende Software als Minimalausstattung zum Einsatz kommen: MS-Windows 3.0, Win-Word, Excel, Turbo-C von Borland, Designer, MKS-Toolkit (Unix-Emulation unter DOS). Dadurch wird Datenaustausch untereinander trotz fehlender oder unvollständiger Standards gewährleistet.

Um auf der PC-Seite den Aufwand an Betreuung und Konfiguration so gering wie möglich zu halten, wird ein Programm zum menügeführten Boot eines PCs eingesetzt (Bootcon). Damit ist der Anwender in der Lage, beim Bootvorgang eine bestimmte Konfiguration auszuwählen.

Durch diese Möglichkeit kann neben der allgemein festgelegten Konfiguration jeder Anwender seine speziellen Konfigurationsdateien starten.

Betreuung über das Netzwerk

Um den Betreuungsaufwand der Systeme gering zu halten, wurden einige kleine Utilities geschrieben. Diese Utilities wurden als Unix-Shells geschrieben und können von DOS-Ebene aus gestartet werden. Auch hier ist der Umstieg in die Unix-Umgebung vorbereitet, da diese Programme auch auf reinen Unix-Rechnern laufen können.

So werden bei jedem Start eines PCs die Konfigurationsdateien auf das Netzwerk kopiert und können dort von PC-Betreuern bearbeitet werden. Diese Utilities dürften solange zum Einsatz kommen, bis es ein standardisiertes Werkzeug zur netzwerkweiten einheitlichen Konfigurationssteuerung gibt. Bisherige Produkte können derzeit nur die herstellereigenen Plattformen unterstützen. Veränderungen lassen sich über ein Mail-System durchgeben. Wichtige Mitteilungen und Tips werden über ein Notes-System, eine Art schwarzes Brett, weitergegeben. Da das Netzwerk das zentrale Verbindungsglied der Rechnersysteme ist, mußte auch hier eine ganze Menge getan werden. Jeder PC-Benutzer ist über eine Kennung (ID) bekanntgegeben. User-ID und Group-ID werden zentral verwaltet, ebenso die notwendige IP-Adresse des PC. Jedem Unix-Rechner, der zur Entwicklungsumgebung gehört, werden die Adressen der PCs und die Namen der Anwender bekanntgegeben.

Log-ins sind nach Möglichkeit projektbezogen aufgesetzt, das heißt die Group-ID entspricht einem Projekt, nicht einer Abteilung. Die Installation von Name-Services ist zwischenzeitlich erfolgt und wird weiter vorangetrieben. Hier hat HP durch eine Netzwerkanalyse und gute Planungsansätze maßgeblich zu einer Verbesserung beigetragen. Nach anfänglichen Problemen und der Vernachlässigung

eigener Produktvorschläge kann die Vorgabe von HP in die Tat umgesetzt werden.

Um auf die teure Anschaffung von lokalen Druckern zu verzichten, werden im Netzwerk über Printerserver Drucker zur Verfügung gestellt (Laserjet IIID beziehungsweise Deskjet). Nach Möglichkeit sind die Drucker Postscript-fähig, damit sie in Zukunft von jedem Programm aus ansteuerbar sind. Die Möglichkeit des Druckens ohne User-Log-in wird noch untersucht. Für bestimmte Tätigkeiten, zum Beispiel Software-Entwicklung, ist es notwendig, Rechnerleistung zur Verfügung zu stellen. So werden zum Beispiel die C-Programme über Editoren auf dem PC erstellt, die Kompilierung und Bindung erfolgt jedoch auf einem Unix- Rechner. Zu diesem Zweck kommen je nach Projekt- beziehungsweise Abteilungsgröße Unix-Rechner im Netzwerk zum Einsatz, die diese Aufgabe übernehmen. Diese Systeme können entweder einer Person zudem lokal zugeordnet sein, sie können aber auch als Server konfiguriert sein und sich an einem beliebigen Ort in den Abteilungen befinden.

Hier gibt es noch keine andere Möglichkeit, als auf einen Standard zu warten, der richtige Rechnerlastverteilung im Netz zur Verfügung stellt.

Um dem übermäßigen Kauf von Softwarelizenzen Herr zu werden, wird bei der Anschaffung von Software darauf geachtet, ob Netzwerklizenzen zur Verfügung stehen beziehungsweise ob sich durch eigene Lizenzverwaltung eine Art Netzwerklizenz erreichen läßt.

So wurde zum Beispiel ein Programm geschrieben, welches über die Zugriffsrecht-Vergabe unter Unix eine Art Lizenzvergabe im Netzwerk regelt.

Die Software ist auf einem Unix-Rechner installiert. Will ein Anwender mit einer bestimmten Software arbeiten, so wird über dieses spezielle Programm das Zugriffsrecht auf das Software-Directory vergeben und der Anwender kann über ein logisches Laufwerk die Software ansprechen. Für andere ist die Software gesperrt. Dieser Trick wird solange zur Anwendung kommen, bis für jede Software Netzwerklizenzen zur Verfügung stehen, beziehungsweise bis es ein standardisiertes Lizenzverwaltungssystem gibt.

Um bei der Vielzahl der Rechnersysteme - derzeit gibt es zirka 200 PCS und 42 Unix-Rechner - noch ein überschaubares und auch funktionierendes Netzwerk zu haben, werden die Rechner in verschiedene Netzwerkebenen eingeteilt. Hilfreich ist hier der Einsatz vorhandener Name-Services.

Die Verwaltung des Netzwerks liegt in der Hand einer zentralen Abteilung. Hier steht auch Management-Software zur Verfügung, um das Netzwerk von der Auslastung her zu verwalten. Aufgrund fehlender oder unvollständiger Standards der Netzwerkprodukte kann eine optimale Netzwerksteuerung nur bedingt geschehen.

In Zukunft werden nur Produkte zum Einsatz kommen, die SNMP unterstützen. Die Dokumentation des Netzwerks mit seinen Hard- und Softwarekomponenten erfolgt einerseits über eine Datenbank, andererseits über manuell nachgeführte Zeichnungen in ME10.

Über den Einsatz von kombinierter Software wird nachgedacht, eventuell sogar über eine Eigenentwicklung (Kombination ME10 und Oracle).

Die Betreuung der Systeme im Netzwerk erfolgt über einen zentralen Technischen Benutzerservice. Durch die starken Abhängigkeiten gerade im Netzwerk ist eine Dezentralisierung nicht unbedingt empfehlenswert. Für die Einhaltung der Standards, der Test neuer Tools und Anwendungen sowie die Verträglichkeitsprüfung mit den vorhandenen Installationen wird zentral gesorgt.

Die Installation und Betreuung für die Abteilungen erfolgen durch PC-Betreuer in den Fachbereichen. Regelmäßige Treffen der Anwender untereinander und mit den Betreuern stellen den Informationsgleichstand her.

Damit dieses Konzept überhaupt umgesetzt werden konnte, war es notwendig, in Absprache mit allen Beteiligten ein Konzept zu entwickeln, in dem die Anwendungen und gewisse Spielregeln festgeschrieben wurden.

Dieser Prozeß hat zeitlich gesehen den meisten Aufwand verursacht, da verschiedene Ideen und Ansichten unter einen Hut zu bringen waren. Unter Zuhilfenahme der Studie der Unternehmensberatung und unter Einbeziehung des Managements gelang es dann, eine einheitliche Marschrichtung festzulegen.

Dabei waren die Vorschläge der Unternehmensberatung mitunter eine große Hilfe, obwohl eigentlich keine gravierend neuen Erkenntnisse, zum Vorschein kamen:

- Festschreibung der getroffenen Entscheidung in einer Art Handbuch,

- organisatorischer Ablauf zur Einbindung von Veränderungen und Innovation ist festzulegen,

- Klärung von Datensicherheit- und Datenschutz-relevanter Belange (Sicherheitshandbuch),

- Erstellung einer unternehmensweiten Netzwerkstrategie, um die verschiedenen Bereiche (IBM, WANG, Technische Systeme) zusammenzuführen.

Fehlende Standards bedeuten nicht den Verzicht auf Einsatz neuer Technologien oder den Weg in eine undurchsichtige Zukunft für die DV. Durch aufmerksames Verfolgen des Marktes, gute Kontakte zu den Herstellern, Informationsaustausch untereinander, zum Beispiel über Interessengemeinschaften, kann jedes Unternehmen für sich ein offenes System entwickeln.

Die Einschränkung im eigenen Hause muß nicht das Ende bedeuten. Einschränkung heißt nicht, gegen die Einführung offener Systeme zu sein, sondern hat vielmehr den Sinn, den Informationsfluß im eigenen Unternehmen zu stärken. Nur das offene System im eigenen Hause bringt schließlich Gewinn für ein Unternehmen.

Wenn die Auswahl von DV-Systemen unter besonderen Voraussetzungen getroffen wird, so ist der Weg zu "Standard-Offenen-Systemen" jederzeit möglich. Auf einen allumfassenden Standard muß man unserer Meinung nach noch lange warten.

Daher heißt die Devise: Nicht abwarten und reagieren, sondern Innovationsbereitschaft zeigen und agieren.

Thomas Fischer ist Leiter Technische Systeme bei der Drägerwerk AG, Lübeck