Evolutionaere Strategien sind gefragt Vor dem Aufbruch zu neuen Ufern das Altwissen sichern

07.10.1994

Von Herbert Frommwieser*

Die Unternehmens-DV befindet sich weltweit in einem tiefgreifenden Wandel. Entwicklungen wie der Siegeszug des PCs, die neuen Moeglichkeiten der Software-Entwicklung und der Durchbruch Client- Server-orientierter Standardprogramme haben dazu gefuehrt, dass sich immer mehr Firmen von ihrer Host-zentrierten DV trennen. Wie laesst sich der Uebergang meistern? Zunaechst einmal sollte der Boden fuer die Bewaeltigung neuer Herausforderungen bereitet werden.

Es ist eine historische Tatsache, dass die Rechenzentren, das heisst die "Produktionsstaetten der DV im Unternehmen", in der Geschaeftswelt lange Zeit einen privilegierten Status innehatten. Da die DV-Produktion von Anfang an als operatives Muss betrachtet wurde, galten viele der Zwaenge und Regeln, die fuer alle anderen Abteilungen im Betrieb unabdingbar waren, nicht fuer das Rechenzentrum. Dazu zaehlten etwa die saubere Leistungsverrechnung nach dem Verursacherprinzip, profitorientiertes Arbeiten, die Kosten-Nutzen-Rechnung etc.

Die DV-Abteilung hatte elitaeren Status

Weitere Charakteristika dieser Situation waren, dass sich das Geschaeft in einer relativ statischen Umwelt und strikt Host- orientiert abspielte. Hatte sich ein Anwender erst einmal fuer ein DV-System entschieden, so wechselte er vielleicht noch einmal den Hardwarelieferanten, kaum aber das Systemumfeld. Dieses wiederum war fixiert auf den zentralen Host-Rechner.

Verbunden mit dieser klassischen Rechnerlandschaft war auch die ausgesprochen starke Position des Abteilungsleiters DV. Man kann sagen, dass die DV-Abteilung insgesamt eine elitaere Rolle spielte: Benutzer wurden in diesem Szenario lange Zeit eher als ein zu ertragendes Aergernis denn als Kunden und Auftraggeber angesehen. Dieses von Ausseneinfluessen weitgehend abgeschirmte DV-Paradies ist allerdings durch ein wahres Buendel von Ereignissen in Unordnung geraten.

An vorderster Stelle ist sicherlich der Siegeszug des PCs zu nennen. Die sogenannte "Individual-DV" hat den Anwendern gezeigt, dass die Datenverarbeitung nicht unbedingt die Spielwiese fuer Spezialisten ist, als die sie vorher immer angesehen wurde. Diese Erkenntnis hat die User muendig gemacht - wenngleich man sich im Sinne einer gesicherten und konsistenten Datenhaltung manchmal etwas weniger Muendigkeit wuenschen wuerde.

Zugleich hat der PC mit seinen Moeglichkeiten der grafischen Interaktion mit dem Benutzer neue Massstaebe gesetzt, an denen sich die "Gross-DV" messen lassen muss. Der zunehmende Einsatz von PCs oder Workstations und die Notwendigkeit ihrer Integration in die Gesamt-DV des Unternehmens brachte neue Technologien mit sich. Die Vorgehensweise der Software-Erstellung veraenderte sich ebenso wie die Software-Architektur, die Systemverwaltung, das Hardware- Umfeld sowie die Netzumgebung und -komplexitaet. Die einstmals weitgehend homogene, zentralistische DV-Welt wandelt sich zunehmend zu einem vielschichtigen, der Unternehmensstruktur angepassten Gefuege aus verschiedenen Komponenten unterschiedlicher Architektur. Sie muss trotzdem einer gemeinsamen Administration unterliegen, um dem Zweck der Unterstuetzung strategisch wichtiger Geschaeftsziele zu dienen.

Die wirtschaftliche Entwicklung der letzten Jahre stellt einen weiteren wesentlichen Einflussfaktor in dieser Wandlung dar. Sie war gekennzeichnet durch die weltweite Rezession und den daraus resultierenden verstaerkten Kostendruck. Ausserdem wirkt sich die Internationalisierung der Maerkte und der Unternehmen aus: Der Konkurrenzdruck steigt.

War die Datenverarbeitung bislang nahezu unantastbar, muss sie sich nun wie jede andere Abteilung im Unternehmen einer Kosten-Nutzen- Rechnung unterziehen lassen und profitorientiertes Arbeiten nachweisen. Die Budgetierung der hausinternen DV erfolgt nicht mehr eigendynamisch, sondern nach betriebswirtschaftlichen Gesichtspunkten mit dem Zwang zur kostenguenstigen Loesung.

Gleichzeitig ist dem Management bewusst geworden, welch entscheidende Bedeutung eine flexible DV als Wettbewerbsvorteil haben kann. Mit dieser Erkenntnis wachsen die Ansprueche an die DV, die Komplexitaet der Programme steigt staendig. Reichten noch vor wenigen Jahren selbst in Schluesselanwendungen weniger als zehn Datenbanken aus, so sind heute Applikationen mit einer Vielzahl vernetzter Datenbanken eher die Regel. Ein grosses sueddeutsches Unternehmen der Automobilindustrie nutzt heute sogar mehrere tausend Datenbanken.

Der Uebergang vom funktionsorientierten Denken zur bereichsuebergreifenden Geschaeftsvorfall-Abbildung bringt nicht nur neue organisatorische Moeglichkeiten, er erhoeht auch die Anforderungen an die Abbildung in den DV-Anwendungen. Zusaetzlich waechst die Vernetzung zwischen den Unternehmen, auch und gerade hinsichtlich des Austauschs elektronisch gespeicherter Daten. Als Beispiele hierfuer moegen die Vernetzung der Automobilhersteller und ihrer Zulieferer oder die der Geno-Banken gelten.

Um den neuen Anforderungen gerecht zu werden, bedarf es auch in der DV struktureller Aenderungen. Gefordert sind kooperative Verarbeitung, eine dezentrale Datenhaltung und die erhoehte Verfuegbarkeit des Hosts. Die Online-Zeiten werden stets laenger, die taeglichen Batch-Fenster entsprechend reduziert.

Nur der staendig wachsende Datenverkehr findet noch immer auf einer leitungstechnischen Infrastruktur nach dem Standard von gestern statt, als sich ein Bildschirminhalt mit maximal 4 KB uebertragen liess - heute sind es mehr als 60 KB, die fuer einen Grafik-Screen anfallen. Anstelle von Bill Clintons vielzitiertem "Data Highway" ist bei uns immer noch der "KB-Feldweg" Stand der Technik.

Doch auch hier findet der Umbruch statt, ob wir ihn begruessen oder ablehnen. Die Frage ist nicht mehr, ob wir mitziehen, sondern nur noch, wann und wie wir reagieren. Wie aber kann eine sinnvolle Uebergangsstrategie in einem Bereich aussehen, in dem nichts gewiss ist ausser der Tatsache, dass sich alles wandelt und neue Erkenntnisse, neue Verfahren und neue Technologien immer hektischer aufeinanderfolgen?

Sicherlich gibt es eine ganze Reihe von Ansatzpunkten, die wiederum alle Moeglichkeiten von der schrittweisen Evolution bis hin zur revolutionaeren Umgestaltung eroeffnen. Nicht die schlechteste Strategie ist es dabei, vor dem Eintreten in neue Welten zuerst einmal das bestehende DV-Umfeld zu optimieren, Synergieeffekte zu nutzen und den Boden fuer die Bewaeltigung bestehender und kommender Herausforderungen durch den massvollen Einsatz neuer Werkzeuge und Verfahren zu bereiten.

In diesem Zusammenhang erhalten die folgenden Aspekte einen hohen Stellenwert:

1. die Sicherung wertvollen "Altwissens",

2. die Optimierung interner Schnittstellen in der DV und

3. der Einsatz von DV-Leistung zur Steuerung der Datenverarbeitung.

Wer den Verlockungen der neuen Technologien zu rasch nachgibt und den Sprung in die neue Umwelt allzu rigoros vollzieht, verschenkt einen grossen Wettbewerbsvorteil: Er versaeumt es, das in den Koepfen seiner Mitarbeiter vorhandene wertvolle Wissen um betriebliche Regeln, um bewaehrte Verfahren und Arbeitsweisen mit hinueberzunehmen.

Vorhandenes Wissen ist nutzbar zu machen

Investitionen in die Mitarbeiter, zur Verbreitung des Wissens ebenso wie zur Verbesserung der Motivation und zum Aufbau einer Corporate Identity, sind die notwendige Vorstufe zu Investitionen in neue Technologien. Erstes Ziel neuer Verfahren und Werkzeuge muss es sein, vorhandenes Wissen in DV-technischer Form direkt nutzbar zu machen, etwa durch Ablage in regelbasierten Steuerungswerkzeugen oder durch die Abbildung komplexer Strukturen in Repositories. Voraussetzung fuer diese Abbildung ist der Entwurf einer geeigneten Metastruktur, die Altinformationen aufnehmen kann und gleichzeitig Basis fuer Neuentwicklung sein muss.

Eine der wichtigsten (und empfindlichsten) Schnittstellen innerhalb der Datenverarbeitung ist die zwischen der Anwendungsentwicklung (Programmierung) und der Produktionsplanung und -steuerung (PPS), also zwischen dem "Werkzeugmacher der DV" und seinem Kunden. Hier haben Vorgehensmodelle und Verfahrenstechniken noch nicht in ausreichendem Masse zur Verbesserung der Kommunikation beigetragen, wie das zwischen Fachabteilung und Anwendungsentwicklung schon laenger erfolgreich praktiziert wird.

Waehrend die Disziplinen des Software-Engineering in den letzten Jahren methodisch und werkzeugmaessig enorm verfeinert wurden, erfolgt die Uebergabe der neuen beziehungsweise geaenderten Anwendung an die Produktion haeufig immer noch unvollstaendig, unrationell und fehlerhaft.

Wichtige Teile des Konstrukts werden nicht mituebergeben beziehungsweise mitverwaltet

(zum Beispiel Spezifikationen). Oft werden Informationen, die in der Anwendungsentwicklung in einer bestimmten Form abgelegt sind, in der Produktionsplanung in einer anderen Form gebraucht, doch eine einheitliche Datenbasis steht nicht zur Verfuegung. Zudem treten Fehler auf, weil durch das Fehlen eines durchgaengigen und umfassenden Verfahrens und einer einheitlichen maschinell auswertbaren Datenbasis Missverstaendnisse, Fehlinterpretationen etc. geradezu systemimmanent sind.

Steuerung und Verwaltung werden wichtiger

Die konsequente Optimierung der Schnittstelle zwischen Entwicklung und Produktionsplanung und -steuerung durch die Erweiterung bereits bekannter Verfahren und Werkzeuge garantiert Qualitaet durch Vollstaendigkeit und Eindeutigkeit. Sie bringt mehr Flexibilitaet und schafft bessere Voraussetzungen fuer den Einsatz neuer Technologien.

Mit der gestiegenen Komplexitaet von DV-Anwendungen und -Umwelt wachsen auch die Anforderungen an die Steuerung und Verwaltung. System-Management ist zu einer Disziplin von immenser Bedeutung geworden. Ein zunehmend groesserer Anteil der Rechnerleistung wird zur Steuerung und Verwaltung des Systems selbst eingesetzt.

Der Uebergang von "Arbeitsvorbereitern" ("Job-dispatcher") zu Job- scheduling-Systemen ist bereits weitgehend vollzogen, immer mehr Steuerungs- und Ueberwachungsfunktionen im Netz und in der Systemsteuerung werden durch das System (oder die kooperierenden Systeme) selbst erledigt. Produkte wie "OPC", "Control-M", "Netview", "AOC", "Automate" bestaetigen dies eindrucksvoll.

In diesem Feld sind in naechster Zukunft wohl in drei Richtungen entscheidende Fortschritte zu erwarten:

1. Es wird standardisierte Architekturen und offene Schnittstellen geben. Diese foerdern die Interoperabilitaet der Werkzeuge untereinander und erweitern die Einsatzmoeglichkeiten. Ob Systemview oder Jobview im Bereich Systemsteuerung, ob der SNMP- Ansatz fuer das Management heterogener Netze - die Definition von Standards erlaubt Auswahl und Einsatz massgeschneiderter vernetzbarer Werkzeuge zur Automation der DV-Produktion.

2. Eine uebergreifende gemeinsame Datenbasis zum Beispiel zwischen Anwendungsentwicklung und Produktion erlaubt es, den Wirkungsbereich des maschinellen System-Managements bereits bei der Konzeption einer DV-Anwendung beginnen zu lassen. All die Informationen, die fuer eine weitgehende Automation auch zum Beispiel des Recovery-Falls notwendig sind, koennen dem System von demjenigen zur Verfuegung gestellt werden, der die Anwendung am besten kennt. Letzte Ausbaustufe eines derartigen Konzepts waere eine umfassende "Betriebsdatenbank" im Sinne von AD/Cycle selig oder von RODM im Bereich der Grosssysteme.

3. Der Einsatz von Workstations zur Systemsteuerung und

-kontrolle wird forciert. Piloten moderner Jets kennen den Begriff des "Fly by wire". Computerisierte Servo-Systeme uebernehmen die Richtungsaenderungen, sie arbeiten schneller und praeziser, als es eine traege Handsteuerung koennte.

Durch den forcierten Einsatz leistungsfaehiger, grafikorientierter Workstations als Ueberwachungs- und Steuerungsstationen wird es auch in der DV zu einer Konzentration komplexer Steuerungsfunktionen auf entsprechenden Rechnern kommen. Erste Beispiele hierzu sind unter anderem im neuen OPC/ESA-Release sowie in aehnlichen Produkten zu finden.

Bekannte Technologien lassen sich gerade im Bereich der DV- Produktion wesentlich effizienter einsetzen als bisher, indem man sie behutsam mit neuen Methoden und Werkzeugen kombiniert. So lassen sich auch neue Architekturen in Angriff nehmen und Synergiepotentiale ausschoepfen.

Den Herausforderungen, die ein veraendertes Benutzerverhalten ebenso wie geaenderte wirtschaftliche Rahmenbedingungen und ein rapider technologischer Wandel an uns stellen, kann sehr wohl erfolgreich begegnet werden. Erforderlich dazu sind aber eine konsequente Ueberarbeitung und Optimierung des Bestehenden sowie Augenmass beim Umgang mit neuesten technischen Errungenschaften.