Eine transparente Organisation ist wichtiger als Hard- und Software

Integration: Dem Mittelstand mangelt es häufig am Know-how

13.07.1990

*Dipl.-Kaufmann Eberhard Schrade untersteht als geschäftsführendem Gesellschafter der Ratioplan Unternehmensberatung Datenverarbeitung GmbH, Villingen, der kaufmännische Bereich des Softwarehauses.

Die Integration der Informafionsverarbeitung ist zu einem entscheidenden Wettbewerbsfaktor für mittelständische Unternehmen geworden. Die Bereitstellung einer tragfähigen Hard- und Softwarebasis ist die eine, die Schaffung eines organisatorischen Umfeldes die andere Voraussetzung, um die Entscheidungsabläufe im Unternehmen funktionsübergreifend zusammenzuführen und zu harmonisieren.

Der Ruf nach Integration ist so alt wie die computerunterstützte Informationsverarbeitung selbst. Daß er heute noch vielerorts ertönt, zeigt unmißverständlich, daß die Umsetzung nach wie vor Schwierigkeiten bereitet.

Grundsätzlich unterscheiden sich die Probleme mittelständischer Unternehmen bei der Realisierung einer durchgängigen DV-Lösung nicht von denen der Großkonzerne. Diese sind lediglich seit jeher stärker gezwungen, auf organisatorischen Durchgriff zu achten, was ihnen in puncto Integration einen gewissen Vorsprung eingebracht hat.

"MIS-Euphorie" der 70er Jahre"

Die Gründe für die zahlreichen Fehlschläge im Zusammenhang mit der Einführung einer unternehmensweiten Informationsverarbeitung sind vielschichtig. Häufig waren Integrationskonzepte auf vermeintlich vielversprechenden Hardware-Innovationen aufgebaut. Die Realisierung dieser Entwürfe läßt noch immer auf sich warten.

Als Beispiel sei die "MIS-Euphorie" der 70er Jahre genannt. Sie hat mittelständischen Unternehmen bestenfalls eine einigermaßen transparente Sammlung von statistischen Auswertungen beschert. Die damalige Datenverarbeitung auf der Basis von Plattenspeicher und bildschirmunterstützter Datenerfassung war als Fundament für die Integration noch vollkommen unzureichend.

Big Blue verursachte Hardware-Irritationen

Für mittelständische Unternehmen ist die relationale Datenbank aus heutiger Sicht die wesentliche Voraussetzung, um eine funktionale Integration konsequent und damit wirtschaftlich voranzutreiben. Ein entsprechendes, datenbankorientiertes "Easy-to-use-System" stellt IBM dem Mittelstand mit der /38 bereits seit 1979 zur Verfügung. Eine klare Positionierung dieses Rechners im Markt fehlte jedoch.

Die widersprüchliche Produktpolitik der IBM für den Mittelstand in den 80er Jahren stiftete zusätzlich Verwirrung bei Software-Entwicklern wie auch bei Anwendern. Als Nachfolgesystem der /34 wurde die IBM /36 deklariert, die kurz nach der /38 auf den Markt kam. Mit dem zukunftsweisenden Systemdesign der /38 hatte dieser Rechner jedoch nichts zu tun, vielmehr entsprach er in der Architektur der /34.

In der Folge wurde die /38 im "On-dit-Verfahren" zugunsten eines Mittelstands- und Abteilungsrechners der 370-Welt für tot erklärt. Die Ankündigung und die ungemein schnelle Auslieferung der AS/400 belehrten die Marktbeobachter 1988 eines Besseren. Für den 136-Anwender bedeutete die Renaissance der /38-Architektur jedoch, daß er nochmals bei Null beginnen mußte.

Der versierte /38-Anwender fragt sich, was die Hervorhebung von "native mode" soll, denn für ihn stellt sich die Umstellung auf die AS/400 wie ein normaler Release-Wechsel dar. Schließlich besteht der wesentliche Vorteil in der deutlich verbesserten Rechnerleistung.

Die Gründe für die zögerliche Realisierung unternehmensweiter DV-Lösungen im Mittelstand sind jedoch nicht allein auf der Hardwareseite zu suchen. Vielmehr begünstigten selbst gewachsene Organisationsstrukturen in den Unternehmen heterogene EDV-Konzepte.

Die Entscheidung über den Einsatz der Anwendungssoftware lag maßgeblich bei den verschiedenen Fachabteilungen. In der Folge sind heute zumeist Insellösungen mit Softwareprodukten unterschiedlichen Ursprungs anzutreffen. Es handelt sich dabei inzwischen überwiegend um Standardpakete, die sukzessive kostspielige Individualentwicklungen verdrängt haben.

Die nachträgliche Integration dieser Applikationen gestaltet sich schwierig, da auf Schnittstellen zu vor- und nachgelagerten Systemen bei der Auswahl praktisch nicht geachtet wurde. Und selbst wenn es gelingt, individuelle externe Schnittstellen. Programme zu realisieren, bringt jeder Release-Wechsel der jeweiligen Hersteller neue Probleme mit sich. Fehler sind nahezu vorprogrammiert, die Kosten für die Ursachenfindung hoch.

Der vermeintlich bessere Deckungsgrad und die höhere Unabhängigkeit von der Anbieterseite sind noch heute Argumente, den Software-Mix der Komplettlösung aus einer Hand vorzuziehen. Im Hinblick auf die Systemintegration stellt die Summe der besten Einzellösungen von verschiedenen Softwarehäusern jedoch die unwirtschaftlichere Lösungsalternative dar.

Von heute auf morgen lassen sich bereichsübergreifende Informationssysteme nicht realisieren. Schließlich muß der theoretische Anspruch, Entscheidungsprozesse mit Hilfe eines geschlossenen Informationsflusses durchgängig und damit effizienter zu gestalten, in Einklang mit den Organisationsstrukturen gebracht werden. Dazu bedarf es einer Neudefinition der aufbau- und ablauforganisatorischen Vorgänge.

Funktionsketten verändern sich. Beispielsweise erfolgt die Überprüfung der kapazitätsmäßigen Realisierbarkeit eines Auftrags bereits während der Primärbedarfsplanung. In der Konsequenz ändert sich das Aufgabenprofil der Mitarbeiter, eingefahrene Pfade müssen verlassen werden. Schon an diesem Punkt scheiterten viele erfolgversprechende Integrationskonzepte.

Ein Beispiel: Trotz Einführung eines umfassenden PPS-Systems laufen Vor- und Nachkalkulation strikt getrennt ab. Der Grund war, daß man Controlling mit Kontrolle verwechselte, und diese wollte sich der Controller nicht aus den Händen nehmen lassen.

Erfolgreiche Einsätze dialogorientierter DV-Lösungen sind demzufolge häufig auf eine Software zurückzuführen, die den grundsätzlichen Organisationsstrukturen eines Unternehmens erlaubt, den Weg in die Integration Schritt für Schritt einzuschlagen. Eine solche evolutionäre Integrationsstrategie bringt der Unternehmensleitung die wirtschaftlichen Vorteile, den Mitarbeitern die Vorzüge transparenter und leichter zugänglicher Informationen durch praktisches Erleben näher.

Das erste Etappenziel ist die völlige Datenintegration aller administrativen Unternehmensbereiche. Daten, die in einem Sektor anfallen, stehen sofort auch allen anderen Abteilungen zur Verfügung.

Da Mehrfacheingaben entfallen, verbessert sich die Datenkonsistenz erheblich und die betrieblichen Abläufe werden beschleunigt. Zahlreiche Mittelständler haben diese Zielmarke bereits durchlaufen. Softwaretechnisch läßt sich die Datenintegration über die Parametersteuerung lösen.

Mit Hilfe gesetzter Parameter können bereits bei der Eingabe einer Eingangsrechnung die gesamten Existenz- und Plausibilitätsprüfungen für alle betroffenen Nachfolgesysteme vorgenommen werden.

Das setzt jedoch voraus, daß beispielsweise die Verfahren der Kostenrechnung bis ins Detail festgelegt sind, um sie schon beim Einkauf berücksichtigen zu können. Eine Forderung, die mittelständischen Unternehmen zunächst übertrieben erscheint, aber durchaus erfüllbar ist. Das Parameter-Management ist kompliziert und aufwendig. Hier bedarf es der Unterstützung durch den Softwarepartner.

Dem wachsenden betriebswirtschaftlichen Anspruch an die Integration wird die skizzierte rein datenflußorientierte Informationsverarbeitung noch nicht gerecht. Der nächste Schritt ist die Harmonisierung der Entscheidungsabläufe und damit die Verbesserung der Entscheidungsqualität.

Noch heute laufen Absatzplanung und Produktionsergebnisse in der Praxis häufig auseinander, weil die mit großem Aufwand erzeugten Planungsdaten die komplexen Abläufe in der Fertigung nur sehr grob wiedergeben und die Beschaffungszeiten nur unzureichend berücksichtigen. Gefertigt werden folglich die Stückzahlen, die sich aus den Erfahrungswerten der Produktion ergeben.

Die Voraussetzung für eine bessere Übereinstimmung von Plan und Realität bildet eine integrierte Material- und Belastungsplanung. Als Grundlage dafür dient ein über Dialogeingaben sehr flexibles Programm, das das Unternehmen auf operativer Ebene bereits ganzheitlich betrachtet. In diesem Programm müssen zunächst die Rahmenbedingungen, nämlich das Belastungsprofil und die innerbetrieblichen Kapazitäten definiert werden.

In die Belastungsmatrix fließen alle bekannten Kundenaufträge beziehungsweise das vom Absatzplan vorgegebene, Fertigungsvolumen ein, und zwar nach Artikel, Menge und Zeit. Die innerbetrieblichen Kapazitäten, die im Sinne einer Soll. Kapazität bestimmt werden, umfassen die Summe aller Produktionsmittel, über die das Unternehmen verfügt und die es theoretisch auch bereitstellen könnte.

Ein Netz Funktionen, in das unter anderem auch die Vorlaufzeiten einfließen, überlagert das PPS-System und gestattet die Simulation des Durchlaufs von den Rohmaterialen bis hin zu den Endprodukten. Unweigerlich wachsen bei einem solchen Vorgehen die Bereiche Verkauf, Produktion und Einkauf zusammen. Bereits in diesem Integrationsstadium läßt sich die Informationsbereitstellung enorm beschleunigen.

Generelle Entscheidungen werden zur Entlastung der Verantwortlichen zunehmend in die Software verlagert.

Für den Verbund konzipierte, dialogorientierte Komplettpakete leisten die Funktionsintegration heute über interaktive Kommunikationsmodule zwischen den verschiedenen Funktionsbereichen. Über sie läßt sich der Integrationsgrad im Unternehmen individuell steuern. Daten- und Sachlogik werden gemäß den organisatorischen Anforderungen des Unternehmens über austauschbare Funktionsbausteine zusammengeführt.

Zusammenführen von Unternehmensebenen

Eine umfassende Integration bedeutet schließlich die vertikale Verknüpfung der operativen Ebene mit der Controllingebene. Ziel ist es, eine durchgängige Kette der Entscheidungen im operativen System bis hin zur Liquiditäts- und Ertragsdisposition zu schaffen. Die softwaretechnische Verbindung der beiden Ebenen läßt sich aus den angesprochenen Komplettpaketen heraus entwickeln.

Mit der Verbindung von Controlling und operativer Ebene wird die Unternehmenssimulation zu einem zentralen Instrument. Die simultane Planung und Steuerung aller Produktionsfaktoren, abgeleitet aus der momentanen Ist-Situation, dienen als Voraussetzung für ein optimales Controlling. Durch die Simulation können Entscheidungen schnell und flexibel getroffen werden. Sie läßt es zu, aus mehreren Lösungsmöglichkeiten die jeweils beste Alternative auszuwählen.

Heute gibt es nur ein Teiloptimum

Die Entscheidungsmathematik, die zur Lösung der Organisationsproblematik notwendig ist, steckt allerdings noch in den Kinderschuhen. Die Rechner, die für die Bewältigung dieser komplexen Aufgaben erforderlich sind, existieren noch nicht. Heute disponieren wir noch in Teilbereichen und erhalten ein Teiloptimum.

Eine Zusammenführung der Teilbereiche zu einem Gesamtoptimum erfordert den Übergang von arbeitsteilig organisierten hin zu prozeßorientierten Verantwortungsbereichen (process-owner). Spätestens jetzt wird die Abkehr von den nach wie vor befolgten Taylorschen Prinzipien unabdingbar. Die Informationen müssen verdichtet an wenigen Schaltstellen im Unternehmen verfügbar sein, wodurch sich die Organisationspyramide zwangsläufig abflacht.

Der Anspruch an die Entscheidungsträger wird sich enorm steigern. Stehen die Entscheidungsparameter allerdings fest, reduzieren sich isolierte administrative Tätigkeiten auf der operativen Ebene ganz erheblich. Um dieses Ziel zu erreichen, sind Software- wie Management-Strategen in Zukunft gleichermaßen gefordert.