Ein Weg zum dynamischen Produktions-Management

Komplexe Fertigungsdaten mit Standardsoftware verknüpfen

14.03.1997

Das Ziel, die gesamte Produktion mit ihren Ressourcen optimal auf wechselnde Kundenbedürfnisse auszurichten, wurde bisher nur in Teilsystemen zufriedenstellend erreicht. Das Problem für unternehmensweite Standardpakete liegt in dem riesigen Datenaufkommen, in der Vielzahl der Systemkomponenten und in den Vernetzungsstrukturen, die aufgrund von verschiedenen Arbeitsabläufen dynamisch ausgelegt sein müssen. Traditionelle DV-Werkzeuge mit ihren sequentiellen Verarbeitungsmethoden versagen bei derart komplexen Aufgaben und führen zu nicht mehr akzeptablen Laufzeiten beziehungsweise mangelhaften Ergebnissen. Für die Unternehmenssteuerung sind sie damit nur bedingt geeignet.

Ansätze wie Lean Management mit dem Abbau von Hierarchien und Outsourcing, die gerne propagierte Bildung von Unternehmens-Fraktalen oder der Einsatz von Leitständen beheben die Schwierigkeiten nur teilweise beziehungsweise verlagern sie in andere Verantwortungsbereiche. Mit Workflow-Konzepten und objektorientierter Entwicklung lassen sich komplexe Konstellationen zwar besser beschreiben und entsprechende Lösungen programmieren, aber die Verarbeitungsproblematik bleibt bestehen.

Bisherige Standardsysteme für das Produktions-Management bieten durchaus befriedigende Ergebnisse im Bereich der Datenverwaltung. Auch für die Aufbereitung und Darstellung der Daten in Leitständen und Berichtssystemen gibt es akzeptable Anwendungen. Akuter Handlungsbedarf besteht jedoch bei der Aktualisierung und der Qualität der Plan- und Steuerdaten.

Da sich Fertigungsprioritäten und Ressourcen in einem Betrieb ständig verändern, lassen sich Daten zwischen Vertrieb, Produktion und Beschaffung nicht aktuell und umfassend abgleichen. Somit können die bereitgestellten Informationen nur bedingt zur kundenorientierten Steuerung komplexer Produktionsprozesse genutzt werden.

Die technische Entwicklung mit immer günstigeren Preis-Leistungs-Verhältnissen bei der Verarbeitungsgeschwindigkeit eröffnet gleichzeitig Möglichkeiten für ganzheitliche Lösungsansätze. Mehrere Forderungen müssen dabei erfüllt sein:

- Lösungen komplexer Probleme erfordern kooperative Systemkonzepte mit entsprechender Aufgabenteilung.

- Teilsysteme sollten mit flexiblen DV-Werkzeugen ausgestattet sein.

- Eine automatisierte, zyklische Synchronisierung der Teilsysteme muß die Konsistenz des Gesamtsystems sicherstellen.

- Als stabile Schnittstelle zwischen den Standardanwendungen und flexiblen Teilsystemen muß ein Data-Warehouse eingerichtet werden.

- Die Optimierung des Gesamtsystems erfordert ein dynamisches Ressourcen-Management.

Erste Erfahrungen mit Prototypen für derartige Architekturen, bei denen die Standardanwendungen durch spezielle prozeßoptimierte "Engines" (Teilsysteme) ergänzt werden, sind bereits vorhanden. Dabei kam die Programmiersprache "APL" zum Einsatz. Versuche, die gleichen Abläufe in C zu schreiben, führten zu unüberschaubaren Programmen und zu erheblichen Leistungseinbußen. APL bietet dagegen mehrere Vorteile: Komplexe Probleme lassen sich kompakt beschreiben, ferner unterstützt die Sprache objektorientierte und parallele Verarbeitung sowie wissensbasierte Systeme und Fuzzy-Logik. Die Vernetzungsstrukturen des Testprojekts konnten auf diese Weise in einem realen, 64 MB großen Hauptspeicher abgebildet werden. Über binärcodierte Steuerdaten ließ sich ein zeit- und mengengerechter Workflow mit Verfügbarkeitskontrolle und Ressourcen-Zuordnung einführen.

Eine besondere Rolle bezüglich der Systemlaufzeiten kommt dabei der optimalen Nutzung des Hauptspeichers und der ganzheitlichen Bearbeitung von Objekten zu. Durch entsprechende Strukturierung und Programmierung konnte gegenüber den herkömmlichen Techniken eine Laufzeitreduzierung von über 90 Prozent erreicht werden. Um dennoch das Gesamtsystem konsistent zu halten, wurden die Verantwortlichkeiten zwischen den Standardapplikationen und den prozeßoptimierten Teilsystemen sorgfältig abgestimmt.

Bei den bisherigen Forschungsprojekten in mittelständischen Unternehmen (zum Beispiel Gebr. Berker in Schalksmühle) wurden mit leistungsstarken PCs, die als Engines an vorhandene PPS-Systeme angehängt wurden, hervorragende Ergebnisse bei der Dynamisierung des Produktions-Managements erzielt.

Der tägliche unternehmensweite Abgleich von priorisierten Aufträgen samt der jeweils relevanten Ressourcen wie Maschinen, Material, Werkzeuge und Personal wird zeit- und kapazitätsgerecht auf der Basis der Fertigungsminuten vorgenommen. Überlappungen und Alternativen in der Produktion, im Personal- und Werkzeugeinsatz sowie der Bestandsdatenabgleich werden bis auf die Arbeitsgangebene optimiert. Das System ermittelt die entsprechenden Termine, Auslastungs- und Bestands- beziehungsweise Bedarfsdaten.

In einer regelbasierten Lösung wird der gesamte Kundenauftragsbestand nach unternehmensspezifischen Kriterien (Termine, Auftragsarten, Artikelarten, Deckungsbeiträge, Kunden etc.) bewertet. Daraus legt das System die entsprechenden Prioritäten für die Nutzung von Ressourcen fest. Der Vorrang eines Auftrags wird über die Arbeitspläne auf die einzelnen Fertigungsstufen und die daran gekoppelten Stücklisten, alternativen Produktionsmethoden, Werkzeuge und Personalpools auf alle relevanten Ressourcen vererbt.

Für das dynamische Ressourcen-Management werden ganzheitliche Vernetzungsstrukturen aufgebaut, über die sich der Workflow steuern und optimieren läßt. Kriterien für spezielle Vernetzungsstrukturen sind die Verwandtschaft von Teilen in bezug auf ihre Fertigungsmethoden und die Anforderungen an das Personal.

Im Gegensatz zu Leitständen arbeiten die Engines praktisch bedienerlos. Auslöser für neue Synchronisationsläufe sind feste Unternehmenszyklen (Eingang von Feinabrufen, Schichtwechsel, Tageszyklus) oder bestimmte Ereignisse in den kooperierenden Systemen. Die relevanten Daten (im genannten Projekt insgesamt rund 60 MB), die aus den unterschiedlichen Standardanwendungen kommen, werden über das Data- Warehouse den Engines zur Verfügung gestellt. In automatisierten Prozessen werden diese möglichst realitätsnah miteinander abgeglichen, die Ergebnisse stehen wiederum allen kooperierenden Systemen über das Data-Warehouse zur Verfügung.

*Diplomingenieur Martin Schrade leitet die Lisa EDV-Systeme GmbH in Weil der Stadt.