Blick ins Labor der Uni Duisburg-Essen

Zukunftsfähige Software für den Logistik-Leitstand

31.08.2015 von Andreas Metzger
Im Projekt LoFIP (Logistik Future-Internet-Plattform) entwickeln Wissenschaftler von paluno - The Ruhr Institute for Software Technology der Universität Duisburg-Essen eine Softwareplattform für Logistik-Leitstände der Zukunft. Diese Leitstände erlauben es, Transport- und Logistikprozesse robuster und somit ressourcenschonender auszuführen.
  • Logistik-Leitstände verknüpfen Future Internet- und Cloud-Technologien.
  • Im "Living Lab" arbeiten Forscher, Entwickler und andere Domänenxperten zusammen.
  • Predictive Analytics machen künftig noch effizientere Logistikprozesse möglich.

Die Logistikbranche ist Deutschlands drittgrößter Wirtschaftsbereich nach der Automobilbranche und dem Handel. Etwa 60.000 Unternehmen sind in der Logistikbranche tätig und erwirtschafteten 2014 einen Umsatz von rund 235 Milliarden Euro. Nicht zuletzt durch den Internethandel wächst der Logistikbereich der Paketdienstleistungen jedes Jahr stark an. Die Kehrseite dieses Wachstums ist ein Anstieg der CO2-Emissionen und der Kosten. Es braucht moderne IT-Lösungen, die nach Berechnungen der Alliance for European Logistics künftig bis zu 15 Prozent Effizienzgewinn bringen könnten. Dies würde für Deutschland, neben einer hohen CO2-Reduktion, Einsparungen von mindestens 23 Milliarden Euro bedeuten.

LoFIP forscht an effizienterer Logistik

Das Projekt LoFIP forschte drei Jahre erfolgreich an einer konkreten IT-Lösung für die Optimierung von Logistikprozessen. Kern der Lösung sind Logistik-Leitstände, die Future Internet- und Cloud-Technologien verknüpfen. Die Wissenschaftler entwickelten gemeinsam mit namhaften Partnern aus der Softwareindustrie und der Logistikbranche eine Softwareplattform für Logistik-Leitstände. "Diese Leitstände können operative Prozesse in Echtzeit überwachen und steuern", erklärt Professor Dr. Klaus Pohl, paluno-Direktor und Inhaber des Lehrstuhls Software Systems Engineering an der Universität Duisburg-Essen.

Disponenten könnten somit auf Abweichungen in der Transportkette sofort reagieren und steuernd in laufende Prozesse eingreifen. Bei problematischen Situationen bieten die Leitstände direkt Handlungsalternativen an. So ermöglicht ein Leitstand beispielsweise bei einem Ausfall der Kühlung in einem Container den schnellen Einsatz eines Ersatzcontainers. Ein weiteres Beispiel ist die Unterstützung bei einer ungeplant hohen Menge an Paketen durch eine schnelle Anpassung der Transportkapazitäten.

Internet der Dinge und Dienste

Die LoFIP-Leitstände können von existierenden Leitständen hinsichtlich ihrer Software-Architektur und Implementierung abgegrenzt werden. Sie sind durch den Betrieb in der Cloud von überall aus, auch mobil, nutzbar. Einige Funktionen eines Leitstands lassen sich darüber hinaus auf mobile Anwendungen auslagern.

Felix Föcker, Philipp Schmidt und Christian Reinartz (v.l.n.r.), paluno-Mitarbeiter im Projekt LoFIP, treiben den Logistik-Leitstand der Zukunft voran.
Foto: paluno

Darüber hinaus kombinieren die LoFIP-Leitstände Schlüsselbereiche des Future-Internet: das Internet der Dienste (Internet of Services) und das Internet der Dinge (Internet of Things). Das Internet der Dienste umfasst über das Internet bereitgestellte software-basierte Dienste, beispielsweise Cloud-Speicher und Rechenkapazität, sowie Software-Anwendungen (Software-as-a-Service). Die Europäische Technologieplattform NESSI geht davon aus, dass Software- und Cloud-Services einer der wesentlichen Innovationstreiber sind, und deutliche Chancen für viele Anwendungsdomänen bieten.

Zum Internet der Dinge werden unter anderem mobile Geräte, Handhelds oder mit dem Internet verbundene Sensoren gezählt. Diese Geräte sind in der Lage, physikalische Objekte und Prozesse, beispielsweise die Anzahl an Paketen oder Verkehrsdaten, zu messen und zu überwachen. Gartner schätzt für 2020 weltweit 26 Milliarden vernetzte Geräte, die nicht PCs, Tablets oder Smartphones sind.

Zukunftsszenarien als Projekttreiber

LoFIP betrachtete innovative Zukunftsszenarien für zwei industrierelevante Anwendungsfälle. "Diese Zukunftsszenarien skizzieren mögliche Situationen in den nächsten drei bis fünf Jahren. Im Rahmen von gemeinsamen Kreativitätsworkshops haben wir dazu Visionen mit den Forschungs- und Industriepartnern erarbeitet." beschreibt Philipp Schmidt, Lehrstuhlmitarbeiter im LoFIP-Projekt, das Vorgehen.

Das Szenario "Multimodaler Containertransport im Hinterland" betrachtet die Transportkette von der Aufnahme eines leeren Containers über die Beladung, bis hin zur Bereitstellung an einem europäischen Seehafen zum Überseetransport. Bereits geringe Verspätungen haben dabei Auswirkungen auf die gesamte Transportkette und bedeuteten eine große Herausforderung in der Logistik. Im Projekt wurde diese Kette im Leitstand überwacht und gesteuert. So konnte bei Bedarf beispielsweise ein Ersatzcontainer bereitgestellt werden.

Ausschnitt des Anwendungsfalls "Multimodaler Containertransport im Hinterland"
Foto: paluno

Das Szenario "Vorlauf Paketdienste" betrachtet den Prozess der Paketdienstleistung: Die Fahrzeuge des Paketdienstleisters fahren Geschäftskunden an und sammeln Pakete ein. Obwohl bereits berücksichtigt wird, dass die Menge der Pakete täglich wechselt, kann durch die starken dynamischen Schwankungen in der Abholmenge die Kapazität der Fahrzeuge auf den geplanten Routen nicht ausreichen (Überlast) oder nicht ausgelastet werden (Unterkapazität). Im LoFIP-Leitstand wird die Paketmenge automatisch erfasst und dem Disponent gemeldet. Dieser kann dynamisch die eingesetzten Fahrzeuge und Touren anpassen.

Living Lab bindet Domänenexperten ein

Das Living Lab des LoFIP-Projektes ermöglichte die enge Einbindung aller Beteiligten in den Forschungs- und Entwicklungsprozess. Durch seine quasirealistische Umgebung erlaubt ein Living Lab die Erprobung und Evaluierung neuer Ideen und Lösungen. Es ermöglicht kurze Abstimmungszyklen und die frühzeitige Einbindung von Domänenexperten. "Die großen Multitouch-Bildschirme ermöglichen es uns, mehrere Inhalte nebeneinander zu präsentieren, beispielsweise externe Informationsquellen, das aktuelle Szenario und einen Prototyp des Leitstandes", erläutert Christian Reinartz, Projektmitarbeiter am Lehrstuhl.

Der Disponent bei der Arbeit am LoFIP-Leitstand im Living Lab
Foto: paluno

Bei der Gestaltung habe man berücksichtigt, dass der Disponent nicht zu viele Informationen auf einmal erhalte - wichtige Einzelereignisse beispielsweise farblich hervorgehoben wurden, so Reinartz. "Im Living Lab haben wir auch physikalische Gegenstände eingebunden, wie echte Rollcontainer mit Paketen. Die Paketmenge wurde optisch durch eine Tiefenkamera erfasst und in Echtzeit an den Leitstand gemeldet. Der Disponent wird sofort informiert, ob das geplante Fahrzeug ausreicht oder ob eine Umplanung nötig wird", ergänzt Felix Föcker, ebenfalls Projektmitarbeiter des Lehrstuhls.

Ausblick: Big Data

Die Forscher denken zum Ende des Projekts noch einen Schritt weiter. Durch die Verknüpfung der physikalischen Sensordaten und der Internetdienste stehen den Leitständen große und vielfältige Datenmengen zur Verfügung. Diese Daten können unterschiedlich analysiert werden. So lassen sich mögliche Probleme in Logistikprozessen prognostizieren und somit vorausschauend abschwächen. Der Leitstand berechnet hierzu auch die Genauigkeit einer jeden Prognose - vergleichbar zur Angabe "80 Prozent Regenwahrscheinlichkeit" bei der Wettervorhersage -, um das Risiko einer Fehlentscheidung besser einschätzen zu können.

Big-Data-Glossar
Die Begriffe rund um Big Data
Big Data - was ist das eigentlich? Jeder spricht drüber, jeder versteht etwas anderes darunter. Klicken Sie sich durch unser Glossar mit den wichtigsten und meistgenutzten Begriffen (manche sagen auch "Buzzwords") und verstehen Sie, was damit genau gemeint ist. <br /><br /> <em>zusammengestellt von <a href="http://www.kommunikation-in-sendling.com/" target="_blank">Kriemhilde Klippstätter</a>, freie Autorin und Coach (SE) in München</em>
Ad Targeting
Der Versuch, die Aufmerksamkeit des potenziellen Kunden zu gewinnen, meist durch "passgenaue" Werbung.
Algorithmus
Eine in Software gegossene mathematische Formel mit der ein Datensatz analysiert wird.
Analytics
Mit Hilfe von Software-basierenden Algorithmen und statistischen Methoden werden Daten interpretiert. Dazu benötigt man eine analytische Plattform, die aus Software oder Software plus Hardware besteht und die die Werkzeuge und Rechenpower bereitstellt, um unterschiedliche analytische Abfragen durchführen zu können. Es gibt eine Reihe unterschiedlicher Formen und Einsatzzwecke, die in diesem Glossar näher beschrieben sind.
Automatic Identification and Capture (AIDC)
Jede Methode der automatischen Identifizierung und Datensammlung über eine Gegebenheit und die nachfolgende Speicherung in ein Computersystem. Etwa die Informationen aus einem RFID-Chip, die ein Scanner ausliest.
Behavioral Analytics
Behavioral Analytics nutzt Informationen über das menschliche Verhalten, um die Absichten zu verstehen und zukünftiges Verhalten vorhersehen zu können.
Business Intelligence (BI)
Der generelle Ausdruck für die Identifizierung, Herkunft und Analyse der Daten.
Call Detail Record (CDR) Analyse
Diese enthält Daten, die die Telekommunikationsunternehmen über die Nutzung von Mobilfunkgesprächen – etwa Zeitpunkt und Dauer der Gespräche – sammeln.
Cassandra
Ein verteiltes Datenbank-Verwaltungssystem für sehr große strukturierte Datenbanken („NoSQL“-Datenbanksystem) auf Open-Source-Basis (Apache).
Clickstream Analytics
Bezeichnet die Analyse der Web-Aktivitäten eines Benutzers per Auswertung seiner Klicks auf einer Website.
Competitive Monitoring
Tabellen, in denen die Aktivitäten der Konkurrenz im Web automatisch gespeichert werden.
Complex Event Processing (CEP)
Ein Prozess, bei dem alle Aktivitäten in den Systemen einer Organisation überwacht und analysiert werden. Bei Bedarf kann sofort in Echtzeit reagiert werden.
Data Aggregation
Das Sammeln von Daten aus unterschiedlichen Quellen für die Erstellung eines Berichts oder für eine Analyse.
Data Analytics
Ein Stück Software, mit dem Informationen aus einem Datensatz gezogen werden. Das Ergebnis kann ein Report, ein Status oder eine Aktion sein, die automatisch gestartet wird.
Data Architecture and Design
Legt dar, wie Unternehmensdaten strukturiert sind. Meist erfolgt das in drei Prozessschritten: Begriffliche Abbildung der Geschäftseinheiten, logische Abbildung der Beziehungen innerhalb der Geschäftseinheit sowie die physikalische Konstruktion eines Systems, das die Tätigkeiten unterstützt.
Data Exhaust
Die Daten, die eine Person bei ihrer Internet-Aktivität "nebenbei" erzeugt.
Data Virtualization
Der Prozess der Abstraktion verschiedener Datenquellen durch eine einzige Zugriffsschicht auf die Daten.
Distributed Object
Ein Stück Software, das es erlaubt, mit verteilten Objekten auf einem anderen Computer zusammenzuarbeiten.
De-Identification
Das Entfernen aller Daten, die eine Person mit einer bestimmten Information verbindet.
Distributed Processing
Die Ausführung eines Prozesses über verschiedene per Netzwerk verbundene Computer hinweg.
Drill
Apache Drill ist eine Open-Source-SQL-Suchmaschine für Hadoop- und NoSQL-Datenmanagement-Systeme.
Hadoop
Ein freies, in Java geschriebenes Framework der Apache Foundation für skalierbare, verteilt arbeitende Software in einem Cluster. Es basiert auf dem bekannten MapReduce-Algorithmus der Google Inc. sowie auf Vorschlägen des Google-Dateisystems.
HANA
SAPs Software-und Hardware-Plattform mit In-Memory-Computing für Echtzeitanalysen und große Transaktionsvolumen.
In-Database Analytics
In-Database Analytics bezeichnet die Integration der Analysemethoden in die Datenbank. Der Vorteil ist, dass die Daten für die Auswertung nicht bewegt werden müssen.
In-Memory Database
Jedes Datenbanksystem, das den Hauptspeicher für die Datenspeicherung benutzt.
In-Memory Data Grid (IMDG)
Die verteilte Datenspeicherung im Hauptspeicher vieler Server für schnellen Zugriff und bessere Skalierbarkeit.
Machine-generated Data
Alle Daten, die automatisch von einem Rechenprozess, einer Applikation oder einer nicht-menschlichen Quelle erzeugt werden.
Map/reduce
Ein Verfahren, bei dem ein großes Problem in kleinere aufgeteilt und an verschiedene Rechner im Netz oder Cluster oder an ein Grid aus unterschiedlichen Computern an verschiedenen Standorten ("map") zur Bearbeitung verteilt wird. Die Ergebnisse werden dann gesammelt und in einem (reduzierten) Report dargestellt. Google hat sein Verfahren unter der Marke "MapReduce" schützen lassen.
Mashup
Dabei werden unterschiedliche Datensätze innerhalb einer Applikation so kombiniert, dass das Ergebnis verbessert wird.
NoSQL
Datenbanken, die nicht relational aufgebaut sind und mit denen sich große Datenvolumina handhaben lassen. Sie benötigen keine festgelegten Tabellenschemata und skalieren horizontal. Beispielsweise ist Apache Cassandra eine NoSQL.
Operational Data Store (ODS)
Darin werden Daten aus unterschiedlichen Quellen gesammelt damit noch weitere Operationen ausgeführt werden können, bevor die Daten in ein Data Warehouse exportiert werden.
Pattern Recognition
Die Klassifizierung von automatisch erkannten Mustern.
Predictive Analytics
Diese Form der Analytics nutzt statistische Funktionen in einem oder mehreren Datensätzen, um Trends oder zukünftige Ereignisse vorherzusagen.
Recommendation Engine
Per Algorithmus werden die Kundenbestellungen einer Website analysiert und sofort passende Zusatzprodukte ausgesucht und angeboten.
Risk Analysis
Die Anwendung statistischer Methoden auf einen oder mehrere Datensätze, um das Risiko eines Projekts, einer Handlung oder Entscheidung abschätzen zu können.
Sentiment Analysis
Dabei werden Einträge von Leuten in sozialen Netzwerken über ein Produkt oder ein Unternehmen statisch ausgewertet.
Variable Pricing
Dabei folgt der Kaufpreis eines Produkts dem Angebot und der Nachfrage. Das erfordert die Echtzeit-Überwachung von Konsum und Lagerbestand.
Parallel Data Analysis
Ein analytisches Problem wird in Teilaufgaben aufgebrochen und die Algorithmen werden auf jede Problemkomponente zeitgleich und parallel angewendet.
Query Anal
In diesem Prozess wird eine Suchanfrage optimiert, um das bestmögliche Ergebnis zu erhalten.
Reference Data
Daten, die ein physikalisch oder virtuell vorhandenes Objekt und seine Eigenschaften beschreiben.

"Die Prognose antizipiert beispielsweise die Verzögerung von Transportmitteln, späte Stornierungen gebuchter Transportdienstleistungen oder Schwankungen in der Warenmenge", erklärt paluno-Direktor Pohl. Die Prognosen erlaubten somit vorausschauende Maßnahmen: "Schon bei der Prognose einer Zugverspätung kann so frühzeitig ein LKW als alternatives Transportmittel gebucht werden."

Finanzielle Fakten zum LoFIP-Projekt

Fördergeber: Land Nordrhein-Westfalen (im Rahmen des Programms "Hightech.NRW")

Die Forschungsarbeiten werden gefördert im Rahmen des aus dem EFRE co-finanzierten Operationellen Programms für NRW im Ziel 2 "Regionale Wettbewerbsfähigkeit und Beschäftigung" 2007-2013 ausgewählten Projekts "LoFIP". (sh)