Ratgeber: So gelingt Ihr IoT-Projekt

Sechs Showstopper für IoT

10.02.2017 von Christian  Dornacher
IoT, Industrie 4.0, Predictive Maintenance und die Nutzung von Daten für verschiedene Bereiche in der Industrie ist in aller Munde. Viele Projekte und Ideen scheitern jedoch oder bleiben "Work in Progress". Wir zeigen die sechs größten Show-Stopper für IoT.
Showstopper: So gelingt Ihr IoT-Projekt.
Foto: BeeBright - shutterstock.com

Laut einer aktuellen Studie der Marktforscher von PAC ("IoT & the Data Analytics Challenge") analysiert überhaupt nur jedes dritte Unternehmen seine IoT-Daten. Lediglich 28 Prozent haben eine zentrale Analytics-Plattform zur Verarbeitung der Daten implementiert. Warum ist das so? Welche Big-Data-, Analytics- oder IoT-Lösungen ergeben für das Unternehmen überhaupt Sinn und welche Faktoren entscheiden über den Erfolg?

Fehlende Voraussetzungen im Unternehmen

Bevor Unternehmen IoT-Projekte starten, sollten sie sich Gedanken darüber machen, welche Daten sie bereits "besitzen". Hierbei ist zum einen die oft zitierte Datenflut ein Problem, aber auch die Herausforderung, sich auf eine neue Nutzung der Informationen einzulassen. Dazu sind einige Dinge nötig, die auch unter dem Begriff der "Digitalen Transformation" zusammengefasst werden. Am wichtigsten ist ein Umdenken innerhalb der Organisation, um Entscheidungen stärker auf Basis von Datenmodellen und Analysen als aufgrund von Erfahrungswerten zu treffen und die Prozesse entsprechend anzupassen. Wenn dieses Umdenken noch nicht erfolgt ist, sind die Erfolgsaussichten für Analytics- oder Big-Data-Projekte eher gering.

Unrealistische Ziele

Zentrale Analytics-Plattformen zur Verarbeitung von IoT-Daten fehlen in vielen Unternehmen noch.
Foto: Wutlufaipy - shutterstock.com

Unternehmen starten zu oft mit Projekten, die sehr komplex oder sehr schwierig in der Umsetzung sind. Übertriebener Ehrgeiz lässt viele Projekte scheitern, weil sich in absehbarer Zeit kein Erfolg einstellt und das Management die Geduld mit dem Projekt verliert. Besser ist es, mit überschaubaren Projekten zu beginnen, bei denen sich ein ROI innerhalb von einigen Wochen bis Monaten erreichen lässt. Zum einen lassen sich dabei sehr gut Erfahrungen sammeln, zum anderen führt diese Vorgehensweise schneller zu Ergebnissen und messbaren Erfolgen.

Testballon versus Produktionsbetrieb

Viele IoT- und Big-Data-Projekte scheitern an mangelnder Stabilität und Zuverlässigkeit. Es ist eine Sache, auf einer "Spielwiese im Lab" eine Lösung zu bauen, aber eine andere, diese hinterher für einen 24x7-Produktionsbetrieb mit deutlich größeren Datenbeständen zu realisieren. Open Source hört sich einfach und flexibel an, aber der Teufel steckt hier im Detail. Plattformen wie Hadoop und die entsprechenden Tools unterschiedlicher Anbieter lassen sich kostenlos downloaden und, zumindest in der Theorie, selbst konfigurieren. Auf diese Weise wird ein versierter Admin vermutlich auch einen Prototypen zum Laufen bekommen.

Sobald solche Umgebungen jedoch in größerem Maßstab und mit den entsprechenden Anforderungen des Unternehmens an Datensicherheit, Stabilität und Skalierbarkeit in einen stabilen Betrieb übernommen werden sollen, ist ein Scheitern vorprogrammiert. Eine Alternative bieten hier professionelle Hadoop-Distributionen für den Enterprise-Einsatz. Es ist auch möglich, auf entsprechende Big-Data-Appliances zurückzugreifen oder die Lösung hosten zu lassen. Die Vorteile sind der Support vom Hersteller der Distribution - ähnlich wie in der Linux Welt - und ein realisierbares Konzept, das den reibungslosen Hardware- und Software-Betrieb gewährleistet.

Identifikation relevanter Daten

Maschinen, LKWs, etc. erzeugen eine wahre Datenflut.
Foto: Prasit Rodphan/Shutterstock.com

Angesichts der Datenflut, die von Maschinen, Sensoren und sonstigem Equipment generiert wird, ist es schwierig herauszufinden, welche Daten für die Analyse und die darauf basierenden Entscheidungen relevant sind. Wichtig ist auch, ob die Daten in Echtzeit analysiert werden müssen, oder ob Zeit vorhanden ist, dies in einem nachgelagerten Prozess zu tun. Ein Beispiel hierzu aus dem Telco-Bereich ist die Überwachung des Netzwerkes und des genutzten Netzwerkequipments. Die Überwachung des Netzes und dessen Funktionalität muss in Echtzeit erfolgen - wir wollen ja alle unsere Telefonate führen und die Datendienste nutzen. Hier muss eine Lösung geschaffen werden, die Millionen von Paketen von unterschiedlichen Geräten und Systemen in Echtzeit zusammenführt, auf Verletzungen von SLAs (Service Level Agreements) überprüft und entsprechende Warnungen, Alarme und Aktionen triggert.

Auf der anderen Seite ist es Ziel des Unternehmens, Mehrwert-Dienste zu entwickeln und zu verkaufen. Hierzu ist aber eine längerfristige Analyse der Daten nötig. Die Lösung hierzu muss also sowohl Echtzeit- als auch Batch-Verarbeitung zulassen. Der Echtzeit-Part der Lösung muss die wichtigsten SLAs überwachen (etwa die Response-Zeit und Anzahl der Pakete pro Sekunde), um bei Verletzung der Anforderungen sofort Aktionen zu veranlassen. Dies kann nicht durch zentrale Verarbeitung erreicht werden, sondern muss vor Ort - am Sendemast, der Antenne etc. - erfolgen. Streaming-Plattformen mit minimalen Hardwareanforderungen können diese Echtzeit-Analyse realisieren. Der Langzeitanalyse-Part kann dann durch eine Übertragung der Daten in ein Rechenzentrum und entsprechenden Analytics-Clustern realisiert werden.

Integration von Systemen und Datenquellen

Eine große Herausforderung stellt die Anbindung von Geräten an die geplante Lösung dar. Erschwerend kommen heterogene, proprietäre Datenformate hinzu. Ein Beispiel hierzu: Ein Kunde wollte Log-Daten von Wireless Access Points in Echtzeit analysieren. Während des Testaufbaus stellte er fest, dass die Access-Points ihre Log-Daten in einem verschlüsselten Format senden. Dies verursachte eine mehrwöchige Verzögerung im Projekt, da zunächst mit dem Hersteller der Access-Points eine Entschlüsselung der Daten realisiert werden musste, bevor die Daten analysiert werden konnten.

Eine andere Herausforderung können die Stellen sein, an denen die Daten anfallen. Ein konkretes Projekt analysiert die IoT-Daten von Zügen, hier werden Sensordaten von Motoren, Bremsen, Türen und anderen Komponenten überwacht. Da die Züge mit teilweise hoher Geschwindigkeit unterwegs sind, muss das verwendete 3G/4G-Netz eine entsprechend gute Abdeckung auch im ländlichen Bereich bereitstellen, und es muss eine entsprechende Priorisierung für sicherheitsrelevante Daten realisiert werden. Für den Betrieb der Züge wird hier auf IoT-Daten vom Zug selbst zugegriffen, zusätzlich werden Wetterdaten oder Daten der Bahnhofsinfrastruktur mit genutzt, da hierdurch auch der Betrieb der Züge und die Kundenzufriedenheit beeinflusst werden.

Die dritte große Herausforderung ist die Zusammenführung von Daten unterschiedlicher Quellen und Typen. Sollen beispielsweise Sensor- oder Lokationsdaten mit Kundendatenbanken im Analyseprozess zusammengeführt werden, ist eine entsprechende Integration nötig. Dies kann mittels eines flexiblen Data Lakes und der entsprechenden Datenintegrationssoftware erfolgen. Sind alle Quellen angebunden und die Daten verfügbar, kann der Analyseprozess die entsprechenden Informationen zusammenführen. Die Analysetools sollten hierbei so einfach zu bedienen und nutzen sein, dass ein normaler Anwender ohne besondere Programmierkenntnisse in der Lage ist, den Prozess anzupassen, weitere Datenquellen aufzunehmen oder Parameter zu ändern, um etwa die Analyse zu verbessern. Viele Projekte scheitern heute am Nichtvorhandensein von Datenanalysten.

Rechtliche Herausforderungen

Der Umgang mit sensiblen Daten ist eine weitere Herausforderung. Jeder von uns legt Wert auf seine Privatsphäre und darauf, dass Unternehmen und Institutionen sorgfältig damit umgehen. Das betrifft Banken und Versicherungen und Online-Händler, aber besonders kritisch wird es im Gesundheitswesen. Gerade dort kann allerdings ein Nutzen aus der Analyse großer Datenbestände gezogen werden. Feldstudien, die in der Lage sind IoT-Daten medizinischer Geräte zum Beispiel mit statistischen und demographischen Daten zu verbinden, können helfen, Krankheiten besser zu verstehen und bessere Behandlungsmöglichkeiten zu entwickeln. Das Problem: Die Daten müssen so anonymisiert werden, dass keinerlei Rückschlüsse auf einzelne Personen möglich sind. Die Anonymisierung darf dabei aber nicht so weit gehen, dass die Daten ihren Informationsgehalt verlieren. Dies schränkt die Möglichkeiten einer Zusammenarbeit und der Integration unterschiedlicher Datenquellen massiv ein und behindert dadurch die Forschung.

Die aufgezählten Show-Stopper sollten aber kein Unternehmen davon abhalten, IoT-Projekte einfach anzugehen - im Gegenteil! Wer sich der auf dem Weg liegenden Stolpersteine bewusst ist und sich realistische Ziele setzt, kann vom ersten Pilotprojekt an wichtige Erfahrungen sammeln, um seiner Organisation das volle Potential von IoT und Big-Data-Analytics zu erschließen. Oder um es mit Erich Kästner zu sagen: "Es gibt nichts Gutes, außer man tut es."