Projektmanagement

Big-Data-Projekte in der Praxis

Christoph Höinghaus ist seit 2013 CEO von Trivadis AG. Er verfügt über umfassendes Know-how in den Bereichen Business Development, General Management, Change Management, Management Beratung, Outsourcing, Managed Services, Business Intelligence, Cloud und Big Data.


 
Big Data ist das Schlagwort der Stunde, trotzdem gehen Artikel zum Thema nur selten über theoretische Beschreibungen hinaus. Lesen Sie, wie sich Big-Data-Projekte erfolgreich planen, umsetzen und optimieren lassen.

Daten haben sich längst zum wichtigsten Wirtschaftsfaktor des 21. Jahrhunderts gemausert, das weiß nicht nur die Bundeskanzlerin. Wirtschaftsvertreter und IT-Granden werden nicht müde, diesen Umstand zu betonen - und haben natürlich Recht. "Big Data" verspricht nichts weniger als die Nutzung eines wertvollen neuen Rohstoffs. Doch was genau ist mit Big Data gemeint? Der Ursprung des Begriffes wird in der wunderbaren "Sehr kurzen Geschichte von Big Data" des Journalisten Gil Press einem gewissen John R. Masey, seines Zeichens Forschungsleiter von Silicon Graphics, zugeschrieben. Er soll den Begriff bereits im April 1998 in seinem Vortrag "Big Data … and the next Wave of Infrastress" definiert haben. Den Angaben zufolge soll er darunter vor allem sehr große Datenmengen verstanden und auf die Konsequenzen für die IT hingewiesen haben.

In jüngster Zeit wird Big Data zunehmend auch als "Fast Data" verstanden. Damit sind Daten gemeint, die sehr schnell erzeugt werden - so etwa Informationen aus Sensoren oder Daten aus dem automatisierten Hochfrequenzhandel an der Börse. Die Interpretation dieser Daten muss in bestimmten Fällen sehr schnell erfolgen, nur so kann eine Bank beispielsweise Risikopositionen frühzeitig erkennen und damit die Einlagen ihrer Kunden schützen.

Planung und Umsetzung von Big-Data-Projekten

Zur Planung und Umsetzung von Big-Data-Projekten lohnt es sich, den Leitfaden "Management von Big-Data-Projekten" des deutschen IT-Branchenverbandes BITKOM zu konsultieren. Im entsprechenden Vorgehensmodell sind die folgenden acht Projektphasen vorgesehen: Assessment, Readiness, Implementierung und Integration, Konsolidierung und Migration, Nutzung der neuen Daten, Reporting und Predictive Analytics, End-to-End-Prozesse sowie Optimierung. Diese Phasen sind nicht für alle Big-Data-Projekte zwingend zu durchlaufen; eine Anpassung an konkrete Gegebenheiten ist auf jeden Fall notwendig. Das Phasenmodell zeigt jedoch eine Vielzahl zu beachtender Aspekte auf und ist aus diesem Grund sehr nützlich.

Whitepaper: Der Nutzen des Chief Data Officers

Der Chief Data Officer (CDO) wird immer öfter zu einer zentralen Führungkraft in Unternehmen auf der ganzen Welt. Der Grund ist die zunehmende Relevanz von Daten. Denn Daten sind überall und allgegenwärtig; sie untermauern jede Transaktion, jeden Betrieb und jegliche Interaktion innerhalb und außerhalb von Organisationen. Daten sind aber auf eine Infrastruktur angewiesen, sie müssen gespeichert, archiviert, analysiert und gesichert werden. Dafür braucht es den CDO. In dieser IBM-Studie wird die Rolle des CDO durchleuchtet und gezeigt, welche Vorteile Unternehmen konkret von ihm haben.

In der ersten Phase erfolgt die Planung der Big-Data-Strategie. Hier werden im Rahmen eines "Assessments" die Ziele des Vorhabens mit dem aktuellen Reifegrad des Unternehmens abgeglichen, um eine realistische Umsetzungsplanung zu erarbeiten. In der darauf folgenden "Readiness"-Phase wird die Infrastruktur (Hard- und Software) bereitgestellt sowie das notwendige Know-how aufgebaut. Die Phase "Implementierung und Integration" erfolgt entweder durch die Speicherung und schnelle Verarbeitung großer Datenmengen mittels einer dedizierten Infrastruktur oder aber durch die Erweiterung bestehender Management-Informationssysteme. In der Phase "Konsolidierung und Migration" wird die Big-Data-Lösung durch die Integration neuer und die Harmonisierung bestehender Datenquellen verbessert, wobei Faktoren wie die Messung der Datenqualität, die Definition der Verantwortlichen oder auch die Beschreibung von Stammdaten eine zentrale Rolle spielen. In der Phase "Nutzung der neuen Daten" werden die Daten durch Analyse-Algorithmen so aufbereitet, dass sie dem Unternehmen relevante, qualitativ hochwertige Informationen zur Entscheidungsfindung geben. Diese neuen Daten werden anschließend im Rahmen der Phase "Reporting und Predictive Analysis" für Prognosen und Trends verwendet. Dabei spielen die Validierung und Verifizierung sowie die Überwachung von Datenflüssen eine wichtige Rolle. Die unternehmerische Tätigkeit als Ganzes wird in der Phase "End-to-End-Prozesse" durch den Einbezug neuer Informationen überwacht und verbessert. Die abschließende Phase "Optimierung" hat eine kontinuierliche Verbesserung der Big-Data-Lösung zum Ziel.