KI, Machine Learning und Data Analytics

Wie Datenanalyse neue Wege geht

03.09.2019 von Tom Becker
Datenanalyse, Künstliche Intelligenz und Machine Learning verändern Unternehmen - wie sie arbeiten, agieren und planen.

Mai 2019: Ein US-amerikanisches Team von Forschern und Abenteurern dringt zum tiefsten Punkt der Erde vor. Mit rund elf Kilometern Tiefe bei mehr als tausend Kilogramm Druck pro Quadratzentimeter ist der Marianengraben ein finsterer, unbekannter Ort. Warum tauchen Menschen in diese lebensfeindlichen Tiefen? Eine Antwort ist definitiv: Um Daten zu sammeln, diese unbekannte Welt zu untersuchen und die Ergebnisse auszuwerten. Denn bei jedem Tauchgang werden neue Arten entdeckt, die uns mehr über dieses isolierte Ökosystem und unseren Planeten verraten.

Sowohl in den schier endlosen Wassertiefen als auch in den Festplatten und Serverfarmen der Firmen schlummern immer noch Unmengen von möglichen Entdeckungen.
Foto: Five Deeps/ReeveJolliffe

Die Suche nach neuen Erkenntnissen und Methoden motiviert aber nicht nur Tiefseeforscher und Abenteurer, sondern auch Data Scientists bei ihrer täglichen Arbeit. Zwei Zukunftstechnologien, die Datenexperten neue Möglichkeiten eröffnen, sind Künstliche Intelligenz (KI) und Machine Learning (ML). Wie greifen sie ineinander und wie könnte eine Zukunft mit KI, ML und Datenanalyse als Dreiergespann aussehen?

Das Dreigespann der Zukunftstechnologien

Seit einigen Jahren wachsen die Datenbanken von Unternehmen kontinuierlich an – und es werden immer mehr. So hat der führende Analysedienstleister IDC in einer Berechnung festgestellt, dass allein 2018 insgesamt 33 Zettabyte (33.000.000.000.000.000.000.000 Bytes!) an digitalen Daten entstanden sind. Für 2025 prognostiziert das Marktforschungsunternehmen sogar eine Gesamtzahl von 175 Zettabyte. So gut wie alles, was eine digitale Spur hinterlässt, lässt sich speichern und es ist wohl bekannt, dass Datenspeicherung und -nutzung ein fester Bestandteil von erfolgreichen Unternehmens geworden sind. Die Nutzung dieser Daten hat vor allem in den letzten Jahren große Sprünge nach vorne gemacht – und das liegt vor allem an zwei Disziplinen: Künstlicher Intelligenz (KI) und Maschinellem Lernen (Machine Learning, ML).

Das Fraunhofer Institut definiert Künstliche Intelligenz als ein "Teilgebiet der Informatik, das sich damit beschäftigt, Maschinen mit Fähigkeiten auszustatten, die intelligentem (menschlichem) Verhalten ähneln. Dies kann mit vorprogrammierten Regeln oder durch maschinelles Lernen erreicht werden."

Als Machinelles Lernen wiederum bezeichnet Fraunhofer Verfahren, "in denen ein Algorithmus / eine Maschine durch Wiederholen einer Aufgabe lernt, diese bezüglich eines Gütekriteriums immer besser auszuführen."

KI und ML sind im Grunde hocheffiziente und technologisierte Mathematik. KI geht dabei über simples „eingeben, verarbeiten, ausgeben“ hinaus und fügt dem Prozess die Komponenten „verstehen“ und „handeln“ hinzu – ein Novum. Das Grundprinzip des maschinellen Lernens (ML) hingegen ist das sogenannte „überwachte Lernen“, wobei ein oder mehrere Datensätze in einen Algorithmus eingespeist werden und dieser quasi davon „lernt“. Dadurch wird es möglich, dass beispielsweise Fehler in Vorhersagen soweit wie möglich reduziert werden, da der Algorithmus Vergleichsfälle und -daten hat.

Künstliche Intelligenz und Machine Learning finden bereits heute in Anwendungen ihre Verwendung. So laufen bereits vielerlei Tests mit selbstfahrenden Autos, die in naher Zukunft alleine auf unseren Straßen manövrieren sollen. Oder aber Sprach- und Texterkennung sowie deren Übersetzung, die heute besser als jemals zuvor sind. Chatbots helfen Unternehmen, ihre Kundenanfragen zu bewältigen und intelligente Wartungssysteme sagen den Zeitpunkt und Aufwand mittels Sensorik für Produktionsstraßen voraus. Die Liste wird in Zukunft nur noch länger werden und umfasst vor allem Routineaufgaben und solche, bei denen das menschliche Zutun leicht durch automatische Abläufe ersetzt werden kann.

Blick in die Glaskugel – dank Daten keine Zukunftsmusik mehr

KI und ML passen in dreierlei Hinsicht in den analytischen Prozess. Erstens, die deskriptive Analytik, die besagt, was passiert ist. Zweitens, prädiktive Analytik, die besagt, was passieren könnte oder warum etwas passiert ist, und schließlich die präskriptive Analytik, die Handlungsempfehlungen gibt.

Das klingt verlockend und fußt aber auf einem ganz entscheidenden Aspekt: der Qualität der Daten. Data Scientists müssen sicherstellen, dass sie über viele qualitativ hochwertige Daten verfügen, die vertrauenswürdig und vor allem systematisch auffindbar sind. Diese werden vorbereitet und verarbeitet, also für die aufgestellten Analysemodelle in das richtige Format gebracht.

Nachdem die Berechnungen, die sogenannten Workflows, abgeschlossen und fehlerfrei, mehrmals getestet und verfeinert wurden und mit KI- und ML-Erweiterungen bzw. Algorithmen versehen sind, kann das Ganze in den Geschäftsprozess implementiert werden. Einer der wichtigsten Aspekte ist dabei natürlich auch die Visualisierung der Ergebnisse. All die Zahlenkolonnen und Matrizen nützen nichts, wenn sie nicht verständlich visualisiert werden und Data Scientists ebenso einleuchten, wie Mitarbeitern ohne tiefer gehendes IT-Fachwissen.

Bei dem Zusammenspiel dieser drei Technologien gibt es einige entscheidende Vorteile. Zuerst einmal wird die Fehleranzahl minimiert, da – wenn einmal korrekt aufgesetzt – der Algorithmus immer das gleiche Muster durchführt. Mitarbeiter, die die gleichen Routineaufgaben durchexerzieren, machen unter Umständen Flüchtigkeitsfehler.

Weiterhin bleiben viele Datenpunkte ungenutzt, wenn nur der Mensch sie bearbeitet. Ein gutes Beispiel sind hier Röntgenbilder. Sie enthalten immer eine ganze Fülle von Informationen zum Zustand des Patienten, wobei der Arzt oder die Ärztin häufig nur punktuell nach dem zu untersuchenden Organ schaut und bestimmte Muster übersieht. Dabei lassen sich leicht auch andere Anomalien entdecken, wenn beispielsweise ein Programm, was vorher mit einer Vielzahl an Bilddaten trainiert wurde, die Bilder analysiert.

Folglich werden wir in Zukunft einen ganz anderen Arbeitsalltag haben, als dass das heute der Fall ist. Viele Aufgaben im Unternehmen sind reaktiv, also eine Antwort auf Anfragen oder Aufträge, die von außen kommen. Durch das Dreiergespann der Zukunftstechnologie verschiebt sich die Reaktion auf Aktion und Strategie, Muster können bereits im Vorfeld erkannt werden und Technologie hilft beim Bewältigen von Krisen oder übernimmt zeitaufwändige Aufgaben, damit Mitarbeiter ihre Ressourcen auf dringendere Lösungen verwenden können.

Digitalisiert sich der Mensch ins Aus?

Die Angst, dass Künstliche Intelligenz, Machine Learning und die Nutzung von Daten den Menschen als solchen überflüssig machen, geht schon seit längerem um. Jeder, der dies befürchtet, kann allerdings aufatmen: Es wird noch viel Zeit vergehen, ehe das Element "Mensch" aus der Gleichung des Arbeitsalltags verschwindet. KI und ML können den Menschen aber bei seiner Arbeit unterstützen und durch die Übernahme spezifischer Aufgaben aktiv entlasten.

Eine KI kann keine sozialverträglichen Entscheidungen fällen oder gar Ethik berücksichtigen. Um noch einmal das Beispiel der autonom fahrenden Autos anzuführen: Derzeit "entscheidet" das hochtechnologisierte Vehikel nach dem "geringsten wirtschaftlichen Schaden". Bedeutet dies in der Praxis, dass das Auto eher in einen Kinderwagen fahren würde als in einen Sportwagen? Genau diese Nuancen verstehen bisher nur Menschen und können entsprechend reagieren.

Gleichzeitig ist Datenanalyse auch eine große Chance zum Überspringen von Sprossen auf der Karriereleiter. Denn wer mit Analyse-Tools umgehen kann, ist auf dem Arbeitsmarkt klar im Vorteil. Der Begriff der „Citizen Data Scientists“ hat sich hierfür etabliert: Er beschreibt Mitarbeiter, die zwar keine profunde Ausbildung in Data Science haben, die aber mit Tools und Programmen Daten analysieren und Ergebnisse richtig interpretieren können. Sie erstellen eigene Workflows für ihre Abteilungen und können die Erkenntnisse gleich angemessen anwenden.

Ein weiterer Pluspunkt für ein breit angelegtes Datenverständnis unter Mitarbeitern ist, dass so Menschen mit den unterschiedlichsten Hintergründen zusammenkommen und eine offen Kultur für Datenarbeit erschaffen. Leider ist es heute häufig noch so, dass es da Berührungsängste gibt und große Fragezeichen im Sinne von „Ich verstehe das nicht“ die Menschen beherrschen. Eine „Datafizierung“ der Unternehmenskultur ist im 21. Jahrhundert unbedingt notwendig.

Eines ist klar: An Datenarbeit und -auswertung kommt keiner mehr vorbei. Sie bildet das technologische Rückgrat von modernen Unternehmen. Dies bestätigt auch der Digitalverband BITKOM in einer Untersuchung zu Technologietrends bei Startups. Diese jungen Unternehmen sehen KI und Datenanalyse als wirtschaftlichen Erfolgsfaktor an; ganze 96 Prozent sagen sogar, dass KI und Datenanalyse große Bedeutung für die Wettbewerbsfähigkeit haben.

Die Tiefsee und Datenanalyse haben im Grunde mehr gemeinsam, als es auf den ersten Blick scheint. Viele Wissenschaftler sind überzeugt, dass wir bisher nur rund fünf Prozent der Ozeane überhaupt erforscht haben – das ist weniger als wir über den Mond wissen. Sowohl in den schier endlosen Wassertiefen als auch in den Festplatten und Serverfarmen der Firmen schlummern immer noch Unmengen von möglichen Entdeckungen.

Was den Meeresbiologen U-Boot, Greifarm und Mikroskope sind, sind für Data Scientists Computerprogramme, Visualisierungstools und Algorithmen, die weitaus einfacher einsetzbar sind. Mit den jeweils richtigen Werkzeugen lassen sich zukunftsweisende Entdeckungen machen und das nicht im U-Boot, sondern vom Computer aus. Analysen sind also ein wenig wie Tiefseeexpeditionen: Man weiß nie genau, was einem auf dem Weg begegnet oder was am Ende herauskommt – sicher ist nur, dass die Ergebnisse neue Möglichkeiten, Antworten und wahrscheinlich sogar Fragen offenlegen werden.