Guide für Manager

6 Antworten von McKinsey zu Machine Learning

26.12.2015 von Christoph Lixenfeld
Computer sind bald (fast) so schlau wie Menschen. Wie Unternehmen optimal davon profitieren können, hat McKinsey in einem Report analysiert.
  • Wie sich Unternehmen am besten vorbereiten, hat McKinsey in einem "Führungskräfte-Guide zum Maschinenlernen" zusammengefasst
  • McKinsey gibt Antworten auf sechs praktische Fragen
  • Die gute Nachricht: Egal, wie schlau Computer werden, es werden immer Manager gebraucht, um die wichtigen Entscheidungen zu treffen

Die Überschrift verhieß nichts Gutes: "Computer werden dir den Job wegnehmen", titelte unsere US-Schwesterpublikation PC World vor einigen Monaten. In dem Artikel ging es um die Zukunft der künstlichen Intelligenz, um die Frage, wann Maschinen in der Lage sein werden, den Menschen das strukturierte Denken abzunehmen.

Die Frage, ob menschliche Gehirne in manchen Bereichen auf Dauer Computern überlegen bleiben, ist noch nicht geklärt.
Foto: ktsdesign - Fotolia.com

Anlass der Geschichte war eine Podiumsdiskussion in Washington D. C. Peter Bock, emeritierter Prozessor der George Washington-Universität, äußerte die Ansicht, in längstens 12 Jahren seien Computer so schlau wie Menschen.

Paul Cohen, Programm-Manager für künstliche Intelligenz bei der DARPA, der Forschungsagentur der US-Verteidigungsministeriums, äußerte sich weniger optimistisch (bzw. pessimistisch, je nach Standpunkt). "Bisher sind die Experten auf diesem Gebiet noch nicht in der Lage, Maschinen so etwas wie gesunden Menschenverstand einzuimpfen, jene Art von Vernunft, die jeder Fünfjährige besitzt."

Die beiden Zitate markieren sozusagen die Sollbruchstelle der Diskussion um Künstliche Intelligenz, um das Maschinenlernen. Unstrittig ist, das Computer schon heute schneller als Menschen strukturierte, das heißt standardisierte, vergleichbare Daten zu was auch immer verdichten können.

Schwieriger wird es beim gesunden Menschenverstand

Der gesamte Google-Konzern lebt im Wesentlichen von dieser Fähigkeit, Banken entscheiden anhand solcher Analysen über Kreditvergaben und über die Konditionen.

Schwieriger wird es beim erwähnten gesunden Menschenverstand. Wenn es nicht darum geht, Antworten zu geben, sondern die richtigen Fragen zu stellen. Genau das aber, also das Lösen komplexer Business-Aufgaben durch lernfähige Computer, ist Ziel aller aktuellen Business Intelligence-Konzepte.

Ohne strategischen Plan ist Business Intelligence bestenfalls ein Werkzeug wie andere.
Foto: Sergey Nivens - shutterstock.com

Wie sich Unternehmen am effizientesten diesem Ziel nähern, das hat McKinsey jetzt in einem "Führungskräfte-Guide zum Maschinenlernen" zusammengefasst.

Um das Ob geht es dabei übrigens nicht. Schon zu Beginn des Papers zitiert McKinsey den Management-Autor Ram Charan mit dem Satz: "Jedes Unternehmen, das nicht schon heute eine Art mathematischer Think-Tank ist oder plant, in Kürze ein solcher zu werden, hat im Grunde schon den Anschluss verpasst."

Wie also am Ball bleiben? McKinsey stellt dazu 6 praktische Fragen; und gibt natürlich auch gleich die Antworten.

1. Wie nutzen traditionelle Branchen Maschinenlernen, um frischen Input für ihr Business zu erhalten?

McKinsey bringt an dieser Stelle ein Beispiel aus dem Basketball - einer in den USA durchaus traditionellen Branche. Deren Mitglieder - als die Mannschaften - bedienen sich des Know-hows von Second Spectrum, einem Start-up aus Kalifornien. Das Analysiert die Spielverläufe mehrerer Saisons bis ins kleinste Detail. Mit den Ergebnissen ist es dann zum Beispiel möglich, so Second Spectrum-CEO Rajiv Maheswaran, "einen schlechten Werfer, der zufällig gerade mal trifft, von einem guten Werfer, der gerade mal nicht trifft, zu unterscheiden."

2. Was passiert außerhalb von Nordamerika?

In Europa, das jedenfalls ist die Kernbeobachtung von McKinsey, haben mehr als ein Dutzend Banken ihre alten, statischen Statistik-Modelle durch selbstlernende Systeme ersetzt. Das Ergebnis seien durchschnittlich zehn Prozent mehr verkaufte Finanzprodukte bei um 20 Prozent geringeren Kosten.

Konkret geschah das durch besseres Empfehlungsmanagement und bessere Prognosemethoden. Die erlauben es den Banken, zum Beispiel früher als bisher festzustellen, welcher Bankkunde unzufrieden ist und entsprechend gegenzusteuern.

3. Wie ist "Machine Learning" entstanden?

Die Idee von den lernfähigen Maschinen ist schon ca. 80 Jahre alt, blieb aber vor der Erfindung leistungsfähiger Computer Theorie.
Foto: Liveshot - Fotolia.com

Die zentralen Ideen für das, was wir heute als künstliche Intelligenz bezeichnen, stammen aus den 1930er und 1940er Jahren, allerdings blieben sie so lange Theorie, bis um 1980 die ersten leistungsfähigen Computer zur Verfügung standen. Ihre Möglichkeiten voll ausspielen können die Ideen seit etwa fünf Jahren, weil sich seitdem auch mit vergleichsweise preiswerten Rechnern in überschaubarer Zeit komplexe Rechenoperationen ausführen lassen.

4. Wie steige ich am besten in das Thema ein?

Nach Ansicht von McKinsey sollten C-Level-Chefs künstliche Intelligenz vor allem als Werkzeug begreifen, um ihre strategische Vision umzusetzen. Ohne den Nutzen genau zu definieren, bliebe jeder entsprechende Ansatz (nur) ein Tool unter vielen.

Data Scientists, also die Entwickler vonMachine-Learning-Systemen, bräuchten dabei Führung durch CxOs. Konkret spricht McKinsey von zwei Machertypen, die vonnöten seien: "Quants", also die Entwickler, und "Translators", die die Brücken bauen zwischen Lösungen und ihrer Nutzbarmachung.

Und noch einen wichtigen Rat hat McKinsey parat: "Fang klein an, konzentriere dich auf die niedrig hängenden Früchte und posaune jeden kleinen Anfangserfolg laut heraus. Das hilft, schon frühzeitig ein Unterstützernetzwerk aufzubauen."

5. Welche Rolle spielt das Top-Management?

Echte Verhaltensänderungen sind schwierig und dauern lange. Sie zu begleiten und anzuregen, ist die Kernaufgabe des Top-Managements im Zusammenhang mit künstlicher Intelligenz.

Gleichzeitig müssen die Chefs loslassen und sich damit abfinden, dass durch die breite Verfügbarkeit leistungsfähiger Systeme viele datenbasierten Entscheidungen sozusagen eine Etage unter ihnen, will sagen im Mittelmanagement, getroffen werden. McKinsey nennt das die "Demokratisierung von Analytics".

6. Werden in Zukunft Maschinen wirklich auch Manager ersetzen?

Natürlich interessiert sich in diesem Zusammenhang absolut jeder für die Frage: Werde ich irgendwann überflüssig? An dieser Stelle hat McKinsey eher tröstende Worte parat. Sinngemäß in etwa: Egal, wie schlau Computer werden, es werden immer Manager gebraucht, um die wichtigen Entscheidungen zu treffen.

Noch bis vor wenigen Jahrzehnten wäre niemand auf die Idee gekommen, Maschinen können irgendwann den Menschen den Job wegnehmen.
Foto: BrAt82 / shutterstock.com

Resümee: In ein paar Jahren, sagt McKinsey, wird es keine Diskussionen mehr darüber geben ob Menschen dauerhaft schlauer sind als Maschinen oder umgekehrt.

Künstliche Intelligenz wird in der Praxis aus bereitgestellten Prozessen und Services bestehen, die wir nutzen wie andere auch. Bis es so weit ist, müssen sich Manager überlegen, welche Funktionen sie an solche Systeme übertragen wollen und wie ihr Unternehmen mit ihnen zusammenarbeiten will.

Glossar zu Big Data und Data Analytics
Predictive Analytics
das Treffen von Prognosen durch die Analyse von Daten. Im Gegensatz zur Analyse historischer Zusammenhängen und Erkenntnissen; auch durch die Analyse von Daten, die möglicherweise urächlich nicht miteinander in Zusammenhang stehen (Quelle: Bitkom)
Open Source
quelloffene Werke, zum Beispiel Software bei der man den Quellcode erhält (Quelle: Bitkom)
Open Data
Konzept zum Zugang zu hoheitlichen Daten zu jedermann, beispielsweise Auskunft über die bei einer Meldestelle gespeicherten Daten über einen Bürger und die Einrichtungen, an die die Daten übermittelt worden sind. (Quelle: Bitkom)
Metadaten
Daten zur Beschreibung von Daten, unter anderem, um Datenmodelle zu entwickeln. (Quelle: Bitkom)
Mahout
wörtlich: Elefantentreiber; hier: eine Apache-Komponente zum Aufbau von Bibliotheken für das Machine Learning MapReduce Verfahren zur Datenverwaltung und Indizierung (Quelle: Bitkom)
Machine Learning
Oberbegriff für die künstliche Generierung von Wissen aus Erfahrung: Ein künstliches System lernt aus Beispielen und kann nach Beendigung der Lernphase verallgemeinern. Das System „erkennt“ Gesetzmäßigkeiten und kann somit auch unbekannte Daten beurteilen. (siehe Wikipedia). (Quelle: Bitkom)
Lustre
Linux-basierendes Betriebssystem für den Betrieb von Cluster-Architekturen (Quelle: Bitkom)
Lambda-Architektur
Eine konstruktiv nutzbare Vorlage für den Entwurf einer Big-Data-Anwendung. Die in der Architektur vorgesehene Modularisierung spiegelt typische Anforderungen an Big-Data-Anwendungen wider und systematisiert sie. (Quelle: Bitkom)
In-Memory
Bei In-Memory werden die Daten nicht physisch auf Datenträger gespeichert und wieder ausgelesen, sondern im Arbeitsspeicher gehalten und dadurch mit sehr hoher Geschwindigkeit verarbeitet. (Quelle: Bitkom)
HANA
Ursprünglich: High-Performance Analytical Appliance; ein von SAP entwickeltes Produkt zum Betrieb von Datenbanken im (sehr großen) Hauptspeicher eines Computersystems (Quelle: Bitkom)
Hadoop
Open-Source-Version des MapReduce-Verfahrens, in verschiedenen Distributionen erhältlich. (Quelle: Bitkom)
Fraud Detection
Erkennung von Betrugsversuchen durch die Analyse von Transaktionen und Verhaltensmustern (Quelle: Bitkom)
Eventual Consistency
Eine Schnittmenge des CAP-Modells hinsichtlich der ereignisbezogenen Konsistenz von Modellen. (Quelle: Bitkom)
Data Science
Datenkunde: die Kenntnis bzw. Anwendung neuer Verfahren zur Arbeit mit Daten und Informationen, z.B. Verwendung semantischer Verfahren oder die Erschließung neuer Datenquellen (Sensordaten) und die Erarbeitung von Mustern oder statistischen Verfahren zur Auswertung solcher Daten. (Quelle: Bitkom)
Data Mining
Anwendung statistischer Methoden auf sehr große Datenmengen, bspw. Im Gegensatz zur manuellen Auswertung über Funktionen eines Tabellenkalkulationsprogrammes (Quelle: Bitkom)
Data Management
Methoden und Verfahren zur Verwaltung von Daten, oft über Metadaten (Daten, die Daten beschreiben) (Quelle: Bitkom)
Customer Analytics
Gewinnung von Erkenntnissen über das Kundenverhalten (überwiegend in Consumer-orientierten Unternehmen), beispielsweise mit dem Ziel der Entwicklung massenindividualisierter Produkte und Dienstleistungen (Quelle: Bitkom)
CEP
Sammelbegriff für Methoden, Techniken und Werkzeuge, um Ereignisse zu verarbeiten, während sie passieren. CEP leitet aus Ereignissen höheres Wissen in Form von komplexen Ereignissen ab, d. h. Situationen, die sich nur als Kombination mehrerer Ereignisse erkennen lassen (vgl. Wikipedia). (Quelle: Bitkom)
Complex Event Processing (CEP)
Complex Event Processing (CEP, Verarbeitung komplexer Ereignisse) ist ein Themenbereich der Informatik, der sich mit der Erkennung, Analyse, Gruppierung und Verarbeitung voneinander abhängiger Ereignisse beschäftigt. (Quelle: Bitkom)
CEPH
ein Dateisystem, das gleichzeitig Objekte, Dateien und Datenblöcke verwalten kann (Quelle: Bitkom)
CAP-Theorem
Laut dem CAP-Theorem kann ein verteiltes System zwei der folgenden Eigenschaften erfüllen, jedoch nicht alle drei: C = Consistency = Konsistenz, A = Availability = Verfügbarkeit, P = Partition Tolerance = Partitionstoleranz (siehe Wikipedia)
Business Intelligence
Gewinnung von Erkenntnissen über Zusammenhänge zwischen Informationen aus polystrukturierten Daten aus unterschiedlichsten Quellen (Quelle: Bitkom)
Broker
Makler/Buchmacher, hier: Rolle des Übermittlers von Daten zwischen Quelle und Anwender Business Analytics Ermittlung von Kennzahlen für Unternehmen, durch die Analyse größerer Datenmengen mit dem Ergebnis neuer Erkenntnisse aufgrund einer breiteren Datenbasis. (Quelle: Bitkom)
Big Data
die Gewinnung neuer Informationen – die in kürzester Zeit sehr vielen Nutzern zur Verfügung stehen müssen – mittels enorm großer Datenbestände aus unterschiedlichsten Quellen, um dadurch schneller wettbewerbskritische Entscheidungen treffen zu können. (Quelle: Bitkom)
Analytics Appliance
vorkonfigurierte oder paketierte Lösungen aus Hardware und Software für die Koordinierung von polystrukturierten Daten, die Ausführung von Analysen und die Präsentation der Erkenntnisse. (Quelle: Bitkom)
Analytics Analyse
Gewinnung von Erkenntnissen durch komplexe Abfragen auf polsystrukturierte Daten, Datenbanken und Data-Warehouses mit spezifischen Abfragesprachen wie SQL oder Pig. (Quelle: Bitkom)