Digitalisierung

Wissen und Fortschritt in Sachen Digitalisierung werden in allen Branchen darüber entscheiden, ob sich Unternehmen im Wettbewerb durchsetzen können. Die technischen Voraussetzungen für die digitale Transformation werden immer besser. Trotzdem ist der Weg für Unternehmen noch weit, denn sie sind oft in verkrusteten Organisations- und IT-Infrastrukturen gefangen.

News

Auf einen Blick

Das Wichtigste zum Thema Digitalisierung:

  • Große Unternehmen neigen dazu, angesichts der strukturellen Behäbigkeit im eigenen Konzern bei der digitalen Transformation auf eine Vorreiterrolle zu verzichten und sich als "Smart Follower" in die zweite Reihe zu stellen. Das ist riskant, geht es doch bei der Digitalisierung nicht nur um eine technische Herausforderung, sondern um eine Transformation mit teils disruptiven Veränderungen, die das gesamte Unternehmen erfasst. Deshalb muss der Umbau von der Konzernspitze ausgehen – frühzeitig, mit aller Konsequenz und ohne Tabus.
  • Wer die Digitalisierung ernst nehmen will, muss alles in Frage stellen: die bisherigen Kundenbeziehungen, den laufenden Betrieb und die Arbeitsorganisation, die Produkte und Services – ja, das ganze Geschäftsmodell.  Wem die Transformation zu weit geht, der sollte bedenken: Herausforderer, oft noch unsichtbar und mit einem IT-Hintergrund, stehen in den Startlöchern, um sich Teile der Wertschöpfungsketten anzueignen.
  • In den vergangenen Jahrzehnten haben wir uns daran gewöhnt, das unternehmerische Heil in standardisierten und automatisierten Prozessen zu sehen. Doch in Zeiten von Machine Learning, Cognitive Computing oder fortgeschrittener Robotik greift das zu kurz. Digitalisierung verlangt, dass sich Unternehmen im Grundsatz über ihre Geschäftsmodelle Gedanken machen und die digitale Transformation ganzheitlich angehen.

Lesen Sie hierzu:

Der Chief Digital Officer dirigiert die digitale Transformation

Zehn Trends in der Digitalisierung

Digitale Transformation lässt keinen Stein auf dem anderen

 

  • Obwohl sich inzwischen zahlreiche CEOs zur Digitalisierung bekennen, finden sie nicht immer zu einer klaren Vision. Hinzu kommt, dass sie nicht in der Lage sind, die digitale Transformation umfassend und unter Beteiligung aller Stakeholder anzugehen und umzusetzen. Insbesondere in großen Konzernen ist das Beharrungsvermögen groß.
  • Daten und Algorithmen sind der Treibstoff für die Digitalisierung. Dort, wo es gelingt, Verständnis für Informationstechnik im Business und in den Fachbereichen zu verankern und entsprechende Skills aufzubauen, sin die Chancen für eine rasche Transformation am größten.
  • In Zeiten revolutionärer Veränderungen ist es wichtig, sich von überkommenen Prozessen, Legacy-Systemen, manchmal auch Geschäftsmodellen zu trennen. Das gelingt vielen Unternehmen nicht  - vor allem dann nicht, wenn noch Umsätze auf die traditionelle Weise eingefahren werden. In diesen Fällen wird der Fokus nicht stark genug auf die anstehende digitale Transformation gelegt. Die Gefahr, zu spät in neuen Märkten anzukommen, ist groß.

Lesen Sie hierzu:

IT-Sicherheit - die hässliche Schwester der Digitalisierung

Digitalisierung braucht Wandel der Organisation

5 vor 12 - Die digitale Transformation wartet nicht

Mit der Digitalisierung beschäftigen sich nicht nur große ITK-Anbieter wie IBM, Hewlett-Packard, SAP, Oracle, Microsoft oder Cisco. Da es sich um tiefgreifende Change-Themen handelt, sind meist auch externe IT-Dienstleister und Beratungshäuser involviert, beispielsweise T-Systems, Accenture, Capgemini oder Atos.
In Projekten rund um die Digitalisierung geht es meist um eine tiefgreifende Transformation, die an der Konzernspitze beschlossen und eingeleitet wird. Das öffnet Türen für die großen Management-Beratungen wie McKinsey, Bain & Company, Boston Consulting Group, Roland Berger, Oliver Wyman, AT Kearney oder PwC. Und schließlich gehen  auch große Industriekonzerne wie Siemens, Bosch, ABB oder General Electrics (GE) in Vorlage. Sie bieten Systeme und Lösungen für Industrie 4.0 und das Internet of Things an.

Glossar für die digitale Transformation

Accelerator

Ein Accelerator („Beschleuniger“) ist eine Institution, die Gründerteams mit Wissen und Ressourcen dabei unterstützt, ihr Geschäftsmodell voranzutreiben. Dazu bieten „Accelerators“ oft für einige Monate Bootcamps an, in denen die Startups ihre Geschäftsideen mit entsprechender Unterstützung zur Marktreife weiter entwickeln können. Wie die Website „Gründerszene“ berichtet, schaffen es meist nur wenige Gründer, in solche Bootcamps aufgenommen zu werden. Gelingt ihnen das, können sie auf strategische und technische Unterstützung zurückgreifen, sowie Netzwerke und Coachings in verschiedenen Bereichen nutzen. Am Ende eines solchen Bootcamps stehen die Demo Days: Dort können die Gründerteams ihr Produkt oder ihre Dienstleistung vor Investoren demonstrieren.

Eine Reihe großer Konzerne hat solche Accelerator-Programme gestartet. So arbeitet Lufthansa Cargo mit dem Logistik-Tech-Accelerator-Programm von Rocketspace zusammen, um Entwickler von zukunftsweisenden Logistiklösungen für sich zu interessieren. Die Deutsche Telekom verfolgt mit hub:raum in Berlin einen ähnlichen Plan: Kreative Entwickler und Startups sollen im Verbund mit dem Expertennetzwerk und Kapital des TK-Carriers neue Ideen kreieren.

Allianz, Metro, Microsoft, Coca-Cola oder ProSiebenSat1 verfolgen ähnliche Projekte. Die Allianz unterstützt Entrepreneure beispielsweise dabei, Insurtechs auf die Beine zu stellen. Metro sucht nach Startups aus den Bereichen Gastronomie, Hotellerie und Catering, die Geschäftsabläufe und Kundenbeziehungen von Restaurants, Cafés, Hotels, Imbiss- und Catering-Betrieben digital vereinfachen und beschleunigen sollen.

Agilität

Nachdem sich die agile Software-Entwicklung in den meisten Unternehmen gegenüber klassischen Methoden (Wasserfall) durchgesetzt hat, erobern nun agile Ansätze und Methoden ganze Unternehmen und werden zum Motor der digitalen Revolution. Denn was nutzt ein agiles Software-Entwicklungs-Team, das schnell und bedarfsgerecht Ergebnisse liefert, wenn alle anderen Unternehmensbereiche nach den althergebrachten Methoden und Standards arbeiten? Die schnelle Entwicklung von qualitativ hochwertiger Software und deren ebenso zeitnahe Bereitstellung sind die Voraussetzung dafür, dass Unternehmen ihre digitalisierten Produkte und Services schnell ausliefern können. Damit sind Methoden und Tools, die hierfür geeignet sind, in aller Munde.

Zu denken, dass die agile und digitale Herausforderung sich auf bestimmte Branchen beschränken würde – etwa den Handel, der eine Antwort auf die Omnichannel-Herausforderung sucht, oder die Bankenwelt, die sich den Angriffen der Fintechs ausgesetzt sieht - greift zu kurz. Gegenstände, Maschinen und auch Menschen/Kunden sind heute jederzeit und überall digital ansprechbar. Also müssen neue Funktionen und Updates schnell und individuell ausgerollt werden. Gleichzeitig hinterlassen Konsumenten immer mehr digitale Spuren im Netz, deren zeitnahe, intelligente Interpretation massive Geschäftsvorteile bedeuten kann.

Agilität wird vor allem in Startups durchgängig gelebt. Oft kommt dabei die Denk- und Handlungsweise der „Effectuation“ zum Tragen. Dabei handelt es sich um die Theorie der amerikanischen Wissenschaftlerin Saras Sarasvathy, die das Verhalten erfolgreicher amerikanischer Unternehmer empirisch untersucht hat. In einer von hektischen Veränderungen geprägten, nicht vorhersehbaren Zeit stellen diese Unternehmer ihre verfügbaren Mittel, ihr Wissen und ihr Netzwerk in den Mittelpunkt ihres Tuns und leiten daraus die für sie realistischen Ziele ab. Das ist ein anderes Vorgehen als wir es von klassischen Management-Entscheidungen kennen, die von klaren Zielen, kausaler Logik und einer vorhersagbaren Zukunft ausgehen. Stattdessen sind die aktuell verfügbaren Kompetenzen, Fähigkeiten und Mittel der Ausgangspunkt.

Basierend auf den verfügbaren Ressourcen anfangen, Partner frühzeitig einbinden, Verlustrisiken klar eingrenzen und den Zufall als Chance sehen, um die eigene Zukunft besser zu gestalten – diesen Maximen folgen Unternehmen, die es mit der Digitalisierung ernst meinen. Es gilt, das Unternehmen so aufzustellen, dass es flexibel mit Veränderungen umzugehen weiß und Unberechenbarkeit aushält. Wer sich agil ausrichtet, schafft es, aus verschiedenen Handlungsoptionen schnell die beste zu identifizieren und umzusetzen.

 

API

Über Programmierschnittstellen (Application Programming Interfaces = APIs) können Apps und Web-Anwendungen mit anderen, von Entwicklern und Unternehmen bereitgestellten Daten und Anwendungen kommunizieren, Daten austauschen und gegebenenfalls ganze Services abrufen. Im Extremfall kann das dazu führen, dass Startups oder Unternehmen aus bereits vorhandenen Services vollständige Digitalprodukte konfigurieren – bei sehr geringem Ressourcenaufwand.

Ein oft zitiertes Beispiel ist der Fahrdienst Uber, der mit seinem disruptiven Geschäftsmodell die weltweite Taxibranche in Schwierigkeiten brachte. Statt das Rad für jede Funktion neu zu erfinden, setzte Uber etwa auf das Kartenmaterial von MapKit und GoogleMaps die Zahlungsabwicklung von Braintree, den Rechnungsversand via Mandrill und die Compute-Performance aus der Amazon-Cloud.

APIs lassen sich zu neuen Produkt konfigurieren – in Windeseile. Auf Programmableweb.com findet sich mit 16.590 APIs das derzeit wohl größte Verzeichnis für öffentlich zugängliche Programmierschnittstellen im Web. Es kann beispielsweise Anbietern von Smart-Home-Lösungen helfen, die mit ihren Apps Küchengeräte, Rolläden, Heizungsanlagen etc. verschiedener Hersteller ansprechen und steuern wollen. Mit APIs machen also auch klassische Unternehmen ihre digitalisierten Produkte zugänglich für Märkte und Plattformen.

Wichtig dafür ist eine robuste API-Management-Umgebung, da es beispielsweise gilt, die APIs abzusichern. Kein Unternehmen wird seine Backend-Systeme via APIs offenlegen, ohne an Security zu denken. Es geht um Authentifizierung und Autorisierung, um die Einhaltung von Policies und die Abwehr von Angriffen. Moderne API-Management-Umgebungen bündeln verfügbare APIs für Entwickler, bieten Analytics-, Monitoring- und Troubleshooting-Funktionen. Sie helfen, den Traffic so zu steuern, dass es zu möglichst geringen Latenzzeiten kommt. Auf Self-Service-Portalen finden Entwickler die APIs, die sie brauchen, außerdem lassen sich dort auch Geschäftsmodelle mit APIs verknüpfen. Anbieter von API-Management-Lösungen sind etwa 3scale, die Google-Tochter Apigee, Axway, CA, IBM, Informatica, MuleSoft, Tibco und andere.

Augmented Reality und Virtual Reality

Spätestens seit dem durchschlagenden Erfolg des Mobile-Games Pókemon GO ist Augmented Reality (AR) wieder in aller Munde – obwohl es entsprechende Technologien schon seit Jahren gibt. Man denke etwa an erste Google-Glass-Anwendungen oder an iOS- und Android-Apps, die für universelle Viewer wie „Junaio“ von der Apple-Tochter Metaio, Layar oder Blippar entwickelt wurden. Trotzdem ist AR immer noch in einem frühen Stadium, und momentan ist trotz medialen Hypes kaum absehbar, ob sich hier ein größerer Trend entwickelt.

Allerdings gibt es schon einige Unternehmen, die mit AR-Techniken in einer Weise experimentieren, die Wettbewerber aufhorchen lassen sollte. Hyundai etwa ermöglicht Fahrern, das Cockpit ihres Autos zu erkunden, indem sie ihr Tablet mit der entsprechenden App auf die Amaturen richten und sich so Funktionen einblenden lassen.

L’Oréal lässt Kunden über seine „Make Up Genius App“ vor dem Kauf Lippenstifte virtuell ausprobieren. Ein Gesichtsmapping-Algorithmus scannt das Gesicht des Nutzers und überträgt Produkte und Look darauf. Ein anderes Beispiel ist die Baumarktkette Home Depot: Mit der iOS-App „Project Color“ können Heimwerker ihre Wohnung in einer anderen Farbe kennenlernen. Halten Sie die Kamera auf eine Wand und wählen eine Farbe aus, so erscheint diese Wand in perfektem Anstrich, Gegenstände wie Lampen, Regale oder Schränke werden erkannt und nicht übermalt. Sowohl bei Home Depot wie auch bei L’Oréal können Produktkäufe in der App getätigt werden.

Dass solche Apps den Wettbewerb wirklich ärgern können, zeigt das Beispiel der App „Amazon Flow“: Kunden scannen die Etikette von Consumer-Produkten ein und erhalten dann Informationen auf einer Art 2D-Etikett eingeblendet – mit typischen Amazon-Informationen wie Nutzerbewertung, Preis und weiteren Produktinfos. Sie werden direkt zum Kauf aufgefordert, was besonders perfide ist, wenn der Nutzer gerade im Edeka- oder Saturn-Markt steht.

Handelt es sich bei der Augmented Reality um eine computergestützte Erweiterung dessen, wie Menschen die reale Welt wahrnehmen, so geht es bei der Virtual Reality (VR) um die täuschend echte Darstellung einer rein virtuellen interaktiven Umgebung. Der User taucht in eine neue Welt ein (Immersion), mit der er interagieren kann. In dieser Welt sieht er qualitativ hochwertige 3D-Bilder und kann sich, etwa ausgestattet mit einer VR-Brille, ohne Verzögerungen in 360 Grad umsehen.

Big Data

Wohl jeder, der in den vergangenen Jahren eine Big-Data-Konferenz besucht hat, dürfte mit dem Zitat „Daten sind das neue Öl“ konfrontiert worden sein. Fest steht, dass heute nicht nur strukturierte Daten, wie sie in Datenbanken vorzufinden sind, sondern auch unstrukturierte Daten, wie sie etwa von Sensoren, RFID-Tags, Smart-Metering-Systemen oder auch im Social Web erzeugt werden, für Geschäftsvorfälle aller Art nutzbar gemacht werden können. Dieser Datenschatz liegt noch weitgehend brach. Jetzt geht es darum, ihn so zu bearbeiten, dass sich präzise Aussagen etwa zu Marktentwicklungen, Geschäftseinflüssen, Leistungsparametern, Kundeninteressen und vielem mehr treffen lassen.  

Je stärker Unternehmen digital durchdrungen sind und ihren Datenschatz heben, desto größer wird der Wunsch, möglichst verlässliche Daten für die Unternehmenssteuerung zu erhalten. Das „Data-driven Enterprise”, in dem möglichst keine Entscheidung fällt, die nicht durch Daten abgesichert ist, wird Realität. Die Idee ist durchaus nicht neu: In Banken und Versicherungen gehört das Risiko-Management von jeher zum Geschäft. Beim Kredit-Scoring etwa wird abgeschätzt, ob ein Kunde kreditwürdig ist, und Versicherungen prognostizieren anhand von Data Mining und vielfältigen statistischen Methoden potenzielle Schäden und Kosten. Produzierende Unternehmen errechnen die künftige Auslastung ihrer Fabriken, Fluggesellschaften das zu erwartende Passagieraufkommen und Händler den Bedarf für Waren.

Neu ist indes die Welle an neuen Technologien etwa aus den Bereichen Künstlicher Intelligenz und Machine Learning, die Analysetechniken auf ein neues Level bringt. Somit heben drei Faktoren Big Data auf ein völlig neues Niveau: die Fülle an strukturierten und unstrukturierten Daten, die auf Auswertung warten, eine rasant angewachsene Rechenpower, auf die jedes Unternehmen – wenn nicht im eigenen RZ, dann in der Cloud - Zugriff hat sowie jede Menge hochmoderne, leistungsfähige Analysetools. Deep Learning, Cognitive Computing und semantische Services verschiedenster Art ermöglichen es Kontexte herzustellen, die Anwendern bislang verschlossen waren. Nahezu jeden Tag kommen etablierte Unternehmen und Startups mit neuen Tools und Services heraus, die in irgendeiner Form Aspekte der menschlichen Intelligenz nachahmen und sogar perfektionieren.

Blockchain

Mit der besonders disruptiven Blockchain-Technologie werden sichere, direkte Transaktionen im weltweiten Web ohne Einbindung von Intermediären möglich. Dabei kann es sich beispielsweise um Verträge, Testamente, Transportpapiere oder Finanztransaktionen handeln. Nutzen wir etwa im Zahlungsverkehr heute noch die kostenpflichtigen Angebote vertrauenswürdiger Vermittler wie Banken, Kreditkartenunternehmen oder PayPal, könnte die Blockchain irgendwann dafür sorgen, dass sich Lieferanten und Konsumenten direkt und für jedermann nachvollziehbar im Netz verbinden, ohne dass ein Third-Party-Player nötig ist.

Die Blockchain basiert technisch auf einer dezentralen Datenbank, die in einem Peer-to-Peer-Netzwerk von Computern verteilt ist, also allen gemeinsam oder auch niemandem gehört. Sie wird auch als „Digitales Hauptbuch“ (Digital Ledger) bezeichnet. Da dieses System von keinem Angreifer mehrheitlich zu kontrollieren ist, lässt es sich auch nicht manipulieren oder hacken. In diesem Netzwerk können Parteien an einer Blockchain-basierenden Lösung teilhaben und den Regeln dieser Blockchain folgen. (Einfach erklärte Details zur Blockchain finden interessierte Leser hier)

Was die Blockchain letztendlich für die weltweiten Märkte bedeuten wird, ist noch völlig unklar. Man stelle sich etwa eine Versicherung vor, die mit einem Autofahrer tarifliche Regeln vereinbart. Das Fahrverhalten wird dann über die Blockchain analysiert, die Beiträge ändern sich ständig je nach Fahrstil. Vorsichtige Fahrer werden belohnt, risikobereite Fahrer zur Kasse gebeten. Solche „Smart Contracts“, deren Einhaltung kein Aufseher überwachen muss, sind in vielen Branchen und Nutzungsszenarien denkbar.

Ein oft genanntes Beispiel ist auch das „Brooklyn Microgrid“ in New York, wo zehn Haushalte entlang der President Street die Bewohner auf der anderen Straßenseite mit Strom versorgen, der über Solarpanels gewonnen wird. Abrechnung und Bezahlung werden ohne zwischengeschalteten Versorger direkt zwischen Erzeuger und Empfänger abgewickelt – über die Blockchain. In diesem Szenario ist die Vermittlung über Stadtwerke, Energieversorger oder Strombörsen überflüssig. Auch der Zustand der Photovoltaik-Installationen oder von Smart Metern könnte über die Blockchain kontrolliert werden.

Wie die Bestseller-Autoren Don und Alex Tapscott in ihrem Buch „Die Blockchain-Revolution“  schreiben, wird auch das Internet of Things, in dem „Billionen von Transaktionen“ abgewickelt und dokumentiert werden, von der Blockchain-Technologie beeinflusst. „Stellen wir uns vor, dass vernetzte Glühbirnen Strom von einer Stromquelle ersteigern — das wird wohl kaum über bestehende Kanäle abgerechnet werden“, so die Autoren im Gespräch mit „brand eins“.

Chief Digital Officer (CDO)

Eine Reihe von Unternehmen haben den digitalen Wandel in die Hände eines eigens berufenen Chief Digital Officer (CDO) gelegt, der auf Vorstandsebene oder einem Level darunter agiert. Sie verstehen die Digitalisierung als ganzheitliche Aufgabe, die den gesamten Konzern betrifft und an den oft bestehenden Grenzen der Abteilungssilos nicht haltmachen darf. In anderen Unternehmen übernimmt der CIO diese Rolle. Das gelingt am besten dann, wenn er im Unternehmen von jeher in Management-Entscheidungen involviert war und das Standing eines strategischen Vordenkers hat.

Nicht selten gibt es aber gar keinen offiziell Beauftragten für die digitale Transformation. Verantwortlich sind die Fachbereiche, denen aber oft die übergreifende Perspektive fehlt. Im Marketing etwa wird über den eigenen Tellerrand kaum hinausgeblickt, ist der Chief Marketing Officer (CMO) doch meist froh, wenn er die Herausforderungen des Digitalen Marketings in den Griff bekommt. Der Chief Financial Officer (CFO), traditionell in vielen Unternehmen mitverantwortlich für die IT, denkt vor allem an die Kosten, weniger an strategische Optionen. Auch Personal-, Produktions-, Entwicklungs- oder Vertriebschefs werden vor allem ihren Verantwortungsbereich im Auge haben.

Neben CDO und CIO ist häufig auch der Chief Technology Officer (CTO) in der Rolle des obersten Digitalisierers. Auch CEOs gefallen sich in der Rolle des Chefdigitalisierers. GE-Chef Jeffrey Immelt etwa findet sich ständig in den Schlagzeilen mit der Aussage, seinen Konzern in die weltgrößte Softwareschmiede umbauen zu wollen. Ähnlich äußert sich Siemens-Boss Joe Kaeser.

Cloud Computing

Der digitale Wandel erfordert flexible, schnell anpassbare IT-Infrastrukturen. Viele große Unternehmen verfolgen deshalb heute eine „Cloud-first“-Strategie. Mitarbeiter, Kunden und Partner sollen Cloud-Dienste jederzeit von überall auf verschiedenen Endgeräten abrufen können – zu kalkulierbaren Kosten, datenschutzkonform und unter höchsten Sicherheitsvorkehrungen. Letzteres ist der Grund dafür, dass die meisten Unternehmen auf Private- und Hybrid-Cloud-Infrastrukturen vertrauen, um die Kontrolle über ihre Anwendungen und Daten nicht aus der Hand zu geben.

Die Vorteile von Cloud Computing sind vielfältig. Operative Agilität etwa überzeugt viele CIOs: Cloud-Dienste können bedarfsgerecht skaliert werden. Software-Updates, auch Sicherheits-Patches, werden zentral eingespielt, der Wartungsaufwand sinkt massiv, was zu Kosteneinsparungen führt. Wichtig sind vor allem die Collaboration-Möglichkeiten: Weltweite Teams können zentral auf Dokumente und Daten zugreifen, gemeinsam daran arbeiten und Dritten zeigen, was sie verändert haben.

Viele Digitalisierungsszenarien, etwa im Bereich Internet of Things (IoT), sind überhaupt erst mit Cloud-Infrastrukturen umsetzbar. Die Robert Bosch GmbH ist dabei, ein weltweites Netz an Cloud-Rechenzentren für IoT-Szenarien aufzubauen. Die Rechenkapazität wird benötigt, um beispielsweise Connected-Car-, Smart-Home- oder Industrie-4.0-Projekte umzusetzen.  Die Offerte umfasst zunächst PaaS-Angebote einschließlich Frameworks und Container-Technologien. Kunden sollen damit Szenarien wie Geräteverwaltung oder das Management von Maschinen und Gateways abwickeln. Auch die Zugriffsverwaltung, das Management von Software-Rollout-Prozessen, die Anbindung von Drittsystemen und Datenanalyse sollen mit der IoT-Cloud-Infrastruktur bewältigt werden können. Industrieunternehmen wie Bosch, aber auch Siemens und General Electric treten mit solchen Angeboten in Wettbewerb zu etablierten IT-Anbietern wie IBM, Microsoft, SAP oder Amazon Web Services, die jeweils auch PaaS-Dienste für IoT anbieten.

Interessant ist die Frage, mit welcher Konsequenz sich Unternehmen mit ihren Daten Public-Cloud-Infrastrukturen anvertrauen werden. Kosteneinsparungen etwa im Bereich der IT-Infrastruktur und des -Personals wirken verlockend, auch sind die Infrastrukturen in der Regel robuster und zuverlässiger. Dagegen spricht allerdings die Frage, ob Unternehmen wirklich im ganz großen Stil ihre sensiblen Daten Providern wie AWS, Microsoft oder Salesforce überantworten und somit die Kontrolle über die Backend-Infrastruktur aus der Hand geben wollen - ohne vollständige Transparenz darüber, was mit den eigenen Daten geschieht. Zudem steigt die Abhängigkeit von einzelnen Cloud-Anbietern, und wenn eine Multi-Cloud-Strategie verfolgt wird, der Integrations- und Management-Aufwand.

Cognitive Computing

Cognitive Computing, so definiert der ITK-Branchenverband Bitkom, beschreibt selbstlernende IT-Systeme, die - auch natürlichsprachig - mit Menschen und anderen Computersystemen in Echtzeit kommunizieren, sich an frühere Interaktionen erinnern und eigenständig Schlüsse ziehen können. Dabei berücksichtigen sie ihr Umfeld und verarbeiten in hoher Geschwindigkeit große Datenmengen aus unterschiedlichsten Quellen. Kognitive Assistenten beantworten Fragen etwa im juristischen Umfeld, der medizinischen Diagnostik, in der Forschung oder der hochautomatisierten Produktion.

Wissenschaftler gehen nicht davon aus, dass alle menschlichen Denkfähigkeiten von der Maschine simuliert werden können, weshalb das Zusammenspiel von Mensch und Maschine hier den eigentlichen Fortschritt in der Wissensarbeit bringen soll. Doch der Bitkom warnt: „Das Verhältnis des Wissensarbeiters zu seinem Wissenswerkzeug wird sich radikal wandeln. Er wird neue Kompetenzen erwerben müssen, um seine Werkzeuge effektiv nutzen zu können. Und auch die Organisationen bleiben nicht verschont: Heutige Entscheidungswege werden ausgehöhlt, Arbeitsprozesse werden sich beschleunigen, Berufsprofile werden sich schleichend, aber stetig transformieren. Die genauen individuellen und organisationalen Auswirkungen sind derzeit schwer vorhersagbar. Aber die Veränderungen werden viele Menschen betreffen und tiefgreifend sein.“ (siehe auch den Bitkom-Leitfaden für Kognitive Maschinen)

Wie weit Cognitive Computing bereits fortgeschritten ist, zeigte Anfang 2016 der fünffache Sieg des Google-Programms „AlphaGo“ gegen den Profispieler des asiatischen Brettspiels Go, Fan Hui. AlphaGo war von der Google-Tochter DeepMind als Kombination aus zwei Neuronalen Netzwerken und der sogenannten Monte-Carlo-Baumsuche (MCTS) geschaffen worden. Da Go den Spielern bei jedem Zug rund 200 Möglichkeiten einräumt und ein Spiel im Schnitt ebenfalls 200 Züge lang dauert, galt eine Automatisierung bis dahin als aussichtlos.

IBM nimmt sich für sich in Anspruch, mit seiner Watson-Technologie besonders weit zu sein: Sie kann demnach strukturierte und unstrukturierte Massendaten auswerten und interpretieren, dabei ständig hinzulernen und – basierend auf Persönlichkeit, Tonalität und Emotionen des Nutzers -  Empfehlungen abgeben.

Der japanische Versicherer Fukoku Mutual Life will die Technik nutzen, um Unterlagen von Hospitälern sowie Ärzten auf Plausibilität zu prüfen. In die Schlagzeilen geriet das Projekt, weil 34 Mitarbeiter ihren Job verlieren sollen. Derweil nutzt das Rhön-Klinikum Watson, um seltenen, unerkannten Erkrankungen auf die Spur zu kommen. Dazu werden Patientendaten bis ins kleinste Detail auf Auffälligkeiten hin untersucht. Auch BMW forscht mit Watson Cognitive Computing, um Fahrerlebnisse stärker personalisieren zu können und Fahrerassistenzsysteme intuitiver zu gestalten.

Crowdsourcing

Das Auslagern von Dienstleistungen an freiwillige oder bezahlte Helfer im Netz nennt man Crowdsourcing. Der Begriff wurde 2006 von Jeff Howe („Wired“) geprägt, der einen Beitrag mit dem Titel „The Rise of Crowdsourcing“ veröffentlichte. Kerngedanke ist es, die Schwarmintelligenz mit der Outsourcing-Idee und der Allgegenwart des Internet zu verbinden und beispielsweise Aufgaben rund um Innovations-, Produktions- und Entwicklungsprozesse in die „Crowd“ auszulagern.

Der Ansatz hat zu Beginn große mediale Aufmerksamkeit erhalten, dabei aber nicht nur Freunde gefunden. Werden Dienstleistungen an interessierte, talentierte Menschen im weltweiten Netz vergeben, kann das ganze Berufsgruppen massiv unter Druck setzen. Man denke beispielsweise an Grafik- und Design-Experten, Softwaretester oder Fotografen, die durch billige Konkurrenz aus dem weltweiten Netz teilweise ihre Existenzgrundlage verloren haben.

Unternehmen nutzen den Crowdsourcing-Ansatz heute häufig für ihren Innovationsprozess, sprechen aber lieber von Open Innovation. Sie möchten neue Umsatzquellen erschließen oder im Zuge der Digitalisierung datenbasierte Geschäftsmodelle entwickeln. Dafür wollen sie den Ideenreichtum möglichst vieler Akteure anzapfen. Innovationen entstehen nicht nur im eigenen Unternehmen und dessen Netzwerk, sondern vor allem in Zusammenarbeit mit industrie- oder unternehmensfremden Ökosystemen.

Wer nach Beispielen für solche innovativen Projekte sucht, wird beispielsweise auf der Open-Innovation-Plattform „Innovationskraftwerk“ fündig, die aus der Standortinitiative „Deutschland – Land der Ideen“ erwachsen ist. Dort ist etwa zu lesen, wie die Wella GmbH einen mit 13.000 Euro ausgeschriebenen Wettbewerb zum Thema neue Haarpflegeprodukte und Friseurbedarf initiiert hat. Der Paketdienstleister Hermes ließ sich die „Dienstleistungen der Zukunft“ von der Crowd entwerfen und SGL Carbon sammelte Ideen, welche Produkte sich mit dem hochsoliden Verbundwerkstoff Carbon-Beton herstellen lassen.

Customer Insights

Der Tanz um den vernetzten Kunden steht klar im Mittelpunkt aller Digitalisierungsbemühungen. Begriffe wie Customer Experience Management, Customer Journey oder Customer Lifetime-value – um nur drei zu nennen – bezeichnen gängige Termini in Marketing- und Vertriebsabteilungen. Deren Ziel ist es, vorhandene und potenzielle Kunden auf möglichst allen digitalen Kanälen und an jedem denkbaren Kontaktpunkt („Touchpoint“) zu erreichen und zum Kauf von Produkten, Downloaden von Inhalten, Abonnieren von Newslettern, Teilnehmen an Gewinnspielen oder vielfältigen anderen Aktionen zu bewegen (Customer Engagement).  

Da immer mehr Konsumenten im Internet generell oder im Social Web ihre Spuren hinterlassen, können sie gemäß ihrem Verhalten oder ihrer Interessen verfolgt, analysiert und angesprochen werden (Targeting). Dabei lässt sich die Kontaktaufnahme beliebig aussteuern, nachvollziehen und vermessen. Das digitale Marketing ist bereits zu einer kleinen Wissenschaft geworden, doch die Ziele sind altbekannt: Immer geht es darum, neue Kunden zu gewinnen, Bestandskunden zu halten, den Umsatz je Kunde zu erhöhen und – im besten Fall – Kunden zu begeisterten Botschaftern einer Marke zu machen.

In der Praxis tun sich viele Unternehmen, die schon lange am Markt sind, immer noch schwer damit, ihrer Klientel eine optimale Channel-übergreifende Customer Experience zu bieten. Unflexible Abteilungsstrukturen (Silos) verhindern strukturiertes, koordiniertes Vorgehen. Datenbestände liegen nur fragmentiert vor, und die Systeme in Abteilungen wie Vertrieb, Marketing und Support sind oft mangelhaft oder gar nicht integriert. Damit wird die Analyse von Kundendaten über physikalische und virtuelle Kontaktpunkte hinweg schwierig oder unmöglich.

Sichtbar wird das beispielsweise, wenn im Webshop des bevorzugten Einzelhändlers unsinnige Empfehlungen zu Einkäufen gemacht werden, obwohl der Kunde dort im stationären Handel seit Jahren einkauft. Oder wenn die Beantwortung einer Beschwerde im Web Tage oder Wochen dauert, weil der zuständige Experte die Kundenhistorie nicht kennt. Oder wenn Kundenanfragen auf einer Fanpage bei Facebook gar nicht erst beantwortet werden.

Der Druck auf die Marketing-Abteilungen ist immens. Die digitalen Kanäle sind zunehmend die erste Anlaufstelle für Kunden. Die Berater von McKinsey haben errechnet, dass schon in diesem Jahr rund die Hälfte aller Kaufentscheidungen weltweit durch das Web beeinflusst wird. Hinzu kommt, dass das digitale Marketing ein Moving Target ist: Jeden Tag ändern sich die Möglichkeiten, mit denen Kunden angesprochen, zu Engagements bewegt und in ihrem Verhalten analysiert werden können.

Zunehmend spielen Instrumente eine Rolle, die den Kunden ganzheitlich erfassen und auch seine Gefühlswelt durchleuchten. Beispiel dafür ist die sogenannte Empathie-Karte, ein vom US-Beratungshaus Innosight entwickeltes Tool. Es zielt darauf ab, Aufgaben, Probleme und Bedürfnisse der Kunden möglichst vollständig zu erfassen. Es gilt herauszufinden, was der Kunde denkt und fühlt, was er liebt und hasst, was ihm Sorgen bereitet und wonach ihm gelüstet. So entstehen Kundenprofile die sich optimal mit dem eigenen Produkt- und Service-Angebot abgleichen lassen.

Manche Unternehmen stellen sich heute bereits komplett von außen nach innen auf oder bauen sich demgemäß um (Outside-in). Sie beteiligen ihre Kunden an der Produkt-, Service- und Markenentwicklung, indem sie an den Touchpoints kommunzieren und Emotionen aufbauen. Die Konzentration liegt nicht mehr auf zentralen Ansagen und hierarchischen Strukturen, sondern auf effektiver „Beziehungsarbeit mit dem Kunden“.  Das Web öffnet die Tore dafür, da das Verhalten der Kunden beobachtet und analysiert werden kann und die Kontaktaufnahme keine Barriere mehr darstellt.

Deep Learning/Machine Learning

Maschinelles Lernen ist eine „Revolution in der Künstlichen Intelligenz“, wie das Fraunhofer Institut IAIS schreibt. Demnach handelt es sich um eine „Methode der Informationsverarbeitung mit künstlichen neuronalen Netzen“, die zu Durchbrüchen in der Bilderkennung, der Sprachverarbeitung (Siri), der Interpretation von Geräuschen oder der Robotik geführt hat. Voraussetzung ist ein großer Datenbestand (Big Data), anhand dessen neuronale Netze trainiert werden können, und ausreichend Rechenpower, die heute beispielsweise in der Public Cloud zur Verfügung steht.

Deep Learning und Machine Learning gehören zu den umstrittenen Technologien, da sie vermutlich einen Teil der menschlichen Arbeit ersetzen werden. Das Erkennen gesprochener Sprache oder das Kategorisieren von Bildern waren bislang Aufgaben, die Menschen vorbehalten waren. Andererseits bieten sich gewaltige Chancen, etwa wenn in der Medizin 3D-Aufnahmen eines Tumors bis ins letzte Detail analysiert und so Auffälligkeiten frühzeitig entdeckt werden können.

Besonders aktiv im Entwickeln und Zukaufen von Lösungen für maschinelles Lernen sind Facebook, Google, Amazon, Microsoft und vor allem Salesforce. Der CRM-Spezialist hat mit PredictionIO, Tempo AI, Einstein und MetaMind  Unternehmen übernommen, um die eigene Plattform mit mehr Intelligenz anzureichern. Salesforce-Anwender sollen ihre Kunden automatisiert und dennoch persönlich ansprechen können. Sie sollen Trends und Stimmungen frühzeitig entdecken und Maßnahmen vorausschauend in die Wege leiten können.

Design Thinking

Design Thinking ist ein aus dem Industriedesign abgeleitetes Konzept, um innovative Produkte und Dienstleistungen zu entwickeln. Der Ansatz orientiert sich am Kunden: Die Bedürfnisse einer zu adressierenden Zielgruppe werden identifiziert und interpretiert, um daraus Ideen zu entwickeln. Mithilfe von Prototypen, die schon in einer sehr frühen Phase entstehen, werden die Ideen ausprobiert. Es gilt, frühzeitig Einsichten zu gewinnen, um den anfänglichen Kurs jederzeit korrigieren zu können.

Dadurch, dass in Design-Thinking-Projekten interdisziplinär zwischen Abteilungen und Hierarchieebenen zusammengearbeitet wird, gelingt es, das Wissen und die Lösungskompetenz im Team auf eine breite Basis zu stellen und individuelle Erfahrungen Einzelner einzubringen. Neben der sprachlichen Kommunikation spielen dabei flexible Räumlichkeiten, etwa durch mobile Trennwände, und Arbeitsmaterialien für die Dokumentation eine Rolle. Man möchte das Wissen und die Gedanken aller sammeln und möglichst breit sichtbar machen.

Der Design Thinking Process besteht laut Stanford University aus den sechs Phasen Understand, Observe, Point-of-view, Ideate, Prototype und Test. Man beginnt also, gemeinsam das Problemfeld zu verstehen, um im Anschluss daran die Zielgruppe mit ihren Bedürfnissen zu beobachten und zu befragen. Die dabei gewonnenen Einsichten werden zu einem Gesamtbild (Point-of-view) verknüpft, wobei das entstandene Wissen visualisiert und kommunizierbar gemacht wird.

Mit Kreativitätstechniken wie Brainstorming gilt es nun, möglichst viele Ideen zu generieren (Ideate), deren Machbarkeit und Wirtschaftlichkeit ebenfalls bewertet wird. In der Prototype-Phase werden die Ideen ausprobiert und gegebenenfalls weiterentwickelt. Prototypen können beispielsweise eine App, ein Papiermodell, ein Rollenspiel oder Ähnliches sein. Werden die Prototypen fertig, erfolgt der Dialog mit der Zielgruppe (Test). Er wird akzeptiert, korrigiert oder verworfen.

DevOps

Agile Entwicklungsmethoden sind nur die eine Seite der Medaille, wenn es gilt, zeitnah zu guten Softwarelösungen zu gelangen. Die andere Seite ist ein IT-Betrieb und eine Systemadministration, die ebenfalls schnell und agil sein müssen – damit die gewonnene Zeit für betriebliche Aufgaben nicht wieder verloren geht. Unter dem Begriff "DevOps" werden Ansätze und Tools zusammengefasst, die eine Verzahnung von "Development" und "Operations" unterstützen sollen.

Zentrale Aspekte eines DevOps-Ansatzes sind eine effiziente Zusammenarbeit, Automatisierung sowie voll dokumentierte Prozesse und Live-Monitoring. Grundvoraussetzung ist eine funktionierende Collaboration über Abteilungs- und Unternehmensgrenzen hinweg. Doch daran scheitern viele Unternehmen, da Organisationsstrukturen, Anreizsysteme und Firmenkultur einer schnellen und vertrauensvollen Zusammenarbeit von Entwicklern, Test-Engineers und IT- Administratoren im Wege stehen.

Ein erster Schritt ist die Einführung von einheitlichen und transparenten Systemen, die allen den gleichen Informationsstand bieten. Dies gilt für Code Repositories, System Management Tools sowie Application Performance Monitoring. Besonders sinnvoll ist der Einsatz von automatisierten DevOps-Prozessen beim Betrieb von eCommerce- und Digital-Workloads, bei denen eine hohe Release-Frequenz wahrscheinlich ist und die trotzdem stabil laufen müssen.

Digitalisierung

Nahezu allen Unternehmen ist heute klar, dass sie ihre Geschäftsmodelle, Prozesse und Kundenbeziehungen digitalisieren müssen, um zukunftsfähig zu bleiben. Obwohl jede Branche spezifisch gefordert ist, stehen alle vor der Herausforderung, ihre Customer Relations zu digitalisieren – etwa durch personalisierte Marketing- und Vertriebsansätze, Social-Web-Aktivitäten, Self-Service-Mechanismen, den Einsatz von Portalen, Multi-Channel-Strategien, Apps und vielem mehr.

Im Industrie- und Logistiksektor steht darüber hinaus die Digitalisierung von Produktionsprozessen und Produkten im Vordergrund, wofür Sensorik (Internet of Things), Cloud-basierte IoT-Plattformen, Beacon-Technologie, Datenbrillen und sonstige Endgeräte mit Augmented- und/oder Virtual-Reality-Fähigkeiten und vieles mehr eingesetzt werden kann. Hinzu kommen neue Chancen in Wartung, Service und Support (Smart Services), etwa wenn Ersatzteile oder Kundendienst automatisiert von Maschinen angefordert werden. Dies sind nur einige Beispiele: Jede Branche ist auf ihre Weise durch die Digitalisierung gefordert. Man denke etwa an die Versicherungswirtschaft, die über Wearables und Sensoren mehr über das Verhalten und den Lebensstil der Versicherten lernt und daraus neue Geschäftsmodelle und Tarife strickt.

Nahezu unbegrenzte Rechenkapazitäten – vor allem in der Cloud -, hohe Netzbandbreiten und Entwicklungsfortschritte in Bereichen wie Big Data und Analytics, Künstliche Intelligenz, Machine Learning und Robotik sind die technischen Voraussetzungen dafür, dass die Digitalisierung so große Fortschritte gemacht hat. Nahezu jeder Mensch und immer mehr Dinge und Maschinen sind heute vernetzt und damit ortsunabhängig lokalisierbar und erreichbar. Kein Wunder, dass die Digitalisierung auch die Datenschützer vor völlig neue Herausforderungen stellt.  

Für die IT-Abteilungen ist die Digitalisierung eine Herausforderung, weil die IT zentrale Bedeutung für nahezu jeden anderen Unternehmensbereich bekommen hat. Sie liefert den entscheidenden Wertschöpfungsbeitrag, wenn etwa Autos, Maschinen oder Serviceangebote „intelligenter“ werden. Die Corporate IT und die oftmals von den Fachbereichen verantwortete Product IT wachsen immer mehr zusammen. Sensorik, Cloud-Angebote, Machine Learning, Analytics-Tools – all diese Hilfsmittel sorgen dafür, dass Produkte besser, Prozesse sauberer aufgesetzt und betriebliche Entscheidungen zielgenauer gefällt werden können.    

Digitaler Darwinismus

Der Begriff Digitaler Darwinismus geht auf einen gleichnamigen Bestseller von Karl-Heinz Land zurück. „Unter ‚Digitalem Darwinsmus‘ verstehen wir, wenn sich Technologie und Gesellschaft schneller ändern, als Unternehmen in der Lage sind, sich daran anzupassen“, schreibt der Autor. Ausgehend von der Erkenntnis, dass wir nach den ersten beiden Industriellen Revolutionen Mitte des 18. und Ende des 19. Jahrhunderts nun in der dritten „Digitalen Revolution“ stecken, mahnt Land, dass nur Unternehmen mit einer hohen Anpassungsfähigkeit mit den Herausforderungen fertig werden können („Adapt or Die“). Entsprechend heißt der Untertitel seines Buchs: „Der stille Angriff auf Ihr Geschäftsmodell und Ihre Marke“.

Laut Land bleibt in Zeiten der Digitalisierung nichts wie es war: „Dieser Tsunami stellt einen Angriff auf Geschäftsmodelle, Vertriebskonzepte, Marketing, Kommunikation, Service, Marktforschung sowie generell auf die Art und Weise dar, wie wir mit Kunden und auf Märkten interagieren und Unternehmen führen.“ Lesenswerte Bücher zum Digitalen Darwinismus verfassten auch Tim Cole mit „Digitale Transformation: Warum die deutsche Wirtschaft gerade die digitale Zukunft verschläft und was jetzt getan werden muss! “, Christoph Keese mit „Silicon Valley“ und Tobias Kollmann und Holger Schmidt mit „Deutschland 4.0: Wie die Digitale Transformation gelingt“.

Digital Lab / Innovation Lab

Während mit Accelerator-Programmen unternehmensfremde Startups angelockt, aufgebaut und gebunden werden sollen, geht es bei den Digital Labs oder Innovation Labs darum, kreative Freiräume für eigene Mitarbeiter zu schaffen. Die unternehmensinternen Denkfabriken sollen wie Startups agieren und unbelastet von Konzernzwängen die Forschungs- und Entwicklungsabteilungen ergänzen und herausfordern. Die Analysten von Crisp Research aus Kassel zählen über 60 Digital Labs in Deutschland, deren Aufgabe darin besteht digitale Produktideen und neue Geschäftsmodelle zu generieren.

Digital Labs werden oft mit einem Mix aus kreativen Mitarbeitern unterschiedlicher Abteilungen besetzt. Software-Entwickler, IT-Architekten, Produkt-Designer sitzen an einem Tisch und brüten neue Ideen aus. Nicht immer ist es einfach, dabei die Erwartungshaltung der Vorstände zu managen: Innovationen kommen nicht auf Knopfdruck, andererseits muss man sich ein Digital Lab erstmal leisten können. Gut beraten sind Geschäftsführer, die sich an der Startup-Szene orientieren: Wer dort Venture Capital investiert, muss bei zehn Investments mit fünf Totalausfällen rechnen, weitere drei Projekte entwickeln sich lediglich durchschnittlich und nur zwei werden ein Erfolg.

Schon 2014 hat die Rewe Group die Geschäftseinheit Rewe Digital gegründet, ein Innovationslabor mit 400 Mitarbeitern. Dort tüfteln Entwickler, Vertriebler und Marketingexperten gemeinsam an Lösungen für den erfolgreichen Online-Lebensmittelvertrieb. Wichtigste Erfolgsfaktoren sind laut Rewe die Zusammenlegung von Ideen- und Produktentwicklung mit Beteiligungsaktivitäten des Unternehmens zu einer Einheit und das Führen dieses Labs als Business-Unit mit Umsatzverantwortung.

Digitale Disruption

Die digitale Disruption bezeichnet die Zerstörung klassischer Geschäftsfelder durch digitale Einflüsse. Das vollzieht sich in nahezu allen Branchen und zwar mit unterschiedlicher Geschwindigkeit. Im Mediensektor etwa hat die digitale Disruption früh eingesetzt. In dem Maße, wie sich der Strom der Werbegelder ins Netz bewegte, wurden klassische Print-Medien durch digitale ersetzt und neue Online-Dependancen ins Leben gerufen.

Ähnliches passiert auch in anderen vertikalen Märkten: In der Touristikindustrie machen Online-Portale wie Expedia oder Priceline den klassischen Reisebüros seit langem das Überleben schwer. In der Energiewirtschaft und der Welt der Versicherungen sorgen Vergleichsportale wie Verivox oder Check 24 für mehr Preistransparenz, was für Versicherer Einbußen bei den Margen zur Folge hat. Gleichzeitig geraten hier die klassischen Vertriebskanäle unter Druck, da die Vergleichsportale auch einen Kaufabschluss ermöglichen.

Startups, sogenannte „Fintechs“ übernehmen in der Finanzwelt teile der Wertschöpfungsketten, indem sie - strikt vom Kundenverhalten ausgehend - smarte Apps und Web-Dienste beispielsweise für die Kreditvermittlung, den Zahlungsverkehr oder das Portfolio-Management anbieten. „Insurtechs“ mischen die Versicherungsgesellschaften auf, indem sie bestimmte Nischensegmente versichern oder neue Modelle auf der Basis von Peer-to-Peer-Ansätzen bieten. Legaltechs bieten Online-Rechtsberatung, helfen den richtigen Anwalt zu finden oder übernehmen typische Vorfälle, indem sie etwa unzufriedenen Pauschaltouristen oder Mietern helfen.

Auch die klassischen Branchen wie Automotive, Maschinen- und Anlagenbau oder Transport und Logistik stehen unter Druck. Das selbstfahrende Auto etwa wird federführend von Google und Uber entwickelt, Daimler und Volkswagen müssen sich von diesen Silicon-Valley-Playern vor sich hertreiben lassen. Tesla ist nicht nur der Vorreiter in Sachen Elektromobilität, Gründer Elon Musk hat auch einen Paradigmenwechsel eingeleitet. IT im Cockpit und innovative Digitaldienste sind nun genauso wichtig wie Antrieb und Fahrwerk.

Das Internet of Things sucht in Form der sogenannten Machine-to-Machine-Kommuikation die Maschinen- und Anlagenbauer heim. Sensor-bewährte Maschinen kommunizieren in Smart Factories miteinander sowie mit Menschen. Wer in diesem Markt Erfolg haben will, muss in der Lage sein, maschinell erzeugte Massendaten zu analysieren und daraus bessere Produkte, smarte Services und effektivere Prozesse abzuleiten. Auch die Logistik- und Supply-Chain-Wirtschaft nutzt Sensoren, um ihre Lager- und Transportprozesse zu verbessern. Ziele sind beispielsweise eine bessere Auslastung der Fahrzeuge, die Optimierung der Fahrwege und eine möglichst zeitnahe Lieferung.

Digital Marketing

Über kurz oder lang ist jeder Konsument ständig und überall über das Netz erreichbar – eine gewaltige Chance, aber auch eine Herausforderung für Marketiers. Sie müssen entscheiden, wie die eigenen Websites aussehen sollen, auf welchen Social-Web-Kanälen sie aktiv sein wollen, ob eine Video-Strategie – etwa mit einem eigenen Youtube-Kanal - sinnvoll ist, wie sie das Kundenverhalten nachvollziehen („tracken“) wollen und vieles mehr.

Mit Digital-Marketing-Verfahren lassen sich ganze Bücherwände und Speicherplatten füllen. Deshalb hier nur ein paar Grundlagen. Zu allererst ist die eigene Website das Aushängeschild für jedes Unternehmen. Sie muss übersichtlich gestaltet sein, schnell und auf möglichst allen Endgeräten in guter Optik laden (Responsive Design) sowie die wichtigsten Informationen über das Unternehmen enthalten – nicht zuletzt Kontaktdaten und Ansprechpartner. Geht es um die inhaltliche Detailtiefe, ist abzuwägen, ob ein Blog oder eine Social-Media-Fanpage etwa auf Facebook nicht zielführender ist.

Gelernt ist längst auch das E-Mail-Marketing: Unternehmen adressieren Interessenten mit Newslettern und messen, ob diese geöffnet wurden (Öffnungsrate), ob der Empfänger über einen Link auf die dafür vorgesehen Landing Page weitergeleitet werden konnte (Click-Through-Rate), wer sich an- und abmeldet hat und wie gut die „Conversion-Rate“ ist. Letzteres meint in der Regel den konkreten Geschäftsabschluss. 

Viele Firmen verfolgen heute gezielt Content-Marketing-Strategien und bieten ihren Kunden über Werbebotschaften hinweg auf den verschiedenen Kanälen nutzwertige oder interessante Inhalte wie Tutorials oder Ratgeber-Videos an, die oft nur mittelbar mit dem Produkt- oder Serviceangebot zu tun haben. Diese Content-Strategie wird meist von einer SEO-Initiative (SEO = Search Engine Optimization oder Suchmaschinen-Optimierung) begleitet oder von einer Social-Web-Initiative, um möglichst viele interessierte Konsumenten auf das Inhalteangebot zu lotsen. Dort gilt es dann, Leads zu generieren oder wertvolle Nutzerprofile für weitere Marketingaktionen zu sammeln.

Einer kleinen Revolution im Online-Marketing kommt das sogenannte Programmatic Advertising gleich, das den klassischen Ein- und Verkauf von Banner-Werbung zunehmend ersetzt. Marketiers können Werbeflächen auf relevanten Websites, die ihre Zielgruppen adressieren, vollautomatisch und in Echtzeit einkaufen. Im Hintergrund läuft ein Auktionsprozess, bei dem der Höchstbietende in Millisekunden zum Zuge kommt und einen Werbeplatz mit seiner Banner-Werbung zeitlich begrenzt befüllen darf.

Den Auktionsteil dieses Werbeverfahrens beschreibt das sogenannte Real Time Bidding, bei dem Werbetreibende vor dem Start einer Kampagne festlegen, welchen Betrag sie zu zahlen bereit sind, damit ihre Kampagnen auf bestimmten Websites ausgespielt werden. Die Steuerung erfolgt über einen Adserver, der automatisiert immer die Werbung des Höchstbietenden auf den verschiedenen Seiten anzeigt und der Erfolg misst.

Beim Bietprozess entscheidet heute nicht mehr nur der Werbeplatz, sondern auch die „Qualität des Users“, der mit gezielter Online-Werbung über verschiedene Webseiten hinweg verfolgt werden kann. Das Prinzip folgt dem Gedanken, dass Menschen, die sich bereits für etwas interessiert haben, heiße Kandidaten für einen Kauf sind und deshalb häufiger adressiert werden müssen, damit es zu einer Conversion kommt. Technisch funktioniert das, indem Webshops dem Besucher einen Retargeting-Cookie mitgeben, der einen Verweis auf dessen im Adserver gespeicherten Nutzerdaten enthält. Landet der Surfer auf einer Seite, auf der Werbung über den gleichen Adserver geschaltet wird, kann der Cookie ausgelesen und gezielt die passende Werbung ausgespielt werden.

Schließlich sei auch noch das sogenannte Affiliate Marketing erwähnt, dass sich auch als Provisionsgeschäft bezeichnen lässt und sich derzeit rasant verbreitet. Stellen Sie sich vor, Sie besuchen eine Special-Interest-Site, die sich mit Wohnungseinrichtungen beschäftigt, und finden dort verlinkte Produkt- oder Markennamen vor. Klicken Sie darauf, geraten Sie auf den Shop von einem Händler oder Anbieter. Für diese Vermittlung lässt sich der Affiliate bezahlen. Kommt es gar zum Kauf, wächst der Betrag, den der Shopbetreiber überweist. Die Links sind durch einen individuellen Code gekennzeichnet, damit der Händler erkennen kann, welcher Vermittler ihm Aufträge beschert hat.

Digital Native/ Digital Immigrant

Während als „Digital Natives“ Personen bezeichnet werden, die in der digitalen Welt aufgewachsen sind, handelt es sich bei „Digital Immigrants“ um digitale Einwanderer – Menschen also, die erst im Erwachsenenalter mit digitalen Themen vertraut wurden. Wer nach 1980 geboren wurde, gilt als digital sozialisiert, da sie oder er mit Internet, Handy, E-Mail, Computerspielen, Chat-Programmen etc. aufgewachsen ist (siehe John Palfrey und Urs Gasser: „Born Digital“ https://www.amazon.de/Born-Digital-Understanding-Generation-Natives/dp/0465018564).

Umstritten ist die These, wonach Digital Natives Informationen anders verarbeiten als digitale Einwanderer, und über andere Denkmuster, vielleicht sogar andere Gehirnstrukturen verfügen. So wird mitunter behauptet, dass Digital Natives überdurchschnittlich schnell Informationen verarbeiten und zudem Aufgaben parallel erledigen können (Multitasking). Digital Immigrants ticken eher analog: Sie benutzen noch den Drucker, veranstalten reale anstatt virtuelle Konferenzen und arbeiten durchgängig konzentriert an einer Sache, anstatt beispielsweise parallel Medien zu konsumieren.

Wissenschaftler halten es mittlerweile für wenig zielführend, das Alter als ausschlaggebend für die Zugehörigkeit zu einem der beiden Lager zu bezeichnen. Der Unterschied liege eher in der Art und Weise, wie mit Technik und Medien umgegangen werde. So gebe es durchaus Digital Immigrants, die mit der Technik so sicher umgingen, als wären sie damit aufgewachsen. Gleichzeitig versteht sich nicht jeder Jüngere als Nerd und bevorzugt eher traditionelle Formen der Kommunikation und Zusammenarbeit.

Internet der Dinge/Industrie 4.0

Stellen wir uns eine Welt vor, in der nicht nur PCs, Smartphones und Wearables, sondern auch Maschinen, Haushaltsgeräte, medizinisches Equipment und so ziemlich jeder Gegenstand, den wir vor Augen haben, vernetzt ist und Daten erzeugt. Auf ein solches Internet der Dinge (Internet of Things = IoT) steuern die industrialisierte Welt und große Teile der Consumer-Märkte zu. Wachsende Netzbandbreiten, eine steigende Abdeckung durch Mobilfunk und WLAN, neue erschwingliche Übertragungstechniken und leistungsfähige Sensoren sind einige der Ingredienzien, die diesen Trend begünstigen.

Die daraus entstehenden Nutzungsszenarien sind geradezu schwindelerregend vielfältig. Denkbar ist beispielsweise der Wecker, der mit seinem morgendlichen Klingeln Kaffeemaschine, die elektrische Jalousie und die Heizung in Betrieb setzt. Oder ein smarter Fußball, dessen integrierter Chip Geschwindigkeit, Drehmoment, Entfernungen und mehr misst. Oder – im größeren Bild – eine Smart City, in der Bewegungsdaten den Verkehr optimieren, öffentliche Parkhäuser ihren Belegungsgrad anzeigen, Sensoren den Grad der Luftverschmutzung transparent machen oder schlicht Mülleimer um Entleerung bitten.

Geht es darum, die industrielle Produktion intelligenter zu machen, kommt der in Deutschland erfundene Begriff „Industrie 4.0“  ins Spiel. Ziel ist hier die sich selbst organisierende Produktion, in der Maschinen, Anlagen, Transportfahrzeuge, Produkte und Menschen direkt miteinander kommunizieren, so dass ganz Wertschöpfungsketten optimiert werden. Im Zentrum dieser Entwicklung stehen sogenannte „Cyberphysische Systeme“, die Aufgaben autonom erledigen und nur in Ausnahmefällen Aufgaben an eine übergeordnete Instanz verlagern. Vorteile sind kürzere Produktionszeiten, ein höherer Automatisierungsgrad und reduzierte Personalkosten. Außerdem wird es möglich, individueller auf Kundenwünsche einzugehen und in der vielzitierten „Losgröße 1“ zu fertigen.

Noch ist es aber nicht so weit. Das Thema Datensicherheit ist nicht gelöst, außerdem bestehen offene Rechtsfragen: Wem gehören in einer vernetzten Fabrik eigentlich die Maschinendaten? Anbieter, Kunde, Betreiber von IoT-Plattformen, Händler und andere Parteien könnten darauf Anspruch erheben.  Zudem fehlt es immer noch an Standards und Normen, um die Kommunikation zwischen Maschinen zu ermöglichen. Mit großem Engagement arbeiten derzeit Industriekonzerne, Standardisierungsgremien, Lobbyisten und Politiker daran, bei diesem volkswirtschaftlich wichtigen Thema voranzukommen. 

Plattform-Ökonomie

Für die Studie “The Rise of the Platform Enterprise: A Global Survey” , die von Peter Evans und Annabelle Gawer herausgegeben und vom Center for Global Enterprise gesponsert wurde, wurden 176 „Plattform-Unternehmen“ weltweit untersucht. Der Marktwert dieser Unternehmen beträgt insgesamt 4,3 Billionen Dollar. Die Studie identifiziert vier Plattformtypen:

„Innovationsplattformen“ dienen als technische Grundlage, auf der eine Vielzahl von Entwicklern komplementäre Produkte und Services anbieten. Apples iOS-Betriebssystem oder Googles Android sind populäre Innovationsplattformen, Entwickler schreiben dafür unzählige Apps für eine Vielzahl von Endgeräten. Die Studie identifiziert hier fünf Plattformen: die von Microsoft, Oracle, Intel, SAP und Salesforce.com.

Die Gattung der „Transaktionsplattformen“ – 160 der 176 Plattform-Unternehmen zählen in diese Kategorie - erlaubt Menschen und Institutionen mit gleichen Interessen, sich zu finden und ihre Interaktionen und kommerziellen Transaktionen zu organisieren. E-Commerce-Plattformen wie Amazon und Ebay gehören in diese Kategorie, aber auch „On-demand-Plattformen“ wie Uber und Airbnb. Diese Vermittlungsdienste haben einen hohen disruptiven Einfluss, sie setzen traditionelle Branchen massiv unter Druck.

Die dritte Kategorie der „Integrationsplattformen“ führt Innovations- und Transaktionsplattformen zusammen. Apple und Google etwa betreiben Innovationsplattformen für ihr Entwickler-Ökosystem, die entstehenden Apps sind dann aber über die Transaktionsplattform für die Massen verfügbar. Zu dieser Kategorie gehören ferner die Plattformen von Facebook, Amazon, Alibaba und XiaoMi.

Hinzu kommen „Investitionsplattformen“: Unternehmen, die ein ganzes Ökosystem von Plattformfirmen managen. Die Priceline Group ist so ein Beispiel, sie bietet über eine Reihe von Firmen, darunter Booking.com, die Reisesuche Kayak oder den Restaurant-Reservierungsdienst Opentable diverse Services an, die mehr oder weniger mit Reisen, Tourismus und Freizeitgestaltung zu tun haben.

Wie die Studienautoren schreiben, gibt es 176 Plattformfirmen, 82 davon in Asien und allein 64 in China. In den USA sind 63 Plattformen beheimatet, in Europa nur 27, die sich über zehn verschiedene Länder verteilen. Allein die 44 Plattformen, die in der San-Francisco-Bay Area angesiedelt sind, repräsentieren die Hälfte des gesamten Marktwerts von 4,3 Billionen Dollar.

Die Plattform-Ökonomie ist durchaus umstritten, da hier wenige Topunternehmen unkontrolliert weltweite Standards für die digitale Transformation setzen. Traditionsunternehmen, die nicht mitmachen, laufen Gefahr den Anschluss zu verlieren. Deshalb versuchen immer mehr solcher Industriegiganten eigene Plattformen aufzusetzen, oftmals gestützt durch Übernahmen und Partnerschaften. Weltweit ist General Electric ein Beispiel dafür, hierzulande sind Siemens, Bosch, MAN und andere Konzerne dafür bekannt

Eine aktuelle Studie von Roland Berger und IE.F warnt: „Die höchste Gefährdung für das Fair Play in der Internetökonomie und damit für die Realisierung des mit ihr verbundenen Innovationspotenzials geht von Ökosystemen aus - also Kombinationen aus Hardware, Software, Services, Content und Interaktionen von Nutzergruppen, die wie eine Spinne im Zentrum eines Wertschöpfungsnetzes sitzen und Anwendungen und Technologien verschiedener Ebenen nahtlos integrieren." Europaweite wettbewerbsrechtliche Anpassungen werden gefordert, um zu verhindern, dass Google, Facebook und Co. grundlegende digitale Infrastrukturen kontrollieren und sich wie die Kraken in die verschiedenen Märkte ausbreiten können.

Wie das zu verhindern wäre, ist umstritten. So gibt es Vorschläge, Dritte an den Datenpools von Google und Facebook etwa zu Surf- und Einkaufsverhalten von Konsumenten partizipieren zu lassen. Diskutiert wird auch, ob Google, Facebook und Co. für die europäische Wirtschaft nicht – ähnlich wie die großen Banken – als „systemrelevant“ einzustufen sind. Man stelle sich etwa vor, dass die Google-Suchmaschine für einen Tag ausfällt oder Apples AppStore nicht erreichbar wäre. Für unzählige Unternehmen wäre der Schaden immens. Wäre das der Fall, könnten für die Gatekeeper neue rechtliche Rahmen gesteckt oder geltende Gesetze anders als bislang zur Anwendung gebracht werden.

Lesen Sie auch: 7 Giganten beherrschen die Plattform-Ökonomie

Startup Safari

Im Zuge der Digitalisierung legen traditionelle Unternehmen großen Wert auf einen intensiven Austausch mit Startup-Unternehmen. Sie möchten von deren Innovationskraft und Kreativität profitieren und sich daran erinnern, wie schnell und agil kleine Unternehmen ohne bremsenden Verwaltungsapparat und lähmende Abstimmungsprozesse sein können. Also besuchen sie Startups im Silicon Valley oder auch in London und Berlin.

Sie lassen sich in solchen Startup-Safaris vom Spirit der jungen Unternehmen inspirieren und hoffen, einen Teil dieser Erfahrung im eigenen Konzern umsetzen zu können. Startups, aber ebenso Inkubatoren, Accelerators und Investment-Funds öffnen ihre Tore meistens gerne: Sie versprechen sich Auftraggeber aus der Old Economy, Partnerschaften und Finanzspritzen.

Two-Speed-IT

Große Konzerne haben ihre IT-Organisationen in der Regel so aufgestellt, dass die geschäftskritischen Systeme sicher, belastbar und den gesetzlichen Vorgaben entsprechend laufen. Das aber ist nicht die Organisationsform, die innovative IT-Initiativen begünstigt, wie sie im Zuge der digitalen Transformation immer häufiger nötig werden – weil der Kunde mit seinen Wünschen den Takt vorgibt und nicht irgendwelche Backend-Systeme.

Um hier schneller und kreativer zu werden, gehen manche Unternehmen dazu über, das Management und die Steuerung der kundenzentrierten Frontend-Systeme von der des Backends zu entkoppeln. Es entsteht eine reaktionsfähige, kundennahe IT und eine stabile, sichere Basis-IT, die sich nicht schnell verändert. In der schnellen IT gilt es, das Feedback der Kunden systematisch in die Produktentwicklung zu integrieren und die Ergebnisse schnell und fortlaufend zu evaluieren. Online-Händler können hier als Vorbild dienen.

In der Backend-IT können Unternehmen ihre für viele Teile des Business bewährten Strukturen bewahren und sich trotzdem für Neues wappnen. Im Idealfall stellt der Two-Speed-Ansatz also das Beste aus beiden Welten bereit. Voraussetzung ist allerdings, dass alle Beteiligten konsequent an einem Strang ziehen. Nach Ansicht der Management-Beratung McKinsey liegt die größte Herausforderung darin, sich darüber zu einigen, wo die Grenzen innerhalb einer Two-Speed-Organisation zu ziehen sind.

Die IT der zwei Geschwindigkeiten, auch bimodale IT, ist in den vergangenen Monaten immer mehr in die Kritik geraten. Warum, das hat das US-Wirtschaftsmagazin „Forbes“ treffend beschrieben: Man stelle sich zwei Züge auf unterschiedlichen Schienen vor - ein Personenzug, der mit 200 Stundenkilometern rast, und einen vollgepackten Güterzug, der es auf 60 Stundenkilometer bringt. Das funktioniert schnell und effizient, solange sich beide voneinander unabhängig bewegen. Probleme entstehen, wenn die Passagiere des High-Speed-Zugs immer wieder an die Ladung des Güterzugs heranmüssen. Dann muss an jeder Station auf den Güterzug gewartet werden – das Tempo der langsamen IT dominiert.

Kritiker monieren auch, dass innerhalb der IT-Bereiche eine Zweiklassen-Gesellschaft entstehen kann, in der nur ein Teil der Belegschaft mitgenommen wird in die digitale Zukunft. Befürworter der Two-Speed-IT kontern allerdings, dass eine solche Zwei-Klassen-IT heute auch schon in vielen normalen IT-Organisationen zu finden ist, da nicht alle Spezialisten flexibel oder interessiert genug sind, sich mit anderen Themen als den ihnen bekannten zu beschäftigen. Siehe auch: In 8 Schritten zur bimodalen IT.