Technologietrends 2017

Die Top-10 Technologietrends für 2017

03.02.2017 von Carlo Velten
Machine Learning und die „Cognitive Company“ sind zwei der Themen, die Unternehmen in diesem Jahr auf der Agenda haben sollten.

Für eine Vielzahl an Use Cases der digitalisierten Welt sind neue Processing- und Analysetechnologien gefragt. So spielt die Mustererkennung von Bildern, Personen oder Gegenständen zum Beispiel in der Gesundheitsvorsorge, der öffentlichen Sicherheit und auch dem Automobilsektor eine immer größere Rolle.
Auch die maschinelle Verarbeitung von Sprache in digitalen Assistenten wird in mobilen Einsatzszenarien immer wichtiger. Machine Learning-Verfahren, neuronale Netzwerke und selbstlernende Systeme („Deep Learning“) werden somit eine unerlässliche Grundlage, um große, komplexe Datenmengen in Echtzeit verarbeiten zu können. Dies gilt auch für die Kontextualisierung von Apps sowie für die Personalisierung von Cloud-Diensten und der Online Shopping-Experience. Ebenso für die autonome Steuerung von Maschinen und die Analyse von IoT-Daten im Kontext von Predictive Maintenance und Industrie 4.0.

Nicht nur die technologische Ausstattung eines Unternehmens sondern auch die Qualität der Vernetzung in unterschiedlichen Infrastrukturen könnte zukünftig über Erfolg und Mißerfolg entscheiden.
Foto: Oranzy Photography - shutterstock.com

Das Zusammentreffen von ausgereiften Machine Learning-Verfahren und nahezu unlimitierter, kostengünstiger Rechenleistung in der Cloud, ermöglicht Unternehmen einen „barrierefreien“ Einstieg in das Thema und einen exponentiellen Innovationspfad.

Neben der Aufwertung und intelligenten Steuerung von Anwendungen und Geräten werden Systeme basierend auf künstlicher Intelligenz zukünftig auch immer mehr menschliche Aufgaben, Funktionen und Verantwortlichkeiten übernehmen. So können zukünftige „Cognitive Systems“ Sprache, Gesten, Mimik oder Emotionen erkennen, interpretieren und in Entscheidungen und Handlungen überführen. Auf Basis großer Datenmengen und der Funktion der Lernfähigkeit wird Ambiguität gemeistert und die Fehlerrate menschlicher Entscheidungen reduziert. Somit entsteht sukzessive eine „Cognitive Company“, in der von der Einlasskontrolle an der Pforte, über die Qualitätskontrolle in der Fertigung bis hin zum Finanzcontrolling vieles von intelligenten Softwaresystemen assistiert oder komplett autonom gesteuert wird.

Autonomous IT und künstliche Intelligenz im Rechenzentrum

Die Innovationsdynamik im Kontext von Machine Learning und künstlicher Intelligenz macht auch vor dem Rechenzentrum und dem Management der IT-Infrastruktur nicht halt. Während in den letzten Jahren seitens der Unternehmen schon große Schritte in Richtung Automatisierung der IT-Infrastruktur gemacht wurden, steht nun ein echter Innovationssprung bevor.

Denn mittels Verfahren des Machine Learning und vor allem des Deep Learning können hunderte oder tausende unterschiedlicher Variablen und Messgrößen, die den Betrieb eines Rechenzentrums determinieren, automatisiert ausgewertet und Muster zur Optimierung mittels der neuronalen Netzwerke identifiziert werden. So lassen sich die komplexen Beziehungen zwischen den Server- und Storage-Komponenten, Netzwerktechnik, Cooling-Equipment und externen Faktoren, wie Außentemperatur, Luftfeuchtigkeit etc., nicht nur messen und steuern. Auf Basis eines selbstlernenden Systems beziehungsweise Algorithmus können die Systeme nun in Richtung eines Gleichgewichts ausgesteuert werden, das einerseits den Energieverbrauch (PuE) sowie andererseits die Auslastung der Systeme optimal ausbalanciert.

Zudem ergeben sich durch Hyperconverged Systems sowie Cloud Computing große Potenziale zur weiteren Automatisierung des Infrastruktur-Betriebs. So lassen sich auf den globalen Cloud-Plattformen Infrastrukturen (Server, Storage, Network und weiter Plattform-Dienste) mittlerweile nicht nur per Knopfdruck beziehungsweise API-Call provisionieren, sondern auch automatisiert nach vorgegebenen Regeln konfigurieren und skalieren.
Im Zeitalter des „Infrastructure-as-Code“ werden IT-Infrastrukturen über standardisierte APIs programmier- und weitgehend automatisierbar. Vor dem Hintergrund der immer komplexeren IT-Infrastrukturen, die im Kontext agiler und Microservices-basierter Architekturen entstehen, ist die Automatisierung der zugrundeliegenden IT-Infrastruktur und des IT-Betriebs eine absolute Notwendigkeit.

Welche KI-Systeme schon im Einsatz sind
Facebook Big Sur
Das unter Open-Source-Lizenz stehende KI-System setzt auf die Nvidia Tesla Accelerated Computing Platform und übernimmt bei Facebook heute komplexe Aufgaben, für die früher auf Drittanbieter-Hardware zurückgegriffen werden musste.
Google RankBrains
Für Suchanfragen, die erstmalig auftauchen, soll RankBrains menschliche Schriftsprache in mathematische Vektoren übersetzen, die die Suchengine dann verarbeiten kann. Diese Form des maschinellen Lernens wird mit steigender Zahl bislang unbekannter Suchanfragen immer besser. Wissbegierige Internetnutzer trainieren das System quasi unbewusst.
Google Deepmind AlphaGo
Besiegte kürzlich den Welt- und den Europameister im asiatischen Brettspiel Go: das KI-System Alpha Go, das von Google Deepmind entworfen wurde.
SwiftKey Neural Alpha
Wer SMS schreibt, bekommt schon länger Wortvorschläge. Mit Neural Alpha will "n-gram"-Erfinder SwiftKey nun aber auch ganze Satzzusammenhänge vorhersagen und so die Texteingabe noch intuitiver machen.
Open AI
Investor und Tesla-Gründer Elon Musk erforscht in der "Open AI"-Initiative zusammen mit anderen Silicon-Valley-Vordernkern die Künstliche Intelligenz zum Wohle der Menschheit. Damit wir keine bösen Terminatoren bekommen, die uns alle versklaven wollen...
Microsoft XiaoIce
Der Microsoft-"Virtual Social Assistant" XiaoIce trägt seit Ende 2015 den Wettbericht im chinesischen Fernsehen komplett ohne menschliche Hilfe vor.
Roboter-Concierge Connie
Wenn Sie demnächst in einem Hilton absteigen, könnten Sie einem kleinen Roboter-Concierge begegnen: "Connie" arbeitet mit Watson-Technologie von IBM und steht Hotelgästen mit Rat und Tat zur Seite. Das Pilotprojekt läuft gerade in den USA.

Viele der Cloud-Provider bieten mit ihren Angeboten des „Serverless Computing“ einen weiteren Schritt in diese Richtung, in dem der Infrastrukturbetrieb für bestimmte Event-driven Workloads komplett seitens des Providers übernommen sowie vollständig automatisiert und autonom skaliert wird. Der Kunde übergibt nur noch den Anwendungscode beziehungsweise die Business-Logik. Den Rest übernimmt die Cloud-Plattform selbständig.

Der Charakter der zukünftigen „Digital Infrastructure Platforms“ – egal ob On-Premise oder in der Cloud – lässt sich somit als regelbasiert, selbstlernend und selbstheilend beschreiben. Daher müssen sich CIOs und IT-Infrastruktur-Verantwortliche mit der Frage beschäftigen, wie sie sukzessive die Verantwortung für ihre Infrastrukturen in Richtung autonomer Management- und Monitoring-Systeme übergeben und wie dieser Transformationsprozess auf technologischer und organisatorischer Ebene zu gestalten ist. Auf jeden Fall werden neue Skills und Rollen im Rechenzentrum benötigt, um die Welten der heutigen IT-Infrastruktur und der künstlichen Intelligenz erfolgreich miteinander zu verbinden.

IoT und Software-Defined Products

Ob Zahnbürste, Kettensäge, Küchengerät oder Premium-Automobil. Die Produkte der Zukunft sind „Software-Defined“, sprich ein wesentlicher Teil des Produktnutzens ergibt sich aus den Software-basierten Funktionalitäten, Sensorik und der Vernetzung der Geräte zu einer ganzheitlichen IoT-Lösung beziehungsweise einem „Software-Defined Product“. Hardware und Materialeigenschaften treten in den Hintergrund.
Software-Entwicklung wird somit ein zentraler Aspekt der klassischen Produktentwicklung und des Produkt Lifecycle Managements. Dafür müssen Corporate IT und Product IT zusammenwachsen. In einer Welt der Software-definierten, Sensor-basierten und vernetzten Produkte werden auch die Geschäfts- und Preismodelle „programmierbar“. Diese werden zukünftig serviceorientiert, kontextbasiert und personalisiert ausgestaltet und individuelle, nutzungsabhängige Abrechnungs- und Pricing-Mechanismen in Echtzeit ermöglichen.

Industry Clouds & Data Hubs

Traditionelle Industrie- und Technologiekonzerne arbeiten derzeit mit Hochdruck daran, ihre Organisationen und Geschäftsmodelle fit für das digitale Zeitalter zu machen. Der Fokus richtet sich hierbei vor allem auf die Themen IoT und Industrial Internet (Industrie 4.0) und die neuen datenbasierten Services und Geschäftsmodelle rund um Smart Cities, Connected Buildings, Predictive Maintenance und autonomer Verkehr. Und das aus einem guten Grund. Schließlich birgt die Vernetzung und Automatisierung von Fertigungsanlagen, Infrastrukturen, Verkehrssystemen und Logistikketten enorme Effizienzsteigerungen und Flexibilisierungsmöglichkeiten.

In Rahmen dieser Transformationen zeigt sich ein deutlicher Trend hin zu mehr Industrie- beziehungsweise branchenfokussierten Cloud-Umgebungen und Plattformen. Allen voran GE gilt hier mit seiner Predix PaaS-basierten IoT-Platform als Vorreiter im Markt. Aber auch andere Industriegrößen wie Bosch, die in 2017 ihre Bosch IoT-Cloud offiziell veröffentlichen werden, zeigen in welche Richtung sich der Cloud- und IoT-Markt bewegen wird.

Ähnliches ist von Branchenriesen aus anderen Industrien, zum Beispiel Volkswagen oder Ford (Automotive Clouds), zu erwarten. Die Industry Clouds der globalen Industriekonzerne bergen ein enormes Potenzial, da GE, Bosch & Co. in weit verzweigte und langjährig etablierte Partner- und Lieferantennetzwerken eingebettet sind. Die, für das digitale Geschäft, so wichtigen „Ökosysteme“ sind schon existent und müssen nur richtig aktiviert und entwickelt werden. Denn derzeit befinden sich viele der mittelständischen Zulieferer und Partner noch im „digitalen Dornröschenschlaf“.

Digitalisierung in der BMW-Versorgungslogistik
Selbstfahrender Roboter in der BMW Group Versorgungslogistik
Selbstfahrender Roboter in der BMW Group Versorgungslogistik
Flankiert von Funksendern und ausgestattet mit einer digitalen Karte fährt der Roboter selbstständig zum Bestimmungsort der Ware
Flankiert von Funksendern und ausgestattet mit einer digitalen Karte fährt der Roboter selbstständig zum Bestimmungsort der Ware
Selbstfahrender Roboter in der BMW Group Versorgungslogistik
Selbstfahrender Roboter in der BMW Group Versorgungslogistik
Selbstfahrender Roboter in der BMW Group Versorgungslogistik
Den Fahrweg teilen sich die Roboter mit Menschen und anderen Fahrzeugen

„Industry Clouds“ werden zukünftig neben den horizontalen beziehungsweise generischen Cloud-Plattformen von AWS, Microsoft & Co. eine wichtige Säule der IoT-Lösungen und Prozesse sein und als „Data Hub“ agieren, auf denen branchenspezifische Datenbestände aggregiert, gemeinsam genutzt und kommerzialisiert werden. Vertrauen, branchenbezogene Standards und Sicherheit spielen hier eine gleichwertige Rolle neben Skalierbarkeit und Innovationsgeschwindigkeit.

Renaissance der Hardware – Von GPU bis Quantenrechnerei

Nachdem die erste Dekade des Cloud-Computing (von 2006-2016) ganz im Zeichen der Virtualisierung der Rechen- und Speicherleistung stand, zeichnet sich für die nächsten zehn Jahre eine Rückkehr der Hardware ab. Bislang bauten Unternehmen ihre Cloud-Umgebungen auf Basis virtueller Umgebungen (Server, Storage, Netzwerk) sowie höherwertigen Plattformdiensten (PaaS) auf.

Da aber die Packungsdichte auf den Schaltkreisen handelsüblicher Prozessoren in den kommenden zehn Jahren die Grenze von 5 – 10 Nanometern erreichen wird, stößt man beim Chip-Design an atomare - sprich physikalische Grenzen. Im Bereich von unter 5 Nanometern lassen sich elektrische Ladungen nicht mehr kontrollieren. Um dem Moore´schen Gesetz weiter Gültigkeit zu verleihen und auch weiterhin kosteneffiziente Fortschritte bei der Rechenleistung zu machen, müssen die Technologieanbieter neue Prozessor-Architekturen und Hardware-Konzepte entwickeln. Diese reichen von vertikal beziehungsweise mehrlagig strukturierten Chips bis hin zu ersten Generationen des Quantencomputing
CIOs sollten davon ausgehen, dass zukünftig wieder deutlich mehr unterschiedliche Prozessor- und Servertypen zu unterstützen und zu administrieren sind. Die Zeiten eines einheitlich auf X86-Basis konsolidierten Rechenzentrums neigen sich dem Ende zu. Hierfür sollte man sich strategisch ausrichten und entsprechende Skills aufbauen.

Machine Learning FAQ
Facebook-Gesichter
Computer können lernen, menschliche Gesichter zu unterscheiden. Facebook nutzt das für die automatische Gesichtserkennung.
Machine Learning
Anders als das Bild suggeriert ist Machine Learning ein Teilgebiet von Artificial Intelligence – allerdings ein sehr wichtiges.
AlphaGo
Maschine schlägt Mensch: 2016 besiegte Googles Machine Learning System AlphaGo den Weltmeister im Spiel Go.
Grafikprozessoren GPU Nvidia
Die führenden Companies im Machine Learning nutzen für die parallele Verarbeitung der Daten Grafikprozessoren (GPUs) - etwa von Nvidia.
Deep Learning
Deep Learning Verfahren lernen erst Low-Level Elemente wie Helligkeitswerte, dann Elemente auf mittlerer Ebene und schließlich High-Level Elemente wie ganze Gesichter.
IBM Watson
IBM Watson integriert mehrere Artificial Intelligence Methoden: Neben maschinellem Lernen sind das Algorithmen der natürlichen Sprachverarbeitung und des Information Retrieval, der Wissensrepräsentation und der automatischen Inferenz.

So werden die CIOs und IT-Infrastrukturentscheider schon in den nächsten Jahren mit ganz konkreten Anforderungen konfrontiert sein, die neue Hardware-Konzepte – auch im Cloud-Kontext – erfordern. Der produktive Einsatz von Machine Learning-Verfahren beispielsweise, erfordert meist immense Rechenkapazität und idealerweise ein speziell dafür ausgelegtes Prozessor-Design. So bieten bereits viele Cloud- und Technologieanbieter auf Grafikkarten basierende Rechenleistung beziehungsweise Server (GPU) an. Google und andere Internetfirmen bauen speziell für diesen Einsatzzweck eigene Prozessoren.

Hinzu kommt, dass in verschiedenen Anwendungfällen eine dedizierte Hardware gegenüber virtuellen Maschinen immer noch ihre Vorteile haben kann (Performance, Kosteneffizienz). So stellt IBM/Softlayer schon seit Jahren auch „Bare-Metal“-Server innerhalb von 2-4 Stunden weltweit über seine Cloud-Plattform bereit. Diese sogenannten „Hardware-Clouds“ werden in den nächsten Jahren einen deutlichen Zuspruch erfahren und werden derzeit von den Cloud-Anbietern mit Hochdruck weiterentwickelt.
Microsoft geht derzeit noch einen Schritt weiter und bietet Administratoren und Entwicklern auf Basis programmierbarer Chips, sogenannter FPGAs (Field Programmable Gate Array), deutlich mehr Freiheiten und die Möglichkeit, ihre Anwendungen auf Ebene der Mikroprozessoren zu entwickeln und abzustimmen.

Ebenso halten im Kontext von IoT-Szenarien und Edge Computing neue Hardware- und Prozessor-Plattformen in den Unternehmen Einzug, die es seitens der IT zu unterstützen gilt (ARM, Arduino etc.). Der Betrieb einer Flotte von mehreren zehntausend vernetzten IoT-Geräten stellt dabei infrastruktur- sowie sicherheitstechnisch vollkommen neue Herausforderungen.

Digitale Assistenten und Bots

Durch die Innovationssprünge im Bereich der künstlichen Intelligenz und insbesondere der Spracherkennung und -verarbeitung, eröffnen sich in Bezug auf die Entwicklung digitaler Assistenzsysteme vollkommen neue Möglichkeiten. So werden die digitalen Assistenten und Bots in den kommenden Jahren massenmarkttauglich, da diese in Smartphones standardmäßig integriert sind und so Milliarden von Nutzern zur Verfügung stehen. Dies ist für deren Weiterentwicklung elementar, denn für die weitere Optimierung der Algorithmen zur Spracherkennung braucht es vor allem Trainingsdaten von möglichst vielen Nutzern.

Das disruptive Potenzial von digitalen Assistenten liegt darin, dass diese nicht nur ein sprachbasiertes User Interface bieten, das die Ein- / Ausgabe via Webanwendung oder mobiler App überflüssig macht. Sie bieten vor allem die Möglichkeit zur automatisierten Ausführung von konkreten Aufgaben. So lassen sich Terminkoordination, eCommerce-Transaktionen, Support-Anfragen oder die Bedienung der eigenen Smart Home-Lösung bequem über einen digitalen Assistenten per Sprach- oder Chat-Befehl erledigen. Dies spart Zeit und schafft ein enormes Potenzial zur Automatisierung der zugrundeliegenden Prozesse – vorausgesetzt, diese sind bereits standardisiert und lassen sich per API anbinden.

Durch die Verknüpfung unterschiedlicher externer Dienste via API und die Möglichkeit zur freien Programmierung entsprechender Bot-Routinen und Events, entstehen derzeit hoch kreative und mächtige Ökosysteme. Auch trägt eine neue Generation von Bot-bezogener Hardware zur weiteren Verbreitung der Technologien bei, da diese nun in jedem Wohnzimmer, Küche oder Büro präsent und „always-on“ geschaltet sind. Die Hemmschwelle, das eigene Smartphone zu zücken, um den Assistenten zu aktivieren, entfällt zunehmend und macht die digitalen Assistenten zum alltäglichen Begleiter im privaten wie beruflichen Kontext.

Von Smart Cities bis zum digitalen Gesundheitswesen

Der digitale Mehrwert vernetzter Produkte kann sich nur voll entfalten, sofern diese in ein größeres Ökosystem eingebettet sind. Nur wenn die öffentliche sowie private Infrastruktur in Form von Kommunikationsnetzen, Verkehrsleitsystemen, öffentlichem Nahverkehr, öffentlichen Gebäuden oder medizinischer Versorgung entsprechend vernetzt ist und Standards schafft, können innovative digitale Produkte und Dienste angedockt und für den Anwender transparent gemacht und integriert bereitgestellt werden.

Die nächste Stufe der digitalen Transformation können die Unternehmen nur erklimmen, sofern Staat und Unternehmen gemeinsam eine möglichst einheitliche, auf Standards basierende digitale Infrastruktur schaffen. Diese kann Innovationsanreize setzen, indem Entwicklungs- und Integrationskosten reduziert, Daten in Form von „Open Data“ allen zur Verfügung stehen und einheitliche, rechtskonforme Nutzungs- und Kommerzialisierungsmechanismen für Partner und Firmen geschaffen werden. So entstehen beispielsweise neue Apps im Gesundheitswesen, der Bildung und dem Nahverkehr, die dann auch skalieren. Denn nur wenn sich die staatlichen Infrastrukturen der Digitalisierung öffnen, lassen sich Märkte für die Innovationspartner profitabel erschließen. Diese Aufgabe können Startups und IT-Unternehmen nicht alleine bewerkstelligen.

Mixed Reality - Virtual & Holographic Computing

In 2017 werden Virtual- und Augmented Reality-Technologien den Durchbruch im Unternehmensumfeld schaffen, da nun einerseits die technologische Reife der Hardware gegeben ist und andererseits genügend Anwendungen im Unternehmensumfeld existieren. Zudem bilden sich rund um die Plattformen herum digitale Ökosysteme von Partnerunternehmen, die branchenbezogene Lösungen und virtuelle Modelle entwickeln.

Virtual Reality: VR-Brillen im Überblick
Oculus-Rift
Die spezielle VR-Brille in Kombination mit Sound über Kopfhörer schirmt den Betrachter der virtuellen Welt komplett von der realen Umgebung ab. Die virtuelle Welt lässt sich rundum im 360-Grad-Blickwinkel erkunden und der Anwender kann mit ihr interagieren.
HTC Vive
Gemeinsam mit dem Software-Unternehmen Valve entwickelte HTC die VR-Brille HTC Vive. Obwohl Valve ein Unternehmen für Spiele-Software ist, strebt HTC den Einsatz der Brille auch im geschäftlichen Bereich an, etwa im medizinischen Umfeld und in der Automobilbranche.
Oculus-Rift
Die VR-Brille Oculus Rift entwickelte die Firma Oculus VR. Sie gilt allgemein als der Pionier unter den Herstellern von VR-Brillen. Nachdem das erste Entwickler-Modell im Jahr 2013 vorgestellt wurde, ist die endgültige Version seit März dieses Jahr für den Endverbraucher verfügbar. Die Brille gibt es unter den Bezeichnungen Oculus Rift für den Anschluss an einen PC und Oculus Gear zur Verwendung mit einem Samsung-Smartphone.
Samsung Gear-VR
Diese Samsung VR-Brille entstand in Zusammenarbeit mit Oculus VR. Bis heute wurden mehrere Versionen vorgestellt. Sie ist ausschließlich für Smartphones der Modelle Samsung Galaxy Note 4, Galaxy S6, Galaxy S6 Edge (+) und Note 5 zu verwenden. Auch die Software der Brille stammt von der Firma Oculus VR.
Microsoft HoloLens
Die Brille von Microsoft wird für Augmented Reality im privaten und industriellen Einsatz entwickelt. Die bisher gezeigten Anwendungen sind spektakulär.
Google Cardboard
Eine der einfachsten VR-Brillen, aber eine geniale Idee, um preiswert und schnell in die VR-Welt einzutauchen. Für rund 20 Euro erhält man ein Stück Pappe, aus dem nach Faltanleitung eine VR-Brille entsteht, und ein optisches Linsensystem aus Plastik. Die Cardboardbrille ist ausschließlich für Smartphones als Display geeignet. Dazu wird das Smartphone in die Pappbrille eingeschoben und die gewünschte VR-App gestartet.

Im Gesundheitswesen ergeben sich viele Einsatzmöglichkeiten, von der Behandlung von Angststörungen bis Rehabilitation im Kontext von Gehirnschäden. Im Journalismus können die Technologien einen realistischen Einblick und ein Miterleben von Nachrichten ermöglichen („Immersion Journalism“). Das realistische Rekonstruieren von Tatorten und kriminellen Abläufen im Rahmen von Strafverfahren zählt ebenso zu den möglichen Use Cases wie der Einsatz von Augmented Reality bei der Schaffung eines neuen Einkaufserlebnisses.

In der Industrie spielen vor allem der Einsatz von VR in vernetzten IoT- und Wartungsszenarien eine Rolle, um beispielsweise Servicetechnikern die Installation, Wartung und Instandhaltung von Maschinen und Anlagen zu erleichtern. So können relevante Produktinformationen, defekte Teile und Lieferbestände direkt vor das Auge des Technikers gebracht werden, ohne, dass er sich von seinem Arbeitsplatz entfernen muss. Auch im Bereich des Corporate Training werden VR-Technologien vollkommen neue und kosteneffiziente Möglichkeiten schaffen, um Mitarbeiter in der Bedienung komplexer Maschinen und Systeme zu schulen.

Blockchain

Seit im Jahr 2009 mit Bitcoin eine der derzeit populärsten Kryptowährungen auf Blockchain-Basis vorgestellt wurde, haben sich die Technologie und ihre Anwendungsmöglichkeiten sehr dynamisch weiterentwickelt und ausgeweitet. So existieren mittlerweile nicht nur über 600 verschiedene Kryptowährungen, die die Blockchain zur Speicherung von Transaktionen und Übertragung von Währungseinheiten nutzen, sondern eine Vielzahl von spannenden Use Cases, wie zum Beispiel der Zugang zu physischen Gegenständen durch Management von Schlüsseln für Mietautos, Schließfächer, Wohnungen oder Hotels. Oder die nicht veränderbare Dokumentation von Daten für Dritte, wie beispielsweise Handelspapiere, GPS-Daten, Genomdaten, Krankenakten oder Produktionsdaten sowie der Nachweis von Urheber- oder Markenrechten. Auch schon realisiert werden finanzielle Instrumente wie Handelspapiere, Anleihen und Derivate sowie der Abschluss und die Abwicklung von Treuhandverträge.

Zum Video: Die Top-10 Technologietrends für 2017

Die Blockchain-Technologie ist als eine Art von verteiltem Grundbuch oder Register (engl. Ledger) zu verstehen, in dem Transaktionen sequentiell in Blöcke gruppiert, miteinander verkettet und verschlüsselt werden. Sie schafft somit einen „Trust-Layer“, der es verschiedenen nicht bekannten Akteuren ermöglicht, ohne Intermediäre (Börsen, Banken, Notare etc.) Transaktionen und Verträge („Smart Contracts“) abzuschließen. Hierin besteht ein disruptives Potenzial und die Möglichkeit in vielen Branchen die Transaktionskosten deutlich abzusenken. Aus der Perspektive von Crisp Research sind vor allem die Finanzindustrie, Supply Chains, das Gesundheitswesen und IoT-Anwendungen von der Innovationskraft der Blockchain betroffen.

Distributed Security

Sicherheit der digitalen Prozesse, der Daten sowie der Firmenkommunikation wird für immer mehr Unternehmen zur Top-Priorität. Dabei gilt es, sich auf neue und vor allem mehr Angriffsvektoren einzustellen. Neben klassischer Wirtschaftsspionage, die auf das Intellectual Property abzielt, müssen Unternehmen sich verstärkt auf Angriffe durch organisierte Kriminalität sowie im Einzelfall auf staatsgelenkte Cyberangriffe einstellen. So wird aktuell auch in Deutschland eine Vielzahl von Unternehmen mittels gezielter DDoS-Attacken erpresst. Zudem gilt es für CIOs und CISOs, sich darauf einzustellen, dass IT-Sicherheit und Datenschutz im mobilen und Cloud-Zeitalter nicht mehr nach den klassischen Verteidigungsstrategien funktionieren kann. Wenn tausende Mitarbeiter weltweit unterwegs und in hunderten von Unternehmenslokationen verteilt und über das Internet und Mobilfunknetze angebunden sind, ist eine IT-Sicherheitsstrategie mit globaler Reichweite gefordert.

Die größten Cyberangriffe auf Unternehmen
Die Top 15 Hacker-Angriffe auf Unternehmen
Unternehmen weltweit rücken seit Jahren in den Fokus von Hackern und Cyberkriminellen. Identitäts- und Datendiebstahl stehen bei den Anhängern der Computerkriminalität besonders hoch im Kurs - kein Wunder, dass Cyber-Risk-Versicherungen immer mehr in Mode kommen. Wir zeigen Ihnen 15 der größten Hacking-Attacken auf Unternehmen der letzten Jahre.
Yahoo
Erst im September musste Yahoo den größten Hack aller Zeiten eingestehen. Nun verdichten sich die Anzeichen, dass dieselben Hacker sich bereits ein Jahr zuvor deutlich übertroffen hatten: Bei einem Cyberangriff im August 2013 wurden demnach die Konten von knapp einer Milliarde Yahoo-Usern kompromittiert. Dabei wurden Namen, E-Mail-Adressen, Telefonnummern, Geburtsdaten und verschlüsselte Passwörter abgegriffen.
Dyn
Eine massive DDoS-Attacke auf den DNS-Provider Dyn sorgt im Oktober für Wirbel: Mit Hilfe eines Botnetzes – bestehend aus tausenden unzureichend gesicherten IoT-Devices – gelingt es Cyberkriminellen, gleich drei Data Center von Dyn lahmzulegen. Amazon, GitHub, Twitter, die New York Times und einige weitere, große Websites sind über Stunden nicht erreichbar.
Cicis
Auch die US-Pizzakette Cicis musste Mitte 2016 einen Hackerangriff eingestehen. Wie das Unternehmen mitteilte, wurden die Kassensysteme von 130 Filialen kompromittiert. Der Diebstahl von Kreditkartendaten ist sehr wahrscheinlich. Wie im Fall von Wendy's und Target gelang es Hackern auch bei Cicis Malware in das Point-of-Sale-Kassensystem einzuschleusen. Erste Angriffe traten bereits im Jahr 2015 auf, im März 2016 verstärkten sich die Einzelattacken zu einer groß angelegten Offensive. Nach eigenen Angaben hat Cicis die Malware inzwischen beseitigt.
Wendy's
Anfang Juli 2016 wurde ein Hacker-Angriff auf die US-Fastfood-Kette Wendy’s bekannt. Auf den Kassensystemen wurde Malware gefunden – zunächst war von weniger als 300 betroffenen Filialen die Rede. Wie sich dann herausstellte, waren die Malware-Attacken schon seit Herbst 2015 im Gange. Zudem ließ die Burger-Kette verlauten, dass wohl doch bis zu 1000 Filialen betroffen seien. Die Kreditkarten-Daten der Kunden wurden bei den Malware-Angriffen offenbar ebenfalls gestohlen. Wie im Fall von The Home Depot hatten sich die Hacker per Remote Access Zugang zum Kassensystem der Fast-Food-Kette verschafft.
Heartland Payment Systems
Noch heute gilt der 2008 erfolgte Cyberangriff auf das US-Unternehmen Heartland Payment Systems als einer der größten Hacks aller Zeiten wenn es um Kreditkartenbetrug geht. Heartland ist einer der weltweit größten Anbieter für elektronische Zahlungsabwicklung. Im Zuge des Hacks wurden rund 130.000.000 Kreditkarten-Informationen gestohlen. Der Schaden für Heartland belief sich auf mehr als 110 Millionen Dollar, die zum größten Teil für außergerichtliche Vergleiche mit Kreditkartenunternehmen aufgewendet werden mussten. Verantwortlich für den Hack war eine Gruppe von Cyberkriminellen. Deren Kopf, ein gewisser Albert Gonzalez, wurde im März 2010 wegen seiner maßgeblichen Rolle im Heartland-Hack zu einer Haftstrafe von 20 Jahren verurteilt. Heartland bietet seinen Kunden seit 2014 ein besonderes Security-Paket - inklusive "breach warranty".
Sony Playstation Network
Im April 2011 ging bei vielen Playstation-Besitzern rund um den Globus nichts mehr. Der Grund: ein Cyberangriff auf das digitale Serviceportal Playstation Network (PSN). Neben einer Ausfallzeit des PSN von knapp vier Wochen (!) wurden bei der Cyberattacke jedoch auch die Daten (Kreditkarteninformationen und persönliche Daten) von rund 77 Millionen PSN-Abonennten gestohlen. Sony informierte seine Nutzer erst rund sechs Tage über den Hack - und musste sich dafür harsche Kritik gefallen lassen. Die Kosten des PSN-Hacks beliefen sich auf circa 170 Millionen Dollar. Die Verantwortlichen wurden bislang nicht identifiziert.
Livingsocial.com
Die Online-Plattform Livinggsocial.com (inhaltlich vergleichbar mit Groupon) wurde im April 2013 Opfer eines Hacker-Angriffs. Dabei wurden die Passwörter, E-Mail-Adressen und persönlichen Informationen von circa 50 Millionen Nutzern der E-Commerce-Website gestohlen. Glücklicherweise waren die Finanzdaten von Kunden und Partnern in einer separaten Datenbank gespeichert. Die Verursacher des Security-Vorfalls wurden nicht identifiziert.
Adobe Systems
Mitte September 2013 wurde Adobe das Ziel von Hackern. Circa 38 Millionen Datensätze von Adobe-Kunden wurden im Zuge des Cyberangriffs gestohlen - darunter die Kreditkarteninformationen von knapp drei Millionen registrierter Kunden. Die Hacker die hinter dem Angriff standen, wurden nicht gefasst.
Target Corporation
Die Target Corporation gehört zu den größten Einzelhandels-Unternehmen der USA. Ende des Jahres 2013 musste Target einen Cyberangriff eingestehen, bei dem rund 70 Millionen Datensätze mit persönlichen Informationen der Kundschaft gestohlen wurden. Weitaus schwerer wog jedoch, dass unter diesen auch 40 Millionen Datensätze waren, die Kreditkarteninformationen und sogar die zugehörigen PIN-Codes enthielten. Für außergerichtliche Einigungen mit betroffenen Kunden musste Target rund zehn Millionen Dollar investieren, der damalige CEO Gregg Steinhafel musste ein halbes Jahr nach dem Hack seinen Hut nehmen.
Snapchat
Ein kleiner Fehler führte Ende Dezember 2013 dazu, dass Hacker die Telefonnummern und Nutzernamen von 4,6 Millionen Snapchat-Usern veröffentlicht haben. Snapchat selbst geriet darauf ins Kritikfeuer von Nutzern und Sicherheitsforschern, denn wie so oft war die Ursache für die Veröffentlichung der Daten ein Mangel an Sicherheitsvorkehrungen. Die von Hackern verursachten Probleme sind jedoch meist weniger schlimm als der Schaden, der nach der Veröffentlichung folgt. Auch wenn man seinen Nutzernamen oder seine Telefonnummer nicht als großes Geheimnis ansieht – ein motivierter Angreifer wie ein Stalker oder ein Identitäts-Dieb könnten mit diesen Daten Übles anrichten. Dieser Hack zeigt wiederum, dass alle Daten wichtig sind - vor allem wenn sie den Nutzern gehören. Man kann mit Sicherheit davon ausgehen, dass die Entwickler von Snapchat diesen Sicherheitsfehler gerne vor den Hackern gefunden hätten.
Ebay Inc.
Im Mai 2014 wurde Ebay das Ziel von Cyberkriminellen. Zwar wurden bei der Attacke keine Zahlungsinformationen entwendet - dafür aber E-Mail-Adressen, Usernamen und Passwörter von knapp 145 Millionen registrierten Kunden. Die Hacker erlangten scheinbar über von Ebay-Mitarbeitern gestohlene Logins Zugriff auf die Datenbanken des Unternehmens. Die Verantwortlichen wurden nicht identifiziert.
J.P. Morgan Chase
Mit J.P. Morgan rückte im Juli 2014 eine der größten US-Banken ins Visier von Cyberkriminellen. Rund 83 Millionen Datensätze mit Namen, Adressen und Telefonnummern von Kunden fielen den Hackern in die Hände. Zugang erlangten die Kriminellen offensichtlich über gestohlene Login-Daten eines Mitarbeiters. Allerdings musste sich J.P. Morgan den Vorwurf gefallen lassen, seine Systeme nicht ausreichend zu schützen. Inzwischen wurden in den USA und Israel vier Personen festgenommen, die mutmaßlich an diesem Hack beteiligt waren.
The Home Depot
Die US-Baumarktkette The Home Depot wurde im September 2014 Opfer eines besonders hinterhältigen Hacks. Cyberkriminelle hatten es geschafft, Malware in das Kassensystem von über 2000 Filialen einzuschleusen. Die Folge davon: 56 Millionen Kreditkarteninformationen von Bürgern der USA und Kanada wurden direkt bei der Zahlung in den Home-Depot-Geschäften entwendet. Darüber hinaus fielen auch noch 53 Millionen E-Mail-Adressen in die Hände der Hacker. Der Schaden für das US-Unternehmen wird auf rund 62 Millionen Dollar beziffert.
Anthem Inc.
Anthem gehört zu den größten Krankenversicherern der USA. Im Februar 2015 gelang es Cyberkriminellen, persönliche Daten von circa 80 Millionen Kunden zu stehlen. Die Datensätze enthielten Sozialversicherungsnummern, E-Mail-Adressen und Anschriften. Darüber hinaus wurden auch Gehaltsinformationen von Kunden und Angestellten entwendet. Immerhin: Medizinische Daten sollen nicht betroffen gewesen sein. Verschiedenen Security-Experten zufolge führt die Spur des Hacks nach China.
Ashleymadison.com
Anschriften, Kreditkartennummern und sexuelle Vorlieben von circa 40 Millionen Usern hat eine Hackergruppe namens Impact Team im August 2015 nach einem Cyberangriff auf das Seitensprung-Portal Ashley Madison öffentlich gemacht. Der Angriff bewies, dass Ashley Madison nicht – wie eigentlich versprochen – persönliche Informationen der Nutzer gegen eine Gebühr löschte. Das erbeutete 30-Gigabyte-Paket beinhaltete insgesamt 32 Millionen Datensätze, darunter 15.000 Regierungs- und Militäradressen von Nutzern. Auch Teile des Seitenquellcodes und interne E-Mails der Betreiber lagen dadurch offen. Aufgrund der intimen Nutzerdaten und der geheimnisvollen Natur von Ashley Madison ist dieser Hackerangriff besonders heikel. Dass die Betreiber persönliche Daten auch auf Wunsch nicht vernichtet haben, zeigt ein Problem von Unternehmen, die personenbezogene Daten auf verschiedenen Systemen verarbeiten. Aber auch solche Unternehmen müssen Nutzerinformationen gegen Gefahren schützen – ganz gleich, ob die Gefahr von externen Hackern, böswilligen Insidern oder zufälligen Datenverlusten ausgeht. Ein Ashleymadison-User hat inzwischen vor einem Gericht in Los Angeles Klage gegen Avid Life Media eingereicht. Der Vorwurf: fahrlässiger Umgang mit hochsensiblen Daten. Ein Antrag auf Sammelklage ist ebenfalls bereits eingegangen. Sollte das Gericht diesem folgen, könnten ALM Schadenersatzforderungen in Milliardenhöhe ins Haus stehen.

Mit einem steigenden Vernetzungsgrad der eigenen Produkte im Kontext der Digitalisierung und IoT-Szenarien korreliert auch ein höherer Verletzungsgrad der Unternehmen. Gerade vernetzte, mobile Geräte (IoT) stellen ein hohes Sicherheitsrisiko und einen der neuen Angriffsvektoren dar. Hier gilt es besonders hohe Maßstäbe hinsichtlich der Absicherung von Steuerungsfunktionen und Daten anzulegen.

Auch müssen die Unternehmen und ihre Sicherheitsverantwortlichen sich auf die Novellierung der Europäischen Datenschutzverordnung einstellen, die im Jahr 2018 in Kraft tritt (GDPR- General Data Protection Regulation). Diese erfordert von den Unternehmen die Fähigkeit, jederzeit Transparenz und Handlungsmacht über alle kunden- und personenrelevanten Daten zu haben und beispielsweise nachweisen zu können, dass bestimmte Datensätze konzernweit und über Dienstleistergrenzen hinweg gelöscht oder geändert wurden. Eine Aufgabe, welcher die Unternehmen nur mit einer weiteren Automatisierung ihrer IT-Infrastruktur und ihres Datenmanagement Herr werden können.