Auch kann die Abstraktion von IT-Infrastruktur via Virtualisierung im Kontext von Machine Learning eher eine Barriere beziehungsweise ein Kostentreiber sein, auf den man gerne verzichtet. Folgende Trends zeichnen sich auf der Hardware- und Infrastrukturseite ab:
Machine Learning-as-a-Service: Nutzung von generalisierten Machine Learning-Diensten, wie zum Beispiel Bilderkennung, Sentimentanalyse etc., via API auf den großen Cloud-Plattformen
Grafik-Chips: Der Einsatz von GPUs verspricht beim Processing von Machine Learning deutliche Performance- und Effizienz-Vorteile und wird von Unternehmen wie Nvidia derzeit mit neuen Enterprise-kompatiblen Produktlinien deutlich vorangetrieben.
Spezial-Hardware: Mittels Spezial-Hardware, wie sogenannter FGPA (Field Programmable Gate Array) oder auch ASIC (Application-Specific Integrated Circuit), lassen sich Performance und Effizienz beim Processing von Machine Learning-Verfahren weiter verbessern. So nutzt Microsoft auf der eigenen Azure Cloud sogenannte FPGA´s. Google hat vor einiger Zeit unter dem Namen Tensor seine Spezial-Hardware zur Kalkulation von Machine Learning- und vor allem Deep Learning-Algorithmen gelaunched, auch wenn diese derzeit nur in den Google-Rechenzentren betrieben und noch nicht vertrieben werden.
Systems-on-the Chip (SoC): Hinzu kommt der Trend, dass immer mehr IoT-Geräte und vernetzte Produkte auf eine eigene Compute-Unit und Intelligenz, zum Beispiel in Form von Machine Learning-Algorithmen, zurückgreifen müssen. Mit "Systems-on-the-Chip" beziehungsweise "Systems-on-the-programmable-Chip" werden autonome bzw. teil-autonome Embedded Systems (vernetzte Autos, Kühlschränke, Smarte Funktionskleidung etc.) ermöglicht, die einen Großteil des sogenannten "Edge Computing" bzw. "Fog Computing" ausmachen.
Für Digitalisierungsentscheider, als auch CIOs- und RZ-Leiter, wird sich in den nächsten Jahren somit einiges ändern, da man nicht mehr ausschließlich auf die gut bewährten x86-Standard-Infrastrukturen zurückgreifen kann. Denn diese eignen sich für den skalierenden, großflächigen Einsatz von Machine Learning nur noch bedingt beziehungsweise sind aus Kosten- und Performance-Gründen vielfach ungeeignet. Nach 10-Jahren der IT-Infrastruktur-Konsolidierung wird es demnächst wieder etwas "bunter" in den Rechenzentren der Unternehmen und ihrer Service- und Cloud-Provider. Vielfalt, Komplexität und Hardware-Expertise kennzeichnen die Landschaften der nächsten 5 bis 10 Jahre. In diesem Kontext stellen sich auch die großen Chip-Hersteller neu auf und investieren in eine von Machine Learning determinierte Zukunft.
- Bilderkennung ist wichtigstes Anwendungsgebiet für Machine Learning
Heute kommen Machine-Learning-Algorithmen vor allem im Bereich der Bildanalyse und -erkennung zum Einsatz. In Zukunft werden Spracherkennung und -verarbeitung wichtiger. - Machine Learning im Anwendungsbereich Customer Experience
Heute spielt Machine Learning im Bereich Customer Experience vor allem im Bereich der Kundensegmentierung eine Rolle (hellblau). In Zukunft wird die Spracherkennung wichtiger (dunkelblau). - Machine Learning in den Bereichen Produktion und Prozesse
Unternehmen erhoffen sich im Bereich Produktion/Prozesse heute und in Zukunft (hell-/dunkelblau) vor allem im Bereich Prozessoptimierung positive Effekte durch Machine Learning. - ML im Bereich Kundendienst und Support
Sentiment-Analysen werden eine Kerndisziplin für Machine Learning im Bereich Kundendienst und Support - Auch IT-Abteilungen profitieren
Schon heute wird Machine Learning für die E-Mail-Klassifizierung und Spam-Erkennung genutzt. In Zukunft (dunkelblau) werden Diagnosesysteme wichtiger. - Was Management, Finance und HR von Machine Learning erwarten
Heute und in Zukunft ist in diesem Bereich das Risikomanagement eine vorrangige ML-Disziplin. In Zukunft soll auch das Talent-Management beflügelt werden. - Massive Effekte für Einkauf und Supply Chain Management
Machine Learning wird sich auf verschiedenste Bereiche des Procurements und des Supply Managements auswirken (hellblau = heute; dunkelblau= in Zukunft) - Diese Lernstile sind bekannt
Beim bekanntesten Lernstil, dem Überwachten Lernen (Supervised Learning), werden Bildern oder Dokumenten von Hand eine gewisse Menge an Tags oder Labeln zugewiesen. So werden die ML-Algorithmen trainiert. - Diese Lernstile verwenden Branchen
Während Autobauer eher auf "Semi-supervised Learning" setzen, sammeln andere Branchen mit Supervised Learning Erfahrung. - Machine-Learning-Algorithmen
Die meisten Unternehmen setzen auf einen Mix von Verfahren, um ihre vielfältigen Aufgaben zu lösen. - Einsatz von Machine-Learning-Algorithmen nach Branchen
Neuronale-Netzwerk-Algorithmen finden vor allem im Automotive-Sektor Verwendung - und natürlich in der ITK-Branche selbst. - Diese Programmiersprachen und Frameworks kommen im ML-Umfeld zum Einsatz
Mit knapp 70 Prozent Einsatzgrad ist Java die führende Programmiersprache im Bereich ML. Allerdings holen speziellere Sprachen und Frameworks auf. - Deep-Learning- und Machine-Learning-Packages
DeepLearn Toolbox, Deeplearning4j, das Computational Network Toolkit und Gensim werden auf Dauer die führenden Pakete sein. - Zielinfrastruktur für ML-Workloads
Die Deployments von Machine Learning gehen zunehmend in die Breite und erreichen auch die Cloud und das Internet der Dinge. Auf die Unternehmen kommt mehr Komplexität zu. - Bedenken und Herausforderungen
Datenschutz und Compliance-Themen machen Anwender am meisten zu schaffen, geht es um den Einsatz von Machine Learning. Außerdem vermissen viele einen besseren Überblick über das Marktangebot. - Machine Learning ist Sache der BI- und Analytics-Spezialisten
Die organisatorische Einführung von ML obliegt meistens den BI- und IT-Profis. Viele Anwender holen sich aber auch externe Hilfe. - Wo Externe helfen
Datenexploration, Skill-Aufbau und Implementierung sind die Bereiche, in denen Machine-Learning-Anfänger am häufigsten externe Hilfe suchen.
Nvidia
So will Nvidia seine dominante Position im Markt für Machine Learning-Prozessoren stärken und den Umsatz seiner Produktlinien Nvidia Tesla P40, P4, Drive PX2 und Pascal P100 weiter steigern. Zur Hilfe kommt Nvidia ein attraktiver Software-Stack (CUDA, CuDNN) sowie der wahrscheinliche Launch der Volta GPU Prozessorserie zum Ende des Jahres. Die starken Quartalszahlen von Nvidia gehen eindeutig auf das positive Geschäft im Bereich Machine Learning zurück, da der Gaming-Markt sich in den letzten Jahren deutlich abgekühlt hat.
AMD
Auch AMD bereitet den Launch einer neuen GPU-Chip Serie namens Vega vor, die bis zu 25 TFLOPS mit 0,5-Precision liefern soll. Zudem wurde der Software Stack überarbeitet und unter dem Namen Radeon Open Compute Platform (ROCm) als Open Source frei verfügbar gemacht - eine interessante Alternative zu Nvidia’s CUDA and CuDNN.
Intel
Intel überarbeitet nicht nur seine Xeon-Prozessorserie mit IP aus der Nervana-Übernahme, die Machine Learning Acceleration-Funktionalität in die Standard-Chip-Serien injiziert. Zudem wird Intel eine neue Prozessor-Generation auf Basis der Nervana-Architektur unter gleichen Namen herausbringen (Nervana Engine - Codename "Lake Crest"). Damit entwickelt Intel seit langer Zeit erstmals wieder eine komplett neue Prozessor-Architektur, die nur auf einen speziellen Use Case ausgerichtet ist (ASIC). Zusammen mit der 15 Milliarden US-Dollar Übernahme von Mobileye in 2016 und dem FPGA-Hersteller Altera für 16,7 Milliarden US-Dollar in 2015 wird klar, dass auch Intel alles auf die Karte "Machine Learning" setzt.
Qualcomm und Xilinx
Aber auch Qualcomm und Xilinx schlafen nicht und investieren in großem Stile in neue Technologien und Produktlinien. So versucht Xilinx die FPGA-Technologien "Mainstream-fähig" zu machen und in die Corporate Data Center zu bringen. Wie schnell dies geht, wird sich noch zeigen. Fest steht, dass die Innovationsgeschwindigkeit und Vielfalt im Hardware-Markt wieder deutlich zunehmen.
CIOs und Machine Learning-Spezialisten können sich auf jeden Fall über eine Fülle neuer Konzepte und Architekturen freuen, wie hier in Form des "Reconfigurable Acceleration Stacks" von Xilinx exemplarisch dargestellt: