Für eine Vielzahl an Use Cases der digitalisierten Welt sind neue Processing- und Analysetechnologien gefragt. So spielt die Mustererkennung von Bildern, Personen oder Gegenständen zum Beispiel in der Gesundheitsvorsorge, der öffentlichen Sicherheit und auch dem Automobilsektor eine immer größere Rolle.
Auch die maschinelle Verarbeitung von Sprache in digitalen Assistenten wird in mobilen Einsatzszenarien immer wichtiger. Machine Learning-Verfahren, neuronale Netzwerke und selbstlernende Systeme („Deep Learning“) werden somit eine unerlässliche Grundlage, um große, komplexe Datenmengen in Echtzeit verarbeiten zu können. Dies gilt auch für die Kontextualisierung von Apps sowie für die Personalisierung von Cloud-Diensten und der Online Shopping-Experience. Ebenso für die autonome Steuerung von Maschinen und die Analyse von IoT-Daten im Kontext von Predictive Maintenance und Industrie 4.0.
Das Zusammentreffen von ausgereiften Machine Learning-Verfahren und nahezu unlimitierter, kostengünstiger Rechenleistung in der Cloud, ermöglicht Unternehmen einen „barrierefreien“ Einstieg in das Thema und einen exponentiellen Innovationspfad.
Neben der Aufwertung und intelligenten Steuerung von Anwendungen und Geräten werden Systeme basierend auf künstlicher Intelligenz zukünftig auch immer mehr menschliche Aufgaben, Funktionen und Verantwortlichkeiten übernehmen. So können zukünftige „Cognitive Systems“ Sprache, Gesten, Mimik oder Emotionen erkennen, interpretieren und in Entscheidungen und Handlungen überführen. Auf Basis großer Datenmengen und der Funktion der Lernfähigkeit wird Ambiguität gemeistert und die Fehlerrate menschlicher Entscheidungen reduziert. Somit entsteht sukzessive eine „Cognitive Company“, in der von der Einlasskontrolle an der Pforte, über die Qualitätskontrolle in der Fertigung bis hin zum Finanzcontrolling vieles von intelligenten Softwaresystemen assistiert oder komplett autonom gesteuert wird.
Autonomous IT und künstliche Intelligenz im Rechenzentrum
Die Innovationsdynamik im Kontext von Machine Learning und künstlicher Intelligenz macht auch vor dem Rechenzentrum und dem Management der IT-Infrastruktur nicht halt. Während in den letzten Jahren seitens der Unternehmen schon große Schritte in Richtung Automatisierung der IT-Infrastruktur gemacht wurden, steht nun ein echter Innovationssprung bevor.
Denn mittels Verfahren des Machine Learning und vor allem des Deep Learning können hunderte oder tausende unterschiedlicher Variablen und Messgrößen, die den Betrieb eines Rechenzentrums determinieren, automatisiert ausgewertet und Muster zur Optimierung mittels der neuronalen Netzwerke identifiziert werden. So lassen sich die komplexen Beziehungen zwischen den Server- und Storage-Komponenten, Netzwerktechnik, Cooling-Equipment und externen Faktoren, wie Außentemperatur, Luftfeuchtigkeit etc., nicht nur messen und steuern. Auf Basis eines selbstlernenden Systems beziehungsweise Algorithmus können die Systeme nun in Richtung eines Gleichgewichts ausgesteuert werden, das einerseits den Energieverbrauch (PuE) sowie andererseits die Auslastung der Systeme optimal ausbalanciert.
Zudem ergeben sich durch Hyperconverged Systems sowie Cloud Computing große Potenziale zur weiteren Automatisierung des Infrastruktur-Betriebs. So lassen sich auf den globalen Cloud-Plattformen Infrastrukturen (Server, Storage, Network und weiter Plattform-Dienste) mittlerweile nicht nur per Knopfdruck beziehungsweise API-Call provisionieren, sondern auch automatisiert nach vorgegebenen Regeln konfigurieren und skalieren.
Im Zeitalter des „Infrastructure-as-Code“ werden IT-Infrastrukturen über standardisierte APIs programmier- und weitgehend automatisierbar. Vor dem Hintergrund der immer komplexeren IT-Infrastrukturen, die im Kontext agiler und Microservices-basierter Architekturen entstehen, ist die Automatisierung der zugrundeliegenden IT-Infrastruktur und des IT-Betriebs eine absolute Notwendigkeit.
- Facebook Big Sur
Das unter Open-Source-Lizenz stehende KI-System setzt auf die Nvidia Tesla Accelerated Computing Platform und übernimmt bei Facebook heute komplexe Aufgaben, für die früher auf Drittanbieter-Hardware zurückgegriffen werden musste. - Google RankBrains
Für Suchanfragen, die erstmalig auftauchen, soll RankBrains menschliche Schriftsprache in mathematische Vektoren übersetzen, die die Suchengine dann verarbeiten kann. Diese Form des maschinellen Lernens wird mit steigender Zahl bislang unbekannter Suchanfragen immer besser. Wissbegierige Internetnutzer trainieren das System quasi unbewusst. - Google Deepmind AlphaGo
Besiegte kürzlich den Welt- und den Europameister im asiatischen Brettspiel Go: das KI-System Alpha Go, das von Google Deepmind entworfen wurde. - SwiftKey Neural Alpha
Wer SMS schreibt, bekommt schon länger Wortvorschläge. Mit Neural Alpha will "n-gram"-Erfinder SwiftKey nun aber auch ganze Satzzusammenhänge vorhersagen und so die Texteingabe noch intuitiver machen. - Open AI
Investor und Tesla-Gründer Elon Musk erforscht in der "Open AI"-Initiative zusammen mit anderen Silicon-Valley-Vordernkern die Künstliche Intelligenz zum Wohle der Menschheit. Damit wir keine bösen Terminatoren bekommen, die uns alle versklaven wollen... - Microsoft XiaoIce
Der Microsoft-"Virtual Social Assistant" XiaoIce trägt seit Ende 2015 den Wettbericht im chinesischen Fernsehen komplett ohne menschliche Hilfe vor. - Roboter-Concierge Connie
Wenn Sie demnächst in einem Hilton absteigen, könnten Sie einem kleinen Roboter-Concierge begegnen: "Connie" arbeitet mit Watson-Technologie von IBM und steht Hotelgästen mit Rat und Tat zur Seite. Das Pilotprojekt läuft gerade in den USA.
Viele der Cloud-Provider bieten mit ihren Angeboten des „Serverless Computing“ einen weiteren Schritt in diese Richtung, in dem der Infrastrukturbetrieb für bestimmte Event-driven Workloads komplett seitens des Providers übernommen sowie vollständig automatisiert und autonom skaliert wird. Der Kunde übergibt nur noch den Anwendungscode beziehungsweise die Business-Logik. Den Rest übernimmt die Cloud-Plattform selbständig.
Der Charakter der zukünftigen „Digital Infrastructure Platforms“ – egal ob On-Premise oder in der Cloud – lässt sich somit als regelbasiert, selbstlernend und selbstheilend beschreiben. Daher müssen sich CIOs und IT-Infrastruktur-Verantwortliche mit der Frage beschäftigen, wie sie sukzessive die Verantwortung für ihre Infrastrukturen in Richtung autonomer Management- und Monitoring-Systeme übergeben und wie dieser Transformationsprozess auf technologischer und organisatorischer Ebene zu gestalten ist. Auf jeden Fall werden neue Skills und Rollen im Rechenzentrum benötigt, um die Welten der heutigen IT-Infrastruktur und der künstlichen Intelligenz erfolgreich miteinander zu verbinden.