Artificial Intelligence weltweit

Welche KI-Systeme schon im Einsatz sind

16.03.2016 von Simon Hülsbömer
IBM Watson kennt seit seinem "Jeopardy"-Triumph 2011 jeder. Apples Siri haben viele schon lange per iPhone im Einsatz. Doch es gibt noch mehr Produktivsysteme, die dank Künstlicher Intelligenz jüngst an den Start gehen konnten.

Systeme für Künstliche Intelligenz werden Mainstream - nicht nur dank billigerer Cloud-Umgebungen und leistungsstärkerer Hardware, sondern auch durch das wachsende Angebot an Frameworks für Maschinelles Lernen (ML). Diese zumeist frei zugänglichen Entwicklungsumgebungen stammen oft von den großen IT-Konzernen, die sie im Rahmen ihrer Forschungen rund um das Thema Künstliche Intelligenz aufgebaut haben und auch selbst für entsprechende Entwicklungen nutzen. Wir stellen Ihnen neue bereits im Produktivbetrieb befindliche KI-Systeme abseits der großen KI- und Cognitive-Computing-Aushängeschilder IBM Watson und Apple Siri vor.

Welche KI-Systeme schon im Einsatz sind
Facebook Big Sur
Das unter Open-Source-Lizenz stehende KI-System setzt auf die Nvidia Tesla Accelerated Computing Platform und übernimmt bei Facebook heute komplexe Aufgaben, für die früher auf Drittanbieter-Hardware zurückgegriffen werden musste.
Google RankBrains
Für Suchanfragen, die erstmalig auftauchen, soll RankBrains menschliche Schriftsprache in mathematische Vektoren übersetzen, die die Suchengine dann verarbeiten kann. Diese Form des maschinellen Lernens wird mit steigender Zahl bislang unbekannter Suchanfragen immer besser. Wissbegierige Internetnutzer trainieren das System quasi unbewusst.
Google Deepmind AlphaGo
Besiegte kürzlich den Welt- und den Europameister im asiatischen Brettspiel Go: das KI-System Alpha Go, das von Google Deepmind entworfen wurde.
SwiftKey Neural Alpha
Wer SMS schreibt, bekommt schon länger Wortvorschläge. Mit Neural Alpha will "n-gram"-Erfinder SwiftKey nun aber auch ganze Satzzusammenhänge vorhersagen und so die Texteingabe noch intuitiver machen.
Open AI
Investor und Tesla-Gründer Elon Musk erforscht in der "Open AI"-Initiative zusammen mit anderen Silicon-Valley-Vordernkern die Künstliche Intelligenz zum Wohle der Menschheit. Damit wir keine bösen Terminatoren bekommen, die uns alle versklaven wollen...
Microsoft XiaoIce
Der Microsoft-"Virtual Social Assistant" XiaoIce trägt seit Ende 2015 den Wettbericht im chinesischen Fernsehen komplett ohne menschliche Hilfe vor.
Roboter-Concierge Connie
Wenn Sie demnächst in einem Hilton absteigen, könnten Sie einem kleinen Roboter-Concierge begegnen: "Connie" arbeitet mit Watson-Technologie von IBM und steht Hotelgästen mit Rat und Tat zur Seite. Das Pilotprojekt läuft gerade in den USA.

Facebook Big Sur

Das Facebook AI Research Team (FAIR) hat im vergangenen November Hardware für den KI-Einsatz namens "Big Sur" vorgestellt und kurz danach auch Open Source gestellt. Der Konzern will mit dem System Fragen seiner Nutzer zu beantworten, im Social Network eingestellte Geschichten lesen oder Social Games anbieten - alles Aufgaben, für das früher Drittanbieter-Hardware eingesetzt wurde. Das von acht Grafikprozessoren angetriebene System setzt auf die Nvidia Tesla Accelerated Computing Platform.

Google RankBrains

Die Zukunft der Suchmaschine liegt in der Semantik - Nutzer suchen nicht mehr nur nach einzelnen Stichwörtern, sondern stellen ganze, teils komplexe Fragen. Gerade solche, die zum ersten Mal gestellt werden und laut Google einen Anteil von 15 Prozent am Gesamtsuchvolumen haben, sind eine Herausforderung für die Engine - hier greift Google auf RankBrains zurück.

Unser Gehirn - bald 1:1 künstlich nachgebaut?
Foto: Christian Lagerek - www.shutterstock.com

In einem Bericht der US-Nachrichtenagentur Bloomberg über Googles KI vom vergangenen Herbst werden zwei Beispiele aufgeführt: "Wie nennt man den Konsumenten am Ende der Nahrungskette?" und "Müssen Heuschrecken früher als Ameisen sterben?" Um solche komplexen Sachverhalte zu klären, soll das KI-System RankBrains menschliche Schriftsprache in mathematische Vektoren übersetzen, die die Suchengine dann verarbeiten kann. Diese Form des maschinellen Lernens wird mit steigender Zahl bislang unbekannter Suchanfragen immer besser. Wissbegierige Internetnutzer trainieren das System quasi unbewusst.

Entwickler-Frameworks für Machine Learning
Apache Spark MLlib
Früher als Teil des Hadoop-Universums bekannt, ist Apache Spark mittlerweile ein bekanntes Machine-Learning-Framework. Sein umfangreiches Angebot an Algorithmen wird ständig überarbeitet und erweitert.
Apache Singa
Singa, seit kurzem Teil des Apache Incubator, ist ein Open-Source-Framework, das Deep-Learning-Mechanismen auf große Datenvolumen hin „trainieren“ soll. Singa stellt ein simples Programmierungsmodell für Deep-Learning-Netzwerke bereit und unterstützt dabei diverse Entwicklungsroutinen.
Caffe
Caffe umfasst ein ganzes Set von frei verfügbaren Referenzmodellen für gängige Klassifizierungsroutinen; die gewachsene Caffe-Community steuert weitere Modelle bei. Caffe unterstützt die Nvidia-Programmiertechnik CUDA, mit der Programmteile wahlweise auch durch den Grafikprozessor (GPU) abgearbeitet werden können.
Microsoft Azure ML Studio
Weil die Cloud also die ideale Umgebung für ML-Anwendungen darstellt, hat Microsoft seine Azure-Cloud mit einem eigenen ML-Service auf der Basis von „pay as you go“ ausgestattet: Mit Azure ML Studio können Nutzer KI-Modelle entwickeln und trainieren und anschließend in APIs umwandeln, um diese wiederum Anderen zur Verfügung zur stellen.
Amazon Machine Learning
Amazon Machine Learning arbeitet mit Daten, die in einer Amazon-Cloud wie S3, Redshift oder RDS liegen und kann mithilfe binärer Klassifizierungen und Multiklassen-Kategorisierung von vorgegebenen Daten neue KI-Modelle bauen.
Microsoft DMTK
Das DMTK (Distributed Machine Learning Toolkit) von Microsoft soll ML-Anwendungen über mehrere Maschinen hinweg skalieren. Es ist eher als "Out of the Box"-Lösung gedacht und weniger als Framework - entsprechend gering ist die Anzahl der unterstützten Algorithmen.
Google TensorFlow
TensorFlow basiert auf sogenannten Data-Flow-Graphen, in denen Bündel von Daten („Tensors“) durch eine Reihe von Algorithmen verarbeitet werden, die durch einen Graph beschrieben sind. Die Bewegungsmuster der Daten innerhalb des Systems heißen „Flows“. Die Graphen lassen sich mittels C++ und Python zusammenbauen und via CPU oder GPU verarbeiten.
Microsoft CNTK
Das Microsoft Computational Network Toolkit funktioniert ähnlich wie Google TensorFlow: Neuronale Netze lassen sich durch gerichtete Graphen erzeugen. Microsofts eigener Beschreibung zufolge lässt sich CNTK außerdem mit Projekten wie Caffe, Theano und Torch vergleichen – sei aber schneller und könne im Gegensatz zu den genannten gar parallel auf Prozessor- und Grafikprozessorleistung zugreifen.
Samsung Veles
Das Samsung-Framework ist dazu gedacht, Datensätze zu analysieren und automatisch zu normalisieren, bevor sie in den Produktivbetrieb übergehen – was wiederum durch eine eigene API namens REST sofort möglich ist – vorausgesetzt, die eingesetzte Hardware hat genügend Power. Der Python-Einsatz in Veles umfasst auch ein eigenes Analyse- und Visualisierungstool namens Jupyter (früher IPython) für die Darstellung einzelner Anwendungs-Cluster.
Brainstorm
Brainstorm setzt auf Python, um zwei Data-Management-APIs („Handers“ genannt) bereitzustellen – eine für CPU-Prozessing durch die Bibliothek „Numpy“ und eine für GPU-Verarbeitung via CUDA. Eine benutzerfreundliche GUI ist in Arbeit.
mlpack 2
Die neue Version der in C++ geschriebenen Machine-Learning-Bibliothek mlpack, die erstmals im Jahr 2011 erschien, bringt eine Menge Neuerungen mit – darunter neue Algorithmen und überarbeitete alte.
Marvin
Der Quellcode von Marvin ist sehr übersichtlich - die enthaltenen vortrainierten Modelle (siehe Bild) ermöglichen aber bereits eine umfangreiche Weiterentwicklung.
Neon
Neon von NervanaSystems ist ein Open-Source-Framework, das auf ein- und abschaltbaren Modulen basiert und KI-Prozesse via CPU, GPU oder Nervanas eigener Hardware ermöglicht.

Google DeepMind AlphaGo

Mit AlphaGo hat das britische Unternehmen Google DeepMind, das seit 2014 zu Google gehört, einen KI-Computer für das traditionelle asiatische Brettspiel Go entwickelt, der in den vergangenen Wochen sowohl den Europameister Fan Hui als auch den Weltmeister Lee Sedol klar besiegt hat. Ziel des Go-Spiels ist es, vom Gegner besetzte Felder zu erobern. Da die Zahl der Spielfeldpositionen beinahe unendlich groß ist, müssen sich die Spieler auch auf ihre Intuition verlassen - keine leichte Aufgabe für einen Computer. Geschafft hat er es trotzdem.

SwiftKey Neural Alpha

Das britische Unternehmen SwiftKey wurde weltberümt mit dem intelligenten Wort-Vorschlagssystem "n-gram" für SMS. Nach Eingabe des dritten Buchstabens versucht die KI vorherzusagen, welches Wort gerade eingetippt werden soll und macht automatisch Ergänzungsvorschläge - ein System, das heute von mehr als einer Milliarde Mobilgeräte weltweit verwendet wird. Mit seiner Android-Keyboard-Software Neural Alpha, die im Google Play Store gratis zu haben ist, geht SwiftKey einen Schritt weiter: Während "n-gram" nur dank bereits bekannter Eingabemuster Vorhersagen für einzelne Wörter treffen kann, setzt Neural Alpha auf künstliche neurale Netzwerke. Dieses Modell des maschinellen Lernens soll die Funktionsweise des menschlichen Gehirns imitieren und damit auch ganze Satzzusammenhänge vorhersehen können. Was dann wiederum zu verbesserten Vorschlägen beim Nachrichtentippen führt.

Swiftkey Neural Alpha soll Satzzusammenhänge voraussagen.
Foto: Swiftkey

Open AI

Investor Elon Musk, der unter anderem den Elektroautobauer Tesla gründete, rief gemeinsam mit anderen Vordenkern aus dem Silicon Valley Ende 2015 das gemeinnützige Forschungsprojekt "Open AI" ins Leben. Hier soll Künstliche Intelligenz erforscht und für die gesamte Menschheit zugänglich gemacht werden. "Unser Ziel ist, digitale Intelligenz in die Bahnen zu lenken, in denen sie der Menschheit als Ganzes am meisten nützt - losgelöst von jedwedem finanziellen Interesse", heißt es im Blog des Open AI-Teams.

Neben Musk ist unter anderem Sam Altmann mit in diesem Team, der CEO des Gründerzentrums Y Combinator. Dieser sagte unlängst in einem Interview mit dem Blog Backchannel, dass man mit OpenAI das Überleben des Menschen gegen künstliche Systeme sichern wolle. Demnach ist OpenAI also eine Vision, um eine Terminator-Szenario, in dem von Menschen gebaute Roboter die Menschen anschließend unterdrücken oder gar vernichten wollen, zu verhindern.

Baidu Deep Spech 2

Das chinesische Pendant zur Google-Suche heißt Baidu und wird vom gleichnamigen Konzern betrieben. Mit dem AI Lab (in internen Kreisen "S-Vail" genannt) hat Baidu eine KI-Forschungseinrichtung im Silicon Valley aufgemacht, um visionäre Systeme für Künstliche Intellgenz zu bauen. Einen ersten Erfolg stellt das Projekt "Deep Speech" dar, ein Spracherkennungssystem auf Basis neuronaler Netze, das nur mit einem einzigen Lernalgorithmus sowohl Englisch als auch das weitaus komplexere Mandarin erkennen und verarbeiten kann. In einem aktuellen Interview mit LinkedIn Pulse erklärt Adam Coates, Director des Baidu AI Labs und vom MIT Technology Review unter die "Top 35 Innovatoren unter 35" gewählt, ausführlich die Hintergründe von Deep Speech.

Microsoft XiaoIce

Der Wetterbericht ist standardisiert - also per se ein gutes Einsatzfeld für KI-Systeme. In China wurde Ende 2015 zum ersten Mal ein TV-Wettbericht komplett durch einen Computer erstellt und auch vorgetragen. Schöpfer: der Microsoft-"Virtual Social Assistant" XiaoIce, was übersetzt so viel bedeutet wie "kleines Bing" - also die "kleine Schwester" der Suchmaschine aus Redmond. Hervorgegangen ist sie aus der Microsoft-Forschung zu maschinellem Lernen. Mittels Sensordaten, die in einem Data Center gesammelt werden, erstellt der menschgewordene Algorithmus einen kompletten Wetterbericht und trägt diesen vor - und das nicht einmal emotionslos. Denn übers Wetter lässt sich trefflich streiten, da gehören Gefühlsausbrüche halt einfach dazu...

Roboter-Congierce Connie

Zum Schluss geht es doch noch einmal kurz um IBMs Watson-Technologie: Roboter-Concierge "Connie" wurde nach Hilton-Gründer Conrad Hilton benannt und basiert auf der NAO Humanoid Robot Infrastructure des IBM-Partners SoftBank Robotics. Connie soll Gäste bei ihrer Ankunft im Hilton Mc Lean im US-Bundesstaat Virginia begrüßen, ihnen Informationen über lokale Touristenattraktionen und die Hotelausstattung geben sowie Speiseempfehlungen aussprechen. Dazu nutzt der digitale Concierge eine Kombination aus Watson APIs – Schnittstellen, über die Watson versteht, bewertet, lernt und in natürlicher Sprache antwortet – und greift auf Informationen der Reiseplattform WayBlazer zu, die ebenfalls Watson-Technologie einsetzt. Mit jeder gestellten Frage lernt „Connie“ hinzu und optimiert seine Vorschläge.

Roboter-Concierge Connie arbeitet im Hilton.
Foto: IBM