General AI

Wie mobile neuronale Netze das nächste Level der User Experience einläuten

11.05.2018 von Maximilian Hille
Schon bald wird die Mehrzahl der mobilen Endgeräte eigene AI-Chips verbaut haben. Damit werden völlig neue Möglichkeiten der künstlichen Intelligenz für den Nutzer erschlossen.

Artificial Intelligence, neuronale Netze oder Deep Learning sind alles Begriffe, die derzeit an Trend-Status wohl kaum zu überbieten sind. Alle wollen über diese Themen sprechen und sich selbst als aktiver Gestalter auf dem Weg zur “General AI” wiederfinden. Dabei geht häufig unter, dass es Modelle zur künstlichen Intelligenz und neuronalen Netzen schon seit mehreren Jahrzehnten gab und zumindest der Grundgedanke immer noch der gleiche ist.

Mit der zunehmenden Nutzung von AI-Chips in mobilen Endgeräten eröffnen sich völlig neue Möglichkeiten der künstlichen Intelligenz für den Nutzer.
Foto: Eugenio Marongiu - shutterstock.com

Denn es geht darum, mit Maschinen bzw. IT-Systemen zu versuchen, logische Verknüpfungen von Informationen analog zum menschlichen Gehirn nachzubilden. Neuronale Netze sind somit ein Anwendungsgebiet von Artificial Intelligence, bei dem möglichst viele Datenpunkte zusammengebracht werden müssen, um das menschliche Gehirn zu replizieren.

Die neuronalen Netze zeichnen sich dadurch aus, dass sie über verschiedene Komplexitätsebenen hinweg Verknüpfungen erstellen können und somit eine Logik bilden, die aus vielen kleinen Datenpunkten über mehrere Komplexitätsgrade Dinge wie Sprache, Objekte, Personen etc. erkennt und daraus möglicherweise eine Ableitung oder Interaktion umsetzen kann.

Nachdem Ende der 90er Jahre etwa die Bemühungen um neuronale Netze aufgrund begrenzter Datenmengen und Einsatzszenarien etwas abgenommen haben, erlebt das Thema im Zeitalter von Cloud Computing, Big Data und Hadoop und damit einer riesigen wachsenden Zahl von Daten einen ernsten Neuanfang. Denn das Replizieren des menschlichen Gehirns funktioniert jetzt potentiell noch besser und vollständiger, da mittlerweile fast nur die Rechenpower die Möglichkeiten limitiert.

Trotzdem ist es noch ein weiter Weg, bis aus den theoretischen Möglichkeiten praktische Mehrwerte werden. So lange Autos noch gegen Wände fahren und Fußgänger übersehen oder Alexa und Co. noch einfache Fragen nicht beantworten können, scheint der Weg zur General AI doch noch sehr weit.

Crisp Research AG
Foto: Crisp Research AG, 2018

AI & neuronale Netze heute - mehr Daten, mehr Kanäle

Was die heutige Form von AI und neuronalen Netzen von der damaligen unterscheidet, ist zunächst einmal die Anzahl von Daten und der abzudeckende Komplexitätsgrad. Durch die steigende Zahl der Daten und die verbesserte Rechnerleistung können neuronale Netze noch viel detailliertere Komplexitätsgrade erreichen und somit ihre Genauigkeit im Hinblick auf den Einsatzbereich deutlich verbessern. Gleichzeitig steigt auch der Geltungsbereich der neuronalen Netze, da für viele verschiedene Anwendungsgebiete viele Daten und somit mögliche Verknüpfungen zu einer Regel existieren.

Hilfreich für die Entwicklung ist auch, dass für AI keine überdimensionalen Supercomputer an Forschungseinrichtungen oder in Mega-Companies stehen müssen, sondern dass dank Edge Computing kleine neuronale Netze auf mobile Endgeräte kommen können. Das bedeutet, dass die trainierte Logik zu einem Aufgabengebiet schon direkt auf dem Smartphone existieren kann und somit kürzere Übertragungswege und Latenzen existieren.

Zusätzlich werden durch die Vernetzung mobiler Geräte, die alle auch ein Teil eines höherwertigen neuronalen Netzes sind, immer mehr Daten gesammelt, um die Komplexitätsgrade weiter auszubauen und die Genauigkeit von Ergebnissen weiter zu erhöhen.

Die meisten Hardware-Hersteller für Smartphones arbeiten derzeit daran, spezielle AI-Chips zusätzlich zum eigentlichen CPU-Chip auf die Geräte zu bringen. Für das Jahr 2022 gehen die Hersteller wie allen voran Samsung, Google oder Apple davon aus, dass vier von fünf Geräten (“über 80 Prozent”) mit einem entsprechenden Chip ausgerüstet sind.

Wann diese Chips allerdings in der Lage sind, eine wirklich große Datenmenge zu verarbeiten und wirklich komplexe, große AI-Prozesse umzusetzen, ist damit aber noch nicht gesagt. Zusätzlich gibt es auch AI-Plattformen wie TensorFlow von Google. TensorFlow ist eine Art Open Source-Programmbibliothek für AI und Machine Learning-Anwendungen. Hier ist Google besonders engagiert, wenn es darum geht, die Nutzung auf mobilen Endgeräten bzw. in mobilen Apps zu optimieren.

Die jüngste Vorstellung von TensorFlow Lite adressiert vor allem die Komprimierung und Verkleinerung der neuronalen Netze und damit schnellere Rechenprozesse und systemfreundlichere Apps. Auch hier bleibt Google aber noch viele Ergebnisse schuldig und zeigt lediglich an einzelnen Beispielen und in der Theorie, was alles möglich wäre.

Deswegen ist es auch notwendig, die Unternehmen in mancherlei Euphorie zu bremsen. Nicht jede Idee, die aufkommt, ist wirklich ein AI- oder Deep Learning Case wert. Die vermeintlich geringen Einstiegshürden täuschen immer noch über den tatsächlichen Aufwand hinweg, Anwendungen auf neuronalen Netzen zu betreiben (Sicherheit, Datenschutz, Pflege, GUI / Frontend und tatsächlicher Benefit für die Nutzer müssen beachtet werden). Daher sollten die Unternehmen Mehrwert und Potential der Cases in jedem Falle prüfen und den ROI kritisch hinterfragen.

Use Cases für mobile neuronale Netze - Everyone will be a part of it!

Trotzdem oder gerade weil die Unternehmen sich somit auf echte Use Cases und Verbesserungen fokussieren, ist die zukünftige Erwartung an mobile neuronale Netze besonders groß. Mehr Rechenpower auf den Geräten, ein größeres Engagement auf Nutzerseite und genauere Analyseverfahren versprechen viele neue Mobile AI Use Cases, die schon bald vom visionären Stadium in den Alltag übergehen könnten.

Huawei Mate 10 Pro mit extra AI-Chip

Eine grundlegende Basis beziehungsweise ein Referenz-Use Case ist vor allem die Bilderkennung. Was Google bereits erfolgreich im Web präsentiert hat, funktioniert analog auch auf den mobilen Endgeräten. Das Vorbild beziehungsweise die Vorgehensweise der Bilderkennung findet sich auch in vielen weiteren Use Cases wieder. Je mehr Daten (wie z.B. Bilder) erfasst werden und anhand von Mustern über den Identifikationsalgorithmus laufen, desto mehr Datenpunkte können in das neuronale Netz einfließen. Die Identifikation wird immer genauer, schneller und weitreichender.

Somit werden noch viele weitere spannende und teilweise schon bekannte Use Cases dank mobiler AI und neuronaler Netze noch besser entwickelt:

MarketWatch
Foto: Quelle:https://tinyurl.com/y76r5ccu

Von der Inselbegabung der Systeme zur General AI?

Wohin soll das alles führen? Im Prinzip sind die Veränderungen, die durch mobile neuronale Netze daherkommen, relativ gleichartig. Mehr Daten, mehr Geräte und mehr Teilnehmer im Netz trainieren die Systeme und dadurch können Mustererkennungen und die Erfassung von Situationen genauer und detaillierter werden. Das findet bislang aber vor allem auf der Use Case-Ebene für ganz bestimmte Anwendungsfälle statt.

Als Zielbild spricht man auch von der Vision des Age of Assistance. Die Überlegung soll sich wegentwickeln von einzelnen Use Cases und den Nutzer und seine Interaktionen als Ganzes betrachten. Eine gesamte Technologie (vermutlich das Smartphone) dient dann als Assistent. Unternehmen, die Teil dieses Age of Assistance sind, können selbst pro aktiv auf ihre Kunden zugehen, kennen den nächsten Schritt und verstehen auf eine künstliche empathische Weise, was einzelne Menschen gerade denken, ohne dass sie es unmittelbar artikulieren müssen.

Durch mobile neuronale Netze, die eine exponentiell größere Reichweite haben als viele bisherigen Systeme, ist der Weg zur General AI, wo ein System alle Fragen der Welt beantworten kann, etwas besser geebnet wurden. Dieser Weg ist aber dennoch weit, braucht weitaus mehr Teilnehmer an der Entwicklung, noch viel mehr Daten und weitere Standards, die es bis heute nur im Anfangsstadium gibt.

Die Unternehmen sind angehalten, sich selbst als einen Teil dieses neuronalen Netzes zu verstehen. Mit eigenen Apps und Einsatzszenarien, die sorgfältig auf Mehrwerte und ROIs geprüft werden müssen, können sie selbst einen aktiven Part übernehmen. Schon heute in den eigenen Branchen die wichtigen Use Cases zu identifizieren, Skills und Know-how zu AI, Machine Learning und den neuen Frameworks und Plattformen ins Haus zu holen und die eigene Datenstrategie sorgfältig zu überarbeiten, sind die ersten Schritte, um als Anbieter im Age of Assistance entscheidende Vorteile gegen die Mitbewerber zu haben. (mb)