Künstliche Intelligenz

Bremst zu viel Datenschutz Apple aus?

21.06.2017
Von Patrick Woods
Im Rennen um die Vorherrschaft im Smart Home, im Auto und bei Assistenzsystemen verliert Apple an Boden gegen Amazon, Google und Co. Ist Apples Datenschutz Fluch und Segen gleichzeitig? Kann Core ML hier helfen?

Seit Jahren gibt es smarte Funktionen in iOS und macOS. Beispiele wie Data Detectors, die Termine oder Telefonnummern in E-Mails finden und interaktiv machen, sind klassische Fälle. Ebenso wie die Gesichtserkennung in "Fotos" – beziehungsweise damals noch iPhoto. Siri ist nicht nur die Sprachassistentin in iOS und macOS, sondern generell Apples Bezeichnung für künstliche Intelligenz. Welche Apps werden wir – basierend auf Zeit und Ort – wahrscheinlich als nächstes nutzen wollen? Informationen und Dienste, die verhaltensbasiert wissen, wann sie gebraucht werden. Unsere Systeme lernen immer besser, Muster zu erkennen und unsere Wünsche zu erraten.

Siris Antworten erfüllen nicht immer unsere Erwartungen.
Siris Antworten erfüllen nicht immer unsere Erwartungen.

Google Now ist der Urtyp der Assistenten und verbindet Interessen, Orte und Bewegungsmuster miteinander. Der Unterschied zwischen Apple und Google: Apple lebt von Hardwareverkäufen, Google von Werbung. Für Google ist es essenziell, Verhaltensdaten der Nutzer auszuwerten und Dienste anzubieten, die Nutzer zum einen an die eigenen Angebote binden und zum anderen das "Targeting" der Anzeigenkunden verbessern. Apples Nutzen cleverer Services liegt vor allem in Nutzerzufriedenheit – und Marktforschung.

Unser iPad weiß nicht, was unser iPhone weiß

Anstatt ein Nutzerprofil von A-Z und über die Lebenszeit eines Accounts anzulegen, nutzt Apple lieber anonymisierte Profile, die beispielsweise nur an ein Gerät oder eine Funktion gebunden sind. Dies hat einerseits den Vorteil, dass unsere Nutzerdaten verschwinden, wenn wir eine schnüffelnde Funktion ausschalten (beispielsweise die englische Tastatur) oder das Endgerät wechseln. Andererseits: Alle unsere auf dem iPhone angelernten englischen Begriffe sind weg, wenn wir die englische Tastatur deaktivieren. Unser iPad hat sogar nie etwas davon erfahren, dass wir auf dem iPhone meistens "IP-Adresse" und nicht "iPhone" meinen, wenn wir "ip" eintippen. Auch muss jedes Gerät die Gesichtserkennung in "Fotos" erneut durchlaufen lassen, da diese Zuweisungen nur lokal stattfinden. Erneut: vorbildlicher Datenschutz, aber etwas getrübte Praxis.

Mangels Account-Sync und Geräte-übergreifender Personalisierung ergibt sich mit Apples Ansatz eine sehr gemischte Nutzererfahrung. Häufig verwendete Geräte kennen uns besser als die Übrigen. Neue Geräte wissen in einigen Punkten rein gar nichts über uns und haben noch nie davon gehört, was wir gerne per Siri fragen oder eintippen. Aus Datenschutz-Sicht ist dies toll, im Vergleich zu Unternehmen wie Google oder Amazon, denen es auf ein personalisiertes Nutzerlebnis – und personalisierte Inhalte – ankommt, kann dies rückständig und mangelhaft wirken.

Beispiel Siri

Apple hat sich bei Siri vielleicht mehrere Jahre lang verschätzt. Der angedachte Zweck, unterwegs Termine einzusprechen oder nach dem Wetter zu fragen, ist bis heute eine Nische. Kaum jemand redet in der U-Bahn mit seiner Smartphone-Assistentin. Die viel natürlichere Umgebung, das Zuhause, hat Apple zunächst ignoriert. Amazon hat es dagegen umgekehrt gemacht. Alexa ist hier von vornherein für Heimsteuerung ausgelegt. Dazu bietet Alexa Erweiterungen, die so genannten Skills. Diese erlauben es, zusätzliche Funktionen zu aktivieren. Beispielsweise einen Abfallkalender abzufragen, wann die Tonnen vor die Tür gehören. Apple Siri unterstützt zwar mittlerweile ebenfalls Apps von Drittanbietern, jedoch bei Weitem nicht so umfassend wie die Konkurrenz.

Die iOS-Familie
Die iOS-Familie
Foto:

In Vergleichen mit Konkurrenz wie Amazons Alexa oder Google Now schneidet Siri jedoch vergleichsweise schlecht ab. Ein Grund dafür ist womöglich, dass Apple die Nutzungsprofile nicht an ein Nutzerkonto knüpft. So lernt Siri uns zwar mit der Zeit besser zu verstehen, das iPhone kennt unsere häufig besuchten Orte, und wiederkehrende Termine und meist genutzten Apps – sobald wir die Funktion kurz deaktivieren oder das iPhone wechseln, sind jedoch alle unsere Merkmale bei Apple gelöscht. Denn Apple besteht darauf, mit anonymisierten Geräte-Kennungen zu arbeiten, statt Verhaltensdaten an Nutzerkonten zu binden.

Ein Vergleich der Agentur diva-e zeigt: Siri ist zwar gut in allgemeinen Hilfestellungen, landet aber insgesamt nur auf dem dritten Platz der Sprachasstistenten.
Ein Vergleich der Agentur diva-e zeigt: Siri ist zwar gut in allgemeinen Hilfestellungen, landet aber insgesamt nur auf dem dritten Platz der Sprachasstistenten.
Foto:

Aus Datenschutzsicht ist dies vorbildlich und jede Kritik daran fühlte sich falsch an. Wenn es aber strikt darum geht, dem Nutzer den größten Komfort zu bieten, dann stellt sich dennoch die Frage: ginge das besser?

Ist Core ML die Lösung?

Auf der WWDC 2017 war Core ML eine der größeren Ankündigungen für Entwickler – der Zielgruppe der Konferenz. Core ML ist ein Framework, das auf Apples Grafik-API Metal aufsetzt und Machine Learning (Maschinelles Lernen) auf iPhone, iPad, Apple Watch oder Apple TV bringt.

Wie das funktioniert? Core ML ermöglicht es Entwicklern, bestimmte angelernte Profile in Apps zu integrieren. Beispielsweise Routinen, die Muster in Bildern erkennen. Was ist Baum, was ist Gesicht? Auch wenn die Bezeichnung Machine Learning es versprechen mag: Core-ML-Modelle sind nicht dazu da, zu lernen, sondern bereits Gelerntes anzuwenden. Der Name ist missverständlich, kein Machine-Learning-Algorithmus beobachtet uns oder merkt sich jeden unserer Schritte.

Dies sind einige verfügbare Modelle für Machine Leaning in Apps.
Dies sind einige verfügbare Modelle für Machine Leaning in Apps.

Core ML ist ein einfacher Weg, smarte Funktionen in iOS-Apps zu integrieren. Dabei hilft die Importfunktion, die es Entwicklern erlaubt, gleich eine ganze Reihe Formate trainierter Modelle in Apple-kompatible ".mlmodel"-Dateien zu wandeln. Dies bedeutet, dass Core ML keine Umgebung ist, die den Nutzer analysiert, Muster lernt oder eine eigene Wissensdatenbank aufbaut. Das ist schon vorher geschehen. Ein Modell in Core ML kann einer App die Fähigkeit geben, Sprache zu verstehen. Die aktuell von Apple direkt angebotenen Open-Source-Modelle betreiben allesamt reine Bilderkennung.

Nur weil Core-ML-Modelle nicht mehr dazu lernen, sind sie nicht einfältig. Das Wunder von Machine Learning besteht in der Transferleistung der im Modell trainierten Fähigkeiten auf bisher unbekannte Fälle. Muster in bisher unbekannten Szenarien erkennen. Ein Algorithmus, der sich bei einem Pixelhaufen sehr sicher ist: „Das ist ein Aquarium!“. Dies alles, ganz ohne das Bild an einen Server zu senden und dort analysieren zu lassen, sondern direkt lokal auf dem iPhone. Dies ist eine riesige Erleichterung für Entwickler, die plötzlich kinderleicht Tausende bestehende frei verfügbare Algorithmen in ihre Apps einbauen können. Doch all dies hilft Apple nicht dabei, die Wünsche des einzelnen Nutzers in Zukunft besser zu verstehen.

Core ML fußt auf drei Säulen: Vision für Bildverarbeitung, der Verarbeitung natürlicher Sprache und Gamekit, mit dem antrainierte Entscheidungspfade beispielsweise für die Bewegung von Computergegnern abgebildet werden. Vision kann neben den trainierten Modellen auch von Apple fest vorgegebene Muster erkennen. Beispielweise Barcodes, Gesichter oder Text.

Differential Privacy

Seit iOS 10 hat Apple eine neue Methode implementiert, die beides können soll: die Privatsphäre des einzelnen Nutzers schützen und gleichzeitig durch das Verhalten der Masse Informationen zu sammeln, um das Nutzererlebnis langfristig für alle zu verbessern. Seit iOS 10 und macOS 10.12 Sierra sammelt Apple (falls der Nutzer zustimmt) Informationen über genutzte Emojis, oder häufig getippte Wörter, die noch nicht im Wörterbuch enthalten sind.

Bei Differential Privacy werden Nutzerdaten durch verschiedene Algorithmen unkenntlich gemacht
Bei Differential Privacy werden Nutzerdaten durch verschiedene Algorithmen unkenntlich gemacht

Dadurch soll Apple in der Lage sein, allgemeine Nutzungsmuster und Vorlieben zu verstehen – aber gleichzeitig keinerlei individuelle Rückschlüsse auf einen Nutzer ziehen zu können. Das Prinzip von Differential Privacy (PDF) klingt einfach, die Praxis ist etwas komplizierter: Nutzerdaten werden durch unterschiedliche Algorithmen gescheucht, um beim Empfänger nicht mehr mit dem ursprünglichen Absender in Verbindung gebracht werden zu können. Dennoch ergibt sich insgesamt ein Bild von Verhaltensmustern.

Nur mit ausdrücklicher Zustimmung erhält Apple Nutzungsdaten, obwohl diese per Differential Privacy anonymisiert sind.
Nur mit ausdrücklicher Zustimmung erhält Apple Nutzungsdaten, obwohl diese per Differential Privacy anonymisiert sind.

Geht beides - Datenschutz und intelligente Funktionen?

Wie kann Apple sich aus diesem Dilemma befreien? Ist weniger Privatsphäre die Lösung? Wohl kaum! Der grundsätzliche Ansatz, künstliche Intelligenz, Machine Learning und konkrete Bezüge zu individuellen Nutzern voneinander zu trennen: Chapeau! Dennoch sollte Apple einen weiteren Kompromiss zwischen Nutzeranalyse und individualisiertem Lernen des Nutzerverhaltens finden.

Eine Variante dafür wären anonymisierte Verhaltensdaten pro iCloud-Account. Unser iPad weiß, wann wir mittwochs zum Fitnessstudio losfahren sollten.

Das Idealbild sähe so aus: Apple weist einem einer Apple-ID einen zufällig generierten Identifikations-Schlüssel zu, ohne dabei einen Bezug zur Email-Adresse oder anderen persönlichen Daten zu speichern. Dies selbstverständlich nur auf Wunsch der Nutzer. Wer das nicht möchte, soll weiterhin auf anonymisierte Identifikatoren pro Funktion und Gerät zurückgreifen können. (Macwelt)