Unternehmensfunktionen im neuen Betriebssystem (Teil 2)

Wie Apple in iOS 10 via Differential Privacy Daten erhebt

22.06.2016
Von   
Mark Zimmermann leitet hauptberuflich das Center of Excellence (CoE mobile) zur mobilen Lösungsentwicklung bei der EnBW Energie Baden-Württemberg AG in Karlsruhe. Er weist mehrere Jahre Erfahrung in den Bereichen Mobile Sicherheit, Mobile Lösungserstellung, Digitalisierung und Wearables auf. Der Autor versteht es, seine Themen aus unterschiedlichsten Blickwinkeln für unternehmensspezifische Herausforderungen darzustellen. Neben seiner hauptberuflichen Tätigkeiten ist er Autor zahlreicher Artikel in Fachmagazinen.
Apple will die Daten der Anwender zum Schutz der Privatsphäre nicht zu Profilen verarbeiten. Die Art und Weise, wie Apple diese Daten trotzdem erhebt und dabei den Datenschutz aufrecht hält, wird als Differential Privacy bezeichnet.
Mit iOS 10 beginnt Apple damit, das Nutzungsverhalten der Anwender via Differential Privacy sicher zu tracken.
Mit iOS 10 beginnt Apple damit, das Nutzungsverhalten der Anwender via Differential Privacy sicher zu tracken.
Foto: Apple

Vergleicht man iOS mit Android, liegt ein großer Unterschied nicht im technischen oder in der Ausstattung der Hardware. Einer der größten Unterschiede ist der Umgang mit den Daten des Anwenders, die Verwertung zu Profilen und die (eventuelle) personenscharfe Zuordnungsbarkeit.

Denn im Gegensatz zu anderen Herstellern hat Apple kein Interesse am individuellen Nutzungsverhalten seiner Anwender. Weder die Suchanfragen in Siri, die Ortsdaten aus Maps noch die verwendeten Emojiis und Fomrulierungen in dem neuen iMessage interessieren Apple.

Trotzdem erhebt Apple mit seinen intelligenten Algorithmen den Anspruch, dem Anwender die richtigen Antworten in der richtigen Priorisierung auszuliefern bzw. vorzuschlagen.

Hierfür gibt es zwei Vorgehen von Apple. Das erste ist die rein lokale Auswertung, indem Analysen nur auf den Geräten der Anwender selbst stattfinden. Die dort ausgeführte Software kann alle Daten (z.B. iMessage) auswerten, um Antwortvorschläge oder Verhaltensweisen für die nächste Nutzung abzuleiten.

Für Informationen, die sich aus dem gesammelten Nutzungsverhalten aller iOS-Anwender ergeben, steht Apple nur die Möglichkeit der zentralen Speicherung auf den Apple-Servern zur Verfügung. Hier greift das Thema "Differential Privacy", damit die Daten zu jedem Zeitpunkt anonym sind.

Es ist wichtig zu verstehen, dass es sich um mehr als nur anonymisierte Daten handelt. Je nach Datenmengen lassen sich trotz klassischer Anonymisierungsfunktionen mit mehr oder weniger großem Aufwand die Profile zurück rechnen.

Differential Privacy

Bei Differential Privacy werden die erhobenen Daten nicht einfach "nur" anonymisiert, sie werden manipuliert, ohne dabei die statistische Auswertung zu verhindern. Dabei lassen sich die Daten jedoch, selbst mit Daten aus anderen Datenbanken, nicht wieder zurückrechnen.

Das Verfahren arbeitet damit mit absichtlichen Fehlinformationen. Ein Beispiel aus dem Leben: Stellen Sie sich eine Umfrage in der Fußgängerzone vor, in der Passanten über sehr intime Dinge gefragt werden. Diese zu beantworten wird keiner so wirklich wollen. Koppeln Sie die Beantwortung aber an den Wurf einer Münze. Werfen Sie diese vor jeder Abfrage in der Fußgängerzone hoch: Je nach Ergebnis des Münzwurfes (Kopf oder Zahl) muss der Passant eine Frage ehrlich oder falsch beantworten oder darf die Münze noch mal werfen. Auf diesem Weg gibt es eine Wahrscheinlichkeit von 50 Prozent, dass die Antwort sicher korrekt ist und eine Wahrscheinlichkeit von 50 Prozent, dass die Antwort per Zufall gegeben wurde. Bei einer genügend großen Teilnehmermenge kann man mit dieser Wahrscheinlichkeiten entsprechende statistische Auswertungen erstellen.

Vergleichen lässt sich das übertragen auf die Akustik mit einem großen Rauschen: Konzentriert man sich auf eben dieses Rauschen, hört man die Melodie einer Musik. Es ist damit so wie ein schlecht eingestelltes Radio. So lernt Apple nichts über das Individuum, Apple erkennt aber Muster, wenn viele Individuen sich ähnlich verhalten.

Laut Apple findet diese Verfremdung bereits auf dem Endgerät statt. Das sorgt für ein Maximum an Anonymität und Verfremdung. Wie genau Apple bei dem Verfremden vorgeht, ist im Moment noch nicht bekannt. Es ist jedoch zu beachten, dass sich Apple auf Prof. Aaron Roth beruft, einem der Autoren des Standardwerkes "Algorithmic Foundations of Differential Privacy" (PDF) zum Thema Differential Privacy. Ob die Methode wirklich sinnvolle Ergebnisse liefert und die Privatsphäre tatsächlich erhalten bleibt, wird sich die nächste Zeit zeigen.

Empfehlung

Achten Sie als Unternehmen (und als Anwender) auf den Datenschutz. Vertrauen Sie Ihre Daten nur dann jemandem an, wenn Sie genau wissen wofür. Der alte Spruch "Ist das Produkt kostenlos, ist der Anwender das Produkt" spiegelt sich bei eben diesen Herstellern allzu oft wieder. Apple scheint hier eine rühmliche Ausnahme zu sein. Das Geschäftsmodell ist hier kein Datengetriebenes, es ist ein Produktgetriebenes. Dabei versucht Apple aber den Möglichkeiten der künstlichen Intelligenz, BI-Auswertung und Co. in nichts nachstehen zu wollen.

Aktuell ist gerade erst die Spitze des Eisberges sichtbar, was die Möglichkeiten von künstliche Intelligenz, BI-Auswertungen etc. anbelangt. Vielleicht ist die Differential Privacy auch ein Verfahren für Ihr Unternehmen selbst, wenn es um die Erhebung von Informationen geht. (mb)