Bereits in den vergangenen Monaten hat Apple eine sehr starke Position bezogen, wenn es um den Datenschutz seiner Nutzer geht. Gegipfelt ist all dies sicherlich in der Auseinandersetzung, die man sich Anfang des Jahres mit den US-amerikanischen Sicherheistsbehörden lieferte, als es um die Entsperrung eines Terroristen-iPhone ging. Diese von sämtlichen Medien aufmerksam verfolgte und begleitete Geschichte hat Apples Image (im Gegensatz zu dem des FBI) sicherlich nicht geschadet und man wird auch nicht müde, weiter an der Sicherheit seiner Produkte zu arbeiten. Dies wurde auch zuletzt wieder auf der Keynote zur Eröffnung der WWDC deutlich. Besonders spannend wird dieses Thema nun auch wieder vor dem Hintergrund der immer stärker in unser Leben drängenden persönlichen Sprachassistenten wie Amazon Echo, Google Home oder auch Siri.
Während auf der einen Seite die Privatsphäre und der Datenschutz stehen, möchte man auf der anderen Seite aber vielleicht auch, dass einem die Möglichkeiten der neuen Technologien zur Verfügung stehen. Um dies zu ermöglichen, sind Berge von Daten notwendig, die ausgewertet werden, um hieraus zu lernen. Artificial Intelligence - künstliche Intelligenz nennt man dies und bei der zugrundeliegenden Technik spricht man von Big Data. Während Unternehmen wie Google oder auch Facebook speziell auf diese Nutzerdaten zielen und aus diesen Geld machen, hat Apple immer wieder betont, dass man kein Interesse an den Nutzerdaten aus monetären Gründen habe. Vielmehr benötige man diese jedoch, um hiermit die eigenen Dienste zu verbessern. Allein hieraus ergibt sich natürlich ein Spannungsfeld, dem Apple auf eine ganz eigene Art und Weise begegnet.
Mit iOS 10 wird man künftig auf eine wissenschaftlich entwickelte Technologie namens "Differential Privacy". Während Apple in Person von Craig Federighi dies auf der WWDC-Keynote thematisierte, dürfte den meisten nicht klar geworden sein, was sich eigentlich hier hinter verbirgt. Nun, an und für sich ist Differential Privacy nicht neu. Einfach ausgedrückt werden einem Datensatz dabei ein Grundrauschen in Form von verschiedenen Hash- und Zufallswerten hinzugefügt, wodurch Rückschlüsse auf einzelne Personen unmöglich werden, es aber weiterhin möglich bleibt, statistische Auswertung zu fahren. Konkret darstellen lässt sich dies am Beispiel von Wortvorschlägen in QuickType. So kann Apple mithilfe von Differential Privacy zwar ermitteln, was die Masse der Nutzer auf der Tastatur tippt, nicht jedoch, was einzelne Nutzer schreiben. Dem Grundsatz dieser Technologie folgend, muss sogar mathematisch beweisbar sein, dass es keine Rückschlüsse auf einzelne Nutzer gibt.
Um sich auch in wissenschaftlicher Hinsicht abzusichern, hat sich Apple bei der Umsetzung von Differential Privacy von einer der Koryphäen in diesem Bereich beraten lassen. Hierbei handelt es sich um Aaron Roth, seines Zeichens Informatikprofessor an der Universität von Pennsylvania. Kritisiert wird von einigen Beobachtern dabei allerdings, dass sich weder Roth noch Apple hinsichtlich der konkreten Implementierung von Differential Privacy in iOS und macOS geäußert haben. Ich persönlich halte dies allerdings für eine ganz normale Praxis zur Wahrung des Geschäftsgeheimnisses. Sehr wohl aber sollte man sich darüber im Klaren sein, dass Differential Privacy wohl noch nie auf einer so großen Datenbasis eingesetzt wurde. Ein Umstand, auf den übrigens auch der Kryptographieprofessor Matthew Green in einem äußerst lesenswerten Blogpost eingeht.
Apple selbst hat sich zur Implementierung von Differential Privacy bislang lediglich mit den folgenden Worten in seiner Entwicklerdokumentation zu iOS 10 geäußert: "Starting with iOS 10, Apple is using Differential Privacy technology to help discover the usage patterns of a large number of users without compromising individual privacy. To obscure an individual’s identity, Differential Privacy adds mathematical noise to a small sample of the individual’s usage pattern. As more people share the same pattern, general patterns begin to emerge, which can inform and enhance the user experience. In iOS 10, this technology will help improve QuickType and emoji suggestions, Spotlight deep link suggestions and Lookup Hints in Notes."Natürlich wäre es wünschenswert, dass Apple hier den Vorgang in den kommenden Wochen weiter lüftet. In jedem Fall dürften sich allerdings ohnehin verschiedene Experten die Daten ansehen und überprüfen, ob der von Aaron Roth propagierte mathematische Beweis der Unmöglichkeit des Rückschlusses auf einzelne Nutzer auch wirklich standhält.
Wie auch immer diee Überprüfung ausfallen wird, ist klar, dass Apple künftig deutlich mehr Daten von seinen Nutzern sammeln wird. Dies ist mit Blick auf die Weiterentwicklung von Diensten wie Siri auch eindeutig nötig. Anders als die Konkurrenz hat sich Apple aber offensichtlich tiefgreifend damit auseinandergesetzt, wie man dies für den Nutzer so sicher wie möglich machen kann. Der Ansatz den man dabei verfolgt nennt sich "Crowdsourced Data". Google hat in der Vergangenheit eine sehr nützliche Implementierung hiervon bereits in seinen Google Flu Trends umgesetzt, in denen man die Ausbreitung der Grippe und des Dengue-Fiebers auf Basis von Nutzerdaten prognostizierte. Apple versucht diesen Ansatz mithilfe von Differential Privacy nun mit seinen Datenschutzprnzipien in Einklang zu bringen.
Während sich der Ansatz von Differential Privacy also zunächst einmal gut anhört, gibt es auch Kritiker, die sich vor allem an der Tatsache stören, dass die Technologie noch nie in einem so großen Maß eingesetzt wurde, nach wie vor auf einer erhöhten Basis von Nutzerdaten gearbeitet werden muss und Apple sich nicht zur Implementierung der Technologie äußert. Aus meiner ganz persönlichen Sichtweise ist der Ansatz jedoch vor allem im Vergleich zur Konkurrenz zu begrüßen. Dort werden Daten gesammelt und auch nicht mit dem Ziel hinterm Berg gehalten, diese zu Geld machen zu wollen. Apple hingegen will die Daten ebenfalls, allerdings ausschließlich zur Verbesserung der eigenen Dienste. Und zu diesem Zweck hat man sich als erster der Big Players einmal intensiv Gedanken gemacht, wie man dem Spannungsfeld zwischen Datenschutz und Crowdsourced Data am besten begegnen kann. Um konkurrenzfähig zu bleiben braucht man die Daten auf jeden Fall und aus meiner Sicht sollte man den Ansatz, dies für den Nutzer so sicher wie möglich zu machen absolut honorieren.
Dies bedeutet freilich nicht, dass man Apple dabei blind vertrauen sollte. Der wissenschaftliche Beweis zur Effektivität (oder eben dem Gegenteil) von Differential Privacy in iOS 10 und macOS Sierra wird sicherlich nicht lange auf sich warten lassen. Allerdings wird auch bei mir, egal wie dieser Beweis ausfallen wird, auch künftig kein ständig lauschendes Mikrofon mit permanenter Onlineverbindung im Wohnzimmer stehen, wie es Amazon, Google und künftig wohl auch Apple vorstellen. Weniger weil ich dem Datenschutzansatz nocht vertraue, sondern weil ich die Vorstellung einfach gruselig finde.
In Sachen Differential Privacy und der darum geführten Diskussion halte ich es allerdings wie Matthew Green, der seinen Blogpost mit den Worten schließt: "At the end of the day, it sure looks like Apple is honestly trying to do something to improve user privacy, and given the alternatives, maybe that's more important than anything else."