Home / Allgemein / Differential Privacy: Gedanken über Apple und die Sache mit den Daten

Differential Privacy: Gedanken über Apple und die Sache mit den Daten

Apple hat angekündigt, Differential Privacy für die Analyse von Kundendaten zu nutzen. Ist Apple mit der Differential Privacy-Strategie besser als Google, Microsoft, Facebook & Co.? Gedanken hierzu macht sich Axel Oppermann, Analyst und Geschäftsführer des Beratungsunternehmens Avispador.

Alle wollen deine Daten! Zumindest fast alle der großen Mega-Tech-Hyper-Super-Social-Cloud-Mobile-Follower-Anbieter. Google, Facebook, Microsoft und Co. brauchen die Informationen der Konsumenten – der Menschen –, um ihre Algorithmen zu füttern und stärker zu machen. Sie erhoffen sich davon, den Menschen besser kennenzulernen, sein Verhalten vorherzusagen und dieses Wissen im besten Falle zu monetarisieren. Nebenbei verkaufen sie ihre Algorithmen, ihre kognitiven intelligenten APIs und smarten Services.

Doch mit den Daten ist es so eine Sache. Auch wenn kaum noch jemand seine (digitale) Privatsphäre schützt, reagieren einige Menschen auf die Verarbeitung ihrer Daten sensibel. Dies bringt auch Menschen auf die Barrikaden, die sich zuvor nicht sonderlich für Datenschutz interessiert haben. Kurzum: Privacy ist ein Thema. Daher positionieren sich auch sehr viele Anbieter von IT und Digitalem mit dem vermeintlichen Schutz des ach so hohen Gutes Privacy.

Bis jetzt war Apple in der Vorreiterrolle, wenn es um den Schutz der Privatsphäre seiner Kunden ging, zumindest wurde das den Kunden suggeriert. Starkes Marketing – gute Positionierung gegen die Wettbewerber. Nicht mehr und nicht weniger. Im Marketingsprech klingt das dann ungefähr so: Ja, unser Ziel ist es, tolle Produkte zu verkaufen.

Aber gerade diese „tollen Produkte“ müssen natürlich ebenfalls weiterentwickelt werden. Eine Auswertung des Nutzungsverhaltens der Apple-User ist dafür ein probates Mittel. Kann man gut finden, muss es aber nicht. Wird trotzdem so gemacht.

Erschwerend kommt noch hinzu, dass es gerade jetzt, wo zwar noch immer Milliarden verdient werden, aber die Wachstumsgeschichte nicht mehr stimmt und so langsam das Talent ausgeht, gilt, neue Umsatzquellen zu erschließen. Scheiß auf Marketing, scheiß auf den Kunden, scheiß auf den letzten Funken von Moral und Ethik. Da das Image also eh schon ruiniert ist, steigt Apple in die Verarbeitung der Daten der Kunden ein.

Ein Teil von jener Kraft, die stets das Böse will und stets das Gute schafft: Apple & Differential Privacy

So richtig will man sich die Finger aber noch nicht schmutzig machen, die eigene Weste soll ja zumindest weißer bleiben als die der Konkurrenz. Rückschlüsse aus dem Verhalten und den Kommunikationsgewohnheiten der einzelnen Nutzer sollen nicht gezogen, sondern den Kunden lediglich nützlichere Empfehlungen angeboten werden. Frei nach dem Motto: Wasch mich, aber mach mich nicht nass.

Was ist Differential Privacy? Erklären wir es zunächst am Beispiel Apple: Apple will tolle Produkte verkaufen. Das ging lange gut, jetzt nicht mehr so.  Nun soll das Nutzungsverhalten der Apple-Nutzer ausgewertet werden. Gerade für solche Auswertungen müssen Daten gesammelt werden. Und wie es nun mal so ist, erhält man durch das Sammeln von anonymen Daten in der Regel weniger aussagekräftige Resultate. Deshalb müssen also personalisierte Daten erhoben werden. Dabei soll – im Falle von Apple – der Unterschied zu anderen Unternehmen aber darin bestehen, dass die gesammelten Daten auf eine andere Art und Weise ausgewertet werden. Das aktuelle Marketingversprechen dabei ist, zwar personalisierte Nutzerdaten zu sammeln, diese aber so auszuwerten, dass am Ende keine Rückschlüsse auf ein einzelnes Individuum möglich sind. Schließlich wird so dann auch die Privatsphäre der Benutzer gewahrt, vorausgesetzt, die Daten werden nicht weitervermittelt oder gar veröffentlicht.

Das Konzept, bei der Verarbeitung von Daten die Privatsphäre eines Einzelnen zu bewahren, ist bereits seit längerem bekannt und wird als „Differential Privacy“ bezeichnet. Es geht dabei darum, so viel wie möglich über eine Zielgruppe zu lernen, andererseits aber nichts über eine einzelne Person zu erfahren. Das ist möglich, indem die Daten so ausgewertet werden, dass die Privatsphäre eines Einzelnen geschützt wird.

Hä, wie jetzt? Verstehe ich nicht!

Also: Zunächst ist generell eher unklar, wie Privatsphäre überhaupt definiert sein soll. So könnte man meinen, dass diese bereits durch das bloße Erheben von Daten verletzt wird. Das Prinzip von „Differential Privacy“ beruht aber darauf, dass die Auswirkung des Ergebnisses einer Studie (einer Analyse) unabhängig von der Teilnahme eines Individuums an besagter Studie sein soll.

Angenommen, es werden Alter, Geschlecht, Partner, Kinder, Qualifikation und Erwerbstätigkeit einer Zielgruppe, natürlich auf Basis eines jeden Individuums, erhoben. Das Ergebnis ist: „Menschen mit geringem Einkommen sind häufiger krank“. Die Wirkung dieses Ergebnisses könnte sein, dass Versicherungen ihre Beitragssätze anpassen, sodass Personen mit einem geringen Einkommen einen höheren Beitrag entrichten müssen. Durch das Ergebnis der Studie wären Teilnehmer mit niedrigem Einkommen also unmittelbar betroffen.

Andererseits ist es aber wichtig festzuhalten, dass keine individuellen Informationen veröffentlicht wurden. Höhere Beitragssätze würden allein dadurch zustande kommen, dass Versicherungen Informationen über das Einkommensverhältnis jedes Versicherten besitzen. Dieses Prinzip bedeutet gerade, dass das Ergebnis der Studie zustande gekommen ist, ohne persönliche Daten der Teilnehmer preiszugeben. Welche Auswirkungen das Gesamtergebnis auf ein Individuum hat, hat nichts mit „Differential Privacy“ zu tun.

„Differential Privacy“ versichert also, immer dasselbe Ergebnis zu erreichen, unabhängig davon, ob eine einzelne Person in der Zielgruppe ist oder nicht. Insbesondere wird hierbei aber auch abgesichert, dass das Auftreten jeder Reihe von Ergebnissen, also die Ergebnisse mehrerer Studien basierend auf verschiedenen Teilmengen derselben Grundmenge, im Grunde gleich wahrscheinlich ist, unabhängig von der Teilnahme eines Individuums. Die Wahrscheinlichkeiten werden nämlich aus zufällig ausgewählten Teilmengen bestimmt und die Aussage „im Grunde gleich wahrscheinlich“ wird durch einen Parameter ɛ beschrieben. Desto kleiner ɛ ist, desto besser wird die Privatsphäre bewahrt.

Weiter sollte auch festgehalten werden, dass „Differential Privacy“ eine Definition und kein Algorithmus ist. Aber natürlich werden die gesammelten Daten mithilfe von Algorithmen ausgewertet. Für diesen Kontext benutzte Algorithmen sollten also die Eigenschaft haben, dass sie die Privatsphäre schützen. Dabei soll außerdem angenommen werden, dass sich die gesammelten Daten in einer sicheren Datenbank D befinden. Im Grunde gibt es viele solche Algorithmen, die sich aber in der Genauigkeit der Geheimhaltung ɛ unterscheiden. Für eine gegebene Aufgabe T und eine gegebene Geheimhaltungsquote ɛ gibt es dann eine Vielzahl von Algorithmen um die Aufgabe T umzusetzen, wovon manche eine bessere Genauigkeit haben als andere. Für ein sehr kleines ɛ, kann es jedoch schwierig sein, einen passenden Algorithmus zu finden, der zudem noch sehr genaue Ergebnisse liefert.

Lesen Sie weiter auf Seite 2: Etwas genauer bitte

Share

Leave a Reply

Your email address will not be published. Required fields are marked *

*