• Folge Uns
    • Facebook
    • Twitter
    • Youtube
    • Flipboard
  • ENG
Mobilegeeks
  • Videos
  • Cars
  • Connected Life
  • IoT
  • Smartphones
  • Hardware
  • Tests
  • Podcast
  • Videos
  • Cars
  • Connected Life
  • IoT
  • Smartphones
  • Hardware
  • Tests
  • Podcast
Powered By GDATA
Powered By GDATA
Previous Story
Nato erklärt den Cyberspace zum Kriegsgebiet

von Bernd Rubel

Next Story
WhatsApp erweitern: Video-Calls, Passwort, Chat He ...

von Carsten Drees

Differential Privacy – was ist das und was tut es?

Alle Welt redet plötzlich von Differential Privacy, dabei ist es weder neu, noch hat es Apple erfunden und die halbe darüber redende Welt weiß nicht mal im Ansatz, was es ist.

von Carsten Dobschat am 15. Juni 2016
  • Email
  • @dobschat

Vorab: Es geht hier nicht darum, wer welchen Unternehmen welche Aussagen glaubt oder nicht. Oder darum, wie genau Apple Differential Privacy implementiert hat oder ob die Entwickler bei Apple womöglich unfähig seien, so etwas sauber zu implementieren. Und es geht vor allem nicht um die Fragen, ob Apple lügt oder sowieso ein zutiefst verabscheuungswürdiges Unternehmen wäre. Auch nicht darum, ob es ja eh egal wäre, weil die Daten am Ende ja doch alle in der „Cloud“ von Apple landen und dort in Ruhe ausgewertet werden würden. Es geht nur darum, mal die Aussagen und Versprechen von Apple anzuschauen und die Frage zu stellen, ob das viel gepriesene Differential Privacy hier wirklich die Lösung sein kann.

Apple hat kein Interesse an Nutzerdaten, Apple hat kein Interesse daran Profile seiner Nutzer zu erstellen, weil Apples Geschäftsmodell darauf basiert Hardware, Software, Services und Inhalte zu verkaufen – nicht darauf den Nutzern für ihre Interessen relevante Werbung zu zeigen.

So lässt sich kurz zusammenfassen, wie sich Apple in Sachen Privatsphäre positioniert. Aber es gab auch hier schon Ausnahmen, so läuft erst Ende diesen Monat das eigene Werbenetzwerk iAd aus, für das durchaus schon Nutzer-Tracking betrieben wurde – wenn auch mit einer simplen Opt-Out-Möglichkeit. Und eine richtig dicke Ausnahme ist das Thema Siri und was da alles dran hängt. Denn Siri ist eben nicht nur die Sprachsteuerung, sondern vor allem die „Intelligenz“ dahinter.

Siri soll in Zukunft noch mehr von seinen Nutzern lernen, seien es gerade trendige neue Wörter oder eben die Frage, welche Wörter die User durch welche Emojis ersetzen – um mal die auf der WWDC16-Keynote am ausführlichsten gezeigten Punkte in den Raum zu werfen. Um solche Dinge zu lernen, muss aber eine Datenbasis her und so eine Datenbasis erhält man aus den Daten der Nutzer – also wohl ein Widerspruch, denn Apple sagt doch, sie wären nicht an den Daten ihrer Nutzer interessiert. Dieser Widerspruch ist aber nur scheinbar vorhanden, denn es gibt einen Unterschied zwischen unserem individuellen Nutzungsverhalten und unserem gesamten Nutzungsverhalten.

Unsere Daten will Apple nicht, aber unsere Daten schon

An unserem individuellem Nutzungsverhalten will Apple nicht interessiert sein, also was wir schreiben, wem wir schreiben und welche Emojis wir verwenden – das interessiert nicht. Jedoch will Apple, dass Siri aus unserem individuellen Nutzungsverhalten und aus unserem Nutzungsverhalten als Gemeinschaft „lernt“. Das erste ist noch recht einfach zu bewerkstelligen, indem dieser Prozess einfach auf den Geräten der Nutzer selbst stattfindet: Es ist ja kein Problem für die Software lokal vorliegende Chat-Protokolle auszuwerten, um dahingehend die Antwortvorschläge sprachlich anzupassen.

Wenn ich einer bestimmten Person in einem Chat gegenüber immer wieder die gleichen Formulierungen verwenden, braucht es da keine Serverfarm, damit die Software das sieht. Beim zweiten Teil ist es schwieriger: Die gesammelten Daten zum Nutzungsverhalten aller User bekommt man eben nur, wenn man sie einsammelt. Und dies macht Apple in Zukunft auch, aber – und hier kommt Differential Privacy ins Spiel – auf eine Art, die es nicht erlauben soll, daraus wiederum zurück auf die Person zu schließen, von der einzelne Daten kommen. Damit wären die gesammelten Daten zwar statistisch auszuwerten, aber nicht mehr einzelnen Nutzern zuzuordnen.

Also werden die Daten anonym gesammelt?

Nein, Differential Privacy ist mehr als eine Anonymisierung der Daten. Und das ist auch dringend nötig, denn anonymisierte Daten können mit mehr oder weniger Aufwand zum Beispiel über den Abgleich mit anderen Daten wieder konkreten Nutzern zugeordnet werden. Ein wunderbares Beispiel lieferte Netflix. Netflix stellte 2006 anonymisierte Daten von Filmbewertungen seiner Kunden zur Verfügung, mit dem Ziel über einen Contest bessere Methoden zu bekommen, um aufgrund dieser Wertungen automatisiert Filmempfehlungen geben zu können.

Feine Sache und alles anonym. Bis jemand auf die Idee kam, diese Bewertungen mit den nicht anonym vorliegenden Bewertungen in der IMDB abzugleichen. Okay, das alles war kein simpler Abgleich, es steckt da schon ein bisschen mehr Mathe dahinter, aber die vereinfachte Darstellung reicht, um das Prinzip zu erklären. Die Details wurden in einem Paper veröffentlicht. Auch in anderen Bereichen gab es solche Deanonymisierungen bereits, zum Beispiel – und hier wird es kritisch – bei Daten von Krankenhäusern, die dazu dienen sollten über statistische Auswertungen besser planen zu können.

Kurz: Ein reines Anonymisieren der Daten reicht also nicht.

Differential Privacy

Bei Differential Privacy werden also die gesammelten Daten nicht einfach anonymisiert, sie werden auf eine Art verändert – man könnte auch „manipuliert“ sagen – die zwar eine statistische Auswertung weiterhin ermöglicht, aber selbst über den Abgleich mit anderen Datenbanken keine Rückschlüsse mehr auf die einzelnen Nutzer zulässt. Ein häufiges Beispiel für eine solche Manipulation zum Schutz der einzelnen ist eine Umfrage zum Thema „Kriminalität“, bei der die Befragten angeben sollen, ob sie schon einmal straffällig geworden sind.

Das ist im Zweifel eine Information, die man auch im Rahmen einer anonymen Umfrage nicht preisgeben will. Um also die einzelnen Teilnehmer zu schützen, sollen sie die Frage nicht direkt beantworten, sondern erst eine Münze werfen. Je nach Ergebnis des Münzwurfs sollen sie dann entweder wahrheitsgemäß mit „Ja“ oder „Nein“ antworten oder aber ein zweites Mal die Münze werfen und dann ihre Antwort je nach Ergebnis des zweiten Münzwurfs wählen.

Auf diesem Weg gibt es eine Wahrscheinlichkeit von 50%, dass die Antwort sicher korrekt ist und eine Wahrscheinlichkeit von 50%, dass die Antwort per Zufall gegeben wurde. Mit solchen Wahrscheinlichkeiten kann man – wenn man es kann – bei statistischen Auswertungen mit einer genügend großen Zahl an Teilnehmern gut rechnen und sie aus der Rechnung entfernen, die statistische Auswertung so einer Befragung ist also ohne Probleme möglich, der Zufallsfaktor bei der Antwort aber groß genug, dass keine Rückschlüsse auf die einzelnen Befragten mehr gezogen werden können.

Das wirklich schöne an Differential Privacy – soweit man mathematischen Themen und Fragestellungen so etwas wie Schönheit zugestehen will – ist nun aber, dass sich hier ganz genau berechnen lässt, wie sicher gegen Rückschlüsse auf einzelne Datensätze so ein System am Ende ist. Man arbeitet hier also nicht mit „ist ziemlich sicher“, sondern mit mathematischen Methoden, die am Ende ein Ergebnis liefern, wie sicher das alles ist- zumindest, wenn die Implementierung fehlerfrei ist.

Jetzt sitzen bei Apple mit Sicherheit keine Menschen den ganzen Tag da, um für jeden eigegangenen Datensatz eine Münze zu werfen. Laut Apple werden diese Daten schon auf dem Gerät verfremdet, Stichworte hier waren Hashes und Noise. Wie genau Apple hier verfremdet ist – zumindest bis jetzt – nicht im Detail bekannt. Aber immerhin lehnt sich nicht nur Apple recht weit aus dem Fenster bei der Ankündigung, auch Prof. Aaron Roth bescheinigt Apple hier, visionär zu sein und er ist der Meinung, dass man das in Cupertino schon richtig machen würde.

Und dieser Professor ist nicht irgendjemand, sondern einer der Autoren des Standardwerkes zum Thema Differential Privacy, man darf also davon ausgehen, dass er sich auskennt. Andererseits kann oder will er auch nichts zu den Details der Implementierung bei Apple sagen, obwohl oder gerade weil er hier als Berater mit dabei war.

Kann es also der Königsweg sein?

Kurze Antwort: Ja, es kann.

In der längeren Antwort kommen einige „Aber“ vor: Wie gut hat Apple die implementierten Methoden getestet, bevor sie auf Millionen von Usern losgelassen werden? Gibt es beabsichtige oder unbeabsichtigte Hintertüren in dem System von Apple? Nur ein Beispiel: Zufallswerte müssen irgendwoher kommen, ist der Generator für die Zufallswerte kompromittiert, dann sind die Zufallswerte nichts mehr wert. Mit wie viel Aufwand wären die Daten ggf. doch zu Deanonymisieren? Könnte jemand mit genügend Ressourcen und Zugriff auf die gespeicherten Daten bei Apple diese vielleicht doch deanonymisieren? Lügt Apple vielleicht einfach?

Diese Fragen kann im Moment niemand beantworten, der nicht bei Apple sitzt und an der Umsetzung des Systems beteiligt war. Und dort ist man traditionell eher weniger gesprächig – mal abgesehen davon: Wer würde es denen schon glauben, wenn man schon der Meinung ist, dass Apple lügen würde? Wirkliche Aufklärung zu diesen Fragen könnte nur eine Prüfung der Implementierung durch unabhängige und neutrale Dritte bringen. Ob und wenn ja, wann es eine solche gibt steht noch in den Sternen.

So schlau wie vorher?

Im Grunde genommen sind wir tatsächlich kein Stück schlauer. Am Ende ist es wieder eine Frage des Vertrauens. Das muss dann jeder für sich entscheiden, ob man es für wahrscheinlich hält, dass ein Unternehmen in der Größe von Apple sich ein Image als Datenschutz-Company mühsam aufbauen und es dann mit einer solchen kackdreisten Lüge leichtfertig auf’s Spiel setzen würde.

Artikelbild von geralt via pixabay, Lizenz: CC0 Public Domain

Datenschutz Security
Apple
Ähnliche Artikel
Standortdienste: Diese Informationen verrät euer Smartphone über euch
23. Februar 2021
Standortdienste: Diese Informationen verrät euer Smartphone über euch
Die besten Passwort-Manager für 2021
14. Februar 2021
Die besten Passwort-Manager für 2021
Global Privacy Control möchte bald das bessere “Do Not Track” werden
2. Februar 2021
Global Privacy Control möchte bald das bessere “Do Not Track” werden
Google will Drittanbietercookies durch Browserverlauf-Analyse abschaffen
29. Januar 2021
Google will Drittanbietercookies durch Browserverlauf-Analyse abschaffen
Neueste Tests
8.7
Insgesamt bekommt man für den Preis wirklich gut funktionierendes und zuverlässiges Sicherheitssyste ...
Smartes Sicherheits-Set – Egardia und Philips Hue im Test
2. Juli 2018
Smartes Sicherheits-Set – Egardia und Philips Hue im Test
9.1
Für den persönlichen Gebrauch ist Lima Ultra eine hervorragende Lösung, um jederzeit Zugriff auf die ...
Lima Ultra – persönlicher Cloud-Speicher im Test
6. März 2017
Lima Ultra – persönlicher Cloud-Speicher im Test

Fernweh

Wir beschäftigen uns mit den Themen und der Technik von Morgen und Übermorgen - Von Smartcities über Sharing-Economy bishin zur Mobilität der Zukunft

Heiss diskutiert
Warum sind Auto-Abos nicht beliebter?
von Nicole
Warum sind Auto-Abos nicht beliebter?
Die besten Passwort-Manager für 2021
von Michael Sprick
Die besten Passwort-Manager für 2021
Frische Lebensmittel von morgen stammen von Dächern vieler Großstädte
von Felix Baumann
Frische Lebensmittel von morgen stammen von Dächern vieler Großstädte
Warum du einen Dark Web Monitor brauchst [Werbung]
von Nicole
Warum du einen Dark Web Monitor brauchst [Werbung]
APPLE
Die besten Apps für euer iPhone und iPad (März 2021)
Die besten Apps für euer iPhone und iPad (März 2021)
Die besten Apps für euer iPhone und iPad (Februar 2021)
Die besten Apps für euer iPhone und iPad (Februar 2021)
Apple führt neue “Opt-In-Richtlinien” für das Tracking von Werbung dieses Frühjahr ein
Apple führt neue “Opt-In-Richtlinien” für das Tracking von Werbung dieses Frühjahr ein
Was ihr mit eurem Altgerät nach Kauf eines neuen Smartphones tun könnt
Was ihr mit eurem Altgerät nach Kauf eines neuen Smartphones tun könnt
Hubs
  • Laptops
  • Magazin
  • Smart Cars
  • Smartphone
  • Tablets
  • Wearables
Weitere Themen
  • OnePlus 5
  • Samsung Galaxy S8
  • LG G6
  • Microsoft Surface Laptop
  • Amazon Blitzangebote
  • Adblock Plus
  • Testberichte (Archiv)
  • ASUS
  • Microsoft
  • Apple
  • Sitemap
Intern
  • Sponsoring und Werbung
  • Über uns
  • Sponsorenübersicht
  • Impressum
  • Datenschutzerklärung
FOLGE UNS
Copyright © 2021 Mobilegeeks.de, Alle Rechte vorbehalten