Jedes Mal, wenn man ein Foto auf Instagram, Twitter oder jeder anderen Social Media Plattform hochlädt, gibt man ein bisschen mehr von sich preis. Klar, für jeden Menschen ist das Bild nun sichtbar, doch auch sogenannte Gesichtserkennungssysteme lernen dazu. Wer es wirklich darauf anlegt, kann mit solchen Algorithmen eine ganze Menge über eine Person herausfinden – nur anhand ihrer veröffentlichten Bilder. Mit wem ist man unterwegs? Wo treibt man sich gerade herum? Was für Hobbys hat man?
Das Beste Beispiel für solche Algorithmen dürfte China sein. Das landesweite System aus intelligenten Kameras und eingebauter Gesichtserkennung, ist schon so manchem Verbrecher zum Verhängnis geworden. In diesem Bezug mag das Ganze ja nützlich sein, doch die Bedenken hallen lauter nach als jeder noch so kleine positive Aspekt.
Aus diesem Grund haben sich Forscher der Universität in Toronto mit einem Algorithmus beschäftigt, der Fotos vor solchen Gesichtserkennungstechnologien schützen soll. Dazu nutzen sie eine Deep-Learning-Methode, das sogenannte kontradiktorische Training, bei dem zwei KI-Algorithmen gegeneinander antreten. Das erste neuronale Netzwerk identifiziert Gesichter, während das andere das Gesichtserkennungsprogramm zu überlisten versucht, wobei beide Algorithmen voneinander lernen.
Das Ergebnis ist, dass der Algorithmus, der vor Gesichtserkennung schützen soll, spezifische Pixel im Foto verändert, die zwar für das menschliche Auge kaum erkennbar sind, aber den Gesichtserkennungsalgorithmus an der Identifizierung hindern.
„Die zweite KI kann das ‚angreifen‘, wonach das erste neuronale Netzwerk für die Gesichtserkennung sucht. Wenn die Erkennungs-KI das Bild zum Beispiel nach dem Augenwinkel abtastet, passt sie den Augenwinkel so an, dass er weniger auffällt. Es erzeugt sehr subtile Störungen auf dem Foto, aber für den Detektor sind sie wichtig genug, um das System zu täuschen.“ Avishek Bose, Masterstudent der Universität Toronto
Zusätzlich zum Unterbrechen der Gesichtserkennung, schaltet sich die KI auch bei der bildbasierten Suche nach unterschiedlichen Merkmalen ein. So verhindert es beispielsweise das Erkennen bestimmter äußerlicher Parameter, aber auch die Emotions- und Ethnieneinschätzung.
Die Studie des Forscherteams wird voraussichtlich im Spätsommer diesen Jahres auf dem „International Workshop on Multimedia Signal Processing“ veröffentlicht. In Zukunft hofft man darauf, den – ja man könnte fast sagen – Datenschutzfilter für die Öffentlichkeit zugänglich zu machen. Das soll dann entweder über eine App oder eine Webseite passieren.
via: utoronto