Der einfache Teil sind die technischen Fragen, da wurde nach der Vorstellung – auch bei uns in den Kommentaren – schon fleissig gemutmaßt, dass dieses neue Feature die Fotos über die Erkennung von Gesichtern und anderen Bildinhalten zu kategorisieren, die iPhones unglaublich lahm machen und den Akku noch schneller leer saugen würde. Wenn dieses Feature denn überhaupt wirklich nur auf dem iPhone laufen würde, was der ein oder andere ebenfalls für ausgeschlossen hält.
Eine WWDC beginnt ja mit der Keynote und endet damit nicht, so wurden nach und nach Details zu dem Thema bekannt. Unter anderem haben Craig Federighi und Phil Schiller bei der WWDC Talk Show einiges zu dem Thema gesagt, was man bei iMore zusammengefasst hat. Und zumindest in einem Punkt kann man schon mal ganz beruhigt sein:
When you first download iOS 10, if you have existing photos in your library, your iPhone or iPad will begin to process them in the background at night when you’re plugged in. That way you won’t see any performance degradation or excessive power drain during the day when you’re trying to use your iPhone or iPad.
Die Bearbeitung bestehender Bibliotheken erfolgt also nachts und nur, wenn das iOS-Gerät am Strom hängt. Es ist also kein negativer Einfluss auf die Performance oder die Akkulaufzeit zu befürchten. Neue Fotos werden aber wohl direkt bearbeitet, hier dürfte es vor allem davon abhängen wie schnell man wie viele Fotos macht. Aber hier setzt Apple voll auf die Power des ISP (Image Signal Processor) im A9-Chip – was im Umkehrschluss für Nutzer älterer Geräte bedeutet, dass s hier mit Sicherheit nicht so flott gehen wird. Mit dem A9 soll es nahezu sofort möglich sein, ein Foto durch die Deep Learning- und AI-Routinen zu jagen und auszuwerten, ein paar Milliarden mehr Operationen spielen da angeblich keine große Rolle:
The image signal processor (ISP) inside the Apple A9 already handles an incredible amount of calculations for everything from white balance to burst selection. Deep learning and AI take a couple billion more, but the A9 GPU can still handle those near-instantly.
Beantwortet wurde auch die Frage, woher der Datenbestand stammt, mit dem Apples Algorithmen lernen, wie zum Beispiel ein Hund oder ein Berg aussehen: Aus öffentlich verfügbaren Quellen, Public Domain Fotos. Und klar, an Fotos, auf die man frei im Netz zugreifen kann, besteht keinerlei Mangel, da ist wirklich genug Anschauungsmaterial für Apples Rechner vorhanden. Und da nähern wir uns langsam dem Thema „Privatsphäre“:
Entgegen der Vermutung einiger, werden die Ergebnisse der Fotoauswertung nicht über die iCloud geteilt. Jedes Gerät analysiert die jeweiligen Fotos ganz alleine. Also auch wenn man die iCloud Fotomediathek verwendet und damit auf allen Geräten die selben Fotos liegen hat, rechnet jedes Gerät sich selbst durch die Pixel und analysiert für sich. Im Idealfall mit den gleichen Ergebnissen – möglicherweise mit unterschiedlichen Ergebnissen. Das und auch die allgemeine Qualität der Foto-Analyse werden wir im Herbst dann mit den finalen Versionen von iOS 10 und macOS Sierra testen können.
Und trotzdem, obwohl Apple hier so viel Wert auf das Thema Privatsphäre legt, könnte es hier demnächst Probleme für Apple geben. Denn es gibt da in Illinois den Biometric Information Privacy Act, der – knapp zusammengefasst – es verbietet einfach so biometrische Daten von Menschen zu sammeln. Und um bestimmte Gesichter wieder zu erkennen, fertig entsprechende Software eine Art digitalen Gesichtsabdruck an. Das kann man sehr gut als ein biometrisches Merkmal sehen. Facbook und Google dürfen das Thema bereits vor Gericht diskutieren, aber Apple könnte auch betroffen sein. Zumindest indirekt.
Zwar führt Apple die Analysen nicht auf den eigenen Servern durch, sammelt also nicht selbst die biometrischen Daten, aber Apple stellt möglicherweise mit Fotos ein System bereit, um solche Daten zu sammeln und im Gesetz heißt es:
No private entity may collect, capture, purchase, receive through trade, or otherwise obtain a person’s or a customer’s biometric identifier or biometric information, unless […]
Sollte also ein Gericht feststellen, dass Apple Fotos ein System ist, um biometrische Daten zu sammeln, dann wären zumindest die Nutzer dieses Systems von diesem Gesetz betroffen und müssten sich der Liste an Anforderungen stellen, die im Gesetz nach „unless“ folgen. Und das wäre schon bei der ersten Anforderung – der schriftlichen Information Betroffener – schwierig, bei einem Schnappschuss des Publikums eines Konzerts ziemlich unmöglich.
Nun mag man einwerfen, dass das doch eher ein theoretisches Problem sei, man würde ja auf dem Smartphone persönliche Fotos mit sich rumtragen, Freunde und Verwandte erkennt man sowieso und irgendwelche Fremde, die mal ins Bild huschen, werden wohl kaum einen Schaden haben, wenn in diversen iPhones ein digitaler Gesichtsabdruck vorliegt, der dort verschimmelt. Und diese Informationen werden schließlich nur lokal gesichert – hat Apple ja ausdrücklich betont, wegen der Privatsphäre.
Stimmt natürlich, aber wer sagt denn, dass man sein Apple-Gerät nur mit eigenen Fotos füttert? In Sachen Privatsphäre hat sich Apple sehr angestrengt, diese für ihre Nutzer, also die zahlenden Kunden, zu sichern, aber wie sieht es denn mit den Menschen auf den Fotos aus?
Wie oben schon erwähnt, ist das Internet voller frei zugänglicher Fotos, teilweise sogar von öffentlichen Überwachungskameras (wenn auch hier in den meisten Fällen eher unbeabsichtigt). Man muss sich nur noch mal kurz in Erinnerung rufen, welche Folgen die App FindFace hatte. Je nach Qualität der Gesichtserkennung könnte man mit Apples System durchaus ähnliche Dinge treiben.
Fotos lassen sich mit wenig Aufwand am Mac automatisiert in die Fotomediathek füttern, auch mit den Namen der jeweiligen Personen, soweit die aus der Quelle der Fotos hervor gehen. Und so kann man sich eine nette kleine Datenbank aufbauen, die man dann mit frischen Fotos füttern kann, um dort nach Treffern zu suchen. Es ist vielleicht nicht ganz so simpel, wie mit FindFace, aber machbar wäre so was.
Ob es nun zu einer juristischen Aufarbeitung des Themas kommt oder nicht: Man kann das Thema Gesichtserkennung in iOS 10 und macOS Sierra auf zwei Arten betrachten:
- Entweder gibt es solche Systeme und das hat dann entsprechende Einflüsse auf unser Leben, wir können immerhin froh sein, dass Apple diese Daten nicht zentral sammelt und müssen darüber hinaus darauf vertrauen, dass wir als Gesellschaft den richtigen Umgang mit solchen Techniken finden und erlernen – das ist kein Apple-Problem.
- Apple stellt sich selbst als Privatsphären-König dar, zeigt aber auf der anderen Seite ganz deutlich, dass dem Unternehmen die Privatsphäre der Menschen egal ist, wenn es sich nicht um Apple-Kunden handelt. Solche Systeme in Consumer-Produkte zu packen und dabei nur die Privatsphäre der eigenen Kunden zu berücksichtigen ist mindestens schlecht durchdacht, wenn nicht gar bösartig.
Und natürlich ist das alles keine Frage, die nur Apple betrifft, schließlich gibt es Systeme zur Gesichtserkennung schon viel länger und von verschiedenen Unternehmen, aber sie werden immer mächtiger. Wenn es stimmt, was Apple verspricht, dann muss ich nur ein Foto machen und weiß Sekundenbruchteile später, wer alles darauf zu sehen ist, wenn diese Person nur schon vorher erkannt und ihr digitaler Gesichtsabdruck gespeichert wurde. Erinnert sich jemand daran, warum Google bei seiner Datenbrille keine automatische Gesichtserkennung wollte?
Dabei könnte das doch das Leben einiger Menschen verbessern: Wie großartig könnten solche Systeme für manche Menschen sein? Wir werden immer älter, Demenzerkrankungen nehmen immer mehr zu – wie großartig muss es für Betroffene sein, wenn sie einfach nur ihren aktuellen Gesprächspartner anschauen müssen und sofort von ihrer Datenbrille angezeigt bekommen, wer da gerade mit ihnen redet, ohne sich der Peinlichkeit hinzugeben, einen womöglich engen Verwandten fragen zu müssen, wer er eigentlich ist.