Während die meisten modernen Smartphones mit zwei oder sogar noch mehr Linsen auf der Rückseite aufwarten, setzt Google bei seinen Pixel-Handys weiterhin auf eine Kamera. Mehrere Linsen können mehr Tiefe erfassen – so zumindest die Theorie – und den Hintergrund vom Vordergrund trennen, was vor allem im Portraitmodus besonders hübsch aussieht. Dennoch schaffen es die Google-Phones immer wieder grandiose Porträtaufnahmen zu knipsen und das neue Pixel 3 toppt seinen Vorgänger sogar noch in einigen Aspekten.
Woran das liegt? Nun das erklärt Google in einem neuen (sehr technischen) Blogeintrag und zeigt auch, warum sein aktuelles Flaggschiff einige beim Pixel 2 auftretende Schönheitsfehler so gut wie vollständig ausmerzen kann. Denn für Aufnahmen im Portraitmodus setzte man beim Vorgänger auf ein neuronales netzwerkbetriebenes System zur Phasenerkennung. So wurden die einzelnen PDAF-Pixel eines Bildes miteinander verglichen und das System konnte durch das Erkennen einer Parallaxenverschiebung die eigentlichen Tiefeninformationen berechnen.
Okay, das klingt super kompliziert, aber genau diese Komplexität führt eben auch dazu, dass das Pixel 2 beim Erstellen einer Porträtaufnahme hin und wieder Bildfehler produziert. Um das zu beheben, nutzt Google nun maschinelles Lernen, was die vom PDAF-System wahrgenommene Tiefe korrigiert.
„Konkret trainieren wir ein in TensorFlow geschriebenes neuronales Faltungsnetzwerk, das die PDAF-Pixel als Eingabe nimmt und lernt, die Tiefe vorherzusagen. Diese neue und verbesserte ML-basierte Methode der Tiefenschätzung ist es, die den Portraitmodus auf dem Pixel 3 antreibt.“ Rahul Garg, Googles Forschungswissenschaftler
Das Faszinierende an diesem Vorgehen ist die angewandte Lernmethode, mit der Google den Algorithmus trainiert hat. Es wurde ein Monster-Rig mit fünf Pixel-3-Handys gebaut und mit einem Wi-Fi-basierten Software-Tool sichergestellt, dass alle Geräte gleichzeitig Bilder aufnehmen. Alle Smartphones sind dabei hintereinander aufgereiht worden, sodass man ein Objekt aus verschiedenen Winkeln aufgenommen hat. So konnten Googles Ingenieure den Algorithmus trainieren und die Tiefe in Bildern besser vorhersagen.
[WPGP gif_id=“236195″ width=“600″]
Google hat ein digitales Fotoalbum veröffentlicht, in dem die alte und neue Technologie verglichen wird. Man sieht hier ganz schön, wie sich die Kameratechnik über die Jahre verbessert hat.
via: thenextweb