Thema Deepfakes: Ich glaube, wir haben endgültig die Phase hinter uns gelassen, in der man hinter dieser KI-Technologie lediglich einen Weg sah, wie man andere Gesichter auf die Körper von Protagonisten in Pornofilmen montiert. Vielmehr müssen wir uns heute auf der einen Seite um die nach wie vor vorhandenen negativen Aspekte der Technologie kümmern, wenn beispielsweise Politikern auf diese Weise falsche Aussagen zugeschustert werden.
Es zeigen sich aber auch immer öfter positive Ansätze, die beweisen, welchen Impact diese Technologie haben kann. Neulich berichteten wir zum Beispiel darüber, wie mithilfe von Deepfakes Software für autonomes Fahren trainiert werden kann. Es liegt dabei in der Natur der Sache, dass die Entwicklung hier flott voranschreitet und Deepfakes sowohl einfacher erstellt werden können, als auch qualitativ besser werden. Selbst in Echtzeit können Deepfakes mittlerweile erstellt werden und das Ende der Fahnenstange ist noch lange nicht erreicht.
Wie flott sich die Ergebnisse verbessern, beweist uns jetzt eine Zusammenarbeit zwischen Disney Research und der Eidgenössischen Technischen Hochschule Zürich, kurz ETH Zürich. Die Technologie,die hier entwickelt wurde, unterscheidet sich grundsätzlich nicht von der, die wir von anderen Deepfakes kennen: Ein Generative Adversarial Network (GAN) wird trainiert, um beliebige Gesichter auf andere zu montieren auf Fotos und natürlich auch in Videos.
Der Unterschied zu bisherigen Technologien ist ein qualitativer und damit ein deutlicher nach vorne. Während viele andere Ansätze Ergebnisse mit 256 x 256 Pixeln liefern, liegt Disneys Lösung bereits bei 1.024 x 1.024 Pixeln, erschafft also Megapixel-Deepfakes! Zudem werden auf das aufgesetzte Gesicht die Lichtverhältnisse der Quelle genutzt und man konnte Probleme mit den perspektivischen Veränderungen weitestgehend ausmerzen. Im Bild unten seht ihr Ziel und Quelle, daneben die Ergebnisse von Disney Research und der ETH Zürich, daneben wiederum andere, unterlegene Deepfake-Techologien.
Damit sind die Ergebnisse jetzt dennoch noch nicht so gut, dass man sie in einer 4K-Hochglanzproduktion verwenden könnte, aber man ist ein gutes Stückchen näher herangerückt. Die üblichen Artefakte und das gewohnte Zittern fallen deutlich geringer aus und beweisen, auf welch gutem Weg Disney hier bereits ist.
Wenn euch die technische Umsetzung interessiert, erfahrt ihr mehr auf der Seite von Disney Research. Mich hingegen treibt weiterhin die Frage um, wohin die Reise mithilfe dieser Technologien im Kino geht. Werden wir ethisch unbedenkliche Verwendung für diese Deepfakes finden, wenn beispielsweise Schauspieler-Gesichter bei gefährlichen Szenen auf Stuntman-Köpfe gebastelt werden? Oder wenn man einen Schauspieler in eine jüngere Version seiner selbst verwandeln wollen? Beides geschieht bereits, allerdings nicht durch Deepfakes, sondern durch deutlich aufwendigere CGI-Technologien.
Ich schrieb bereits im letzten Jahr schon davon, dass diese Anwendungszwecke aber nicht die einzigen bleiben werden. Immerhin wird damit alles möglich sein, inklusive der Auferstehung längst verstorbener Hollywood-Stars.
Das ist auch keine Spekulation meinerseits, denn mit dem Comeback von James Dean auf der Kinoleinwand, der für den Streifen „Finding Jack“ reanimiert wird, gibt es das erste Beispiel bereits. Hier werden sich Ethik-Fragen förmlich aufdrängen und ich bin wahrlich gespannt, in welche Richtung sich das entwickeln wird. Zumindest werden Produktionen deutlich weniger Zeit für visuelle Effekte verballern, wenn Deepfakes erst einmal so eine Qualität liefern, die für die Leinwand oder den 4K-Fernseher taugt. Aber ich bin fast sicher, dass man es dabei nicht belassen wird und dass Hollywood schon schnell mehr Tote auferstehen lassen wird, als in einer durchschnittlichen Folge „The Walking Dead“ weggemetzelt werden. Möchte jemand dagegen wetten?
Quelle: Disney Research via mixed.de