Fake Porn: KI-generierte Pornos werden ein Riesenproblem

Dank einer Software können neuronale Netzwerke jedes denkbare Gesicht in Video-Szenen ersetzen. Erwartet unter anderem eine Schwemme an Celebrity-Fake-Pornos!

Zwei Dinge sind vermutlich fast genau so alt wie das Internet selbst: Fakes und Celebrity-Pornos. Schon in den Neunzigern gab es massig gefälschte Nacktbilder von Prominenten zu sehen, die hin und wieder mal einigermaßen realistisch wirkten, zumeist aber reine Photoshop-Desaster waren. Sei es drum: Wir haben mit den Jahren gelernt, dass wir nicht auf jedes dieser Fake-Bilder reinfallen und zumindest in Erwägung ziehen, dass es sich um eine Fälschung handelt.

Schwieriger wird die Geschichte mit den Fakes, wenn wir über Videos reden. Natürlich ist die Technik heutzutage weit genug, dass wir in Hollywood-Filmen die unglaublichsten Effekte präsentiert bekommen, bei denen das menschliche Auge nicht mehr unterscheiden kann, ob es sich um Realität oder CGI handelt. Aber während sich bei Fotos jeder mit brauchbaren Photoshop-Skills hinsetzen und sein Fake-Foto montieren kann, müssen bei den Video noch ausgesprochene Profis ran – zumindest bislang.

Die Fake-Videos kommen – und werden nie wieder verschwinden

Jetzt scheint sich das Game aber komplett zu ändern: Bereits im letzten Dezember schrieb René Walter bei Nerdcore über einen Reddit-User namens Deepfakes, der neuronale Netze auf die Gesichter von ausgewählten Stars trainiert. Dank Gesichtserkennung und der richtigen Algorithmen wird es ihm dadurch möglich, das Gesicht eines Celebrities in eine beliebige Porno-Szene zu integrieren und das in einer Qualität, die echt zu verblüffen weiß.

Ganz unkompliziert ist die Geschichte immer noch nicht und trotz Tutorial kann diesen Prozess nicht jedermann mit einem x-beliebigen Rechner nachvollziehen. Jetzt allerdings geht besagter Deepfakes einen Schritt weiter und bietet eine Software an, die die ganze Nummer deutlich anwendungsfreundlicher gestaltet. Bei Reddit erklärt er:

This app is intended to allow users to move through the full deepfake creation pipeline—creating training data, training a model, and creating fakes with that model—without the need to install Python and other dependencies or parse code.

Was das bedeutet, ist klar, oder? Die ganze Geschichte wird einigermaßen unkompliziert und mehr und mehr User werden dadurch in die Lage versetzt, solche Fakes auf erschreckend hohem Niveau zu produzieren, in denen dann quasi alles denkbar ist, was uns in unserer mitunter schmutzigen Fantasie vorschwebt.

Ähnlich wie René auf Nerdcore habe ich jetzt auch nicht viel Lust, euch jeden Reddit- oder Subreddit-Link zu präsentieren, befragt dazu Google oder lasst euch vom Vice-Artikel auf die Sprünge helfen. Aber auch so könnt ihr erahnen, was uns nun ins Haus steht. Mithilfe der Software wurde bereits ein Video erstellt, in welchem wir die nackte Emma Watson mit einer anderen Nackten unter der Dusche sehen. Auch das Gesicht von Jessica Alba wurde bereits auf den Körper eines Porno-Sternchens montiert.

Natürlich gelingt nicht jeder Versuch und manchmal wirft die Software Ergebnisse raus, die eher an Zombie-Pornos denken lässt und somit eher für Horror als Erregung sorgen.

Ein sehr schönes Beispiel der FakeApp von Deepfakes hat ein User gebastelt, der sich nämlich Rogue One und Prinzessin Leia vorgeknöpft hat. Ihr seht im folgenden Clip einen Ausschnitt aus dem Star-Wars-Streifen, der uns zwei mal eine künstliche Prinzessin zeigt. Oben seht ihr die CGI-Version aus einem Film mit 200 Millionen US-Dollar Budget, unten seht ihr den Fake, der binnen 20 Minuten mit der Software-Lösung von Deepfakes erstellt wurde:

Klar, die Auflösung des Videos ist eine Katastrophe, aber das Resultat bleibt erstaunlich, findet ihr nicht?

Fake mittels neuronaler Netzwerke – wohin geht die Reise?

Stellt sich jetzt noch die Frage, was sich aus dieser Entwicklung alles ergibt bzw. auf was wir uns einstellen müssen. Wir reden hier von einer halbwegs automatisierten Lösung eines einzigen Reddit-Users. Es ist also noch lange keine Ein-Klick-Lösung, aber wir bewegen uns hier auf einem Terrain, welches sehr vielen Menschen plötzlich ermöglicht, mit wenig Aufwand neuronale Netzwerke entsprechend zu trainieren und eben solche Resultate zu erzielen.

Deepfakes wird nicht der einzige sein, der mit seiner FakeApp in diese Kerbe haut. Weitere werden folgen und wir dürfen bzw. müssen davon ausgehen, dass die Algorithmen immer präziser werden, Grafik-Glitches mehr und mehr verschwinden werden und vor allem die Software-Lösungen mit der Zeit nochmal deutlich unkomplizierter bedient werden können. Lange Rede, kurzer Sinn: Es dauert nicht mehr lang und wir werden so ziemlich jeden vorstellbaren Prominenten in so ziemlich jedem noch so schmutzigen oder abartigen Filmchen zu sehen bekommen!

Solange es Elvis Presley in einem Schwulen-Porno von Adolf Hitler besorgt bekommt, ist das natürlich offensichtlich und nicht wirklich gefährlich für irgendwen — allenfalls verstörend. Aber wenn wir einen Schritt weiter denken, sehe ich hier tatsächlich eine große Gefahr am Himmel aufziehen. Wie viele Menschen — Stichwort: #meetoo — werden auf die Idee kommen, Prominenten Sex-Eskapaden in die Schuhe zu schieben mithilfe solcher Fake-Videos?

Wie viele Ex-Freundinnen werden auf diesem Weg zu zweifelhafter Berühmtheit im Netz gelangen? Und das nicht, weil ein wütender Ex die gemeinsam gedrehten Privat-Pornos irgendwo hochlädt, sondern weil er einfach ihren Instagram-Kanal nimmt und mit diesen Bildern neuronale Netzwerke entsprechend trainiert. Das Ergebnis ist dann Revenge Porn 2.0.

Weiterlesen:
Kampf gegen Rache-Pornos: Facebook will eure Nacktbilder

Heute reicht es doch schon, dass tonnenweise Fake-News ins Netz gekippt werden, in denen lediglich ein Foto in einen falschen Kontext gesetzt wird und dennoch genügt, dass Populisten wie die AfD damit für Stimmung sorgen und Ressentiments schüren. Könnt ihr euch ausmalen, wie viel Fahrt diese Geschichte aufnimmt, wenn beispielsweise besorgte Bürger ihre Vorurteile gegenüber Flüchtenden mit entsprechenden, scheinbar offensichtlichen Videos bestätigt bekommen?

Aber es gibt natürlich auch eine andere Seite der Medaille, die wir zumindest kurz ansprechen sollten. Ich denke, wir werden sehr viel interessante Fan-Fiction zu sehen bekommen. Elvis Presley, Marilyn Monroe und James Dean könnten in neuen Geschichten zum Leben erweckt werden, Harry Potter zusammen Spiderman und Lionel Messi Abenteuer erleben und vieles mehr. Das ist die unterhaltsame Seite der Geschichte.

Vielleicht hat es aber noch einen positiven Impact: Dadurch, dass wir jederzeit damit rechnen müssen, dass wir unseren eigenen Augen nicht mehr trauen dürfen, lernen wir vielleicht einfach einen besseren Umgang mit Fake-News. Vielleicht setzen wir uns also a) deutlich ernsthafter damit auseinander, was wir glauben. Checken Quellen gründlicher, hinterfragen sie mehr und suchen weitere belastbare Aussagen. Das könnte bedeuten, dass es Populisten künftig schwerer haben, uns mit Falschaussagen an der Nase herumzuführen. Außerdem könnte es bedeuten, dass wir b) vielleicht auch viel sensibler mit den Dingen umgehen, die wir selbst ins Netz stellen.

Weiterlesen

Wenn ich mir aber das heutige Internet anschaue, dann bin ich ehrlich gesagt ein wenig desillusioniert, was die Nutzung neuronaler Netzwerke im Zusammenhang mit Videos angeht. Ich fürchte, dass die kriminelle Energie von zu vielen Nutzern und auch der sorglose Umgang mit diesen Möglichkeiten dazu führen werden, dass uns tonnenweise Fake-Pornos untergejubelt werden. Fake-Pornos, aber natürlich auch Fake-Reden und halt eben alles Denkbare, was man in Videos fälschen kann. Schöne neue Welt? Hmm, in diesem Fall also wohl eher nicht.

Ich finde, dass wir es hier mit einer sehr bedenklichen und auch gefährlichen Entwicklung zu tun haben. Jetzt wüsste ich gern eure Meinung dazu: Wird sich das alles nicht so entwickeln, wie ich es befürchte und glaubt ihr, dass das alles nicht so wirklich dramatisch ist? Oder seht ihr hier ebenfalls eine Gefahr? Sagt es uns in den Comments.

via Nerdcore