Das Ganze ist eine alarmierende neue Entwicklung im Bezug auf Informationen, die man aus dem Internet bezieht. Es ist der erste groß angelegte Einsatz von KI-generierten Bildern in einem sozialen Netzwerk. In einem Bericht über deren Einfluss stellten Forscher der Desinformationsgruppen Graphika und DFRLab fest, dass sie solch eine Vorgehensweise noch nie gesehen haben.
Die Bilder wurden genutzt, um die Authentizität der 610 Facebook-Accounts, 156 Gruppen, 89 Seiten und 72 Instagram-Accounts zu unterstreichen. Sie alle hatten eins gemeinsam: Man konnte sie mit „The BL“ in Verbindung bringen, einem digitalen Nachrichtensender, der Donald Trump aufs aggressivste unterstützt.
Die Seiten und Fake-Accounts des BL-Netzwerks wurden in Vietnam und den USA betrieben. Ein Bericht von Forschern von Graphika und DFRLab stellt heraus, dass die Mehrheit der gefälschten Konten des BL-Netzwerks benutzt wurde, um ein Cluster von über 80 Gruppen und Seiten zu betreiben, die für Präsident Trump werben. Die Konten, die als Administratoren für diese Seiten fungierten wurden überwiegend gefälscht und in Vietnam erstellt. Die Gruppen trugen Namen wie „Amerika braucht Präsident Trump“, „Trump for America’s President“ und „WE STANDH WITH TRUMP & PENCE!“.
Viele dieser Konten benutzten Profilbilder, die scheinbar mit der Hilfe von neuronalen Netzen erstellt wurden. Sie wurden wohl mit Bildern von echten menschlichen Gesichtern trainiert, um Fotos von Menschen zu erstellen, die nicht wirklich existierten. Die Forscher von Graphika und DFRLab fanden 18 Profilbilder, die vom BL-Netzwerk verwendet wurden und die wahrscheinlich mit Hilfe von generativen gegnerischen Netzwerken erzeugt wurden.
Die Technologie ist zwar in der Lage, passable Fake-Gesichter zu erzeugen, aber sie hat einige offensichtliche Schwachstellen. Sie funktioniert weitgehend durch Nachahmung visueller Muster, versteht aber die menschliche Anatomie nicht wirklich. Das heißt, bei Brillen oder Ohrringen schwächelt die Technologie dann und es entstehen komische Ecken und Kanten.
Das obige Bild, stammt zum Beispiel aus dem Profilbild von „Alfonzo Macias“, einem Admin für eine der Gruppen im BL-Netzwerk. „Man beachte die Asymmetrie in der Brille und auch den schlecht definierten Hintergrund“, heißt es in der Untersuchung. „Die Autoren überprüften dieses Bild mit Experten der Universität Federico II von Neapel, die beurteilten, dass dieses Bild mit 99,9-prozentiger Sicherheit von einem neuronalen Netzwerk erstellt wurde“.
via: wired