Eigenen Angaben im Google Blog zufolge arbeitet der Suchmaschinenhersteller bereits seit Anfang der 2000er Jahre an entsprechender Technologie. Dazu setzt der Konzern auch auf Experten aus anderen Organisationen – so zum Beispiel Mitarbeiter der Internet Watch Foundation. Die neue AI soll dabei helfen, Inhalte wesentlich besser zu erkennen. Bisher wurde in diesem Bereich häufig auf Hashes gesetzt – also quasi darauf, das Bilder bereits einmal erkannt und anschließend nur wiedererkannt wurden.
Die neue KI geht hier deutlich weiter. Durch die Verwendung von tiefen neuronalen Netzwerken für die Bildverarbeitung können sollen Reviewer so Bilder vorsortieren, dabei legt die künstliche Intelligenz vor allem strittige und schwierige Fälle vor. Nach wie vor muss die KI von Menschen trainiert werden um so ausreichend Beispielmaterial zur Ermittlung von Mustern zu erhalten. Die neue KI wird über die Content-Safety Schnittstelle zur Verfügung gestellt, NGOs und Partnerunternehmen von Google können diese kostenlos verwenden.
Susie Hargreaves OBE, Geschäftsführerin der Internet Watch Foundation, sagte dazu: “Wir und insbesondere unsere Expertenanalysten freuen uns über die Entwicklung eines Werkzeugs für künstliche Intelligenz, das unseren menschlichen Experten helfen könnte, Material in noch größerem Umfang zu überprüfen und mit den Tätern Schritt zu halten, indem es auf Bilder abzielt, die bisher nicht als illegales Material gekennzeichnet waren. Durch die gemeinsame Nutzung dieser neuen Technologie könnte die Identifizierung von Bildern beschleunigt werden, was wiederum das Internet zu einem sichereren Ort sowohl für Überlebende als auch für Nutzer machen könnte.”
Natürlich sind Googles Beweggründe hier Fortschritte zu erzielen nicht ganz selbstlos. Der Suchmaschinenanbieter steht hinter dem Videoportal YouTube, gerade dort ist die schnelle und effiziente Prüfung von Inhalten – egal ob gemeldet oder automatisch – besonders wichtig. Gerade bei Kinderpornografie gibt es hier wenig Pardon in der öffentlichen Meinung – so wird dieser Bereich von Politikern häufig als Grund für potentielle neue Gesetzgebungen zur Beschränkung der Freiheiten im Internet gebannt. Gerade Politiker führen hier auch öfter Google ins Feld, auch im Zusammenhang mit Hatespeech – so sollen Netzwerke, die ihre Uploads selbst nicht prüfen können, das doch durch Google erledigen lassen. Ein Service, dem Google sicher überaus gerne nachkommt – so erhält der Suchmaschinenkonzern noch mehr Information und Daten, ohne dafür selbst erst eine Plattform entwickeln zu müssen.
So oder so – natürlich sind die Fortschritte in diesem Segment zu begrüßen. Es scheint zwar nicht so, als gäbe es ein großes Problem von Kindesmissbrauch in öffentlichen Netzwerken, dennoch kann mit so einer Technologie auch der Mensch an sich entlastet werden. Dabei meine ich nicht den potentiellen Surfer – der auch – sondern vor allem auch die vielen, menschlichen, Contentprüfer. Kaum auszudenken, mit was für Inhalten derartige Menschen Tag für Tag, für unser Wohl, belastet werden. An dieser Stelle noch einmal der Hinweis auf die Dokumentation “The Cleaners“, dort gibt es einen Einblick in das Thema Content Prüfung und die Menschen die dahinter stecken. Alleine aus diesem Blickwinkel heraus ist eine technische Prüfung auf jeden Fall die bessere und psychisch einfachere Variante.