Der Algorithmus von YouTube wurde in diesem Jahr eingehend auf Radikalisierung, Pädophilie und generelle Toxizität geprüft – erstmal ein gutes Ziel, doch wenn das System was falsch macht, ist das natürlich uncool. Dies ist problematisch, da 70 Prozent der Anzeigezeit auf der Plattform auf Empfehlungen zurückzuführen sind. Aus diesem Grund hat Mozilla das Projekt #YouTubeRegrets gestartet, um auf das Problem aufmerksam zu machen und YouTube aufzufordern, seine Praxis zu ändern.

Die Geschichten über die dunkle Seite von YouTube sind abschreckend und werfen die Frage auf, ob der Zweck des Algorithmus gerechtfertigt ist oder nicht. Es gibt Storys über Kinderinhalte, die mehr als unpassend sind, gewalttätige Videos, die nach Boxkämpfen angezeigt werden oder auch Anti-LGBT-Clips, die Schläge unterhalb der Gürtellinie verteilen. Videos über Verschwörungstheorien werden auch erwähnt, da sie ziemlich häufig empfohlen werden. Für einige Personengruppen können diese äußerst verstörend sein.
“Wir glauben, dass diese Geschichten das große Problem mit dem YouTube-Algorithmus genau wiedergeben: Empfehlungen, die bizarre oder gefährliche Inhalte aggressiv propagieren können. Die Tatsache, dass wir diese Geschichten nicht eingehender studieren können – es gibt keinen Zugang zu den richtigen Daten – verstärkt, dass der Algorithmus undurchsichtig und unkontrollierbar ist.” Mozilla
Und darin liegt das Problem. YouTube hat Methoden angeprangert, die von Kritikern des Empfehlungsalgorithmus empfohlen werden, erklärt aber nicht, warum sie diese nicht nutzen wollen. Mozilla weist darauf hin, dass YouTube nicht einmal Daten für Forscher zur Verfügung gestellt hat.
Nach diesen persönlichen Geschichten, scheint es so, dass etwas passieren muss – und zwar schnell. Um das in die Wege zu leiten präsentiert Mozilla YouTube Ende September drei konkrete Schritte, die das Unternehmen unternehmen könnte, um seinen Service zu verbessern:
- Unabhängigen Forschern Zugang zu aussagekräftigen Daten geben, einschließlich Impressionsdaten (z.B. wie oft ein Video empfohlen wird, wie viele Aufrufe aufgrund einer Empfehlung), Engagementdaten (z.B. Anzahl der geteilten Inhalte) und Textdaten (z.B. Name des Erstellers, Videobeschreibung, Transkription und anderer aus dem Video extrahierter Text).
- Entwicklung von Simulationswerkzeugen für Forscher, die es ihnen ermöglichen, Benutzerpfade durch den Empfehlungsalgorithmus nachzuahmen.
- Forscher ermöglichen, bestehende API-Ratenbegrenzungen zu ändern und ihnen Zugang zu einem historischen Archiv von Videos gewähren.
via: thenextweb