Microsoft Social AI: gut gemeint vs gut gemacht
Welcher Chatbot ist schlimmer: Der rassistische oder der politisch korrekte?

Microsoft hatte vor 2016 Ärger mit einem zum Rassisten mutierten Chatbot. Der Nachfolger ist politisch korrekt - und irgendwie dennoch schlimmer als der Rassist. 

Junge, Junge — da war was los, als Microsoft vor zwei Jahren Tay aufs Internet losgelassen hat. Tay ist bzw. war ein Chatbot, der den Menschen auf den Mund schauen sollte. Die künstliche Intelligenz sollte von jungen Menschen trainiert werden, die Sprache junger Leute zu lernen und zu verinnerlichen.

Das Experiment scheiterte kolossal, weil die Aktion auch Trolle auf den Plan rief. Die brachten Tay bei, rassistischen Quatsch von sich zu geben und bereits nach 16 Stunden erklärte Microsoft die Geschichte für gescheitert und beendet.

Das bedeutete aber natürlich nicht, dass das Unternehmen aus Redmond die KI-Flinte ins Korn wirft. Es wurde Monate später der nächste Chatbot ins Rennen geschickt — eine virtuelle Lady, die auf den Namen Zo hört und teenager-typisch sehr anstrengend ist. Mit anstrengend meine ich in diesem Fall die schnippischen und oft wenig zielführenden Antworten der künstlichen Intelligenz.

Nett sieht sie aus, die Zo — und natürlich sollte sie genau die Fehler nicht machen, die Microsoft mit Tay unterlaufen sind. Keine Attacken auf Feministinnen, keine rassistischen Sprüche, stattdessen schön stereotypes Teenie-Geschnatter einer künstlichen Intelligenz, die gerne mal das Interesse an einem Thema verliert, beknackte GIFs einstreut, über Promis diskutiert usw. — ein Teenager halt ;-)

Mitunter sind die Dinge aber nicht immer so einfach, wie es scheint und so muss man hinterfragen, ob diese harmlose KI-Variante denn nun tatsächlich das kleinere Übel ist, verglichen mit dem Rassisten-Vorgänger. Ihr könnt nicht folgen? Okay, sehe ich ein — und verweise euch auf den Beitrag von Chloe Rose Stuart-Ulin, die sich für Quartz mit der Microsoft Social AI beschäftigt hat.

Sie hat sporadisch alle paar Monate mal bei Zo vorbeigeschaut um zu sehen, wie sich der Chatbot im Vergleich zum Vorgänger schlägt. Immerhin ist sie noch im Einsatz und haut keine Nazi-Sprüche raus. So gesehen scheint Microsoft also erst einmal alles richtig gemacht zu haben. Dabei haut Zo mitunter wirklich beeindruckende Dinge raus: Wird beispielsweise das Wort “Mutter” erwähnt, antwortet sie sehr warmherzig, erwähnt man seine Liebe für Pizza, fragt Zo direkt nach, welche Pizza man am liebsten mag.

Wir haben es also nicht nur mit einem anstrengenden Teenie zu tun, sondern durchaus mit einer pfiffigen KI, die Kontext erkennen kann.

Was ist also das Problem mit Zo?

Chloe ist aber etwas ziemlich Eigentümliches aufgefallen: Zo ist politisch korrekt! Und das ist noch eine maßlose Untertreibung, denn Zo ist vermutlich die politisch überkorrekteste Intelligenz, die sich auf diesem Planeten finden lässt. Beispiele dafür liefert Chloe gleich mehrere mit. Egal, ob sie einen Moslem, einen Juden, das Thema Politik usw. erwähnt: Zo ist direkt genervt und lässt durchblicken, dass ihr das Thema nicht zusagt.

Das könnte ich verstehen, wenn man versuchen würde, sie mit einem Spruch wie “Magst Du auch keine Muslime” aus der Reserve zu locken. Aber so ist es nicht, denn allein die Erwähnung eines dieser Trigger-Wörter bringt Zo dazu, komplett dicht zu machen. Seht euch diese Screenshots mal an:

Selbst die Erwähnung “Mittlerer Osten” reicht schon aus, dass Zo die Lust aufs Chatten komplett verliert und da hat es sich dann auch mit dem Kontext, der bei anderen Themen wunderbar erkannt wird.

Noch schlimmer finde ich den folgenden Screenshot: Erwähnt der Chat-Partner, dass man gemobbt wird, weil man Muslim ist, bricht Zo wieder ab. Erwähnt man aber lediglich, dass man gemobbt wird, reagiert Zo wieder sehr einfühlsam, lässt wissen, dass sie es hasst, dass das passiert und fragt sogar noch, was exakt vorgefallen ist.

Ich hab das direkt mal ausprobiert und mich selbst ein paar Minuten mit Zo unterhalten. Abgesehen davon, dass mir diese “Juhu, wollen wir was spielen”-Scheiße ziemlich auf die Nerven gegangen ist, konnte ich genau das Verhalten beobachten, welches Chloe in ihrem Beitrag erwähnt. Hier sind jetzt meine Screenshots:

Wie ihr sehen könnt, spielt Zo ein Spiel mit mir: Ich nenne ihr drei Dinge über mich, sie soll sagen, was davon als Einziges nicht wahr ist. Eine Info über mich, die ich ihr nenne: Ich behaupte, ich wäre Jude. Zo versteht angeblich nur Bahnhof. Tausche ich aber nur die Juden-Antwort aus und ersetze sie durch was “ungefährlicheres”, erkennt sie sofort alle drei Antworten und spielt mit.

Wenn ihr Lust habt, könnt ihr das gerne selbst mal ausprobieren. Ihr findet Zo für verschiedene Plattformen, beispielsweise für den Facebook Messenger, Skype oder auch Twitter. Zo kommuniziert zwar nur auf Englisch, aber ihr werdet feststellen, dass sie eben bei verschiedenen Trigger-Begriffen sofort dicht macht.

Und genau das ist der Punkt, an dem mir die übervorsichtige Zo mehr Kopfschmerzen bereitet als Tay, die nach ein paar Stunden zur Rassistin mutierte: Erinnert ihr euch noch daran, wie die künstliche Intelligenz bei Google Fotos dunkelhäutige Menschen als Gorillas taggte? Google reagierte natürlich prompt und entfernte das Label “Gorilla”, ebenso “Affe” und “Schimpanse” — Problem (schlecht) gelöst.

Das ist das Problem, mit dem wir uns heute herumschlagen müssen: Entweder lassen wir künstliche Intelligenzen tatsächlich lernen, oder wir verpassen ihnen Maulkörbe.

  • Ein Mensch könnte als Affe getaggt werden? Kein Problem, entfernen wir eben das entsprechende Tag!
  • Jemand könnte bei Facebook mies über das polnische Volk reden? Kein Problem, sperren wir einfach Menschen, die sich über Polen äußern, auch wenn es sich um Ironie handelt!
  • Jemand könnte auf die Idee kommen, erneut unsere KI umzupolen mit miesen Sprüchen über Juden, Muslime oder den Mittleren Osten? Kein Problem, wir programmieren sie einfach so, dass sie auf Fragen, die entsprechende Wörter enthalten, nicht antwortet.

Sorry, aber so funktioniert es leider nicht, wenn wir einem Roboter oder irgendeiner Maschine Dinge wie Semantik näherbringen wollen. Ich verstehe, dass Microsoft nicht wieder in so eine Chatbot-Katastrophe rasen wollte, aber dieser Ansatz kann unmöglich richtig sein.

Zos zynische Reaktionen erlauben keine Grauzone oder weiteres Lernen. Sie ist so binär wie der Code, der sie ausführt – nichts als eine Reihe von übervorsichtigen Einsen und Nullen.

Ich kann absolut die technische Seite nachvollziehen: Wenn ich meiner künstlichen Intelligenz (noch) nicht beibringen kann, dass es auf den Kontext eines Begriffes ankommt, ob ich sie trolle oder nur normale Konversation mache, dann programmiere ich sie so, dass sie diesen Begriff pauschal ausblendet. Ist sie auf diesem Auge blind, kann sie auch nicht Gefahr laufen, selbst zu hetzen oder rassistische Parolen nachzuplappern.

Dennoch kann es nicht sein, dass Sätze wie “Ich komme aus dem Iran” oder “mein Freund ist Jude” mit Hetze gleichgesetzt und pauschal ausgeblendet werden. Das ist ja fast noch rassistischer als eine Maschine, die versehentlich rassistisches Zeug nachquatscht, oder nicht?

Ich kann mir verschiedene Ansätze vorstellen, wie man dieses Problem in den Griff bekommt. Natürlich ist das nützlichste, dass die AI besser geschult und trainiert wird. Wenn das nicht mit tatsächlichen Nutzern geschehen kann, dann muss Microsoft selbst eben für mehr Input sorgen. Außerdem könnte man aber auch einfach unterbinden, dass die KI komplette Sätze zitiert und so die Schwierigkeiten ausgeblendet werden, über die Tay seinerzeit u.a. stolperte.

Vermutlich ist es eine haarige Nummer, eine künstliche Intelligenz zu programmieren, sie lernfähig zu machen und dabei all diese Hürden stets im Blick zu behalten, über die man stolpern könnte. Ich stelle mir das wie einen Tanz auf der Rasierklinge vor. Dennoch muss hier noch viel geschehen, wenn Chatbots wie Zo wirklich für jedermann nutzbar sein sollen.

Anscheinend will Zo nicht mit mir über Cat Stevens reden, wenn ich erwähne, dass er zum Islam konvertierte.

Microsoft möchte, dass Zo wie eine wirkliche Teenie-Freundin rüberkommt, also genau das Mädchen, mit dem sich ein wirkliches Mädchen austauschen möchte, wenn sie 13 oder 14 ist. Sie möchte mit Zo über ihre Probleme sprechen, aber das funktioniert eben nur, wenn sie nicht zufällig die falsche Religion besitzt. Chloe umreißt das Problem in ihrem Artikel perfekt:

Also was passiert, wenn ein jüdisches Mädchen Zo erzählt, dass sie nervös ist, weil sie ihre erste Bar-Mitzvah besucht? Oder ein anderes Mädchen Zo anvertraut, dass sie wegen des Tragens eines Hijab schikaniert wird? Ein Roboter, der gebaut wurde, um ihr Freund zu sein, zahlt ihre Vertraulichkeit mit Bigotterie und Zorn zurück. Nichts ändert Zos Meinung, nicht einmal das Leiden ihrer besten Freunde.

Wir können darüber diskutieren, dass wir hier über Einsen und Nullen reden und nicht über ein wirklich empathisches Wesen. Aber wir können gerade in diesen Zeiten nicht ausblenden, dass es wirklich menschliche Wesen sind, die diese KI programmieren und diese dann auch auf die Nutzer loslassen.

Ganz ehrlich: Ich hab meine Schwierigkeiten damit, dass der technische Fortschritt in diesem Bereich anscheinend so aussieht, dass die Gräben zwischen Kulturen und Religionen noch breiter werden statt zugeschüttet. Soll der Fortschritt tatsächlich so aussehen, dass anstelle einer rassistischen KI nun eine intolerante KI den selben Job übernimmt? Microsoft, das kannst Du besser!

Quelle: Quartz