Erinnert ihr euch noch an Microsofts Chatbot Tay aus dem Jahr 2016? Die künstliche Intelligenz war extrem lernfähig, aber dummerweise nicht sehr wählerisch bei seinen Lehrern. So kam es, dass aus Tay binnen Stunden ein komplett verzogener und fluchender Rechtsextremer wurde, der Nazi-Parolen von sich gab.
Ein weiterer Chatbot Microsofts — Zo — folgte und war dann im Dialog so vorsichtig, dass sie (ja, dieses mal war es ein weiblicher Charakter) schon dicht machte, wenn man bloß eine Ethnie oder einen Begriff wie „mittlerer Osten“ ansprach. Wir können also festhalten, dass Fehlschläge bei künstlicher Intelligenz eine gewisse Tradition haben beim Unternehmen aus Redmond.
Als pauschales Abwatschen wäre das natürlich falsch, weil Microsoft natürlich mit Experten an künstlicher Intelligenz arbeitet und hier auch ordentlich vorankommt. Manchmal sieht man aber eben, dass die derzeit verfügbare KI noch über gewisse Defizite verfügt. Gerade, wenn künstliche Intelligenz so öffentlich arbeitet, dass uns Fehler direkt ins Auge fallen, ist es natürlich besonders ärgerlich.
Genau so einen Fall haben wir jetzt wieder zu verzeichnen und er wird dadurch noch mal deutlich peinlicher für Microsoft, weil zuvor Menschen entlassen wurden zugunsten der KI, die den Job dieser Leute übernehmen sollte. Es handelt sich dabei um das Nachrichten-Portal MSN.com, auf dem Microsoft Nachrichten aus aller Welt kuratiert, aufbereitet, mit passenden Bildern versieht und dann präsentiert.
Genau hier hat der Konzern Kosten sparen wollen. Insgesamt 77 Redakteure hat man nach Hause geschickt, die mit der Themenauswahl und Aufbereitung der Beiträge beschäftigt waren. Man war der Meinung, dass das jetzt bereits eine künstliche Intelligenz übernehmen kann und zur Not gibt es auch immer noch einen Anteil an menschlichen Mitarbeitern.
Worum ging’s? MSN hatte einen Beitrag vom britischen Independent übernommen, in welchem Jade Thirlwall, die damals mit ihrer Girl Group „Little Mix“ bei der britischen Ausgabe der Casting-Show „X-Factor“ gewonnen hatte, über persönlich erfahrenen Rassismus sprach. Die Meldung sollte nun von der KI aufbereitet werden und fatalerweise war sie nicht in der Lage, den Artikel richtig zu bebildern.
Stattdessen verwechselte die künstliche Intelligenz Thirlwall mit ihrer ebenfalls nicht-weißen Band-Kollegin Leigh-Anne Pinnock, die also stattdessen in dem Beitrag abgebildet wurde. Die Sängerin ging in der Folge bei Instagram in ihren Stories auf die Barrikaden und beschwerte sich, dass MSN nicht in der Lage wäre, in einer vierköpfigen Band zwei People of Color voneinander unterscheiden zu können.
In der Tat kann eine KI hier fehleranfälliger sein, was nicht damit zusammenhängt, dass sie rassistisch wäre, sondern schlicht mehr auf weiße Gesichter trainiert ist bzw. mit entsprechenden Datensätzen gefüttert wurde. Dass Microsoft Mitarbeiter entlässt und sich die KI, die den Job übernehmen soll, genau in diesen Zeiten und genau bei einem Beitrag zum Thema Rassismus einen solchen Klopper leistet, ist definitiv schon peinlich und ärgerlich genug für Microsoft.
Die Geschichte bekommt durch einen Artikel des Guardian einen noch unerfreulicheren Spin. Die Zeitung fragte nämlich bei Microsoft nach, wie so etwas passieren konnte und ob die Microsoft-KI auch dann zu solchen rassistischen Ausfällen neigen könnte, wenn andere Unternehmen die Software nutzen.
Zudem wies der Guardian drauf hin, dass man an einem Beitrag zu dieser Thematik sitzt, bei der Microsoft natürlich nicht gut wegkommt. Ein Microsoft-Sprecher erklärte zwar, dass man bei dem Fehler das falsche Bild schnellstmöglich durch ein richtiges ersetzt habe, was aber natürlich wenig befriedigend ist — sowohl für den Guardian als auch für die Mitarbeiter, die ihren Platz räumen mussten.
Noch blöder ist jetzt aber, dass die KI der Meinung sein könnte, dass der Beitrag des Guardian so relevant ist, dass die Microsoft-Schelte ebenfalls über die Plattform angeboten wird. Die verbliebenen menschlichen Redakteure sind angewiesen worden, in diesem Fall den Beitrag manuell wieder zu entfernen. Dumm nur, dass die KI auf die Idee kommen könnte, sich nicht an diese Vorgabe zu halten und den Guardian-Artikel einfach nochmal auf der Plattform anbietet.
Noch dümmer für Microsoft ist allerdings, dass diese Geschichte jetzt eifrig im Netz die Runde macht. Wir kennen das ja längst als „Streisand-Effekt“: Wenn man probiert, eine unschöne Information über sich aus dem Internet zu verbannen, wird genau die Aufmerksamkeit erzeugt, die das exakte Gegenteil bewirkt. Beweisstück A: Dieser Mobilegeeks-Artikel, den es ohne die Reaktion Microsofts wohl so nicht gegeben hätte.
Somit hat die Vorgehensweise Microsofts bei der Plattform MSN mindestens mal zwei Sachen bewiesen: Den besagten Streisand-Effekt und zudem, dass es nicht zwingend eine pfiffige Idee ist, qualifiziertes Personal durch eher so mittel-qualifizierte künstliche Intelligenz zu ersetzen.
via Spiegel und WinFuture.de