Kommentare

Was künstliche Intelligenz (noch) nicht kann: Ethik und Wärme

Algorithmen und KI werden immer besser und smarter. Manchmal scheitern sie dennoch kolossal und machen uns damit unnötig das Leben schwerer, als es in bestimmten Situationen sowieso schon ist.

von Carsten Drees am 14. Dezember 2018

Vermutlich kennt es jeder von euch: Man bestellt sich irgendwas im Netz und kaum ist die Bestellbestätigung im eigenen Postfach reingerauscht, schon bekommt man bei Facebook oder sonst wo im Netz Werbung für exakt das Produkt angezeigt, welches man sich vor Minuten gekauft hat.

Ist schon klar: Wenn ich mir gerade wieder online eine Wagenladung Softdrinks bestellt habe, über die mein Körper ebenso unglücklich ist wie der arme DHL-Mensch, der mir den ganzen Mist in den (immerhin nur) zweiten Stock karren muss, dann habe ich nur einen sehnlichen Herzenswunsch: Direkt noch mehr Softdrinks bestellen! Zumindest scheinen das die aktuell gängigen Algorithmen zu denken, denn sonst würden sie mich ja nicht direkt nach dem Kauf mit Coca-Cola-Werbung zuballern.

Aber auch, wenn es nervt: Das ist noch ein harmloses Beispiel. Schlimmer ist es, wenn die eben noch nicht so richtig pfiffigen Algorithmen uns an Dinge erinnern, an die wir nicht so gerne erinnert werden wollen. “Hallo Carsten, es ist schön, Erinnerungen wach zu halten”, erklärt mir beispielsweise Facebook und zeigt mir dann ein Bild, welches ich auf den Tag genau vor X Jahren gepostet habe.

Ja genau – seht nur, wie glücklich ich aussehe auf dem Bild mit meiner Ex. Als ob ich keine Ahnung davon hätte, dass ich drei Monate später wieder Single bin. Ach Moment, ich hatte damals ja tatsächlich keine Ahnung, dass sie sich demnächst trennen wird und ich Dummchen hatte den Schmerz sogar fast ein bisschen verdrängt — danke also für die Erinnerung, Facebook. Das hilft mir gerade wirklich!

Klingt zynisch? Ja, ist es auch und natürlich tun wir Algorithmen und künstlichen Intelligenzen sowie den Plattformen, die sie nutzen, Unrecht mit diesem Zynismus. Selbst eine noch so gut geschulte KI tut sich schwer, wenn zum Beispiel ein Ex-Partner nicht-getaggt irgendwo auf einem Foto auftaucht, möglicherweise auch noch halb verdeckt, im Hintergrund usw. Aber über diese ganze Trennungs-Nummer und wie sehr sich das in unseren Zeiten von einer Trennung vor 20 oder 30 Jahren unterscheidet, ist eh ein komplexes Thema, was ich sicher mal in einem eigenen Artikel behandeln werde.

Gerade jetzt möchte ich eher darauf hinaus, dass uns die Algorithmen manches mal ziemlich übel mitspielen, gerade auch, wenn es darum geht, passende Werbung auszuspielen. Oben habe ich das harmlose Beispiel mit den Softdrinks gebracht. Wenn ich mit meiner Figur und/oder meinem Single-Dasein hadere und mir dann Diät-Drinks oder Dating-Portale für ältere Menschen angepriesen werden, kann das durchaus schon mal ein fieser Hieb in die Magengegend sein.

Aber es geht noch deutlich schlimmer, wie jetzt Gillian Brockell feststellen musste. Die Amerikanerin ist Redakteurin bei der Washington Post und wenn sich die Daten-sammelnden Plattformen wie Facebook, Twitter oder Instagram die perfekte Nutzerin schnitzen könnten — sie würde vermutlich ziemlich genau Gillian Brockell entsprechen: Wieso? Weil sie die sozialen Medien begeistert nutzt, sehr viel von sich preisgibt und somit auch den Unternehmen die Chance bietet, sehr viele relevante Daten einzusammeln.

Die können von denen dann genutzt werden, um ihr dann die für sie passende Werbung anzuzeigen. Mit dieser Vorgehensweise hab ich grundsätzlich überhaupt kein Problem, weil ich in der Tat lieber Werbung angezeigt bekomme, die mich in irgendeiner Weise weiter bringt als Ads, die so gar nichts mit mir zu tun haben. So denkt Gillian grundsätzlich auch und als sie schwanger wurde, hat sie Facebook und Konsorten auch eifrig genutzt, um der Welt ihre Glücksgefühle als werdende Mutter mitzuteilen.

Der ganz und gar schreckliche Haken an der Geschichte und vermutlich könnt ihr euch schon denken, worauf es hinaus läuft: Ihr Sohn kam tot zur Welt, eine sogenannte Stillgeburt. Das Wort Stillgeburt orientiert sich an der englischen Vorlage “stillbirth” und klingt für mich deutlich passender als Fehlgeburt oder Totgeburt. Folgenden Tweet hat sie anlässlich dieser schrecklichen Nachricht bei Twitter veröffentlicht und angeheftet:

Ich kann mir dieses Gefühl nicht im Ansatz vorstellen. Ja, ich weiß, wie es ist, einen geliebten Menschen zu verlieren. Aber erfahren, dass das eigene, noch ungeborene Baby gestorben ist und es dann tot auf die Welt bringen müssen — ich glaube, es gibt nicht viel schlimmere Dinge, die einem Menschen widerfahren können.

Danach muss man einen Weg finden, wie man weiter existiert, seine Trauer bewältigt und all das irgendwie verarbeitet bekommt, egal wie schwer es einem in diesem Augenblick erscheint. Dumm nur, wenn das die Algorithmen leider nicht so auf die Reihe bekommen, was da furchtbares passiert ist. Die Journalistin schrieb daher in der Washington Post einen offenen Brief an die Tech-Unternehmen.

Dort erklärt sie, dass sie natürlich weiß, dass diese Unternehmen — wie eben Facebook und Twitter — natürlich wussten, dass sie schwanger war. Dann stellt sie aber die Frage, wieso diese Unternehmen denn nicht ebenso feststellen konnten, dass sie eben nicht mehr schwanger war und das etwas Schlimmes passiert ist. In ihrem Artikel schreibt sie:

But didn’t you also see me googling “braxton hicks vs. preterm labor” and “baby not moving”? Did you not see my three days of social media silence, uncommon for a high-frequency user like me? And then the announcement post with keywords like “heartbroken” and “problem” and “stillborn” and the 200 teardrop emoticons from my friends? Is that not something you could track? Gillian Brockell, Washington Post

Das Erwähnen prägnanter Vokabeln wie “untröstlich” und “totgeboren” haben die Algorithmen nicht richtig gedeutet, ebenso wurde übersehen, dass es 200 Reactions mit weinenden Smileys gab und auch eine für diese Person ungewöhnliche Stille von drei Tagen ohne jegliches Posting blieb unbeachtet. Wenn ihr diese Punkte jetzt so aneinandergereiht lest, wäre jedem von euch klar, dass sich da eine familiäre Katastrophe ereignet hat und ich bin eigentlich davon ausgegangen, dass ausgeklügelte Algorithmen das ebenso verstehen könnten. Fairerweise muss man dazu sagen, dass sie die oben erwähnten Vokabeln bzw. ihren Text als Grafik geteilt hat. Damit haben Algorithmen erfahrungsgemäß und völlig logischerweise mehr zu knacken als an reinem Text.

Dem ist aber eben leider nicht so — zumindest noch nicht. Gillian Brockell hat nämlich deshalb den offenen Brief an die großen Tech-Companies adressiert, weil die Algorithmen weiter so getan haben, als wäre alles bestens. Das bedeutet, dass man eben weiterhin Werbung angezeigt bekommt, die der künstlichen Intelligenz zufolge perfekt zu werdenden oder frischgebackenen Müttern passt. Wann immer sie sich also fortan auf den sozialen Plattformen blicken ließ, sah sie Werbung für Einrichtungsgegenstände fürs Kinderzimmer, Bekleidung für Schwangere und ähnliches.

Wir müssen sicher nicht darüber reden, was für ein Stich ins Herz jede einzelne dieser Ads sein muss für eine Frau, die gerade ihr Baby verloren hat. Algorithmen stören sich aber nicht an Fragen der Ethik und funktionieren einfach so weiter wie immer.

Wer ist Schuld – Mensch oder Maschine?

Kann man die Schuld an dieser Misere jetzt komplett den Maschinen, der künstlichen Intelligenz, den Algorithmen geben? Oder alternativ den Menschen, die sie programmiert haben? Oder tragen wir selbst eine Mitschuld als Nutzer, die bereitwillig viele Daten von sich preisgeben und vielleicht auch Social-Media-Mechanismen nicht immer komplett durchschauen?

Vermutlich müssen wir mit einem unentschlossenen “Jein” antworten, denn ganz so eindeutig ist es in der Tat nicht. Natürlich geht man während der Schwangerschaft nicht davon aus, dass es ein so böses Ende geben könnte. Wäre es aber ein komplett anderer Sachverhalt — vielleicht das eifrige Kommentieren und Dokumentieren eines Urlaubs –, würden wir uns vermutlich nicht darüber wundern, wenn wir ein Hotel oder ein bestimmtes Restaurant als Werbung angezeigt bekommen, obwohl wir seit zwei Tagen schon wieder aus diesem Urlaub zuhause sind.

Was ich damit sagen will: Bei sehr eindeutigen Sachverhalten bekommen wir auch sehr flott passende Inhalte angezeigt. Aber es ist zum einen nicht immer so absolut eindeutig und zum anderen ist es auch schwieriger, einen erst einmal auf meine Bedürfnisse kalibrierten Algorithmus wieder zurückzudrehen, wenn sich eine Situation plötzlich entscheidend ändert. Das funktioniert sicher auch, braucht aber vermutlich länger.

Dazu kommt auch noch, dass uns Plattformen wie Facebook auch Möglichkeiten an die Hand geben, die Inhalte der Werbung ein wenig zu kontrollieren. Geht ihr auf diese Facebook-Seite, bekommt ihr eure Werbepräferenzen angezeigt. Dort gibt es den Punkt “Werbethemen verbergen” und ihr habt dort die Möglichkeit, die Themen “Alkohol”, “Kindererziehung” und “Haustiere” auszublenden. Weiterhin könnt ihr auswählen, ob diese Themen für sechs Monate, ein ganzes Jahr oder sogar generell verborgen werden sollen.

Gute Sache — wenn eine Frau zum Beispiel nicht schwanger werden kann aus irgendeinem Grund, möchte sie nämlich sicherlich keine Werbung für Umstandsmode angezeigt bekommen. Auch dann nicht, wenn dem Algorithmus aufgefallen ist ,wie begeistert sie sich angesichts einer schwangeren Freundin oder Schwester eifrigst auf Facebook zu Wort meldet. Allerdings muss man diese Einstellung auch erst einmal kennen bzw. wissen, dass man unter Werbepräferenzen/Werbethemen verbergen/Kindererziehung entsprechende Werbung ausknipsen kann.

Ich bin ganz sicher, dass der ein oder andere Facebook-Verweigerer sowas denkt wie “selbst Schuld”, weil man halt im Vorfeld viel zu viel von sich preisgegeben hat. Dennoch glaube ich, dass sowohl die Daten-Freizügigkeit, das exzessive Nutzen dieser Plattformen und auch das Übersehen dieser Werbe-Einstellungen nicht rechtfertigt, dass man in einer schweren Stunde wieder und wieder diese unpassende Werbung ertragen muss.

Unabhängig davon bekommt ihr sie auch trotz der richtigen Einstellungen nicht komplett unterdrückt, wie die Journalistin  in einem weiteren Tweet ausführt. Ihr wird dort eine Adoption vorgeschlagen, was man jetzt unterschiedlich bewerten kann: Entweder reagiert der Algorithmus einfach immer noch nicht darauf, dass bestimmte Themen in der angezeigten Werbung Tabu sein sollten — oder der Algorithmus kommt frei von jeglicher Ethik zu dem Schluss, dass ein totgeborenes Kind bedeuten könnte, es jetzt alternativ mal mit einer Adoption zu probieren.

Beide Alternativen klingen dabei für mich gruselig und falsch. Sie hat natürlich nicht nur sehr viel Zuspruch von ihren Followern bekommen, auch die Tech-Unternehmen selbst haben sich zu Wort gemeldet, auch Facebook. Rob Goldmann ist bei Facebook die zuständige Person für dieses Anzeigensystem und entschuldigte sich persönlich bei ihr. Er wies auch auf die oben erwähnten Einstellungen hin, gab gleichzeitig aber zu, dass man mehr tun müsse, um diese Prozesse weiter zu verbessern und solche furchtbaren Vorgänge künftig zu verhindern.

Das können wir so von außen betrachtet jetzt nicht tatsächlich beurteilen, ob das ein ernstes, aufrichtiges Anliegen ist, oder doch nur die Facebook-übliche Hinhalte-Taktik, bei der man irgendwie ja ständig zwischen “wir ändern uns” und “weiter so” pendelt. Vermutlich können wir aber abschließend festhalten, dass die Algorithmen, über die wir uns hier die ganze Zeit unterhalten, noch lange nicht so weit sind, wie es die Unternehmen — und auch wir Nutzer — gerne hätten.

Gerade Fragen der Ethik und Semantik stellen die hellen Köpfe im Silicon Valley und sonst wo noch vor große Probleme und das wird auch nicht über Nacht zu beheben sein. Dennoch würde ich mir wünschen, dass bei so deutlichen Anzeichen wie in diesem Fall erkannt werden kann, dass hier zumindest irgendwas außerhalb der Norm geschehen ist — und wenn der Algorithmus das erkennt, sollte Werbung zum relevanten Thema vielleicht erst einmal pauschal geblockt werden.

Wir dürfen uns aus User-Sicht derweil die Frage stellen, wie dazu jetzt die Lösung unsererseits aussehen könnte. Wollen wir künftig einfach weniger bereitwillig Daten preisgeben? Also dafür sorgen, dass Facebook und Twitter gar nicht erst erfahren, dass jemand schwanger ist? Oder müssen wir uns eingestehen, dass wir der Logik nach eigentlich sogar noch freigiebiger mit unseren Daten umgehen müssten um sicherzustellen, dass eine künstliche Intelligenz die richtigen Zusammenhänge erkennen kann?

Das sind meiner Meinung nach schwierige Fragen, auf die wir heute vermutlich auch keine einfachen und befriedigenden Lösungen finden können. Ich bin gespannt, wie Gillian Brockell sich künftig online präsentieren wird. Ich kann mir ehrlich gesagt nicht vorstellen, dass aus dieser bitteren Erfahrung als Konsequenz eine Online-Abstinenz die Folge wäre bei einem Menschen, der seine Social-Media-Aktivitäten so fest in seinem Leben verwurzelt hat.

Darüber hinaus glaube ich auch nicht, dass künstliche Intelligenz in Sachen Wärme, Gefühle und Ethik wirklich schnell so große Sprünge machen kann — aber ganz ehrlich: Wäre es nicht noch gruseliger, wenn Algorithmen und KI schon bald ähnliche Empathie-Skills wie Menschen besitzen (oder vortäuschen) würden?

Quelle: Washington Post via SZ