Auch in den nächsten Jahrzehnten werden Algorithmen zunehmend präsenter in unserem Alltag. Dabei spielt es keine Rolle, ob ein Computer den besten Busfahrplan vorschlägt, ein Medikament zur Behandlung von Krankheiten findet oder einfach nur im Laboralltag aushilft: Maschinen sind in manchen Belangen einfach effizienter als ein Mensch. Trotzdem hat Künstliche Intelligenz auch ihre Schattenseiten.
Denn jeder Algorithmus kann nur so gut und nachhaltig sein wie sein Entwickler oder seine Entwicklerin. Daher kommt es einem gar nicht mal so seltsam vor, dass sonst objektive Maschinen oft mit Vorurteilen behaftete Entscheidungen treffen. Amazon musste beispielsweise bereits ein System abschalten, welches Bewerberinnen beim Recruiting benachteiligte.

Dieses Problem haben sich nun auch Forscher:innen der Universität von Melbourne angesehen. Dazu wurden 40 Rekrutierer eingeladen und diesen eine bestimmte Anzahl an Bewerbungen für eine Stelle bei der UniBank vorgelegt. Mit dabei waren Ausschreibungen für Datenanalysten, Finanzbeamte und auch Rekrutierer. Die Stellen spiegelten dabei Rollen wieder, die eher männerlastig, neutral oder frauenlastig besetzt sind.
Eine Hälfte der Personalbeschaffer erhielten Bewerbungen, in denen das Geschlecht des Bewerbers beziehungsweise der Bewerberin angegeben war. Die andere Hälfte erhielten nur Bewerbungen, die einen männlich oder weiblich klingenden Namen enthielten (beispielsweise „Mark“ oder „Sarah“). Dann sollten die Rekrutierer die besten und schlechtesten drei Kandidaten vorstellen. Überraschung: Frauen wurde während des Prozesses häufiger übergangen.

Mit den im Feld gewonnenen Daten wurde dann ein Algorithmus zur Bewertung von neuen Bewerbungen entwickelt. Nun kann sich jeder denken, wie das Ergebnis aussah. Selbst wenn kein Name angegeben war, so benachteiligte die KI auf Basis von anderen Daten häufiger Bewerberinnen. Gerade Frauen, die weniger Berufserfahrung mitbringen, da diese wegen eines Kindes eine Auszeit genommen haben, haben meist schlechte Karten.
Das Beispiel zeigt, dass Algorithmen und computergestützte Entscheidungen nicht immer die besseren Resultate bringen. Wir müssen über bisherige Klischees und Rollenbilder hinwegblicken, um eine nachhaltige und gerechte KI aufbauen zu können. Dazu fehlt den meisten aber leider nach wie vor die Weitsicht.
via The Next Web