• Folge Uns
    • Facebook
    • Twitter
    • Youtube
    • Flipboard
  • ENG
Mobilegeeks
  • Videos
  • Cars
  • Connected Life
  • IoT
  • Smartphones
  • Hardware
  • Tests
  • Podcast
  • Videos
  • Cars
  • Connected Life
  • IoT
  • Smartphones
  • Hardware
  • Tests
  • Podcast
Previous Story
Apple: Neues Produkt als "Weihnachtsüberraschung" ...

von Michael Sprick

Next Story
Google: Vor Gericht wegen Anti-Gewerkschaftlichem ...

von Michael Sprick

Künstliche Intelligenz

Algorithmen bei der Personalbeschaffung entscheiden nicht immer neutral

KI-Entscheidungen haben die gleichen Vorurteile und Rollenbilder, wenn sie die Werte einer Fachkraft vertritt. Das beweist nun eine weitere Studie.

von Felix Baumann am 4. Dezember 2020
  • Email

Auch in den nächsten Jahrzehnten werden Algorithmen zunehmend präsenter in unserem Alltag. Dabei spielt es keine Rolle, ob ein Computer den besten Busfahrplan vorschlägt, ein Medikament zur Behandlung von Krankheiten findet oder einfach nur im Laboralltag aushilft: Maschinen sind in manchen Belangen einfach effizienter als ein Mensch. Trotzdem hat Künstliche Intelligenz auch ihre Schattenseiten.

Denn jeder Algorithmus kann nur so gut und nachhaltig sein wie sein Entwickler oder seine Entwicklerin. Daher kommt es einem gar nicht mal so seltsam vor, dass sonst objektive Maschinen oft mit Vorurteilen behaftete Entscheidungen treffen. Amazon musste beispielsweise bereits ein System abschalten, welches Bewerberinnen beim Recruiting benachteiligte.

Amazon hatte bereits Probleme mit ungerechten Algorithmen (Bild: Christian Wiediger)

Dieses Problem haben sich nun auch Forscher:innen der Universität von Melbourne angesehen. Dazu wurden 40 Rekrutierer eingeladen und diesen eine bestimmte Anzahl an Bewerbungen für eine Stelle bei der UniBank vorgelegt. Mit dabei waren Ausschreibungen für Datenanalysten, Finanzbeamte und auch Rekrutierer. Die Stellen spiegelten dabei Rollen wieder, die eher männerlastig, neutral oder frauenlastig besetzt sind.

Eine Hälfte der Personalbeschaffer erhielten Bewerbungen, in denen das Geschlecht des Bewerbers beziehungsweise der Bewerberin angegeben war. Die andere Hälfte erhielten nur Bewerbungen, die einen männlich oder weiblich klingenden Namen enthielten (beispielsweise „Mark“ oder „Sarah“). Dann sollten die Rekrutierer die besten und schlechtesten drei Kandidaten vorstellen. Überraschung: Frauen wurde während des Prozesses häufiger übergangen.

Eine KI kann auch Vorurteile haben (Bild: Alexander Sinn)

Mit den im Feld gewonnenen Daten wurde dann ein Algorithmus zur Bewertung von neuen Bewerbungen entwickelt. Nun kann sich jeder denken, wie das Ergebnis aussah. Selbst wenn kein Name angegeben war, so benachteiligte die KI auf Basis von anderen Daten häufiger Bewerberinnen. Gerade Frauen, die weniger Berufserfahrung mitbringen, da diese wegen eines Kindes eine Auszeit genommen haben, haben meist schlechte Karten.

Das Beispiel zeigt, dass Algorithmen und computergestützte Entscheidungen nicht immer die besseren Resultate bringen. Wir müssen über bisherige Klischees und Rollenbilder hinwegblicken, um eine nachhaltige und gerechte KI aufbauen zu können. Dazu fehlt den meisten aber leider nach wie vor die Weitsicht.

via The Next Web


Mehr aus dem Themenbereich Künstliche Intelligenz:
  • Befragung: Inwieweit akzeptieren die Deutschen Künstliche Intelligenz?
  • Künstliche Intelligenz findet Medikament zur Behandlung von COVID-19
  • Künstliche Intelligenz sorgt für größere Ernte bei weniger Pestiziden
Trending Cars
  • Tesla Model 3
  • Opel Ampera-e
  • Tesla Model X
  • Porsche Mission E
Automarken
  • Mercedes-Benz
  • Tesla
  • Audi
  • Volkswagen – VW
  • BMW
  • Ford
  • Porsche
  • Opel
Related Video
video
Film von 1896: Dank KI jetzt in 4K und mit 60 fps
AI Künstliche Intelligenz
Ähnliche Artikel
Apple übernimmt Spezialisten zur Anpassung von Musikstücken mittels KI
10. Februar 2022
Apple übernimmt Spezialisten zur Anpassung von Musikstücken mittels KI
Neues KI-System von Meta soll Umwelt identifizieren und interpretieren
25. Januar 2022
Neues KI-System von Meta soll Umwelt identifizieren und interpretieren
Cortana: Einblicke in das Scheitern einer KI, die fast „Bingo“ hieß
22. Dezember 2021
Cortana: Einblicke in das Scheitern einer KI, die fast „Bingo“ hieß
Alphabet gründet Tochterfirma zur Erforschung von Medikamenten durch KI
10. November 2021
Alphabet gründet Tochterfirma zur Erforschung von Medikamenten durch KI

Fernweh

Wir beschäftigen uns mit den Themen und der Technik von Morgen und Übermorgen - Von Smartcities über Sharing-Economy bishin zur Mobilität der Zukunft

Hubs
  • Laptops
  • Magazin
  • Smart Cars
  • Smartphone
  • Tablets
  • Wearables
Weitere Themen
  • OnePlus 5
  • Samsung Galaxy S8
  • LG G6
  • Microsoft Surface Laptop
  • Amazon Blitzangebote
  • Adblock Plus
  • Testberichte (Archiv)
  • ASUS
  • Microsoft
  • Apple
  • Sitemap
Intern
  • Sponsoring und Werbung
  • Über uns
  • Sponsorenübersicht
  • Impressum
  • Datenschutzerklärung
FOLGE UNS
Copyright © 2022 Mobilegeeks.de, Alle Rechte vorbehalten
 Tweet
 Teilen
 Tweet
 Teilen
 Tweet
 Teilen
 Xing