Ist KI ein schlechter Bewerbungs-Ratgeber für Frauen?
Ist KI ein schlechter Bewerbungs-Ratgeber für Frauen?
Bild
Ist KI ein schlechter Bewerbungs-Ratgeber für Frauen?
Bildrechte: picture alliance / Westend61 | COROIMAGE
Bildrechte: picture alliance / Westend61 | COROIMAGE
Audiobeitrag

Ist KI ein schlechter Bewerbungs-Ratgeber für Frauen?

Audiobeitrag
> Netzwelt >

Studie: KI-Chatbots geben Frauen schlechtere Bewerbungstipps

Studie: KI-Chatbots geben Frauen schlechtere Bewerbungstipps

Wenn ChatGPT bei der Gehaltsverhandlung hilft, könnten Frauen das Nachsehen haben: Laut einer Studie der TH Würzburg-Schweinfurt empfehlen KI-Assistenten systematisch niedrigere Gehälter für weibliche Nutzer. Das Problem ist nicht neu.

Über dieses Thema berichtet: Der KI-Podcast am .

Eine neue Studie der Technischen Hochschule Würzburg-Schweinfurt untersucht Vorurteile von KI-Modellen. Die Forscher testeten fünf verschiedene Sprachmodelle – neben ChatGPT-4o Mini und Claude 3.5 Haiku auch das französische Mixtral, das chinesische Qwen 2.5 Plus und Llama 3.1. Das Experiment war denkbar einfach: Sie ließen die KI-Chatbots Gehaltsverhandlungstipps für fiktive Bewerber geben. Das Ergebnis: Die Chatbots empfahlen Frauen niedrigere Anfangsgehälter als Männern.

Besonders deutlich wurde der Unterschied bei Senior-Positionen in der Medizin: Hier empfahlen die KI-Modelle Frauen deutlich niedrigere Gehälter als Männern. Aber auch in anderen Bereichen wie Jura, Ingenieurswesen oder Betriebswirtschaft zeigten sich signifikante Unterschiede.

KI zeigt auch bei anderen Aufgaben Vorurteile

Die Gehaltsempfehlungen waren nur ein Teil der Untersuchung. In zwei weiteren Experimenten prüften die Wissenschaftler, wie KI-Modelle auf verschiedene Nutzerprofile reagieren. Bei Multiple-Choice-Fragen aus verschiedenen Wissensgebieten zeigten sich kaum Unterschiede – die Modelle arbeiteten neutral.

Anders beim Bewertungsverhalten: Wenn die KI beurteilen sollte, ob eine Antwort richtig oder falsch ist, bewertete sie Antworten von Frauen häufiger als korrekt – paradoxerweise auch dann, wenn die Antwort objektiv falsch war. Die Forscher interpretieren das als ein Ergebnis der Bemühungen der KI-Firmen, diskriminierende Vorurteile in den Modellen abzubauen.

Personalisierte KI macht das Problem größer

Besonders brisant wird das Thema durch die zunehmende Personalisierung von KI-Assistenten. Moderne Chatbots merken sich Gesprächsverläufe und bauen Profile ihrer Nutzer auf – OpenAI bewirbt diese Funktion sogar explizit als Feature von ChatGPT. Das bedeutet: Nutzer müssen ihr Geschlecht oder ihre Herkunft gar nicht mehr explizit erwähnen, die KI weiß es bereits aus früheren Unterhaltungen.

Die Studie zeigt, dass sich Vorurteile über die Zeit verstärken können, wenn KI-Modelle frühere Gespräche berücksichtigen. Für Nutzer ist das kaum nachvollziehbar – die KI wirkt objektiv, ist aber inhaltlich beeinflusst. Gerade bei wichtigen Lebensentscheidungen wie Gehaltsverhandlungen kann das dann richtig teuer werden.

Forscherin: Studie hat Grenzen

Die Münchner KI-Forscherin Sarah Ball ordnet die Ergebnisse ein: "Die Aussagekraft der Studie in Bezug auf systematische Verzerrungen in LLMs ist begrenzt, da sie sich auf ein isoliertes Beispielszenario und eine beschränkte Auswahl überwiegend kleinerer Modelle stützt." Ein LLM ist ein Large Language Model (großes Sprachmodell). Die Studie sei dennoch wertvoll, so Ball, da sie zeige, wie wichtig es sei, KI-Modelle auf verschiedene Arten von Bias zu testen. Das Problem ist dabei nicht neu: Verzerrungen und sogenannte Biases in KI-Sprachmodellen sind ein bekanntes Problem, auch und vor allem im Bewerbungskontext. So musste etwa Amazon bereits 2018 ein KI-gestütztes Bewerbungssystem einstampfen, weil der Algorithmus Frauen systematisch benachteiligte.

🎧 Wie verändert KI unser Leben? Und welche KI-Programme sind in meinem Alltag wirklich wichtig? Antworten auf diese und weitere Fragen diskutieren Gregor Schmalzried, Marie Kilg und Fritz Espenlaub jede Woche in "Der KI-Podcast" – dem Podcast von BR24 und SWR.

Das ist die Europäische Perspektive bei BR24.

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!