Daten prägen unser Leben – von medizinischer Forschung über künstliche Intelligenz bis hin zu Alltagsentscheidungen. Doch was passiert, wenn diese Daten eine Hälfte der Bevölkerung systematisch übersehen? Gender Data Bias (oder Gap) beschreibt genau dieses Problem: Frauen sind in vielen Datensätzen unterrepräsentiert oder werden gar nicht erst berücksichtigt.
Herzinfarkte werden bei Frauen oft übersehen, Medikamente sind nicht auf Frauen abgestimmt, Crash-Test-Dummys sind meist männlich, die Warteschlange zur Frauentoilette ist zu lange und KI-Systeme benachteiligen systematisch. Die Probleme des Gender Data Bias bzw. Gender Data Gap sind vielseitig. Im nachfolgenden Artikel werden wir die Problematik in der Medizin und im Umgang mit AI genauer anschauen und diskutieren, wie man hier entgegenwirken kann.
Problematik in der medizinischen Forschung
Ein besonders kritisches Beispiel für Gender Data Bias findet sich im Gesundheitswesen. Frauen erleben nicht nur häufiger Fehldiagnosen, sondern erhalten auch eine unzureichende Behandlung.
Eine Studie zeigt, dass Frauen in Notaufnahmen seltener Schmerzmittel erhalten als Männer, selbst wenn sie über dieselbe Schmerzintensität klagen (SRF, 2023). Die Ursache könnte in veralteten medizinischen Annahmen liegen, die männliche Symptome als «Standard» definieren und weibliche Beschwerden weniger ernst nehmen.
Oder der Klassiker: Auch Herzinfarkte werden bei Frauen oft zu spät erkannt, weil ihre Symptome von den «üblichen» (männlichen) Lehrbuchfällen abweichen. Während Männer häufig über starke Brustschmerzen klagen, verspüren Frauen eher Atemnot, Übelkeit oder Rückenschmerzen – Symptome, die fälschlicherweise anderen Ursachen zugeschrieben werden (Nature, 2020).
Ein weiteres Problem: Medikamentendosierungen werden oft an männlichen Testpersonen erprobt. Dadurch kann es zu überhöhten Dosierungen und verstärkten Nebenwirkungen bei Frauen kommen (Humanrights.ch, 2023).
Künstliche Intelligenz verstärkt bestehende Ungleichheiten
Mit der zunehmenden Digitalisierung spielt Künstliche Intelligenz (KI) eine immer wichtigere Rolle in unserem Alltag – von Bewerbungsprozessen bis hin zu medizinischen Diagnosen. Doch viele KI-Systeme basieren auf historischen Datensätzen, die bereits bestehende Vorurteile enthalten.
Laut UN Women (2025) wurden beispielsweise KI-gestützte Bewerbungsverfahren entwickelt, die Bewerbungen nach vermeintlich «erfolgreichen» Mustern filtern. Da in der Vergangenheit oft Männer bevorzugt eingestellt wurden, sortierten diese Algorithmen Frauen systematisch aus – ein klassischer Fall von algorithmischer Diskriminierung.
Auch in der medizinischen Diagnostik zeigt sich das Problem: Eine Studie in Nature Digital Medicine (2020) belegt, dass KI-Systeme zur Erkennung von Krankheiten bei Frauen oft weniger präzise arbeiten, weil sie auf männlichen Patientendaten trainiert wurden.
Datenlücken als unsichtbares Problem
Ein wesentlicher Grund für solche Fehler ist, dass Frauen in vielen Datensätzen schlicht nicht oder nur unzureichend erfasst werden. Bis heute gibt es zahlreiche wissenschaftliche Studien, in denen nur männliche Teilnehmer vertreten sind – sei es in der medizinischen Forschung oder in der Technikentwicklung. Diese fehlenden Daten führen dazu, dass Frauen oft übersehen werden, selbst wenn keine bewusste Diskriminierung vorliegt.
Doch dieses Problem ist nicht unlösbar: Es braucht eine systematische Erhebung geschlechtsspezifischer Daten und eine bewusste Integration von Frauen in wissenschaftliche und technische Entwicklungen. Und auch nur schon wachsendes Bewusstsein für diese Problematik hilft, weshalb wir hier darauf aufmerksam machen.
Weltfrauentag vom 8. März: Macherinnentreff zu Gender Data Bias
Am Macherinnentreff vom 8. März 2025 mit Franziska Ryser im Macherzentrum Toggenburg geht es genau um dieses Thema. Die Maschinenbauingenieurin und Nationalrätin spricht darüber, wie sich Gender Data Bias auf unseren Alltag auswirkt, welche strukturellen Probleme dahinterstecken – und welche Lösungen es gibt.
Wann? Samstag, 8. März 2025, 10–12 Uhr
Wo? Macherzentrum Toggenburg & online
Eintritt? Frei, ohne Anmeldung
Mehr Infos: Hier geht’s zur Veranstaltung
Quellen und Wissenswertes
Nature Digital Medicine. (2020). Artificial intelligence in medicine: Addressing gender disparities in health data. Nature Digital Medicine. https://www.nature.com/articles/s41746-020-0288-5
SRF. (2023). Studie zeigt Gender Bias: Frauen erhalten auf dem Notfall weniger Schmerzmittel als Männer. SRF. https://www.srf.ch/news/international/studie-zeigt-gender-bias-frauen-erhalten-auf-dem-notfall-weniger-schmerzmittel-als-maenner
Humanrights.ch. (2023). Gender Data Gap: Frauen in den Daten – eine unsichtbare Benachteiligung. Humanrights.ch. https://www.humanrights.ch/de/ipf/menschenrechte/frau/gender-data-gap-frauen-daten
UN Women. (2025). How AI reinforces gender bias – and what we can do about it. UN Women. https://www.unwomen.org/en/news-stories/interview/2025/02/how-ai-reinforces-gender-bias-and-what-we-can-do-about-it
Text: Nadja Brändle
Bild: Claudio Schwarz auf Unsplash
