12.07.2024

Gendergerechtigkeit: HSBI-Studie „Fit für KI?“ zeigt, wo KI diskriminiert und was dagegen getan werden kann

Eine Frau doziert in einem Seminarraum
Gemeinsam mit ihren Kollegen hat Nina Mauritz die Studie „Fit für KI?“ durchgeführt und genderrelevante Aspekte bei der Wahrnehmung und dem Verständnis von KI untersucht. © P. Pollmeier/HSBI
Eine weibliche Silhouette vor einem Bildschirm mit 0 und 1
Ein Ergebnis der Studie: Es braucht mehr weibliche Vorbilder in technischen Berufen. © P. Pollmeier/HSBI
Drei Personen stehen vor der HSBI
Auch Schulen müssten das Thema KI explizit auf ihren Lehrplan nehmen, sind sich die HSBI-Forschenden einig. © P. Pollmeier/HSBI
Professor Doktor Sascha Armutat
Prof. Dr. Sascha Armutat vom Fachbereich Wirtschaft hat die Studie „Fit für KI?“ geleitet. © P. Pollmeier/HSBI
Zwei Personen sitzen vor einem Laptop
Die Studie fand in der „Denkfabrik Digitalisierte Arbeitswelt“ an der HSBI statt, die sich bereits seit 2016 mit den Auswirkungen der Digitalisierung und Industrie 4.0 auf die Arbeitswelt befasst. © P. Pollmeier/HSBI
Die Silhouette einer Frau vor einem Projektion aus Nullen und Einsen
© P. Pollmeier/HSBI
KI-Anwendungen sind im Arbeits- und Privatleben inzwischen allgegenwärtig. Der unkritische oder ungefragte Einsatz von Künstlicher Intelligenz kann allerdings zur Verfestigung von systematischer genderbezogener Diskriminierung führen. In der „Denkfabrik Digitalisierte Arbeitswelt“ am Fachbereich Wirtschaft der Hochschule Bielefeld haben sich Wissenschaftler:innen darüber Gedanken gemacht, in welchen Feldern Gegenmaßnahmen eingeleitet werden können.

Bielefeld (hsbi). Erhöht Künstliche Intelligenz (KI) die Chancengleichheit, wie etwa bei der Besetzung einer neuen Stelle? Beispiele aus der Praxis zeigen, dass das Gegenteil der Fall sein kann. So vertraute ein global agierender Online-Versandhandel im Recruiting-Prozess einem Einstellungsroboter – und sah sich prompt mit Diskriminierungsvorwürfen konfrontiert: Die KI hatte Lebensläufe von Frauen häufig aussortiert und bevorzugte offenbar männliche Kandidaten. Ein weiteres Beispiel: Der Betreiber eines der größten sozialen Netzwerke weltweit zeigte Männern auf seiner Plattform häufiger Stellenanzeigen von technischen Berufen als Frauen. Offensichtlich hatte die KI das zahlenmäßige Übergewicht von Männern in technischen Berufen zur Annahme verleitet, dass dies auch für die Zukunft so gewünscht sei. 

Negative Auswirkung auf Akzeptanz von KI

Drei Personen sitzen vor einem Laptop
Die wissenschaftlichen Mitarbeitenden Malte Wattenberg und Nina Mauritz haben mit Prof. Sascha Armutat (rechts) zusammengearbeitet.

Die Berichterstattung über die Ausgrenzung von Frauen durch KI macht Schlagzeilen und hat Auswirkungen auf die Akzeptanz und Einsetzbarkeit der Technologie. Vor diesem Hintergrund hat eine Gruppe von Forschenden an der Hochschule Bielefeld (HSBI) die Studie „Fit für KI?“ durchgeführt. Unter der Leitung von Prof. Dr. Sascha Armutat vom Fachbereich Wirtschaft untersuchten die wissenschaftlichen Mitarbeiter:innen Nina Mauritz, Malte Wattenberg, Lotte Prädikow und Maximilian Schulte genderrelevante Aspekte bei der Wahrnehmung und dem Verständnis von KI. Ziel der Arbeit war es festzustellen, in welchen Anwendungsbereichen von KI genderbezogene Diskriminierung wahrscheinlich ist sowie Weiterbildungs- und Gegenmaßnahmen zu eruieren.

Die Studie fand in der „Denkfabrik Digitalisierte Arbeitswelt“ an der HSBI statt, die sich bereits seit 2016 mit den Auswirkungen der Digitalisierung und Industrie 4.0 auf die Arbeitswelt befasst. Im Mai 2023 wurden Fokusgruppen mit Studierenden aus höheren Semestern durchgeführt. Im Ergebnis identifizierten die HSBI-Forschenden dabei fünf Kategorien, die für die Teilnehmer:innen die spezifischen Bedürfnisse und Perspektiven abbilden, damit KI-Technologien künftig auf eine gerechtere und gleichberechtigtere Weise entwickelt und angewendet werden können und eine größere Akzeptanz erfahren: Neben der Kategorie „Freiheit von Diskriminierung“ sind demnach „Wissen und Bildung“ ebenso zu berücksichtigen wie „Geschlechterunterschiede (Sozialisierung und Stereotype)“, „Kommunikation und Benutzerfreundlichkeit“ sowie „Transparenz und Regelungen“.

Unterrepräsentiertheit von Frauen führt zu mangelnder Leistungsfähigkeit von Systemen

„In vielen Wirtschaftsbereichen, insbesondere in großen Technologieunternehmen, ist eine geschlechtsspezifische Voreingenommenheit von KI-Technologien zu beobachten, da hier vorwiegend Männer die Entwicklungsteams bilden“, so Armutat weiter. „Die Unterrepräsentiertheit von Frauen in den Daten, mit denen KI-Systeme lernen, wirkt sich unter anderem auf die Leistungsfähigkeit von Stimm-, Sprach- und Gesichtserkennungssystemen aus, die bei Männern häufig zuverlässiger funktionieren“, berichtet der Professor mit Blick unter anderem auf die Studie der Gesichtserkennungsforscherin Joy Buolamwini vom Massachusetts Institute of Technology (MIT).

Systematische Verzerrungen, die durch unkritisch in KIs einfließende empirische Daten, geschlechtsbezogene Stereotypisierungen und Vorurteile entstehen, bezeichnet die Wissenschaft als „Gender Bias“. Darüber und über die aus solchen Erkenntnissen abzuleitenden Vorgaben für den transparenten Einsatz von KI und über Regelungen, die Diskriminierungen unterbinden, wurde in den Fokusgruppen am häufigsten diskutiert. Ihre Forderung lautet: Der Umgang mit KI müsse nachvollziehbarer und demokratischer gestaltet werden. Dazu könnte eine Kennzeichnungspflicht gehören, um anzuzeigen, wann jemand mit einer KI interagierte. Außerdem wurde der Wunsch nach Regelungen geäußert, in denen festgelegt wird, was KI darf und was nicht. Der EU AI Act, der KI-Anwendungen in unterschiedliche Risikoklassen einordnen soll (s. Infokasten), geht hier in die richtige Richtung.

Stärkere Mitwirkung von Frauen bei der Entwicklung von KI notwendig

Für Frauen ist Wissen der Schlüssel für mehr Interesse an KI und mehr Gendergerechtigkeit, so ein weiteres Ergebnis der im Rahmen der Studie ausgewerteten Gesprächsrunden. Allerdings stellen hier verschiedene Formen der Diskriminierung, geschlechterstereotype Vorurteile und fehlende Gleichstellung nach wie vor Hindernisse dar. Die Stereotype, dass sich Frauen und Mädchen angeblich nicht für Technik interessieren oder womöglich auf diesem Gebiet weniger begabt seien, kann dazu führen, dass Frauen Studiengänge und Berufe in technischen Bereichen gar nicht erst in Erwägung ziehen. Das macht die Gefahr latent, dass KI-Anwendungen auch in Zukunft dies als gegeben oder sogar wünschenswert hinnehmen und entsprechend agieren.

Eine Silhouette eines Menschenkopfes vor einem Bild mit Punkten
Frauen seien in KI-Entwicklungsteams unterrepräsentiert, so die Forschenden. © P. Pollmeier/HSBI

„Unsere Studie zeigt, dass sich Frauen mehr konkrete Anwendungsbeispiele und insgesamt eine bessere Kommunikation über die Vor- und Nachteile von KI wünschen“, berichtet Armutat, nicht ohne den Hinweis, dass es vielen Männern ebenso geht. „Um den Gender Bias von KI zu überwinden, brauchen wir ein inklusives Bildungsumfeld, das die Sensibilisierung und Bildung für Frauen fördert. Wir müssen die Neugier und das Interesse von Frauen und Mädchen wecken“, skizziert der Wirtschaftswissenschaftler die praktischen Implikationen der Forschungsergebnisse. Flankierend braucht es Maßnahmen gegen diskriminierende Barrieren und Stereotype – in den Schulen und am Arbeitsplatz. Zudem sollten Frauen frühzeitig in die Entwicklung von KI-Anwendungen einbezogen und klare Regeln geschaffen werden, um die Gleichberechtigung am Arbeitsplatz sicherzustellen.

Bildungseinrichtungen und Unternehmen kommt Schlüsselrolle zu

Ein Mann und eine Frau vor der HSBI
Das Ausmaß der Skepsis gegenüber KI unter den befragten Studentinnen hat die wissenschaftlichen Mitarbeitenden Malte Wattenberg und Nina Mauritz überrascht.

„Schulen müssen das Thema KI explizit auf ihren Lehrplan nehmen, vor allem aber müssen Lehrerinnen und Lehrer dafür sensibilisiert werden, dass sich ihre Geschlechterstereotypen folgenreich auf den Zugang von Schülerinnen zu Schlüsseltechnologien der Zukunft auswirken“, betont Prof. Dr. Armutat.

Interessant sind die Ergebnisse vor allem für Unternehmen, in denen immer häufiger KI-Systeme zum Einsatz kommen: „Bei der Implementierung dieser Systeme muss berücksichtigt werden, dass Mitarbeiterinnen einen anderen Zugang zur Thematik haben können als die Mitarbeiter“, gibt Armutat zu bedenken. Daraus folgt unter anderem, dass es geschlechterparitätisch besetzte Projektgruppen zur Einführung von KI geben sollte und dass eine substanzielle, gendersensible inhaltliche Aufklärung betrieben werden muss. (eb)

Was ist der EU AI Act?

Diese europäische Verordnung ist die erste umfassende Verordnung über künstliche Intelligenz (KI) durch eine wichtige Regulierungsbehörde weltweit. Das Gesetz ordnet die Anwendungen von KI drei Risikokategorien zu. Anwendungen und Systeme, die ein inakzeptables Risiko darstellen, wie beispielsweise ein staatlich betriebenes Social Scoring, wie die VR China es bereits einsetzt, werden verboten. Anwendungen mit hohem Risiko, wie z. B. ein Tool zum Scannen von Lebensläufen, das eine Rangfolge von Bewerber:innen erstellt, unterliegen besonderen rechtlichen Anforderungen. Und Anwendungen, die nicht ausdrücklich verboten oder als risikoreich eingestuft sind, bleiben weitgehend unreguliert.

Hier geht’s zum Projektbericht

Projektbericht im Rahmen der internen Ausschreibung frauen- und geschlechterbezogener Forschungsvorhaben der Hochschule Bielefeld von Sascha Armutat, Nina Mauritz, Lotte Prädikow, Maximilian Schulte, Malte Wattenberg: „Fit für KI? Genderspezifische Unterschiede in der Wahrnehmung, dem Verständnis und in den Weiterbildungswünschen bezüglich Künstlicher Intelligenz“ (November 2023)

Armutat, S., Wattenberg, M., & Mauritz, N. (2024). Artificial Intelligence – Gender-Specific Differences in Perception, Understanding, and Training Interest. In International Conference on Gender Research (Vol. 7, Issue 1, pp. 36–43).

Weitere Informationen

Fachbereich Wirtschaft
Denkfabrik Digitalisierte Arbeitswelt

 Für weiteres Bildmaterial können Sie sich gerne an presse@hsbi.de wenden.