top of page

Der fehlende Parameter? Diversität in Data & AI


In unserer heutigen, technologiegetriebenen Welt spielen Daten und künstliche Intelligenz (KI) eine entscheidende Rolle in fast jedem Aspekt unseres Lebens. Daten und KI bezeichnet den Entwurf und die Benutzung von anpassungsfähigen Algorithmen, sowie die Sammlung und Verarbeitung von dafür benötigten Daten und Infrastruktur.


Die Herausforderung der Diversität in Daten und KI


Von der personalisierten Empfehlung in sozialen Netzwerken bis hin zur Entscheidungsfindung in der Gesundheitsversorgung - Daten und KI-Systeme beeinflussen bereits jetzt unser tägliches Leben immens. Doch mit dem wachsenden Einfluss dieser Technologien wächst auch die Verantwortung, sie gerecht und inklusiv zu gestalten. Die Bedeutung von Diversität in Daten und KI kann daher nicht hoch genug eingeschätzt werden. Daten und KI haben das Potenzial, unsere Welt zum Besseren zu verändern.


Diese Technologien können Lösungen für bisher unlösbare Probleme bieten. Sie haben jedoch auch eine Schattenseite: Wenn die Daten, die wir verwenden, und die Systeme, die wir entwickeln, nicht die Vielfalt der Gesellschaft widerspiegeln, in der wir leben, können sie bestehende Ungleichheiten reproduzieren und dadurch Diskriminierung fördern.


Bias in Daten und KI-Modellen: Ein zentrales Problem


Das dabei zentrale Problem ist das sogenannte Bias (Verzerrung) in Daten und KI-Modellen. Viele KI-Systeme werden mit historischen Daten trainiert, die oft Vorurteile und Stereotypen enthalten oder schlichtweg nicht von vielfältiger Natur sind, also nicht die spätere Nutzergruppe widerspiegeln.

Diese Problematik wurde vielfach durch, teils sehr prominente, diskriminierende oder fehlerhafte Algorithmen bestätigt. Bei dem wohl bekanntesten Beispiel handelt es sich um ein KI-gestütztes BewerberInnenranking des Unternehmens Amazon, welches eingesetzt wurde, um eine Vorauswahl unter den Bewerbungen zu treffen (Wilke, 2018).


Der Fehler war jedoch, dass die Auswahl anhand von bisherigen Einstellungen getroffen wurde, also das Ranking beurteilt hat, wie ähnlich eine BewerberIn zu den in der Vergangenheit Eingestellten ist. Damit wird automatisch jegliches bisheriges Bias des Einstellungsverfahrens übernommen. Falls also zuvor eine Person der Personalabteilung stark einem Affinity Bias gefolgt ist, also Personen, die ihr ähneln bevorzugt wurden, dann wird der Algorithmus dies auch tun, also werden die angenommen BewerberInnen dem Mitarbeiter auch weiterhin ähneln.


Ein weiteres problematisches Beispiel ist der Einsatz aktueller Gesichtserkennungssoftware zur Geschlechtsidentifikation, so ist natürlich bereits der Einsatz solcher Software aktuell sehr umstritten, aber auch deren Qualität lässt sich diskutieren. Eine Analyse von Gesichtserkennungsprodukten aus dem Jahr 2018 ergab, dass alle Produkte einerseits deutlich besser auf Bilder von Männern als von Frauen und anderseits auch deutlich besser auf Bildern von Menschen mit tendenziell hellerer als mit dunklerer Haut funktioniert haben (Gebru & Buolamwini, 2018). Am schlechtesten waren die Ergebnisse bei Bildern von Frauen mit dunkler Hautfarbe. Zum Vergleich bei dieser Gruppe waren die Ergebnisse der einzelnen Algorithmen im Durchschnitt bei nur 70% korrekt, während bei weißen Männern dies zu 99% der Fall war.


Diese beiden Beispiele zeigen, dass KI-Systeme direkt und indirekt diskriminierende Entscheidungen treffen können, ohne dass dieses Verhalten je von einer EntwicklerIn explizit „einprogrammiert” wurde. Direkt durch die Aktionen des Algorithmus diskriminiert etwa das BewerberInnenranking, während durch unterschiedliche Qualität auf verschiedenen Personengruppen der Geschlechtserkennungsalgorithmus indirekt, durch einen kritischen Verwendungszweck, diskriminieren kann.


Die Problematik kann folgendermaßen zusammengefasst werden:


"Big Data processes codify the past. They do not invent the future. Doing that requires moral imagination, and that’s something only humans can provide. We have to explicitly embed better values into our algorithms, creating Big Data models that follow our ethical lead. Sometimes that will mean putting fairness ahead of profit." (O'Neil, 2016)


Mit anderen Worten, um Bias zu minimieren, müssen die Daten, die zum Trainieren von KI- Systemen verwendet werden, divers und repräsentativ sein. Dies erfordert bewusste Anstrengungen, um sicherzustellen, dass Datensätze und Algorithmen Menschen aller Geschlechter, ethnischen Gruppen und anderer sozialer Kategorien umfassen bzw. berücksichtigen.


Diversität in Data & AI? Wie Bias bekämpft werden kann


Um die Vielfältigkeit der Algorithmen und Datensätze zu fördern, gibt es nun verschiedene Ansätze. So kann einerseits ein gesetzlicher Rahmen helfen. Ein solches Beispiel ist etwa der EU AI Act, der versucht, den Einsatz von KI, der zur Gefährdung von Menschen führen kann, zu verhindern oder einzuschränken und generell die Entwicklung der Algorithmen, sowie ihren Einsatz, transparent zu gestalten (Madiega, 2024). Des Weiteren sind Mechanismen zur Überprüfung und Bewertung von KI-Systemen auf entsprechendes Bias oder Diskriminierung notwendig, sodass Unternehmen und Organisationen zur Rechenschaft gezogen werden können, falls ihre Algorithmen nicht diesen Qualitätsstandards standhalten.

Eine Bibliothek, die alte Daten darstellt, die als Grundlage für neue Technologien dienen sollen.


Zuletzt ist es notwendig, die Diversität unter den EntwicklerInnen, ForscherInnen und besonders auch unter den GründerInnen zu fördern, denn es ist naheliegend, dass ein diverses Team auch größeren Augenmerk auf die in ihrem Algorithmus bzw. ihren Daten kodierte Vielfalt legt. Problematisch ist jedoch, dass bereits heutzutage das Fachgebiet eine besonders geringe Diversität aufweist, dies hat verschiedenste Gründe. So führen einmal die hohen akademischen Ansprüche an EinsteigerInnen - es ist üblich, dass ein Masterabschluss Mindestqualifikation ist - dazu, dass Bildungsnachteile besonders hervortreten. Die betrifft gerade Menschen ohne Akademikereltern oder etwa mit Migrationshintergrund. Des Weiteren ist die Geschlechterungleichheit ausgeprägt, etwa sind 21% aller Informatik BachelorabsolventInnen, 13% der ProfessorInnen (Bundesverband Deutsche Startups, 2021) und 16% der GründerInnen von KI-Startups Frauen (Hirschfeld, et al., 2021).


Einige hilfreiche Maßnahmen, um die Vielfältigkeit zu fördern könnten dabei etwa Initiativen wie “Women in Data Science” sein, die sich engagieren die Situation von Frauen in dem Gebiet durch Weiterbildung, Netzwerken und Interessenvertretung zu verbessern (Women in Data Science Worldwide, 2024). Andere Ansätze versuchen stattdessen das Außenbild von Data & AI zugänglicher zu gestalten. So gilt Data & AI in der Öffentlichkeit eher als eine Art Science-Fiction als, als Forschungsdisziplin, was durch gezielte Werbekampagnen geändert werden könnte.


Fazit: Chancen bewusst ergreifen


Diversität in Data & AI ist essentiell, nicht zuletzt weil AI unsere Zukunft, wie auch unsere Gegenwart bereits, nachhaltig beeinflussen und verändern wird. Dabei haben diese Technologien ohne Frage das Potenzial, unsere Welt zu verbessern, doch ohne die Einbettung von Vielfalt und ethischen Werten riskieren wir, bestehende Ungleichheiten zu verfestigen und Diskriminierung zu verstärken. Die Lösung liegt in bewussten Anstrengungen, um Datensätze und Algorithmen inklusiv zu gestalten, die Entwicklung von KI durch gesetzliche Rahmenbedingungen verantwortungsvoll zu steuern und die Diversität unter EntwicklerInnen und ForscherInnen zu fördern. So können wir sicherstellen, dass KI-Technologien allen Menschen zugutekommen und eine gerechtere Zukunft schaffen.


Sowohl diese Überlegungen als auch der Artikel selbst, sind im Seminar „Diversity im Lern- und Arbeitsumfeld“ entstanden, welches Rea Eldem, Gründerin und Geschäftsführerin von IN-VISIBLE am Hasso-Plattner-Institut leitet. Der Autor, Robert Weeke, ist Student des Studiengangs IT-Systems Engineering und befasst sich sowohl in seinem Studium als auch in seiner Freizeit intensiv mit dem diskutierten Themengebiet.


Quellen


Wilke, F. (2018, October 18). Bewerbungsroboter: Künstliche Intelligenz diskriminiert (noch). From zeit.de: https://www.zeit.de/arbeit/2018-10/bewerbungsroboter- kuenstliche-intelligenz-amazon-frauen-diskriminierung

O'Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy p 169. Crown Books.

Madiega, T. A. (2024). Briefing : Artificial intelligence act. EU Parliament: . Bundesverband Deutsche Startups. (2021). Frauenanteil in Arbeitsbereichen mit Künstlicher

Intelligenz in Deutschland und USA. Statista.Hirschfeld, A., Gilde, J., Walk, C., Cann, V., Seitz, J., Willbold, K., & Haiber, R. (2021).

Startups und Künstliche Intelligenz: Innovation trifft Verantwortung. Women in Data Science Worldwide. (2024, März 20). About WiDS. From

https://www.widsworldwide.org/about/Gebru, T., & Buolamwini, J. (2018). Gender Shades: Intersectional Accuracy Disparities in

Commercial Gender Classification. Proceedings of Machine Learning Research, (pp. 81, 1-15).

Comments


Commenting has been turned off.
bottom of page