Wie die Informatik die Diskriminierung von queeren Menschen begünstigt
In der Informatik ist die Binarität ein wichtiges und grundlegendes Konzept, das die Benutzung von Computern und anderer Technik wie wir sie heute kennen ermöglicht, auch wenn man sich auf Seite der Nutzer:innen in den meisten Fällen durch graphische Benutzeroberflächen überhaupt keine Gedanken mehr um Nullen und Einsen machen muss. Dank immer weiter fortschreitender Digitalisierung befinden sich IT-Systeme in so gut wie allen Bereichen unseres Alltags und es werden immer mehr. Dass das eine Vielzahl von Gefahren mit sich bringt, ist wohl mittlerweile den meisten bekannt, wird aber noch wichtiger, wenn es um auch so bereits marginalisierte Personengruppen geht. Im Zusammenhang mit der sehr binär denkenden Informatik wird das zum Beispiel mit Blick auf Themen, die besonders für die LGBTQIA+-Community von Relevanz sind, deutlich.
Geschlecht: [ ] männlich [ ] weiblich – Binarität schränkt ein
Historisch bedingt gibt es für Geschlechtseinträge in Datenbanken, in denen persönliche Informationen zu Personen gespeichert werden, beispielsweise an Universitäten oder Schulen im Standardfall genau zwei vorgegebene Optionen. In der Anfangszeit von Datenbanken sprach aus technischer Perspektive für diesen Ansatz, dass er effizient und platzsparend war, außerdem spiegelt er die in der westlichen Geschichte vorherrschende Sicht, dass ein Mensch entweder männlich oder weiblich ist, wider. Aber Geschlecht ist schlichtweg nicht so binär, weder die im englischen Sprachraum als „Gender“ bezeichnete Geschlechtsidentität noch das biologische „Sex“ einer Person. Selbstverständlich war Geschlecht und Gender auch schon damals nicht binär, als jahrzehntealte Datenbanken entworfen wurden, aber heute sollte diese Sicht weit verbreitet und anerkannt genug sein, damit IT-Systeme sie bei der Verwaltung von Daten realer Menschen reflektieren. Spätestens seit 2018 die Option eingeführt wurde, beim Eintrag ins Personenstandsregister einen diversen Geschlechtseintrag anzugeben, müssten alle IT-Systeme nachziehen. Tun sie aber häufig nicht. Das andauernde Abfragen von Gender als Kategorie – und zwar nach einer binären Logik – ist eine gängige und gleichzeitig diskriminierende Praxis. Sie führt dazu, dass Daten in wichtigen Datenbanken nur unvollständig oder fehlerhaft gespeichert werden können und macht die Identität von nichtbinären Menschen unsichtbar.
Nach wie vor gängige Diskriminierung trotz leistungsfähiger Computer
Durch die bis heute stark zugenommene Leistungsfähigkeit von Computern ist es aus technischer Sicht nicht mehr nötig, so stark auf das Einsparen von Speicherplatz und Laufzeit zu achten, dass es gerechtfertigt wäre, das Dokumentieren der Identität von Menschen so stark einzuschränken. Dass es trotzdem leider nicht so leicht ist, bestehende Datenbanksysteme umzugestalten liegt unter anderem daran, dass diese Systeme häufig untereinander zusammenarbeiten und die Änderung in einem die Anpassung aller von ihm abhängigen Systeme erfordert. Inklusivität ist damit wie so oft mit zusätzlichem Aufwand und Kosten verbunden, was wenig überraschend wohl nicht gerade dafür sorgt, dass alte Technologien flächendeckend modernisiert werden.
Ein positives Beispiel, das zeigt, dass das mit genug Wille aber durchaus möglich ist, ist die New York University. In ihrem Informationssystem zur Verwaltung der Studierendendaten gibt es mittlerweile zwei verschiedene Felder für das „legal sex“ und die „gender identity“ einer Person, letztere kann außerdem im Laufe der Zeit geändert werden. (1) Es bleibt zu hoffen, dass solche einzelnen Beispiele nur der Anfang eines großen Modernisierungsprozesses sind und diese inklusive Herangehensweise in der Zukunft sowohl für alte, aber vor allem auch für neu entstehende Informationssysteme der Standard wird.
Automated Gender Recognition und „Gaydar“
Es gibt weitere Bereiche der Informatik, die großes Diskriminierungspotenzial für queere Menschen mit sich bringen und dadurch unbedingt in ihren Anwendungsfällen sehr genau evaluiert werden müssen. Ein prominentes Beispiel ist die Künstliche Intelligenz. Hier sind insbesondere Algorithmen zur sogenannten Automated Gender Recognition, kurz AGR zu nennen, die beispielweise dem Ableiten des Geschlechts einer Person aus persönlichen Daten wie dem Namen oder Gesichtszügen dienen – wobei absurderweise nur die binären Optionen Mann und Frau als Ergebnis zur Verfügung stehen. Grundlage für diese Erkennung sind also unter anderem normierte Vorstellungen darüber, wie „männliche“ und wie „weibliche“ Personen aussehen. Das hat zur Folge, dass zum Beispiel für trans Menschen eine große Chance besteht, falsch zugeordnet zu werden. Bei nichtbinären Menschen ist die falsche Zuordnung zum Teil sogar garantiert – ihre Genderidentität stellt nicht mal ein mögliches Ergebnis dar. Die vermehrte Nutzung von AGR-Software im Alltag würde damit für genau diese Menschen eine Gefahr darstellen, wenn sie beispielweise für die Zugangskontrolle zu bestimmten Orten genutzt werden würde. (2)
Gleichermaßen negative Folgen könnte ein Algorithmus haben, der auf ähnliche Weise versucht, die Sexualität eines Menschen nur anhand eines Fotos vom Gesicht abzuleiten, wie es bereits in einem 2017 erschienenen Paper dokumentiert versucht wurde. (3) Solche Systeme, die die queere Identität einer Person versuchen vorherzusagen wie dieses „AI Gaydar“ würden insbesondere queere Menschen in Ländern, in denen beispielweise Homosexualität strafbar ist einem direkten Risiko aussetzen (4) und sind aus meiner Sicht allein deshalb moralisch nicht tragbar. Zusätzlich basieren sie auf veralteten und häufig biologistischen Ansichten über sexuelle Orientierung, deren diskriminierende Logik nicht reproduziert und bestärkt werden sollte. (2)
Technologie reproduziert Stereotype und Unterkomplexität – es besteht Handlungsbedarf
Die Informatik hat mit ihrem immer weiterwachsenden Einfluss auf unseren Alltag eine sehr große Verantwortung, der sie bisher nicht gerecht wird. Alleine mit den genannten wenigen Beispielen wird deutlich, dass die vereinfachte Betrachtung von Menschen aus technischer Perspektive mit großer Wahrscheinlichkeit dafür sorgt, dass Menschen unsichtbar gemacht werden und damit reale Diskriminierung erfahren. Statt Bemühungen in Entwicklungen wie ein „AI Gaydar“ zu stecken, das das Potential hat Diskriminierung weiter zu stärken, sollten lieber bestehende Systeme modernisiert werden, um Diskriminierung abzubauen. Eine Branche, die eigentlich als innovativ und zukunftsweisend gilt sollte das für alle sein, die letztendlich mit neuen Technologien in Berührung kommen. Auch Unternehmen müssen sich der Verantwortung bewusst sein, die mit der Nutzung entsprechender Software einhergeht, mit dem Disclaimer m/w/d auf Stellenausschreibungen ist es nicht getan.
Marie Jarisch studiert IT-Systems Engineering am Hasso-Plattner-Institut. Sie interessiert sich dafür, an wen bei der Entwicklung von IT-Systemen zu wenig gedacht wird.
(1) Broussard, Meredith: When Binary Code Won’t Accommodate Nonbinary People. The next frontier in gender rights is inside databases. The Slate Group, 23 October 2019.
https://slate.com/technology/2019/10/gender-binary-nonbinary-code-databases-values.html
(2) Leufer, Daniel: Computers are binary, people are not: how AI systems undermine LGBTQ identity. Accesnow, 6 April 2021.
https://www.accessnow.org/how-ai-systems-undermine-lgbtq-identity/
(3) Vincent, James: The invention of AI ‘gaydar’ could be the start of something much worse. Vox Media, 21 September 2017.
https://www.theverge.com/2017/9/21/16332760/ai-sexuality-gaydar-photo-physiognomy
(4) Johnson, Khari: DeepMind researchers say AI poses a threat to people who identify as queer. VentureBeat, 18 February 2021.
https://venturebeat.com/2021/02/18/deepmind-researchers-say-ai-poses-a-threat-to-people-who- identify-as-queer/