top of page

Sexistisches Roboterdesign? Gender Bias in der Technik

In Anbetracht des demographischen Wandels und der zunehmenden Anzahl von Pflegebedürftigen in unserer Gesellschaft gewinnt der Einsatz von Pflegerobotern zunehmend an Bedeutung (Ausschuss des Deutschen Bundestags, 2018). Laut des Instituts der deutschen Wirtschaft werden uns bis zum Jahr 2035 mehr als 100.000 Fachkräfte in der Branche fehlen (Flake et al., 2018). Um dieser Diskrepanz entgegenzuwirken, forschen Wissenschaftler:innen an innovativen Technologien, um das Pflegepersonal zu unterstützen und zu entlasten. Dabei stützen sie sich auf gesellschaftliche Bilder und reproduzieren Sexismen.


Geschlechtergerechte Robotik: Mehr als nur Technik


Ein Pflegeroboter ist im Wesentlichen eine weitgehend autonome Maschine, die in der Lage ist, mit

Menschen zu interagieren (Ausschuss des Deutschen Bundestags, 2018). Neben der direkten

Unterstützung des Pflegepersonals, beispielsweise beim Anheben von Patient:innen, können

Pflegeroboter auch im Alltag pflegebedürftiger Personen unterstützend wirken. Sie übernehmen

körperliche Aufgaben wie das Anreichen von Gegenständen oder das Reinigen der Wohnung und

helfen auch bei der persönlichen Hygiene. Darüber hinaus können sie bei kognitiven Aufgaben

unterstützen, wie beispielsweise die Erinnerung an die Einnahme von Medikamenten oder einfach

nur Gesellschaft leisten. (Janowski et al., 2018). Letzteres ist besonders relevant, da das Statistische

Bundesamt berichtet, dass etwa jede dritte Person ab dem Alter von 65 Jahren allein lebt

(Statistisches Bundesamt, 2021).


Wie soll ein sozialer Roboter aussehen? Bitte Feminin.


Insbesondere der Einsatz als gesellige Komponente zeigt, dass die Designentscheidung für

Pflegeroboter über Faktoren wie Produktion oder Montage hinausreichen. Denn ein sozialer

Roboter, der mit Menschen interagiert, ist in seiner Erscheinung und seinem Verhalten häufig

inspiriert von dem Menschen selbst. Diese Zuschreibung von menschlichen Eigenschaften

wird in der Wissenschaft als Anthropomorphismus bezeichnet. Studien legen nahe, dass

durch diesen Ansatz die soziale Akzeptanz und die Bindung zwischen Mensch und Roboter

gestärkt (Fink, 2012) sowie die Wahrnehmung von Wärme und Kompetenz gesteigert

werden können (Jung et al., 2022). Worin liegt also das Problem eines anthropomorphen

Designs?


Ein Roboter mit langen Haaren und geschwungenen Lippen?


Gender Bias in der Robotik
Haben Roboter ein Geschlecht?

Um diese Frage zu beantworten, betrachten wir ein Beispiel aus einer Studie der Universität Bielefeld genauer (Eyssel & Hegel, 2012). Der aufmerksamen Leserin wird schnell der Unterschied zwischen den zwei gezeigten Robotern auffallen. Der obere Roboter unterscheidet sich nur durch zwei Merkmale: eine andere Frisur mit längeren Haaren und eine etwas geschwungenere Lippenform. In der Studie wurden die beiden gezeigten Roboter von 60 Proband:innen in verschiedenen Kategorien bewertet.


Es wurde gezeigt, dass diese zwei subtilen Cues (engl. für Hinweis, Indiz oder Anzeichen) bewirken, dass der obere Roboter signifikant femininer wahrgenommen wird im Vergleich zum unteren. Dem „femininen“ Roboter wurden eher gemeinschaftliche und warme Eigenschaften zugeschrieben, während der „maskuline“ Roboter eher als durchsetzungsfähig und dominant wahrgenommen wurde. Bei der Beurteilung, in welchem Anwendungsbereich der jeweilige Roboter geeignet wäre, neigten die Teilnehmenden dazu, stereotypisch feminine Tätigkeiten für den „femininen“ Roboter zu wählen, wie zum Beispiel die Essenszubereitung oder Pflegetätigkeiten.


Analog bevorzugten sie den „maskulinen“ Roboter eher für stereotypisch maskuline Aufgaben wie

Transport oder Reparaturen. Die Forschungsergebnisse legen nahe, dass Menschen dazu neigen,

internalisierte Geschlechterstereotypen sogar auf Roboter anzuwenden, obwohl es sich um eine Maschine handelt – keine lebendige Person. In der Praxis könnten diese Roboter identisch programmiert sein, dennoch würden Menschen durch die Zuschreibung eines Geschlechts unterschiedliche Erwartungen bezüglich der Identität und des Verhaltens äußern.


Dies zeigt einen besorgniserregendes Potenzial für Gender Bias in Technik auf, da Menschen scheinbar anthropomorphe Roboter als eine soziale Komponente wahrnehmen und hierbei auf

Interaktionen aus der Mensch-Mensch-Interaktion zurückgreifen (Nass et al., 1997). Diese Erkenntnis verdeutlicht damit die tiefe Verwurzelung geschlechtsspezifischer Erwartungen und internalisierter Rollenbilder in unserer Gesellschaft.


Besonders problematisch wird es, wenn diese Stereotypen durch die Geschlechterzuweisung von Technologie verstärkt werden und sich ein Teufelskreis bildet: Bleibt das traditionelle Rollenbild der weiblichen Pflegerin bestehen, werden potenzielle Pflegekräfte anderer Geschlechter eher abgeschreckt und Fortschritte bezüglich Diversität in diesem Bereich bleiben aus (MacWilliams et al., 2013).


Alternative Ansätze bringen neue Herausforderungen mit sich


Ein alternativer Ansatz zu dem anthropomorphen Design eines Pflegeroboters stellt die Gestaltung

eines gegenständlichen Roboters dar, um den beschriebenen Rückgriff auf Stereotypen zu vermeiden. Eine Studie der Universität Oldenburg untersuchte dazu die Wahrnehmung verschiedener Ausführungen eines nicht-humanoiden Roboters in einer Virtual-Reality-Umgebung (Jung et al.,2022). Mit Cues wie Winken oder Farbveränderungen wurde versucht, ein Gefühl von Wärme bei den Proband:innen auszulösen.


Die Teilnehmenden der Studie äußerten jedoch häufig eine Wahrnehmung von Kompetenz und Effizienz: Statt als Ausdruck der Verbundenheit wurde beispielsweise das Winken eher als ein Aufwärmen der Gelenke gedeutet und die Farbveränderung eher als ein Aktivierungssignal. Die Ergebnisse deuten darauf hin, dass ein solcher Roboter weniger als soziale Komponente, sondern eher als ein Werkzeug wahrgenommen wird. Dadurch löst er nicht die gleichen Erwartungen wie ein anthropomorphes Design aus.


Ein gegenständlicher Roboter sollte im Pflegekontext vor allem Kompetenz vermitteln, statt

menschliches Verhalten nachahmen. Dieser beschriebene Prozess, geschlechtsspezifische

Zuweisungen rückgängig zu machen oder sie im Vornhinein zu vermeiden, wird nach Corinna Bath

„De-Gendering“ genannt (Bath, 2009). Was bedeutet das nun für den tatsächlichen Einsatz solcher Technologien in der Pflege? Fakt ist, dass Pflegeroboter ein großes Potenzial haben, die medizinische Versorgung in den nächsten Jahren zu unterstützen und das Pflegepersonal zu entlasten. Wie in diesem Beitrag diskutiert, laden anthropomorphe Designs wie geschlechtstypische Erscheinungen, dazu ein, internalisierte Stereotypen auf Roboter zu übertragen. Geschlechterforschung im Design von Pflegerobotern spielt daher eine wichtige Rolle, um unsere Interaktion mit Technologien zu verstehen und kritisch zu hinterfragen. Forschungsergebnisse zeigen, dass ein Umdenken und das De-Gendering von informatischen Gegenständen dringend notwendig sind, um unsere technische Zukunft inklusiver zu gestalten.



 

Dieser Text ist im Seminar „Diversity im Lern- und Arbeitsumfeld“ entstanden, welches Rea Eldem, Gründerin und Geschäftsführerin von IN-VISIBLE am Hasso-Plattner-Institut leitet. Die Autorin Ronja Krüger ist Studentin des Studiengangs IT-Systems Engineering und engagiert sich an verschiedenen Stellen für mehr Diversität in der IT.



Quellen: Sexistisches Roboterdesign? Gender Bias in der Technik

• Ausschuss für Bildung, Forschung und Technikfolgenabschätzung des Deutschen Bundestags

(2018). Technikfolgenabschätzung (TA): Robotik und assistive Neurotechnologien in der Pflege –

gesellschaftliche Herausforderungen. Drucksache 19/2790, 19. Wahlperiode.

• Bath, C. (2009). De-Gendering informatischer Artefakte: Grundlagen einer kritisch-feministischen

Technikgestaltung. Universität Bremen.

• Eyssel, F. & Hegel, F. (2012). (S)He’s Got the Look: Gender Stereotyping of Robots. In Journal of

Applied Social Psychology, 42(9), 2213–2230. https://doi.org/10.1111/j.1559-1816.2012.00937.x

• Fink, J. (2012). Anthropomorphism and Human Likeness in the Design of Robots and Human-

Robot Interaction. In Ge, S. S., Khatib, O., Cabibihan, J. J., Simmons, R. & Williams, M. (Hrsg.),

Social Robotics (Lecture Notes in Computer Science) (S. 199-208). Springer.

• Flake, R., Kochskämper, S. & Risius, P. (2018). Fachkräfteengpass in der Altenpflege – Status quo und Perspektiven. Institut der deutschen Wirtschaft, IW-Trends, 45(3).

• Janowski, K., Ritschel, H., Lugrin, B. & André, E. (2018). Sozial interagierende Roboter in der

Pflege. In Bendel, O. (Hrsg.), Pflegeroboter (S. 63-87). Springer. https://doi.org/10.1007/978-3-658-22698-5_4

• Jung, F., Müller, H. & Boll, S. (2022). It’s Not Warm But That’s Okay: About Robots That Avoid

Human Stereotypes. Nordic Human-Computer Interaction Conference (NordiCHI '22). Association

for Computing Machinery, Artikel 48, 1–15. https://doi.org/10.1145/3546155.3546695

• MacWilliams, BR., Schmidt, B., Bleich, MR. (2013). Men in Nursing. In American Journal of

• Nass, C., Moon, Y., & Green, N. (1997). Are Machines Gender Neutral? Gender-stereotypic

Responses to Computers with Voices. In Journal of Applied Social Psychology, 27(10), 864-876.

• Statistisches Bundesamt (2021). Fast 6 Millionen ältere Menschen leben allein. Pressemitteilung

Nr. N057 vom 29. September 2021.

Comentários


bottom of page