08

Digitale Diversitätsnarrative entzaubern. Strukturelle Ungleichheit bekämpfen.

08

Digitale Diversitätsnarrative entzaubern. Strukturelle Ungleichheit bekämpfen.

Vorherrschende Diversitätsnarrative können problematische Aspekte der Digitalisierung und der Künstlichen Intelligenz verschleiern. Dieser Text fokussiert die naive, technikdeterministische Grundhaltung dreier Diversitätsversprechen und zeigt feministische Ansätze auf, um gesellschaftliche Machtungleichgewichte bei der Digitalisierung und in der Technikentwicklung zu minimieren.

Diskurse um Digitalisierung und Künstliche Intelligenz bedienen sich gern an Argumenten rund um Diversität. Die Digitalisierung könne Menschen unterschiedlichster Kulturen miteinander verbinden und weltweit Zugang zu Wissen bereitstellen. Die Künstliche Intelligenz könne sich dank ihrer fortgeschrittenen Analyse- und Prognosefähigkeiten an die exakten Bedürfnisse eines Individuums anpassen. Somit können etwa personalisierte Empfehlungen ausgesprochen werden. Gleichzeitig ermögliche die Digitalisierung unterdrückten Stimmen wie denen von LGBTQA+ oder Geflüchteten, sich (wenn notwendig im Schutze der Anonymität) in den sozialen Netzwerken zu verwirklichen oder Menschenrechtsverbrechen öffentlich zu machen. Diskurse rund um Digitalisierung und KI drücken eine Hoffnung aus, bislang begrenzte Möglichkeiten computergestützt zu erweitern. Dabei wird Diversität ein weitgehend positiver Wert zugeschrieben, wie in gesellschaftlichen Diskursen auch (Vertovec 2012) [1]

Feministische Kritik an Diskursen um Digitalisierung und KI

Aus feministischer Perspektive ist es jedoch fraglich, ob Digitalisierung und die Entwicklung von KI ihre Diversitätsversprechungen halten können. Insbesondere intersektionale, postkoloniale und schwarzfeministische Strömungen haben sich kritisch mit der Bedeutung von Diversität in der Gesellschaft sowie im digitalen Raum auseinandergesetzt (Ahmed 2012 [2] ; Benjamin 2019 [3] ; Noble 2018 [4] ). Kritische Perspektiven auf Diversität unterscheiden sich von populären Interpretationen von Diversität. Während in „Mainstream“-Debatten Diversität häufig mit kulturellen Unterschieden, Pluralismus oder Inklusion gleichgesetzt wird, fokussieren diversitätskritische Feminist*innen auf strukturell bedingte soziale und sozioökonomische Ungleichheiten zwischen Gesellschaftsgruppen (Berrey 2015 [5] ; Dhamoon 2010 [6] ). Ein strukturelles Verständnis von Diversität bezieht sich dann auf die Machtverhältnisse in der (digitalen) Gesellschaft. Wie sind politische Macht und der Zugang zu Ressourcen verteilt? Wer kann an der Gestaltung von Politik und Digitalisierung teilhaben? Wer wird durch computergestützte Systeme bevorteilt, wer benachteiligt? Um Kompetenzanforderungen und Lösungsansätze für Herausforderungen der Digitalisierung und der Künstlichen Intelligenz zu erarbeiten, müssen wir uns kritisch mit ihren Diversitätsversprechungen auseinandersetzen.

Diversitätsversprechen 1: Die Digitalisierung ermögliche die grenzenlose Integration von kulturellen Perspektiven und den weltweiten Zugang zu Wissen

Dieser Hoffnung stehen zwei Realitäten gegenüber. Zunächst ist dies die Realität der digitalen Spaltung. Damit gemeint sind der ungleiche Zugang zu Smartphones oder Laptops und zum Internet sowie mangelnde Kompetenzen im Umgang mit digitaler Technik (Warschauer 2004) [7] . Gründe für die digitale Spaltung sind unter anderem das Alter der Nutzer*innen, Einkommensunterschiede, Land-Stadt-Unterschiede und unterschiedliche Bildung. Insbesondere im globalen Süden (z. B. in afrikanischen Ländern) ist die digitale Spaltung groß (Alden 2003) [8] . Doch auch in Deutschland zeigt sich die digitale Spaltung: Geflüchtete oder ärmere Menschen erleben deutliche Barrieren bei der Nutzung von Technik. Kosten sind ein Faktor. Wenn WLAN in der eigenen Wohnung oder gar mobiles Internet zu teuer sind, besteht Zugang zum Internet ausschließlich an öffentlichen Orten. In Bezug auf digitale Kompetenzen zeigt eine Studie von Steinbrink et al. (2021) [9] , dass Geflüchtete aus Afghanistan kaum Vorwissen zum Schutz ihrer Privatsphäre im Internet haben. Diese Faktoren können den sicheren Austausch mit anderen Kulturen (wie etwa der deutschen Gastgesellschaft) verhindern.  

Eine weitere Realität ist die westliche Prägung von Wissen und Technikdesign. Die Entwicklung von Applikationen, aber auch Künstlicher Intelligenz, ist stark im Silicon Valley der USA verankert. Hier dominiert die englische Sprache. Gleichzeitig bestehen die Design-Teams der Unternehmen vorwiegend aus Weißen oder asiatischen und männlich gelesenen Entwicklern (Wachter-Boettcher 2017, S. 20) [10] . Es fehlt häufig an Sensibilität für die Werte und sprachlichen Besonderheiten diverser Kulturen. Afrikanische Sprachen sind im Technikdesign weitgehend marginalisiert (Aludhilu/Bidwell 2018) [11] . In vielen Bereichen schleichen sich algorithmische Vorurteile oder Verzerrungen ein, meist aufgrund einer unausgeglichenen Datenlage (Zou/Schiebinger 2018) [12] . Denn auch die Produktion von Daten hat eine Geschichte der Diskriminierung. Informationen über Minderheiten wurden historisch gesehen zur Legitimation einer Weißen Überlegenheit und Vorherrschaft gesammelt (Subramaniam 2014) [13] . Dies fand im Kontext der sogenannten „Race Sciences“ (also übersetzt etwa „Wissenschaft der Rassen“) statt (Rusert 2017) [14] . Heute müssen historische Daten und etabliertes Wissen als Ausdruck einer westlichen, Weißen Brille verstanden werden. Der Zugang zu Wissen ist insofern beschränkt, als dass es sich weitgehend um koloniales Wissen handelt, das bestehende Vorurteile und Diskriminierungen verstärken kann. 

Diversitätsversprechen 2: Die Künstliche Intelligenz ermögliche die Personalisierung von Angeboten zur bestmöglichen Zufriedenheit der Nutzer*innen

Ein prominentes Beispiel hierfür sind Streaming-Plattformen wie etwa YouTube, Netflix und Amazon. Hier werden Videos, Filme und Serien gezielt empfohlen, angepasst an die im Profil der Nutzer*innen gespeicherten Daten (Oneto et al. 2020) [15] . Zu diesen Daten gehören bislang gesehene Titel, Bewertungen, aber auch demografische Informationen über die Nutzer*innen wie Geschlecht, Alter und Sprache. Empfehlungen werden in computergestützten Systemen aller Art ausgesprochen: zur Vergabe von Krediten, zur Vorsortierung von Bewerbungen oder zur Einschätzung der Bedürftigkeit einer Person. Häufig werden dabei binäre Kategorien von Diversität herangezogen (Schelenz 2022) [16] . Bei der Kategorie Geschlecht werden Nutzer*innen zum Beispiel als männlich und weiblich konzipiert. Diese oberflächliche Kategorisierung kann nicht nur queeren Nutzer*innen schaden (Keyes 2019) [17] , sondern verschleiert auch die Tatsache, dass Geschlecht ein Ordnungsinstrument ist, das bestimmte Rollenerwartungen mit sich bringt (Stumpf et al. 2020) [18] . Nutzer*innen von Technik können durch Personalisierung damit in stereotype Verhaltensmuster gedrängt werden.

Diversitätsversprechen 3: Die Digitalisierung gebe bislang unterdrückten Stimmen eine Plattform, sich frei auszudrücken und für ihre Rechte zu kämpfen

Tatsächlich kann der Zugang zum Internet für marginalisierte Gruppen eine befreiende Wirkung haben. Dies sieht man etwa bei Frauen in Afghanistan, die in einer strikt patriarchalen Kultur angehalten sind, die Rolle im Haushalt einzunehmen. Frauen in Afghanistan nutzen Facebook (im Schutze eines Pseudonyms oder anonym), um eine Karriere aufzubauen, ohne das Haus verlassen zu müssen (Putnam 2021) [19] . Auch digitale Aktivist*innen können medienwirksam auf gesellschaftliche Missstände hinweisen (Williams 2015) [20] . Doch Anonymität bietet auch böswilligen Akteur*innen die Möglichkeit, im Internet und in den sozialen Medien Hass und Gewalt zu verbreiten (Lumsden/Harmer 2019) [21] . Freie Ausdrucksmöglichkeiten sind weiterhin insofern beschränkt, als ein „Backlash“, also ein Gegenfeuer von politischen Gegner*innen, marginalisierte Stimmen unterdrückt (Maitri 2009) [22] . Personenbezogene Attacken (bei nichtanonymer Kommunikation) bis hin zu Morddrohungen sind dabei keine Seltenheit (MDR EXAKT – die story 2020) [23] . Eine naive, technikdeterministische Sichtweise, bei der angenommen wird, dass Zugang zu digitaler Öffentlichkeit automatisch zur Befähigung führe, kann die Sicherheit marginalisierter Gruppen aufs Spiel setzen.  

Kompetenzanforderungen und Lösungsansätze

Nachdem die drei Diversitätsversprechen entzaubert wurden, bleibt zu fragen, welche Kompetenzanforderungen und Lösungsansätze sich für die Herausforderungen von Digitalisierung und KI aus den obigen Kurzanalysen ergeben. Die drei Beispiel-Narrative haben die Probleme der Digitalisierung und KI-Entwicklung offenbart. Ein Problem ist der ungleiche Zugang zu Wissen sowie mangelnde Kompetenz im Umgang mit digitaler Technik. Hier kann Deutschland einiges tun. Geflüchtete würden von Bildungsprogrammen zum Umgang mit Technik profitieren. Förderprogramme für Universitäten könnten Wissensgenerierung in Kooperation mit nichtwestlichen und nichtweißen Perspektiven unterstützen. Designer*innen und Wissenschaftler*innen könnten kritische, dekoloniale Methoden zum Sammeln von Daten nutzen (Lazem et al. 2022) [24] . Das heißt, Informationen gemeinsam mit marginalisierten Gruppen über sie zu produzieren, aber nur so lange, wie es marginalisierte Gruppen nicht gefährdet. Mehr Daten sind nicht immer besser, wenn dadurch die Privatsphäre riskiert wird (Hoffmann 2020) [25] . Auch der Schutz von Minderheiten bei der computergestützten Kommunikation ist essenziell, um Entfaltungsmöglichkeiten zu gewährleisten. Dabei braucht es nicht nur technische, sondern vor allem soziale Ansätze, um Hass entgegenzuwirken und Empathie für die anderen zu schaffen. 

Wichtig ist zuletzt, das Verhältnis von Diversität und Digitalisierung bzw. KI zu überdenken. Eine technikoptimistische Haltung, die Technik als Wegbereiter für eine multikulturelle heile Welt ansieht, spiegelt politische, soziale und insbesondere machtbezogene Aspekte von Diversität und Technik nicht wider. Hier muss die Technikbranche von ihren klassischen Narrativen absehen. Gleichzeitig sollten Konzepte von Diversität, die bei der Technikentwicklung herangezogen werden, explizit gemacht und reflektiert werden. Denn davon, wie Diversität definiert und in Form von Datenpunkten operationalisiert wird, hängt auch das Diskriminierungspotenzial der Technik ab. Die Kurzanalysen zeigen, dass Diversität häufig als oberflächliches Konzept von Unterschiedlichkeit verstanden wird. Aus feministischer Perspektive sollten sich Designer*innen stattdessen an einem strukturellen Verständnis von Unterschiedlichkeit orientieren. Das bedeutet, soziale Ungleichheiten in den Blick zu nehmen. Hier heißt es, sich mit „unangenehmen“ Themen auseinanderzusetzen, etwa Rassismus, Sexismus, Antisemitismus, Homophobie und Ausländerfeindlichkeit, die dazu führen, dass gesellschaftliche Strukturen bestimmte Gruppen benachteiligen. Erst wenn soziale Gerechtigkeit das Design unserer Technik und unserer Gesellschaft motiviert, können wir über ein verbessertes Verhältnis von Diversität und Technik sprechen. 

Literatur

    1. Vertovec, Steven (2012). Diversity and the Social Imaginary. In: European Journal of Sociology 53 (3), S. 287–312. 
    2. Ahmed, Sara (2012). On Being Included. Racism and Diversity in Institutional Life. Durham: Duke University Press.
    3. Benjamin, Ruha (2019). Race after Technology: Abolitionist Tools for the New Jim Code. Cambridge, Medford, MA: Polity Press.
    4. Noble, Safiya Umoja (2018). Algorithms of Oppression. How Search Engines Reinforce Racism. New York: New York University Press. 
    5. Berrey, Ellen (2015). The Enigma of Diversity. The Language of Race and the Limits of Racial Justice. Chicago: The University of Chicago Press. 
    6. Dhamoon, Rita (2010). Identity/Difference Politics. How Difference is Produced, and Why it Matters. Vancouver: UBC Press. 
    7. Warschauer, Mark (2004). Technology and Social Inclusion. Rethinking the Digital Divide. The MIT Press. 
    8. Alden, Chris (2003). Let Them Eat Cyberspace: Africa, the G8 and the Digital Divide. In: Millennium 32 (3), S. 457–476. 
    9. Steinbrink, Enno/Reichert, Lilian/Mende, Michelle/Reuter, Christian (2021). Digital Privacy Perceptions of Asylum Seekers in Germany: An Empirical Study about Smartphone Usage during the Flight. In: Proceedings on ACM Human-Computer Interaction 5 (CSCW2), S. 1–24.  
    10. Wachter-Boettcher, Sara (2017). Technically Wrong. Sexist Apps, Biased Algorithms, and Other Threats of Toxic Tech. First edition. New York NY: W.W. Norton & Company. 
    11. Aludhilu, Hilma N./Bidwell, Nicola J. (2018). Home is Not Egumbo. Language, Identity and Web Design. In: Winschiers-Theophilus, Heike/van Zyl, Izak/Goagoses, Naska/Singh Jat, Dharm/Belay, Elefelious G./Orji, Rita et al. (Hrsg.): Proceedings of the Second African Conference for Human Computer Interaction: Thriving Communities. AfriCHI ’18: 2nd African Conference for Human Computer Interaction. Windhoek Namibia, 3.–7. Dezember 2018. New York, NY, USA: ACM, S. 1–11. 
    12. Zou, James; Schiebinger, Londa (2018). AI Can Be Sexist and Racist – It’s Time to Make it Fair. In: Nature 559 (7714), S. 324–326.  
    13. Subramaniam, Banu (2014). Ghost Stories for Darwin. The Science of Variation and the Politics of Diversity. Urbana, Illinois: University of Illinois Press. 
    14. Rusert, Britt (2017). Fugitive Science: Empiricism and Freedom in Early African American Culture. New York: New York University Press (America and the long 19th century).  
    15. Oneto, Luca/Navarin, Nicolò/Sperduti, Alessandro/Anguita, Davide (Hrsg.) (2020). Recent Trends in Learning From Data. Cham: Springer International Publishing (Studies in Computational Intelligence). 
    16. Schelenz, Laura (2022). Diversity Concepts in Computer Science and Technology Development: A Critique. In: Science, Technology, & Human Values, S. 126.
    17. Keyes, Os (2019): Counting the Countless. Why Data Science is a Profound Threat for Queer People. Real Life Magazine. https://reallifemag.com/counting-the-countless/ [Zugriff: 18.07.2019] 
    18. Stumpf, Simone/Peters, Anicia/Bardzell, Shaowen/Burnett, Margaret/Busse, Daniela/Cauchard, Jessica/Churchill, Elizabeth (2020). Gender-Inclusive HCI Research and Design: A Conceptual Review. In: FNT in Human–Computer Interaction 13 (1), S. 1–69.  
    19. Putnam, Karen A. (2021). Information Technology Usage Among Afghan Women Business Leaders. In: Communications of the IIMA 19 (1), S. 1–21.  
    20. Williams, Sherri (2015). Digital Defense: Black Feminists Resist Violence with Hashtag Activism. In: Feminist Media Studies 15 (2), S. 341–344. 
    21. Lumsden, Karen/Harmer, Emily (2019). Online Othering. Exploring Digital Violence and Discrimination on the Web. Cham: Springer International Publishing. 
    22. Maitri, Ishani (2009). Silencing Speech. In: Canadian Journal of Philosophy 39 (2), S. 309–338.
    23. MDR EXAKT – die story (2020): So groß ist der Hass im Netz, 01.04.2020. https://www.mdr.de/nachrichten/deutschland/gesellschaft/internet-hass-posts-deutschland-100.html [Zugriff: 21.03.2023] 
    24. Lazem, Shaimaa/Giglitto, Danilo/Nkwo, Makuochi Samuel/Mthoko, Hafeni/Upani, Jessica/Peters, Anicia (2022). Challenges and Paradoxes in Decolonising HCI: A Critical Discussion. In: Computer Supported Cooperative Work 31 (2), S. 159–196.  
    25. Hoffmann, Anna Lauren (2020): Terms of Inclusion: Data, Discourse, Violence. In: New Media & Society (September 2020).  

Zitation

Schelenz, L. 2023: Digitale Diversitätsnarrative entzaubern. Strukturelle Ungleichheit bekämpfen. Im Rahmen des Projektes Digitales Deutschland. Online verfügbar: https://digid.jff.de/magazin/diversitaet/diversitaetsnarrative/

Feedback