03

Wie gerecht ist Künstliche Intelligenz? Diskussionen über Fairness von Systemen Künstlicher Intelligenz in Online-Kommentaren

03

Wie gerecht ist Künstliche Intelligenz? Diskussionen über Fairness von Systemen Künstlicher Intelligenz in Online-Kommentaren

Sind auf Künstliche Intelligenz gestützte Entscheidungssysteme fair oder spiegeln sie eher gesellschaftliche Diskriminierungsstrukturen wider? Anhand von Online-Kommentaren über KI bietet der Beitrag einen Einblick, wie die Bevölkerung KI-Systeme wahrnimmt und bewertet. Die Ergebnisse zeigen, dass die Einschätzung der KI-Technologien von individuellem Fairnessempfinden abhängt und durch Aspekte wie Technikakzeptanz oder Vertrauen geprägt wird.

Systeme Künstlicher Intelligenz (KI) sind aktuell in vielen Alltagstechnologien wie dem Smartphone oder in Suchmaschinen zu finden. Normativ erwartet man dabei, dass die gesellschaftliche Diversität in den Systemen berücksichtigt und abgebildet wird. Gleichzeitig wird Technologien oft Objektivität zugesprochen, weil sie vermeintlich ohne subjektives Einwirken von Menschen Entscheidungen treffen können. Jedoch trifft diese Zuschreibung nicht uneingeschränkt auf KI-Systeme zu, denn diese arbeiten mit bereits gespeicherten Daten, die soziale Spannungen und die Spaltung der Gesellschaft, die sie hervorgebracht hat, reproduzieren (Artelt et al. 2022) [1] . Zwar bestehen Bemühungen, dies bereits in der Technologieentwicklung zu reflektieren und in Testphasen zu korrigieren, dies gelingt jedoch nicht immer. Wenn ein Algorithmus im Aggregat insgesamt diskriminierungsfrei klassifiziert, bedeutet das nicht automatisch, dass diese Klassifizierung auf individueller Ebene tatsächlich als fair wahrgenommen wird (Marcinkowski/Starke 2019) [2] . Somit ist die Wahrnehmung der KI-Fairness der Bürger*innen ein wichtiger Bezugspunkt beim Einsatz von KI in der Politik wie auch in anderen gesellschaftlichen Teilbereichen.

Der Beitrag zeigt auf, wie der öffentliche Diskurs in Kommentarspalten über Fairness von KI geführt wird. Leitend für die Analyse der (individuellen) Fairnesswahrnehmungen sind folgende Fragen: Inwiefern bewerten die Kommentierenden KI-Systeme als fair oder unfair? Sollen und können KI-Systeme in Entscheidungsprozesse eingebunden werden? Welche Lösungsansätze gibt es aus der Sicht der Bevölkerung, um KI-Systeme möglichst fair für die Gesellschaft nutzen zu können?

Die empirische Grundlage des Beitrags bilden Daten einer qualitativen Studie, die mehr als 8.000 Online-Kommentare zum Themenkomplex KI in sozialen Medien und auf Nachrichtenportalen umfasst. Die analysierten Beiträge sind exemplarisch und befassen sich mit unterschiedlichen Facetten von KI. Sie werfen Ethikfragen auf und regen zur kritischen Reflexion über KI an. Es werden insgesamt zwei Argumentationsstränge sichtbar: Ein Teil der Kommentierenden steht KI-Technologien skeptisch gegenüber und äußert Ängste in Form von dystopischen Science-Fiction-Szenarien. Ein anderer Teil weist eine technikoptimistische Einstellung auf und bewertet KI-Systeme insgesamt eher positiv, reflektiert aber auch kritisch über die Technologie.

Inwiefern sind KI-Systeme fair?

KI ist nicht per se neutral oder objektiv! (Kommentar auf Spiegel Online)

Die Kommentierenden, die eher technikpessimistisch sind, stellen sich die Frage der KI-Fairness selten. Wird jedoch auf die mögliche Diskriminierung von diversen Gesellschaftsgruppen durch KI hingewiesen, wird dies durch einige Kommentierende eher verharmlost und mit implizit rassistischen Argumenten widerlegt. Das Thema Diskriminierung durch KI wird dabei heruntergespielt, die Verantwortung wird auf die Technik abgeschoben, wie an dem Beispiel der fehlerhaften Gesichtserkennung dunkelhäutiger Menschen bei Fotoautomaten veranschaulicht werden kann. Dies sei im KI-System unbeabsichtigt, so der Tenor, und daher sei das auch nicht weiter problematisch. („Das ist doch ein technisches Problem und kein ideologisches.“ Kommentar auf Spiegel Online)

Die Technikoptimisten sind sich der möglichen Gefahren von Diskriminierung durch KI-Systeme bewusst, sie betonen, dass auch andere digitale Technologien wie die Fotografie beispielsweise dunkelhäutige Menschen schlechter abbilden können als andere. Sie beziehen sich in ihrer Argumentation auf die Spiegelung der gesellschaftlichen Ungleichheit in den KI-Technologien, wofür beispielhaft folgender Kommentar steht:

Die Frage ist immer nach den Datenquellen. Absichtlich kann ein „Expertensystem“ nichts falsch darstellen, denn es hat keinen Willen. Wenn die Datenquellen die Daten aber falsch darstellen, wird diese Darstellung übernommen. Was höchst problematisch ist/werden kann. Vor allem in einer digitalen Zukunft. Dass sie helfen können richtige(re) Entscheidungen zu treffen, an denen es manchmal mangelt, steht aber außer Frage. (Kommentar auf Zeit Online)

Hier wird das Argument stark gemacht, dass für diskriminierende Effekte der KI-Technologie immer Menschen als Entwickler*innen oder die Gesellschaft allgemein verantwortlich sind. Gleichzeitig wird angemerkt, dass die Anwendungsfelder der KI so komplex und in so vielfältige Situationen integriert sind, dass es schwierig sein kann, eindeutige, moralische Entscheidungen zu treffen. Vielfach wird das Beispiel über die mögliche Entscheidung angebracht, die ein autonomes Fahrzeug im Falle eines Unfalls treffen müsste, wozu bisher keine Lösung gefunden wurde.

Entgegen der Vorstellung, dass generell nichts an der unfairen Behandlung durch KI-Systeme geändert werden könne, führen die Kommentierenden das Argument an, dass es wohl möglich ist, dem im Vorfeld vorzubeugen. Dabei werden zum Teil Aussagen aus dem feministisch informierten Diskurs verwendet. So wird beispielsweise auf die Dominanz weißer, männlicher, westlicher Akteure bei der Entwicklung der KI-Technologien verwiesen. Ihnen wird eine stereotype Denkweise zugeschrieben, was Auswirkungen auf das Ergebnis ihrer Arbeit habe und als problematisch eingestuft wird:

Auch eine KI ist nur so gut wie ihre Programmierung. Siri und co verstehen ja auch Männerstimmen besser, weil sie damit gefüttert wurden im Lernprozess. Wieso also keine rassistischen Tendenzen bei einer KI? (Kommentar auf Facebook)

Es wird eine kritisch-reflexive Perspektive der Programmierer*innen gefordert, die durch die Integration diverser Gesellschaftsmitglieder in das Umfeld der IT verstärkt werden kann. Gleichzeitig werden die den Daten inhärenten Ungleichheiten thematisiert, die auf ein gesamtgesellschaftliches Problem verweisen und unabhängig von den Programmierer*innen starke Wirkungen haben. Demnach können bestehende KI-Systeme nicht nicht diskriminieren, weil sie sich auf gesellschaftliche Daten und somit Diskriminierung stützen.

Sind KI-Systeme gesellschaftlichen Entscheidungsprozessen gewachsen?

Die Frage, inwiefern die Bevölkerung eine Notwendigkeit und Vorteile von KI-Systemen in gesellschaftlichen Entscheidungsprozessen sieht, ist im Kontext der beschriebenen Diskussion zu sehen. Es wird argumentiert, dass KI-Systeme die Komplexität der Gesellschaft nicht abbilden können und ihnen deshalb keine Entscheidungsmacht übertragen werden sollte. Gleichwohl wird der KI das Potenzial zugeschrieben, in unterschiedlichen Lebensbereichen wie der Medizin, der Materialentwicklung oder dem Personalwesen hilfreich zu sein. Wobei auch hier der Anspruch und der Wunsch der Gewährleistung objektiver Entscheidungen mitschwingt.

Die Online-Kommentare zeigen, dass die Menschen, die eher technologieskeptisch sind, auch eher gegen die Einführung von KI in Entscheidungsprozesse sind und emotionsgeladene, dystopische Szenarien des Missbrauchs der Macht durch KI-Systeme befürchten, wie das Beispielzitat aufzeigt:

Ich sehe keine Hoffnung darin, dass KI unser Leben verbessern wird. Jetzt klingt alles so schön und fortschrittlich, aber am Ende benutzen wir die KI als Waffen für Kriege, um kritische Stimmen auszulöschen. (Kommentar auf YouTube)

Die technikoptimistisch Kommentierenden sind zwar ebenfalls durchaus kritisch, was die Manifestation und Reproduktion der Ungleichheit durch KI-Systeme betrifft, sie sehen in diesen jedoch gesellschaftliches Potenzial. Für die Entfaltung dieses Potenzials wird in den Kommentaren die Notwendigkeit der gesetzlichen Regulierung auf nationaler und internationaler Ebene betont. Gleichzeitig sollten die IT-Konzerne Verantwortung übernehmen und mehr für die Entwicklung fairer KI tun. Ein Schwerpunkt sollte aus der Sicht der Kommentierenden die Verbesserung der Qualität der Ausgangsdaten sein, auf die sich KI-Modelle stützen. Zudem wird in zahlreichen Kommentaren die Sorge über die zunehmende Macht der Tech-Konzerne bei der Entwicklung und auch über die Regulierung der KI-Systeme geäußert. Die Kommentierenden kritisieren die zunehmende Macht der Unternehmen bei der Verhandlung von Moralvorstellungen. So würde beispielsweise Facebook unterschiedliche visuelle Körperdarstellungen wie beispielsweise weibliche Nacktheit eher von der Veröffentlichung zurückhalten als männliche, gleichzeitig aber Gewaltdarstellungen tolerieren. Zudem wird die Entstehung eines ungleichen Machtverhältnisses kritisiert, bei dem eher Wirtschaftsinteressen und nicht die gesellschaftlichen Interessen in den Vordergrund gestellt werden.

Zumal die KI’s nicht in unabhängigen Händen sind…. welche „Hände“ sind da schon unabhängig? Das sind -teure- Werkzeuge, die zweckbestimmt eingesetzt werden. Ob das, gerade bei Unternehmen und Regierungen, dann immer zum Wohle der Menschen ist, darf man bezweifeln. (Kommentar auf Spiegel Online)

Es wird befürchtet, dass durch KI die gesellschaftliche Ungleichheit eher verschärft als minimiert wird, wenn beispielsweise KI nur für einen begrenzten Personenkreis zugänglich gemacht wird oder wenn KI-Systeme missbraucht und gegen die Bevölkerung gerichtet werden. Zentral bleibt insgesamt die Sorge über die zunehmende Macht von Tech-Unternehmen bei der immer stärker werdenden Implementierung von KI in der Alltagswelt.

Fairness und Medienkompetenz

Die Ergebnisse haben aufgezeigt, dass für die Einschätzung der KI-Technologie die Reflexion über Ethikfragen bedeutsam ist. Es sollten die ethischen Auswirkungen der Technologie auf Individuen und Gesellschaft erkannt und bewertet werden (Reisdorf/Blank 2021) [3] . Darüber hinaus hängt die Einschätzung und Wahrnehmung von (Un-)Fairness mit individuellen Emotionen und Einstellungen zusammen. Die Analyse hat gezeigt, dass unter anderem Konzepte wie Angst, aber auch Kategorien wie Technikakzeptanz oder Vertrauen in den Fokus rücken (Marcinkowski/Starke 2019). Die Ergebnisse bestätigen wiederholt die Bedeutung der affektiven und sozialen Fähigkeiten bei der Bewertung ethischer Aspekte der KI-Technologie, die verstärkt gefördert werden sollten.

Literatur

    1. Artelt, A.; Geminn, C.; Hammer, B.; Manzeschke, A.; Mavrina, L.; Weber, C. (2022). Faire Algorithmen und die Fairness von Erklärungen: Informatische, rechtliche und ethische Perspektiven. Universität Duisburg-Essen, Universitätsbibliothek, DuEPublico. https://doi.org/10.17185/duepublico/76311
    2. Marcinkowski, F.; Starke, C. (2019). Wann ist Künstliche Intelligenz (un-)fair? Ein sozialwissenschaftliches Konzept von KI-Fairness, in: J. Hofmann, N. Kersting, C. Ritzi, W. J. Schünemann (Hrsg.) Politik in der digitalen Gesellschaft, transcript, S. 269–288.
    3. Reisdorf, B. C.; Blank, G. (2021). Algorithmic literacy and platform trust, in: E. Hargittai, E. Elgar (Hrsg.) Handbook of Digital Inequality, Edward Elgar Publishing Limited, S. 341–357.

Zitation

Sūna, L. 2023: Wie gerecht ist Künstliche Intelligenz? Diskussionen über Fairness von Systemen Künstlicher Intelligenz in Online-Kommentaren. Im Rahmen des Projektes Digitales Deutschland. Online verfügbar: https://digid.jff.de/magazin/diversitaet/gerecht-ki/.

Feedback