06

Bessere KI dank Diversität

06

Bessere KI dank Diversität

Mit KI die Welt zu einem besseren Ort machen? Challenge accepted! Was es zur Gestaltung einer diversitätssensiblen, inklusiven und menschenzentrierten KI für die Arbeitswelt braucht, lesen Sie hier.

Alle reden über Künstliche Intelligenz (KI). Was genau darunter zu verstehen ist, können aber die wenigsten erklären. Mir geht es ähnlich. Nach Jahren intensiver Auseinandersetzung mit interdisziplinären KI-Expert*innen aus Wissenschaft, Wirtschaft und Politik fühle ich mich zuweilen ähnlich wie Goethes Faust: Habe nun, ach, Künstliche Intelligenz durchaus studiert, mit heißem Bemühen … da steh ich nun, ich armer Tor, und bin so klug als wie zuvor [1] .

Tatsächlich ist es aufgrund der Vielzahl unterschiedlicher Perspektiven schwierig, ein präzises und gemeinsames Verständnis von KI zu entwickeln (DIN/DKE 2022, S. 30) [2] . Durchzusetzen scheint sich aktuell eine Definition der OECD. Ein KI-System ist demnach ein „maschinenbasiertes System, das für bestimmte von Menschen definierte Ziele Vorhersagen machen, Empfehlungen abgeben oder Entscheidungen treffen kann, um eine reale oder virtuelle Umgebung zu beeinflussen. Es nutzt maschinelle und/oder von Menschen generierte Inputs, um ein reales und/oder virtuelles Umfeld zu erfassen, davon ausgehend (…) Modelle zu erstellen und (…) Informations- oder Handlungsoptionen zu ermitteln“ (OECD 2020, S. 1) [3] .

Auch die Einschätzungen zur Gegenwart und Zukunft von KI sind vielfältig. Folgt man Toby Walsh, wird im Jahre 2062 die Künstliche Superintelligenz verfügbar sein. Dann wäre es möglich, Maschinen zu bauen, die über dieselben geistigen Fähigkeiten verfügen wie Menschen (Walsh 2019, S. 49) [4] . Yoshua Begnio, Stuart Russel, Elon Musk und Zehntausende weitere Unterzeichnende gehen in einem offenen Brief davon aus, dass KI-Systeme bereits heute bei allgemeinen Aufgaben mit dem Menschen konkurrenzfähig sind (Future of Life Institute 2023) [5] . Für die Forschenden des Distributed AI Research Institute (DAIR 2023) [6] ist es wichtig zu betonen, dass wir es am Ende des Tages mit stochastischen Papageien zu tun haben. Die Sorge um imaginäre Künstliche Superintelligenzen, so die Forschenden, lenke da nur von den heutigen, realen und sehr gegenwärtigen Problemen mit algorithmischen Entscheidungssystemen ab. Gleich zu Beginn wird also klar: Die Beschäftigung mit KI stellt eine besondere Anforderung an die kritisch-reflexiven Kompetenzen für eine souveräne Lebensführung in einer von Algorithmen geprägten Welt.

Chancen und Risiken von KI

Mit Text-zu-Bild-Modellen wie DALL-E 2 und Stable Diffusion, Text-zu-Video-Systemen wie Make-A-Video und Chatbots wie ChatGPT ist KI im öffentlichen Bewusstsein angekommen. Auch in der Wissenschaft trägt sie zu bedeutenden Innovationen etwa bei der Kernfusion, der Diagnose lebensbedrohlicher Krankheiten oder der Entwicklung neuer Antikörper bei. KI-Systeme sind zunehmend in der Lage, mehrere Aufgaben gleichzeitig zu bewältigen, und werden bereits dafür eingesetzt, selbst bessere KI-Modelle zu entwickeln (Stanford University 2023, S. 73) [7] . Zukünftig sollen sie für den Schutz der Umwelt, die Verwirklichung der ökologischen Nachhaltigkeitsziele oder für die Verbesserung unserer Lebenswirklichkeiten (auch und gerade in den sozialen Dimensionen) eingesetzt werden (DIN/DKE 2022).

Doch dies ist nur die eine Seite der Medaille. Laut dem „2023 AI Index Report“ nehmen die negativen Vorfälle mit KI rapide zu. Im Zusammenhang mit ethischem Missbrauch ist die Zahl seit 2012 um das 26-Fache gestiegen (Stanford University 2023, S. 133). Dass hierbei insbesondere Frauen, People of Color, Gender Queer People oder Menschen, die außerhalb der nationalstaatlichen Mehrheitsgesellschaft stehen, etwa bei der Verwendung biometrischer Echtzeit-Fernidentifizierungssysteme (Migration, Asyl, Grenzkontrolle), im Personalwesen (bei Neueinstellungen), bei der Kreditvergabe oder beim Erstellen von Rückfallprognosen von Straftäter*innen durch KI-Anwendungen strukturell benachteiligt werden, ist eine gut erforschte Gewissheit (DAIR 2023; Feuerriegel et al. 2020 [8] ; Zweig 2019 [9] ). Gerade im Streben nach Diversität und Fairness, das muss deutlich gesagt werden, spielt KI aktuell keine gute Rolle. Das liegt daran, dass Datensätze, als wichtigste Ressource vieler KI-Systeme, nicht vollständig, fehlerfrei, repräsentativ oder relevant sind. Eine mangelnde Beteiligung von Interessenträger*innen an der Konzeption und Entwicklung von KI-Systemen und die Homogenität von Entwicklungsteams ist ein weiteres Problem. Gewisse Perspektiven werden schlichtweg nicht mitgedacht. Das kennen wir schon aus der analogen Welt, beispielsweise wenn die Sicherheit von Autos, die Wirksamkeit von Medikamenten, die Raumaufteilung sanitärer Einrichtungen oder die ideale Raumtemperatur vor allem von und für (Weiße) Männer gedacht wird (Tuaillon 2019, S 70) [10] . Im Ergebnis bedeutet dies, dass mangelnde Vielfalt bei der Entwicklung von analogen und digitalen Systemen so zum Problem für die physische und psychische Gesundheit von Menschen werden kann (im Straßenverkehr, der Medizin, der Strafverfolgung, dem Personalmanagement und so weiter).

Am Ende ist so banal wie richtig: KI birgt Chancen und Risiken. KI-Systeme halten uns lediglich einen Spiegel vor und es hängt vom gesellschaftlichen Gestaltungswillen ab, wie wir sie einsetzen. Entscheidend sind also auch die Rahmenbedingungen, die wir uns hierfür geben.

Regulierung von KI in der Europäischen Union

Es ist interessant, dass der Wunsch nach Regulierung mittlerweile auch von US-amerikanischen Tech-Konzernen geäußert wird (Future of Life Institute 2023). Tatsächlich diskutiert die Europäische Union eine Regulierung von KI bereits seit 2016 und gilt hier international als Vorreiterin. Im April 2021 wurde ein erster Entwurf für ein europäisches KI-Gesetz vorgelegt, der im Verlauf des Jahres 2023 verabschiedet werden könnte (Europäische Kommission 2021) [11] .

Der Verordnungsentwurf verfolgt das Ziel, unerwünschte Anwendungsszenarien von KI-Systemen zu vermeiden und ein „Ökosystem des Vertrauens“ und der „Exzellenz“ für die Bürger*innen in der EU zu etablieren.

Hierfür muss, so die „Hochrangige Expertengruppe der EU“ (2019, S. 10) [12] , gewährleistet sein, „dass die Entwicklung, Einführung und Nutzung von KI-Systemen die Anforderungen an vertrauenswürdige KI erfüllen:

1) Vorrang menschlichen Handelns und menschliche Aufsicht,

2) technische Robustheit und Sicherheit,

3) Schutz der Privatsphäre und Datenqualitätsmanagement,

4) Transparenz,

5) Vielfalt, Nichtdiskriminierung und Fairness,

6) gesellschaftliches und ökologisches Wohlergehen sowie

7) Rechenschaftspflicht“ (Hochrangige Expertengruppe 2019a, S. 3).

Auf dieser Grundlage soll eine Kritikalitäts- und Risikobewertung von KI vorgenommen werden. Alles, was als eindeutige Bedrohung für EU-Bürger*innen angesehen wird, wäre verboten. Anwendungsbereiche, die als risikobehaftet gelten – etwa im Personalmanagement, bei Migration und Asyl oder in der Bildung – müssen besondere Auflagen erfüllen. Für Anwendungen mit geringem Risiko gelten Transparenzanforderungen. Verboten wird also nicht die KI – deren Entwicklung nicht vorhersehbar ist –, sondern unerwünschte Anwendungsszenarien.

Gestaltung einer diversitätssensiblen, inklusiven und menschenzentrierten KI

Da es schwierig ist, Vertrauen in KI per Regulierung zu verordnen, bleibt die Frage: Wie gelingt es in der Praxis, Vertrauen in KI-Systeme herzustellen? Ein wesentlicher Ansatzpunkt liegt in der Beteiligung von Interessenträger*innen an der Konzeption, Entwicklung und Einführung von KI-Systemen und in der Vielfalt von Entwicklungsteams. Das ist insbesondere im Kontext von Diversität, Nichtdiskriminierung und Fairness von besonderer Bedeutung. Im vom Bundesministerium für Arbeit und Soziales geförderten Forschungsprojekt „KI im Dienste der Diversität“ (KIDD) wurde hierfür ein praktischer Ansatz entwickelt (KIDD 2023a) [13] .

Der sogenannte KIDD-Prozess zielt darauf ab, Unternehmen und ihre Beschäftigen zu befähigen, die Ausgestaltung und Einführung von KI-Anwendungen partizipativ mitzugestalten und dabei sicherzustellen, dass neu eingeführte Systeme gemeinsam ausgehandelten Anforderungen entsprechen. Der Prozess beruht auf der Annahme, dass die Entwicklung und Einführung von algorithmischen Entscheidungssystemen nicht allein in der Hand von Entwickler*innen oder unternehmensinternen Entscheidungsträger*innen liegen darf, sondern die Nutzer*innen und Betroffenen selbst bei der Ausgestaltung des digitalen Systems umfänglich einzubinden sind. Diese Einbindung wird durch die Einrichtung eines Gremiums ermöglicht, das als „Panel der Vielfalt“ (PdV) konzipiert wurde. Durch die diverse Zusammensetzung des Gremiums soll sichergestellt werden, dass eine möglichst große Bandbreite an Verzerrungen und Diskriminierungspotenzialen in der Anwendung bereits im Vorfeld der Entwicklung und Einführung identifiziert und minimiert werden kann. Um dies zu ermöglichen, wird das PdV geschult, sensibilisiert und die in der KI-Anwendung genutzten (Trainings-)Daten, ihre Regeln und Softwarearchitektur transparent und verständlich dargestellt. Im Rahmen eines Adaptions- und Entwicklungsprozesses tritt das PdV in einem Aushandlungsprozess mit den Softwareentwickelnden zusammen und formuliert konkrete Empfehlungen. Schließlich wird mit dem PdV abgestimmt, auf welche Weise die kontinuierliche Einhaltung der ethischen und diskriminierungssensiblen Anforderungen sichergestellt werden kann (KIDD 2023b) [14] .

Der KIDD-Prozess schließt an die Kompetenzdimensionen des Rahmenkonzepts von Digitales Deutschland an. Insbesondere die kreative und soziale Dimension als Kompetenz zur selbstbestimmten, kollaborativen und partizipativen Gestaltung von digitalen Systemen bei gleichzeitiger Konfliktlösefähigkeit wären hier besonders herauszustellen. Dabei ist die entsprechende Kompetenzentwicklung als Teil sozialer Interaktionen im PdV im Sinne der fünf Prämissen des Rahmenkonzepts sowohl Voraussetzung als auch Ergebnis der gemeinsamen Auseinandersetzung mit KI.

Erste Erfahrungen mit diesem Prozess zeigen, dass dieser wertebasierte Ansatz nicht nur zur Verbesserung einer menschenzentrierten und diversitätssensiblen innerbetrieblichen Arbeitskultur führt, sondern sich gleichzeitig als positiver Business Case etwa in der Produktentwicklung abbilden lässt. Denn „gute KI“ wird zum Verkaufsargument.

Chancen nutzen, Risiken minimieren

Die Auseinandersetzung mit KI ist komplex, in Teilen überfordernd. Das müssen wir uns eingestehen. Gleichzeitig ist die souveräne, selbstbestimmte und mündige Lebensführung der Bürger*innen auch in einer von KI geprägten Lebenswelt Anspruch an unsere demokratisch verfasste Gesellschaft. Die Würde des Menschen bleibt unantastbar. Das gilt auch vor dem Hintergrund existierender KI-Systeme.

Die Geister, die wir riefen, werden wir nicht mehr los. Die KI ist in der Welt. Damit es uns nun nicht geht wie Goethes Zauberlehrling, gilt es, jene Kompetenzen zu fördern, die es uns erlauben, die Kontrolle zu behalten und die Chancen von KI zu nutzen. Das Rahmenkonzept des Projekts Digitales Deutschland ist hierfür ein guter Ansatz und die Beteiligung von möglichst diversen Akteur*innen bei der Erforschung, Entwicklung, Einführung und dem Betrieb von KI-Systemen Voraussetzung. Weitere Maßnahmen werden wir partizipativ entwickeln müssen. Diversität ist dabei unsere Stärke und Chance, die Welt mithilfe von KI zu einem besseren Ort zu machen. Leicht wird das nicht, aber möglich ist das allemal!

Literatur

  1. Goethe, Johann Wolfgang v. (1974). Faust. Erster Teil. Frankfurt a. M und Leipzig: Insel.
  2. DIN/DKE (Hrsg.) (2022). Deutsche Normungsroadmap Künstliche Intelligenz. Ausgabe 2. https://www.dke.de/de/arbeitsfelder/core-safety/normungsroadmap-ki [Zugriff: 06.04.2022]
  3. OECD (2020), Künstliche Intelligenz in der Gesellschaft, OECD Publishing, Paris, https://doi.org/10.1787/6b89dea3-de.
  4. Walsh, Toby (2019). 2062. Das Jahr, in dem die Künstliche Intelligenz uns ebenbürtig sein wird. München: riva Verlag.
  5. Future of Life Institute (2023). Pause Giant AI Experiments: An Open Letter. https://futureoflife.org/open-letter/pause-giant-ai-experiments/ [Zugriff: 06.04.2022]
  6. Distributed AI Research Institute (2023). Statement from the listed authors of Stochastic Parrots on the „AI pause“ letter. https://www.dair-institute.org/blog/letter-statement-March2023 [Zugriff: 06.04.2022]
  7. Stanford University (2023). 2023 AI Index Report. https://aiindex.stanford.edu/report/ [Zugriff: 06.04.2022]
  8. Feuerriegel, Stefan/Dolata, Mateusz/Schwabe, Gerhard (2020). Fair AI. Business & Information Systems Engineering, 62(4), 379–384. https://doi.org/10.1007/s12599-020-00650-3
  9. Zweig, Katharina (2019). Ein Algorithmus hat kein Taktgefühl. Wo künstliche Intelligenz sich irrt, warum uns das betrifft und was wir dagegen tun können. München: Heyne.
  10. Tuallion, Victoire (2019). Les couilles sur la table. Frankreich: Binge Audio Éditions.
  11. Europäische Kommission (2021). Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz (Gesetz zur Künstlichen Intelligenz) und zur Änderung bestimmter Rechtsakte der Union. https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52021PC0206 [Zugriff: 06.04.2022]
  12. Hochrangige Expertengruppe (2019). Unabhängige Hochrangige Expertengruppe für Künstliche Intelligenz. Eingesetzt durch die Europäische Kommission im Juni 2018. Ethik-Leitlinien für eine vertrauenswürdige KI, https://op.europa.eu/de/publication-detail/-/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1 [Zugriff: 06.04.2022]
  13. Künstliche Intelligenz im Dienste der Diversität (2023a). Homepage. https://kidd-prozess.de/ [Zugriff: 06.04.2022]
  14. Künstliche Intelligenz im Dienste der Diversität (2023b). KIDD-Handbuch. https://kidd-handbuch.gitbook.io/kuenstliche-intelligenz-im-dienste-der-diversitaet/einfuehrung/readme [Zugriff: 06.04.2022]

Zitation

Wedel, M. 2023: Bessere KI dank Diversität . Im Rahmen des Projektes Digitales Deutschland. Online verfügbar: https://digid.jff.de/magazin/diversitaet/bessere-ki/.

Feedback