„Don’t let me be misunderstood“: Critical AI literacy for the constructive use of AI technology
Kurzbeschreibung
Wie können wir Risiken von Künstlicher Intelligenz erkennen? Stefan Strauß stellt einen analytischen Rahmen vor, das problem-oriented assessment framework, das - ähnlich einer Checkliste - dabei helfen soll, Verzerrungen in KI-Systemen zu identifizieren und somit einen Beitrag zur Stärkung von Critical AI Literacy zu leisten. Dieses Modell umfasst vier Hauptindikatoren – Erklärbarkeit, Validität, Plausibilität und Akzeptanz. Das Modell wird beispielhaft an einem Meta-Risiko der Nutzung von Systemen Künstlicher Intelligenz veranschaulicht: dem Deep Automation Bias. Im Fazit betont der Autor, dass technologische Lösungen allein nicht ausreichen, um gesellschaftliche Probleme zu lösen. Stattdessen müssen soziale und technische Perspektiven kombiniert werden.
Annahmen über die Folgen der Digitalisierung
Nach wie vor gibt es einen Hype um Künstliche Intelligenz. Durch sie werden viele Prozesse automatisiert und Algorithmen maschinellen Lernens beeinflussen Entscheidungen sowohl in Wirtschaft als auch Gesellschaft und Politik. Angesichts dieses Wandels wird immer mehr über ethische Herausforderungen diskutiert, die mit dem Einsatz von Künstlicher Intelligenz zusammenhängen. Beispiele dafür sind etwa die Verstärkung von Diskriminierung oder Intransparenz. Als Beispiel werden etwa KI-gestützte Einstellungsverfahren angeführt: In solchen Verfahren können Bewerber*innen diskriminiert werden, indem das System irrelevante Faktoren in die Bewertung einbezieht, zum Beispiel Hintergrundbilder. Ein Risiko besteht vor allem, wenn Empfehlungen automatisierter Systeme unreflektiert akzeptiert werden. Dies nennt sich Automation Bias. Dieser Bias verschärft sich durch die Komplexität und Opazität von Künstlicher Intelligenz, besonders durch Formen des Deep Learning.
Kompetenzanforderungen
Anforderungen werden vor allem formuliert mit Blick auf Wissen und Reflexion. Kompetenzträger*innen müssen die technische Funktionalität, die sozialen Auswirkungen von Systemen Künstlicher Intelligenz sowie deren Verhalten verstehen und kritisch hinterfragen können und ein Problembewusstsein entwickeln.
Kompetenzbegriffe (nach dem Papier)
Unterdimensionen (nach dem Papier)
keine Angabe
Kompetenzdimensionen (nach dem Rahmenkonzept von Digitales Deutschland)
Kognitive Dimension: Technische Grundlage von KI-Systemen verstehen; verstehen, wie es zum Deep Automation Bias kommt.
Kritisch-reflexive Dimension: Risiken von Automatisierung erkennen und hinterfragen können, insbesondere in Bezug auf Themen wie Diskriminierung, Transparenz und Autonomie.
Zentrale theoretische Annahmen über Kompetenz
Critical AI Literacy bedeutet, die Kernfuktionen eines KI-Systems verstehen zu können sowie deren (mangelnde) Passung zu verschiedenen Anwendungsbereichen. Sie ist essenziell, um die zunehmende Automatisierung durch KI-Technologien verantwortungsvoll und gesellschaftlich akzeptabel zu gestalten. Die Nutzung von Künstlicher Intelligenz erfordert nicht nur technisches Wissen, sondern auch eine reflektierte Auseinandersetzung mit ethischen und sozialen Implikationen.
Perspektive der Kompetenzträger*innen auf Kompetenz einbezogen?
keine Angabe
Lebenskontexte der Kompetenzträger*innen einbezogen?
keine Angabe
Herausforderungen der Erfassung von Kompetenz
keine Angabe
Quellenangabe
Strauß, S. (2021). “Don’t let me be misunderstood”: Critical AI literacy for the constructive use of AI technology. TATuP - Zeitschrift für Technikfolgenabschätzung in Theorie und Praxis, 30(3), 44-49. https://doi.org/10.14512/tatup.30.3.44