04

Mixtape: Perspektiven auf KI

04

Mixtape: Perspektiven auf KI

Je nachdem von welcher Perspektive aus man das Thema KI betrachtet, ergeben sich verschiedene Denkanstöße. Für DigiD haben wir fünf Expert*innen danach gefragt, welche Rolle KI in ihrem Wissenschaftsbereich spielt und welche Kompetenzen die Bevölkerung im Umgang mit KI haben sollte.    

Künstliche Intelligenz bietet nicht nur aus technologischer Sicht weitreichende Diskussionsanlässe, sondern fordert auch auf gesellschaftlicher, politischer und ethischer Ebene eine fundamentale Auseinandersetzung. Je nach Blickwinkel treten verschiedene Chancen und Risiken des Einsatzes von KI-Systemen hervor und es stellt sich die Frage, für wen welche Kompetenzen im Umgang und im Handeln mit diesen Systemen erforderlich sind. Für das Projekt „Digitales Deutschland“ haben fünf Expert*innen ihre Perspektive auf den Status quo sowie auf die Chancen und Herausforderungen geschildert, die sich durch den Einsatz von Künstlicher Intelligenz in unterschiedlichen gesellschaftlichen Bereichen ergeben. Ausgewählte Aspekte stellen wir in diesem Artikel komprimiert vor. Zu den vollständigen Expertisen gelangen Sie über unsere Projektwebsite bzw. direkt verlinkt über die nachfolgende Liste.

Von Robotern und Weltherrschaftsansprüchen – die Mystifizierung von KI

Droide R2-D2 aus Star Wars oder Commander Data aus Star Trek: So oder mit anderen Science-Fiction-Charakteren beschreiben viele Bürger*innen Künstliche Intelligenz. Dazu kommen Vorstellungen über abstrakte körperlose KI-Systeme wie Skynet aus Terminator, HAL aus Odyssee im Weltraum oder die Matrix, die das Wohl der Menschheit in der Regel höheren Missionszielen unterordnen (vgl. Diethelm 2021). Hier klaffen Fiktion und Realität allerdings weit auseinander: Während in besagten Filmen eine starke KI suggeriert wird, die übermenschliche Fähigkeiten besitzt und diese unter anderem dazu einsetzt, Menschen zu manipulieren und zu bevormunden, basieren die heute in der Realität eingesetzten KI-Systeme und Anwendungen lediglich auf einer sogenannten schwachen, lernenden KI. Die Entwicklung einer starken KI – da sind sich alle unsere befragten Expert*innen einig – steht kurz- oder mittelfristig nicht bevor.

„Ohnehin vorhandene definitorische Unschärfen des Intelligenzbegriffs und durch Science-Fiction-Narrative erzeugte Projektionsflächen lassen KI in der öffentlichen Wahrnehmung zwischen technologischen Heilsversprechungen und dystopischen Prophezeiungen changieren.“

(Dr. Harald Gapski)

Diese Mystifizierung – oft Dämonisierung – von KI bleibt nicht ohne Konsequenzen für den öffentlichen Diskurs und führt häufig zu irrationalen Ängsten und Vorbehalten der Bevölkerung gegenüber IT-Systemen aller Art, die automatisiert oder autonom handeln. In der Konsequenz kann die Mehrheit der Bürger*innen aufgrund von Berührungsängsten und fehlendem Wissen Chancen und Risiken im Kontext von Künstlicher Intelligenz häufig nicht faktenbasiert abwägen. Werturteile werden demensprechend häufig zulasten einer realitätsfernen Vorstellung von KI getroffen (vgl. Diethelm 2021; vgl. Schultze 2021).

„Fehlendes Wissen sowie Fehlinformationen zum Thema KI führen zu Verunsicherung bei den Bürger*innen, woraus Ablehnung erfolgen kann, insbesondere wenn es um den Einsatz von KI geht, der von staatlicher Seite gefördert oder sogar durchgeführt wird.“

(Prof. Dr. Joachim Schultze)

Demgegenüber stehen Wissenschaft, Technik und Forschung, in denen das Potenzial von schwacher KI bereits in verschiedenen Bereichen zum Einsatz kommt und unverzichtbar geworden ist, z. B. in Gestalt von Industrierobotern, zur Optimierung formeller Bildungsprozesse (vgl. Mayrberger 2021) oder im medizinisch-diagnostischen Bereich (vgl. Schultze 2021).

Um die Bevölkerung auf dem Weg der digitalen Transformation selbstbestimmt, mündig und kritisch-reflektiert mitzunehmen, fordern Wissenschaftler*innen sowohl die Förderung basisinformatischer Kompetenzen in der formalen Bildung von Kindern und Jugendlichen (vgl. Diethelm 2021) als auch mehr institutionelle Aufklärung und kritische Bildungsangebote für die breite Bevölkerung (vgl. Schultze 2021; vgl. Gapski 2021). Ein Schwerpunkt sollte dabei auf einer Entmystifizierung von KI liegen, auf deren Grundlage es auch für Normalverbraucher*innen möglich ist, die Vielfalt von KI- und IT-Anwendungen in Alltag, Schule und Beruf verstehen und kritisch beurteilen zu können (vgl. Diethelm 2021; vgl. Gapski 2021).

„Sollte diese breite Aufklärung der Bevölkerung über die Funktionsprinzipien und Grenzen von IT- Systemen allgemein und KI-Systemen im Speziellen ausbleiben, ist eine wachsende (akzeptierte) Unmündigkeit und Spaltung der Gesellschaft zu erwarten, wie sie etwa in der fiktionalen Literatur beschrieben werden.“

(Prof. Dr. Ira Diethelm)

Black Box KI – Erklärbarkeit und Transparenz als Faktoren für Mündigkeit und Selbstbestimmung

Neben der definitorischen Unterscheidung von starker und schwacher KI gibt es noch eine zusätzliche Definition von KI, die auf das Phänomen eingeht, dass Menschen autonom handelnde, „smarte“ Systeme – deren Funktionsweise sie sich nicht erklären können – als Künstliche Intelligenz bezeichnen (vgl. Dietheln 2021). Im Umkehrschluss bedeutet das: Sobald Technik verstanden – im Sinne von erklärbar – wird, verliert diese Technik an Magie und wirkt weniger intelligent und angsteinflößend (vgl. ebd.). Auch im politischen und wissenschaftlichen Diskurs um Vertrauen in und gesellschaftliche Akzeptanz von KI nehmen die Aspekte der Erklärbarkeit, Transparenz und Nachvollziehbarkeit eine wesentliche Rolle ein (vgl. Gapski 2021; vgl. Diethelm 2021). So fordert zum Beispiel die Enquetekommission des Deutschen Bundestags, dass KI-Systeme für die Gesellschaft keine „Black Box“ sein sollen, sondern dass es für Bürger*innen bestmöglich nachvollziehbar sein muss, in welchen Anwendungen KI steckt, welche Eigenschaften diese besitzt und aus welchen Daten sich ihr Training (Machine Learning) speist (vgl. Deutscher Bundestag 2020).

„Von öffentlicher und sozialer Bedeutung sind insbesondere diejenigen algorithmischen Auswertungen, die Entscheidungen mit sozialen Auswirkungen einleiten, unterstützen oder gar automatisieren […].“

(Dr. Harald Gapski 2021)

Vor dem Hintergrund der Selbstbestimmung und Souveränität der Bürger*innen ist eine ethisch-humanistische Auseinandersetzung mit algorithmischen und automatisierten Auswertungs-, Entscheidungs- und Steuerungssystemen wesentlich, die oft im Verborgenen und schleichend einen Einfluss auf das gesellschaftliche Miteinander nehmen (vgl. Gapski 2021). So haben diese Systeme bereits heute beispielsweise Einfluss auf die Vergabe von Krediten oder Sozialleistungen, Bildungschancen oder berufliche Karrieren (vgl. ebd.) und können durch vorurteilsbehaftete Trainingsdaten Strukturen der Ungerechtigkeit und Diskriminierung reproduzieren (vgl. Diethelm 2021; vgl. Gapski 2021). Die gewollte und ungewollte Datenfreigiebigkeit im Netz, berechenbares Klickverhalten und daraus resultierende Auswertungsprozesse stehen auch im Kontext einer möglichen Einflussnahme – gar Manipulation – von Verbraucher*innen zur Diskussion (vgl. Lamla 2021; vgl. Gapski 2021).

„Daten können aus ihrem ursprünglichen Kontext ohne Wissen der Datengebenden in neue Auswertungszusammenhänge gebracht werden. […] Es gibt keine belanglosen Daten mehr.“

(Dr. Harald Gapski 2021)

Mit Blick auf eine gelingende, gesellschaftlich akzeptierte Verankerung von KI-System werden sowohl im Bildungs- und Gesundheitssektor als auch im Bereich der Verbraucher*innenbildung ähnliche Stellschrauben identifiziert: eine rechtliche, ethische und qualifikatorische Auseinandersetzung mit Datenschutz und Datensicherheit, ein kritisch-reflexiver Blick auf ökonomische und politische Interessen im Kontext von Daten sowie die Notwendigkeit der Transparenz in Bezug auf Datenherkunft, Re- und Dekontextualisierung sowie Interpretation von Daten.

Fokus: Impulse für einen kompetenten Umgang mit KI

Im Projekt „Digitales Deutschland“ stellen wir uns die Frage, welche Kompetenzen und Kompetenzanforderungen im Umgang und Handeln mit Künstlicher Intelligenz für Kinder, Erwachsene und ältere Menschen erforderlich sind. In unserem Rahmenkonzept finden Sie bereits eine grundlegende Auseinandersetzung zum Kompetenzbegriff und zu den Bedingungen für einen gelingenden Kompetenzerwerb angesichts der fortschreitenden Digitalisierung. Die folgenden Aspekte konzentrieren sich speziell auf ausgewählte Kompetenzimpulse im Umgang mit KI-Anwendungen, die unsere Expert*innen in ihren Expertisen hervorgehoben haben.

KI-Literalität // Prof. Dr. Ira Diethelm (Universität Oldenburg)

Die informatische Didaktik sieht sich in der Rolle, das Verstehen und Gestalten automatisierter Informationsverarbeitung zu fördern und dazu beizutragen, dass vorhandene und künftige KI-Systeme von breiten Teilen der Bevölkerung souverän beurteilt werden können. Als wichtige Adressat*innen einer „KI-Literalität“ stehen vor allem Kinder und Jugendliche in formellen Bildungskontexten im Fokus. In der Vermittlung eines informatischen Grundlagenwissens sieht Prof. Dr. Ira Diethelm dementsprechend schulische Institutionen in der Verantwortung – allerdings unter Mitwirkung von Akteur*innen der didaktischen Informatik an den Unterrichtsgegenständen. Um Beurteilungs-, Reflexions- und Verständnisprozesse bei jungen Menschen anzuregen, hat es sich aus didaktischer Sicht bewährt, lebensweltnahe KI-Anwendungen, wie Chatbots oder beliebte Apps, als Lerngegenstände zu wählen und daran u. a. Wirkprinzipien und Wirkzusammenhänge in Bezug auf Verantwortung, Datenherkunft, Gerechtigkeit, Sicherheit und Auswirkungen der Systeme erklärbar zu machen. Ergänzend dazu plädiert Prof. Dr. Ira Diethelm dafür, das aktive Mitgestalten und Programmieren von KI- Anwendungen und IT-Systemen – als kreative Komponente – verstärkt in informatische Bildungsprozesse einzubetten.

„Die Befähigung der Bürger*innen zu diesem Übergang ist ein wichtiger Emanzipationsschritt und für die Demokratisierung von Technik essenziell.“

(Prof. Dr. Ira Diethelm)

Bildungsdatenkompetenz // Prof. Dr. Kerstin Mayrberger (Universität Hamburg)

Die Potenziale von Künstlicher Intelligenz gewinnen auch in Lern- und Lehrkontexten zunehmend an Bedeutung. Am Beispiel von Learning Analytics lässt sich eine Perspektive aufzeigen, wie Lernprozesse und Lernstrukturen unter Verwendung von KI-Methoden datenbasiert optimiert werden können. Learning Analytics speist sich aus der Sammlung vielfältiger und großer Datenbestände über Lernende, ihre Lernumgebungen, Lerninhalte und Leistungen und wertet diese algorithmisch aus. Die Anwendung bietet also zum einen Optimierungsoptionen für eine individuelle Personalisierung des Lernens als auch für die strukturelle Gestaltung von Lernsettings und digitalen Räumen, in denen gelernt wird.

„Diese Daten können unter Beachtung rechtlicher und ethischer Standards potenziell zu besseren individualisierten und diversitätsgerechteren Entscheidungen im Kontext von Lehren und Lernen führen.“

(Prof. Dr. Kerstin Mayrberger)

Um dieses Potenzial verantwortungsvoll und kritisch nutzen zu können, bedarf es nach Prof. Dr. Kerstin Mayrberger einer grundlegende „Bildungsdatenkompetenz“ (educational data literacy). Vor allem für Akteur*innen des formalen Bildungsbereichs sollte diese nicht nur eine Option, sondern Voraussetzung sein – allen voran für die Lehrenden und Lernenden, aber auch für die involvierten Gestalter*innen und Entscheidungsträger*innen aus Verwaltung und Politik. Neben einer Auseinandersetzung mit ethischen und datenschutzrechtlichen Fragen gehört hierzu sowohl eine Befähigung dazu, Bildungsdaten richtig zu lesen und kritisch zu reflektieren als auch verantwortungsvolle und transparente Entscheidungen für Lernprozesse und die strukturelle Gestaltung von Lernumgebungen zu treffen.

Aufklärungs- und Informationsstrategien // Prof. Dr. med. Joachim Schultze (Universität Bonn)

Von der Medizin genutzte KI-Anwendungen haben schon heute einen positiven Einfluss auf unsere Lebensqualität. Sie finden ihren Einsatz beispielsweise in der Entschlüsselung von Genomsequenzen oder bei der Früherkennung und Überwachung von Krankheiten. Dem gegenüber steht ein oft verzerrtes Bild in der Bevölkerung vom Einsatz von KI, das mit einer realistischen Beurteilung oft wenig zu tun hat:

„Im Fachgebiet wird davon ausgegangen, dass die Kenntnisse in der Bevölkerung über den realistischen Einsatz von KI in Medizin und Lebenswissenschaften nicht ausreichend sind.“

(Prof. Dr. Joachim Schultze)

Diese Unwissenheit führt laut Prof. Dr. Joachim Schultze – vor allem bezogen auf staatliche Angebote – zu einer Dämonisierung und Ablehnung von KI-Anwendung, von denen eigentlich ein Potenzial für die Gesundheit der Bürger*innen ausgeht. Zuletzt konnte dieses Phänomen beispielsweise bei der fehlenden gesellschaftlichen Akzeptanz für die Nutzung der Corona-Warn-App der Bundesregierung beobachtet werden. Ambivalent erscheint dies vor allem auch deshalb, so Prof. Dr. Joachim Schultze, weil sich zeitgleich KI-Anwendungen kommerzieller Anbieter größter Beliebtheit erfreuen, die im Vergleich viel mehr sensible Daten sammeln und auswerten. Ein Ausschöpfen des Potenzials für Diagnostik, Therapie und Wissenschaft kann seiner Meinung nach nur mit einer wohlwollenden Grundhaltung und kritischen Offenheit der Bevölkerung gegenüber neuen Technologien einhergehen. Zur Schärfung von Beurteilungskompetenzen betont er deshalb die Notwendigkeit von zielgruppengerechten, staatlich geförderten Informations- und Aufklärungsstrategien und differenzierten Bildungsangeboten für alle Bevölkerungsgruppen.

Kritische Medienbildung // Dr. Harald Gapski (Grimme Institut)

Im Rahmen einer kritischen Medienbildung sind vor allem reflexive und selbstreflexive Bildungsaspekte bedeutsam, welche die Bürger*innen in Hinblick auf die Ausbildung von Kritikfähigkeit und die Stärkung ihrer Urteilskraft und Mündigkeit unterstützen sollen. Vor dem Hintergrund technologischer, datengetriebener Entwicklungen sind es nach Dr. Harald Gapski vor allem soziale und ethische Auseinandersetzungen, die im Kontext der fortschreitenden digitalen Transformation gesamtgesellschaftlich geführt werden müssen – weil diese maßgeblich zur Ausgestaltung eines souveränen und selbstbestimmten Lebens beitragen. Dr. Harald Gapski versteht „digitale Aufklärung“ demensprechend als ganzheitliches Zusammenwirken von Kompetenzdimensionen, die in Summe starke, handlungsfähige Subjekte hervorbringen soll.

„Im Zusammenhang mit KI als gesellschaftliches Phänomen erstarken Bildungsdimensionen, welche das Welt- und Selbstverhältnis des Menschen besonders hinterfragen, positionieren und wandeln. KI stellt den Menschen in nochmals stärkerem Maße vor fundamentale Fragen seiner Identität, Souveränität und Freiheit. Auf sozialer Ebene geht es um Fragen des gesellschaftlichen Zusammenhalts und damit um politische Bildungsziele.“

(Dr. Harald Gapski)

Als wesentliche Kompetenzanforderungen gelten nach Dr. Harald Gapski unter anderem die Ausbildung von Allgemeinwissen über die Einsatzmöglichkeiten, Treiber, Folgen und Funktionsweisen von KI sowie die Förderung einer „ethischen Mentalität“ und Reflexionsfähigkeit, politische Bildung und eine Sensibilisierung für soziale Folgen.

Kritische Kompetenzen // Prof. Dr. phil. Jörn Lamla (Universität Kassel)

Im Mittelpunkt der Betrachtungen von Prof. Dr. Jörn Lamla zu Verbraucherbildung und Künstlicher Intelligenz steht das Moment der Selbstbestimmung von Verbraucher*innen in einer digitalen Konsumwelt. In einem „unübersichtlichen Bewertungsdschungel“ – zwischen kuratierten Inhalten, Such-Algorithmen, Empfehlungs-Bots und Fakes – souveräne Konsumentscheidungen zu treffen setzt ein hohes Maß an Urteilskraft voraus. Im Sinne der Selbstbestimmung sei deshalb die Ausbildung einer kritischen Kompetenz dringend erforderlich, anhand derer Bürger*innen eigene Bewertungsmaßstäbe und -praktiken für ihr Verbraucherhandeln entwickeln können. Im Rahmen von KI-gestützten Infrastrukturen und Verhaltensbeobachtungen und -steuerungen durch Konzerne sei dieser Lernprozess aber nur unter erschwerten Bedingungen möglich.

„In Kontexten des Konsums und des Verbraucherhandelns wird das Einüben kritischer Kompetenzen durch gestaltete soziodigitale Architekturen des Bewertens und Kuratierens von Inhalten und der algorithmischen Entscheidungsunterstützung in hohem Maße überformt.“

(Prof. Dr. Jörn Lamla)

Das Verlassen der vermeintlich entlastenden Komfortzone – im Sinne habitualisierter Klickroutinen – hin zur Einnahme einer kritischen Distanz gegenüber digitalen Bewertungsinfrastrukturen wird dabei nicht nur als Schritt für die individuelle Souveränität verstanden, sondern als grundsätzliches Potenzial für „andere Sphären der Selbstbestimmung“ wie demokratische Politik, Bildung und Intimität.

Zitation

Jennewein, N. 2021: Mixtape: Perspektiven auf KI. Im Rahmen des Projektes Digitales Deutschland. Online verfügbar: https://digid.jff.de/magazin/kuenstliche-intelligenz/perspektiven-auf-ki/