Künstliche Intelligenz (KI) und kritische Medienbildung

Veröffentlicht am 15.06.2021

Reflexionen aus kommunikationswissenschaftlicher Perspektive

1 Vorbemerkung und Fokus

Der öffentliche Diskurs über KI ist reich an Superlativen in der Bedeutungsdarstellung dieser Technologie: „Künstliche Intelligenz ist eines der wichtigsten Dinge, an denen Menschen arbeiten. Ihre Bedeutung ist grundlegender als Elektrizität oder das Feuer“, sagte Google-Chef Sundar Pichai [1] und sie „könnte das Beste oder das Schlimmste werden, was der Menschheit jemals widerfahren ist“, meinte der Physiker Stephen Hawking [2] .

KI stellt eine Dimension der digitalen Transformation der Gesellschaft dar. In diesem Prozess ist die Gesellschaft Subjekt und Objekt der Transformation zugleich. Die Tiefe der Veränderungen und die Weite der gesellschaftlichen Anwendungsfelder schaffen technologische, ökonomische, rechtliche, politische und ethische, und eben auch pädagogische, qualifikatorische Herausforderungen in der formalen Aus-, Fort- und Weiterbildung, aber auch in der non-formalen und informellen Bildung. [3] Im Zentrum der folgenden Überlegungen stehen reflexive und selbstreflexive Bildungsaspekte, die im Sinne einer Kritikfähigkeit, Urteilskraft und Mündigkeit für ein selbstbestimmtes, souveränes Leben in einer zunehmend von KI-Anwendungen durchdrungenen Welt von Bedeutung sind. Es geht um kritische Medienbildung und KI.

Die übergreifende These lautet: Im Zusammenhang mit KI als gesellschaftliches Phänomen erstarken Bildungsdimensionen, welche das Welt- und Selbstverhältnis des Menschen besonders hinterfragen, positionieren und wandeln. KI stellt den Menschen in nochmals stärkerem Maße vor fundamentale Fragen seiner Identität, Souveränität und Freiheit. Auf sozialer Ebene geht es um Fragen des gesellschaftlichen Zusammenhalts und damit um politische Bildungsziele.

Diese Fragen sind nicht wesentlich technische Fragen, müssen aber im Kontext digitaltechnologisch geprägter Lebenswelten mit datengetriebenen Regelkreisen und inhärenten Unbestimmtheiten beantwortet werden. Ihre Beantwortung greift weit über kompetenzorientierte Zugänge, wie etwa eine neu einzufordernde und abgegrenzte KI-Kompetenz, hinaus – es geht um Bildung in einem ganzheitlichen und transformatorischen Sinn [4]  für eine digitale Aufklärung.

2 Begriffe und konzeptionelle Vorstellungen

2.1 Theoretische Rahmungen

Seit je her stehen medientechnologische und gesellschaftliche Entwicklungen in Wechselwirkung zueinander. [5] Effekte dieser Wechselwirkung – Resonanzen, Irritationen und Disruptionen – sind in den Strukturen und Prozessen der Bildung im Übergang von der Buchkultur der beginnenden Moderne, über die Massenmedien der Industriegesellschaft bis hin zu den Computermedien der Informationsgesellschaft beobachtbar. Durch Medienwandel erzeugter Sinnüberschuss [6] soll zum Teil durch neue Bildungsanforderungen, durch erweiterte Kompetenzen, Capabilities [7] oder Literacies [8] mit neuem Zuschnitt aufgefangen werden. Diese theoretische Rahmung kann für die jüngsten Wechselwirkungseffekte im Zusammenhang mit KI als „technologischen Megatrend“ [9] beibehalten werden. Mit dem Einzug des Computers in die gesellschaftliche Kommunikation werden erstmals in der Geschichte Symbole außerhalb des menschlichen Geistes automatisiert verarbeitet. Diese Prozessautomatisierung und die interaktive Vernetzung von Menschen und Maschinen erzeugen Umwelten mit neuen Sinnüberschüssen. Folgt man dieser ökologischen Wechselwirkungsperspektive des Zusammenspiels von menschlichen Subjekten, medialen Technologien und sozialen Strukturen [10] , dann leitet sich daraus eine Abkehr von Verkürzungen ab, die für eine Reflexion der Bildungsherausforderungen von Bedeutung ist: Einerseits greift eine einseitige Wirkungszuschreibung auf die Technologie zu kurz. Die Einführung von KI allein führt nicht zu besseren Sozialsystemen oder besserer Bildung [11] , sondern erst ihre soziale, normative und kulturelle Einbettung und Ausgestaltung kann dies leisten. KI-Systeme bewirken allein nie die Lösung sozialer Probleme (Solutionismus), sondern soziale Probleme sind in politische, ökonomische, rechtliche u.a. Kontexte eingebunden; zu ihrer Bearbeitung kann möglicherweise KI einen hilfreichen Beitrag leisten. Andererseits unterschätzt die einseitige Wirkungszuschreibung auf die soziale und kulturelle Steuerung die Emergenzeffekte technologischer Impulse und ihre exponentiellen Dynamiken. Es treffen unterschiedliche Veränderungs- und Anpassungsgeschwindigkeiten aufeinander. Eine gern verwendete Allegorie in diesem Zusammenhang stellt die personifizierte Bildung dar, wie sie sich an die Sieben-Meilen-Stiefel der schnell voranschreitenden Technologieentwicklung nur anhängen kann.

2.2 Diskurse der KI

In einer funktional differenzierten Gesellschaft treten Resonanz- und Irritations-Effekte auf KI Technologien in verschiedenen Diskursen zutage. Es erscheint fruchtbar, die jeweiligen Bedeutungskonstruktionen von KI in ihren teilweise überlappenden Diskursen anzureißen und den Bildungsdiskurs im Schnittfeld dieser auszuweisen. [12]

2.2.1 Technologischer Diskurs

Im technologischen Diskurs steht KI für ein breites Forschungsfeld der Informatik, für verschiedene Technologien und Verfahren – etwa Maschinelles Lernen und heute insbesondere Deep Learning mittels künstlicher neuronaler Netze – und Anwendungen, wie etwa selbstfahrende Autos, Roboter oder Sprachassistenten. Die Prämisse, grundsätzlich alle Aspekte des Lernens und anderer Merkmale von Intelligenz seien so beschreibbar, dass sie von einer Maschine simuliert werden könnten, wurde bereits für die Geburtsstunde der KI im Jahr 1955 formuliert. [13] Diese funktionalistische und behavioristische Perspektive auf geistige Prozesse kommt idealtypisch in Alan Turings Frage „Can machines think?“ und dem Imitationsspiel (Turing-Test) zum Ausdruck. [14] Ihre Kritik begleitet die philosophische und medienpädagogische Reflexion bis heute. [15] Im Verlauf erfolgreich realisierter Problemlösungen verschiebt sich der Definitionsrahmen [16] von KI: Galt einst das Schachspielen noch als Intelligenz herausfordernde Lösung eines Problems, ist es heute nur noch ein Schachalgorithmus und die nächste technologische Herausforderung wartet. [17] Die Unterscheidung von Schwacher KI, also die Lösung konkreter Probleme, etwa mithilfe des Maschinellen Lernens, und Starker KI, die über allgemeine Problemlösungsfähigkeiten und menschenähnliche Intelligenz verfügt, spitzt den Technologiediskurs pragmatisch zu: Während Formen Schwacher KI zunehmend in unseren Alltag eindringen und auch eine pädagogische Bearbeitung dringend erforderlich machen, wird die bisher nicht realisierbare Starke KI als Zukunftsvision in das Reich der Science Fiction oder dystopischer Prophezeiungen verschoben. Eine zeitgemäße Medienbildung sollte im Dialog mit der informatischen Bildung die Grenzen und Möglichkeiten von KI realistisch einschätzen und zur Entmythisierung dieser Technologie beitragen.

2.2.2 Ökonomischer Diskurs

Im ökonomischen Diskurs steht KI für einen volkswirtschaftlichen und globalpolitischen Wettbewerbsfaktor zwischen USA, China und Europa, der einen steigenden Handlungsdruck auf wirtschaftliche und politische Akteure ausübt. Regierungen auf allen Ebenen antworten mit Innovations- und Strategieprogrammen zur Förderung und Entwicklung von KI. Der europäische Weg für eine „vertrauenswürdige KI“ [18] wird projektiv und in Abgrenzung zum US-amerikanischen (‚Daten sind das neue Öl‘) und zum chinesischen Weg (‚Komplettüberwachung‘) als „menschenzentriert“ [19] und „ethisch“ ausgewiesen. [20] Bildung und Qualifizierung sind integrale Bestandteile dieser Programme. In diesen stehen auf Seiten der Entwickler technologieorientierte und berufsqualifizierende Dimensionen und auf Seiten der anwendenden oder betroffenen Bürgerinnen und Bürger Sensibilisierungs- und Akzeptanzfaktoren im Vordergrund. Daten- und KI-gestützte Analytik soll zudem genutzt werden, „um die allgemeine und berufliche Bildung zu verbessern und für das digitale Zeitalter tauglich zu machen.“ [21] Von besonderer arbeitspolitischer und sozialer Brisanz ist die prognostizierte (Teil-)Automatisierung hochqualifizierter Berufe und die damit sich abzeichnende massive Freisetzung von Arbeitnehmern bzw. die sich wandelnden Qualifikationsanforderungen. [22] Diese Unbestimmtheit beruflicher und sozialer Entwicklung kann als Argument für transformatorische und sinnstiftende Bildungskonzepte genommen werden.

2.2.3 Öffentlicher und medienkultureller Diskurs

Kaum eine Betrachtung von KI ohne Referenz auf Bilder der Science Fiction: Fiktionale menschenähnliche Androiden [23] verwischen die Unterscheidung von lebendig und automatenhaft und geben einer Starken KI ein projektives Erscheinungsbild. Die damit verbundenen Wertvorstellungen und ihre Entmythisierung auf dem Boden technischer Tatsachen können zum Gegenstand einer kritischen Medienbildung werden, die Filmbildung und informatische Bildung verbindet. Nicht fiktional, aber dem medienkulturellen Diskurses zurechenbar, sind die Spielduelle zwischen Mensch und Maschine, die als Leistungsdemonstrationen einer Schwachen KI öffentlichkeitswirksam in den Medien inszeniert werden: Die Maschine gewann in den Spielen Schach (1997), TV-Quiz Jeopardy (2011), Go (2016) und Poker (2017) und tritt auch in Debattierwettbewerben gegen Menschen an. [24] Die Abfolge bisheriger menschlicher Niederlagen in diesen Spielen projiziert die technische Überwindbarkeit auf die nächste, zukünftige Herausforderung. Was zunächst unmöglich erschien, ist bald technisch lösbar. Diese technologische Projektionsdynamik trägt dazu bei, dass im öffentlichen Diskurs Grenzziehungen zur Starken KI und die kategorialen Unterschieden zwischen menschlichem Geist und maschineller Intelligenz verwischt werden. Ohnehin vorhandene definitorische Unschärfen des Intelligenzbegriffs und durch Science-Fiction-Narrative erzeugte Projektionsflächen lassen KI in der öffentlichen Wahrnehmung zwischen technologischen Heilsversprechungen und dystopischen Prophezeiungen changieren.

2.2.4 Bildungsdiskurs

Als ein „epochaltypisches Schlüsselproblem“ [25] (W. Klafki) zeigt die Digitalisierung und mit ihr die KI auch in Bildungsdiskursen die eingangs erwähnten Resonanzeffekte. Antworten auf entstehende Bildungsbedarfe sind neue Lernangebote über KI, die für unterschiedliche Zielgruppen und in verschiedenen Formaten, etwa als stark nachgefragte Online-Kurse [26] oder Brettspiele [27] inzwischen verfügbar sind. KI wird zudem als innovatives Bildungsmedium didaktisch erschlossen, beispielsweise als ein „antizipierendes Schulbuch“ [28] , das adaptives und personalisiertes Lernen ermöglichen soll. Mit der Erhebung sensorischer Daten und ihrer Einspeisung in Prozesse des Learning Analytics (s.u.) soll KI als „Leistungsbeschleuniger“ [29] im Bildungsbereich wirken. Aktuelle Positions- und Reflexionspapiere im deutschen Sprachraum thematisieren die Nutzung von KI in Hochschulen [30] und Schulen [31] .

Erkennbar ist auch die Entstehung eines breiten Forschungsgebiets, das die Auswirkungen auf Bildungsstrukturen und -prozesse behandelt. [32] Dennoch findet das Thema KI erst langsam Eingang in die bildungswissenschaftliche Reflexion. [33]

KI und Menschenbild – die anthropologische Positionierung

KI bringt eine Irritation in den Bildungsdiskurs ein, welche die ohnehin neuartigen Kommunikationsverhältnisse, an denen nicht mehr nur Menschen, sondern nun auch Computer beteiligt sind, nochmals zuspitzen. Bereits im Verhältnis zwischen dem Adjektiv ‚künstlich‘ und dem Substantiv ‚Intelligenz‘ deutet sich jenes anthropologische Spannungsfeld an, das im Bildungsdiskurs entfaltet und bearbeitet werden muss. Das Spannungsfeld und Interaktionsverhältnis von Mensch und ‚intelligenter‘ Maschine kann als simulierend, imitierend, kooperierend oder konkurrierend beschrieben werden. Grundsätzlich scheinen zwei Perspektiven auf KI unterscheidbar: eine funktionalistische und eine ontologische. Als funktionalistisch soll eine Sichtweise bezeichnet werden, die eine KI pragmatisch aufgrund ihrer Problemlösefähigkeit und Performanz an der Oberfläche beurteilt. [34]  Beispielhaft kommt diese Sichtweise schon im Turing-Test zum Ausdruck. Aus einer funktionalistischen Sicht ist die Rede von Maschinen, die ‚Entscheidungen treffen‘ oder ‚autonom handeln‘ üblich und akzeptabel.Als ontologisch soll eine Perspektive bezeichnet werden, die einen grundsätzlichen Wesensunterschied macht zwischen einer biologischen und leibgebundenen, menschlichen Intelligenz (Geist) und einem maschinellen Informationsprozessor. In einer ontologischen Sprechweise ‚trifft‘ die KI niemals Entscheidungen und kann auch nicht ‚autonom‘ sein. Eine KI kann noch nicht einmal Schachspielen, da sie keinen Begriff von ‚Spiel‘ hat und kann auch keine Probleme ‚lösen‘, weil ein Computer kein Problem ‚hat‘. Nur der Mensch in seinem In-der-Welt-sein mit seiner Leiblichkeit, in seiner Selbstreflexion und im Bewusstsein seiner Endlichkeit begreift Problemlösung in einem begrenzten Zeitrahmen existenziell. [35] So sehr diese Position eine humanistische Selbstvergewisserung stärkt und eine anthropomorphisierende Verantwortungsverlagerung auf die KI erschwert, so schwierig gestaltet sich eine Verständigung über aktuelle Handlungsfelder beispielsweise in der Maschinenethik. [36] Gleichzeitig spannen beide Perspektiven ein Reflexionsfeld auf, um das kommunikative Miteinander von Menschen und nicht-menschlichen Akteuren näher zu bestimmen. [37]  Indes wird hier die Position vertreten, dass genau dieses, sich auch sprachlich manifestierende Spannungsverhältnis zwischen beiden Sichten bewahrt werden und als Reflexionselement in der kritischen Medienbildung dienen soll. Durch anthropologische, ethische und sprachkritische Erörterungen führt es tiefer in die Auseinandersetzung mit post- und transhumanistischen Positionen, die bereits die Bildung erfassen. [38]

KI und die neuen und alten Felder der Medienkritik

Traditionelle Reflexionsfelder der Medienkritik wandeln sich durch die Anwendungspotenziale der KI: Seit jeher unterliegen Medien einem Manipulationsverdacht und Medienkritik gilt als eine grundlegende Dimension medienkompetenten Handelns. Die neuen Möglichkeiten digitaler Ton- und Bildmanipulation mithilfe von KI, sogenannte Deepfakes, müssen in ihren potenziellen gesellschaftlichen und politischen Auswirkungen berücksichtigt werden. Das Wissen um die nahezu unbegrenzte mediale Manipulationstiefe muss Gegenstand kritischer Medienbildung werden.

KI und die neuen und alten Felder der Medienkritik

Im Begriff der Kompetenz, definiert als Fähigkeit Probleme zu lösen, wird das Funktionale zur verbindenden Eigenschaft von Mensch und Maschine. Komplementär und ggf. konstruktiv greifen beide Akteure problemlösend ineinander. Unlösbar bleibt für die schwache KI hingegen das Problem, über den sinnvollen Einsatz von KI selbst zu ‚entscheiden‘, da dies „ethische Kategorien und Sinngebung“ [39] voraussetzt. Es ist zu fragen, in welchem Verhältnis neue KI-Kompetenzdimensionen zu bereits bestehenden Kompetenz- und Literacy-Konzepten, wie z.B. Algorithmic Thinking oder Big Data Literacy stehen. Vorschläge zur Integration in bestehende Kompetenzkonzepte liegen bereits vor. [40]

3 Digitalisierung und KI

„When you hear AI, don‘t think of a droid. Think of an algorithm.“ [41]

Im Zentrum der folgenden Überlegungen zu einer kritischen Medienbildung und KI stehen Anwendungen aus allen Bereichen des sozialen Lebens. Es ist davon auszugehen, dass KI-Anwendungen weiter zunehmend in den Alltag dringen und zum selbstverständlichen Teil einer nicht mehr hinterfragten Umwelt werden. Als Dimension der digitalen Transformation greift KI auf das Vorhandensein von digitalen Massendaten, leistungsfähigen Prozessoren und verbesserten Methoden zurück. KI-Systeme sind Teil eines digitalen, global vernetzten, gesellschaftlichen Nervensystems mit permanent fließenden Datenströmen, aus denen neue Erkenntnisse im Sinne einer Sozialphysik (A. Pentland) gewonnen werden können. Neben bewussten Dateneingaben, erzeugen Interaktionen mit smarten Objekten und Sensoren im Internet der Dinge vielfältige Daten und eröffnen immer neue Auswertungsmöglichkeiten. Eine Interaktion mit einem Smartphone oder mit einer zukünftig noch ‚intelligenteren‘ Sprachassistenz geht weit über ein punktuelles Werkzeughandeln im Hier und Jetzt hinaus. Besondere Beachtung verdient nicht die oberflächliche Werkzeugnutzung, sondern die algorithmische Auswertung von dabei bewusst oder unbewusst erzeugten Daten. Von öffentlicher und sozialer Bedeutung sind insbesondere diejenigen algorithmischen Auswertungen, die Entscheidungen mit sozialen Auswirkungen einleiten, unterstützen oder gar automatisieren, sogenannte automatische Entscheidungssysteme (Algorithmic/Automated Decision Making, ADM). Ihre gesellschaftliche Verbreitung vollzieht sich abseits öffentlichkeitswirksam inszenierter Spielduelle zwischen Mensch und Maschine, der Robotik oder selbstfahrender Autos eher schleichend. Diese Entscheidungssysteme greifen an vielen Stellen in das soziale Miteinander ein und nehmen Einfluss auf Entscheidungen etwa über die Vergabe von Krediten oder Sozialleistungen, über Bildungschancen oder berufliche Karrieren. Die Verbreitung algorithmischer Entscheidungs- und Steuerungssysteme ist in den vergangenen Jahren auch in Europa deutlich gestiegen. [42]  Es ist davon auszugehen, dass dieser Trend weiter anhalten wird und zunehmend KI-Technologien zum Einsatz kommen werden. Im Kern sind diese Anwendungen konsequente Fortsetzungen eines Digitalisierungs- und Quantifizierungsprozesses in der Gesellschaft, der sich in erster Linie an ökonomischen Optimierungszielen orientiert.

Vereinfachend können zwei Formen von Algorithmen für die Steuerung sozialer Prozesse unterschieden werden: [43] Erstens, die menschengemachte direkte top-down Programmierung und Implementierung von Algorithmen zur Problemlösung und Entscheidungsfindung in abgegrenzten Bereichen und zweitens, die lernenden Algorithmen, die mithilfe des Data Minings bzw. maschinellen Lernens durch die Auswertung von heterogenen Daten bottom-up erzeugt werden. Durch die Rückkopplung zwischen algorithmischer Problemlösung und der sozialen Anpassungen entziehen sich diese Systeme menschlicher Kontrolle, was zu einem schleichenden Wandel von der Entscheidungsunterstützung hin zur Automatisierung von Entscheidungen durch Algorithmen führen kann. [44] Aufgrund ihrer Übertragbarkeit und Skalierbarkeit haben die Entscheidungssysteme als Regelkreise das Potential gesellschaftliche Strukturen zu Autonomous Social Machines [45]  zu wandeln und auf vielen Ebenen neue soziale Regulierungsformen zu etablieren. Bürgerinnen und Bürger erhalten auf Basis ihrer ausgewerteten Daten und Datenspuren automatisch erzeugte und personalisierte Handlungsanreize oder negative Rückmeldungen, um ihr zukünftiges Handeln vorherzusagen und zu beeinflussen – eine „Big-Data-gestützte Verhaltensbeeinflussung“ [46] oder ein Behavioral Management von Personen mithilfe lernender Algorithmen. Diese Algorithmen des zweiten Typs erzeugen dabei Modellierungen dieser Personen aus den Verhaltensdaten und liefern entscheidungsrelevante Resultate durch Abgleich mit Zielwerten (Soll-/Ist-Vergleich), beispielsweise in Form von internen oder veröffentlichten Scores. Je nach Ergebnis des Zielwertabgleichs ergeben sich Steuerungsimpulse für weitere Anschlussinteraktionen in Form von Incentivierungen oder Sanktionierungen. Incentivierungen erfolgen durch positive Rückmeldungen, Vergünstigungen oder Belohnungen. Sanktionierungen reichen beispielsweise von der Ausblendung bestimmter Inhalte im Social-Media-Nachrichtenstrom bis hin zur Ablehnung von Krediten oder Sozialleistungen. [47] Die Zielgruppenerreichbarkeit wird kontextbezogen mittels gamifizierender Elemente, Nudging-Strategien oder Micro-Targeting gesteigert.

Verzahnt mit dieser Rückkopplungsschleife des Behavioral Managements auf individueller Ebene ist ein sozialer Regelkreis für das Social Systems Engineering. Dieser dient der datengestützten Optimierung von Prozessen und Strukturen sozialer Systeme. Beide Schleifen greifen ineinander und prägen die digitalen Steuerungsmöglichkeiten einer Gesellschaft, die beispielsweise von kleinen, verteilten Regelkreisen algorithmisch kuratierter Inhalte auf Plattformen über die Konsumentenbeeinflussung bis hin zum gesamtstaatlichen Regelkreis für ein Social Scoring [48] aller Bürgerinnen und Bürgern, wie es in China umgesetzt wird, reichen können.

Die vermeintliche Rationalität datengestützter Entscheidungssysteme konnte durch den Nachweis konkreter Diskriminierungsgefahren [49] aufgrund fehlerhafter Algorithmen oder verzerrter und ungeeigneter Trainingsdaten aufgelöst werden. Ein aktuelles Meinungsmonitoring zu KI in Deutschland ergibt, dass nur ein “mäßiges Problembewusstsein gegenüber KI-Diskriminierung“ [50] allgemein und ein noch geringeres in Anwendungsfeldern des Sozial- und Bildungswesens vorhanden ist, was Anlass gibt, dieses Thema zum Gegenstand einer digitalen Aufklärung zu machen.

Besonders hervorzuheben ist die statistische Diskriminierung, da sie sich nicht auf die Kategorisierung individueller Merkmale bezieht, sondern auf Gruppeneigenschaften, die durch Datenanalysen erst erzeugt werden, so als ob jedes der Mitglieder dieser Gruppe das Merkmal aufweisen würde. [51]  Eine solche mathematisch-statistische Zuordnung eines Individuum zu einer Gruppe entzieht sich vollends einer individuellen Kontrolle über die eigenen Daten.

Mittels „likes“ für Musik, Konsumprodukte oder Essensvorlieben in den Sozialen Medien können psychologische Persönlichkeitsmerkmale (z.B. die Big Five [52] ) mit bemerkenswerter Genauigkeit erstellt und für Vorhersagen in vielen Lebensbereichen, wie etwa in der politischen Wahlkommunikation oder im Produktmarketing, genutzt werden. Für den Einzelnen ist es nicht absehbar, welche Auswertungen durch Kombination von scheinbar belanglosen Daten gegenwärtig und insbesondere zukünftig möglich werden. Daten können aus ihrem ursprünglichen Kontext ohne Wissen der Datengebenden in neue Auswertungszusammenhänge gebracht werden. Die Re- und De-Kontextualisierung digitaler Daten stellt somit neue Herausforderungen an den Datenschutz, denn grundsätzlich lassen sich Datentypen keine spezifischen Sensibilitäten zuordnen: Es gibt keine belanglosen Daten mehr. Hinzukommen Emergenzeffekte [53] und schwer zu kontrollierende Nebenfolgen [54] dieser Systeme, wie etwa die Untergrabung der Selbstbestimmung und des Solidarprinzips.

Zwar setzt die Europäische Datenschutzgrundverordnung (DSGVO) dem Einsatz umfassender datengetriebener und automatisierter Entscheidungssysteme über Personen formal deutliche Grenzen, aber die Macht der internationalen Verbreitung und das langsame Einsickern dieser Systeme oder ihrer Vorstufen erhöhen unter Effizienzdruck stetig die Akzeptanz.

Anwendungsbeispiel Learning Analytics

Der Einsatz von Learning Analytics (LA) illustriert beide oben skizzierten Rückkopplungsschleifen in Lehr- und Lernkontexten. Vielfältige Daten über die Lernenden, ihre Lernumgebungen und die Lerninhalte werden gesammelt, algorithmisch ausgewertet und zur angestrebten ‚Optimierung des Lernens‘ verwendet. Die individuelle Rückkopplungsschleife kreist um die datengetriebene Personalisierung des Lernen, da jede lernende Person einzigartig in ihren Lernbedürfnissen ist und daher individuell gefördert und gefordert werden muss – so ein zentraler technologieorientierter Bildungsanspruch. [55] Auf der sozialen Ebene der Schleife liefert das Educational Data Mining Optimierungsoptionen für die Gestaltung von Lernprozessen, Organisationen und Infrastrukturen, in denen gelernt wird. Konkreter Ausdruck eines umfassenden Bildungsmonitorings auf Meso-Ebene sind Intelligent Classroom Behavior Management Systeme [56] , die mithilfe multisensorischer und drahtloser Datenerfassung etwa den Grad individueller Aufmerksamkeit und die Häufigkeit der Interaktion im Klassenzimmer erfassen. Pilotprojekte mit intelligenten Kameras im Klassenraum und brain-wave-trackers in den Stirnbändern der Schülerinnen und Schüler zeigen das technisch Machbare [57] , stellen pädagogische Sinnfragen und erzeugen Kritik. Letztere bezieht sich im engeren, noch solutionistisch gedachten Zusammenhang auf die Verbesserung der Messverfahren oder auf Probleme des Datenschutzes, ohne dabei die zugrundliegenden Annahmen grundsätzlich in Frage zu stellen.

Ein kritischer und verantwortlicher Einsatz von KI in Bildungskontexten muss grundlegendere [58] und ethische [59] Fragen stellen: Welches Menschenbild des Lernenden vermittelt Learning Analytics? Handelt es sich bei der datengetriebenen Personalisierung des Lernens nicht eher um eine „Dividualisierung“ [60] , im Sinne einer Zerteilung in Elemente für ein digitales Nutzerprofil zum Zwecke ihrer Weiterverarbeitung oder um ein „korreliertes Datensubjekt“ [61] ? Wo bleibt das soziale und kooperative Lernen? Welche Macht- und Informationsasymmetrien entstehen durch die Datenauswertungen in derartigen Regelkreisen des Lernens? Wohin fließen die Daten und welche privatwirtschaftlichen Datenmonopole etablieren sich im Bildungssystem?

4 KI, Kompetenzen und Bildung

Mit den datengetriebenen und algorithmischen Regelkreisen ist eine gesellschaftliche Lebenswirklichkeit angesprochen, die auch für die Medienbildung zunehmend relevant werden wird. Ihre Merkmale müssen – so die These – in die „Betrachtung von Bedingungen einer souveränen Lebensführung“ [62] inmitten einer tiefgreifend mediatisierten Gesellschaft einbezogen werden und in Kompetenzanforderungen für Bürgerinnen und Bürger übersetzt sowie zielgruppenspezifisch ausdifferenziert werden. Diese Anforderungen beziehen sich auf:

1. Allgemeines Hintergrund- und Orientierungswissen über die Treiber und Folgen der digitalen Transformation, einschließlich der Kenntnis über die allgegenwärtige Datenerfassung und ihre ökonomischen Verwertungs- und Optimierungsinteressen.

2. Grundlegende Qualifizierungen über technische Funktionsweisen und die Einsatzmöglichkeiten von KI im Kontext der oben genannten Diskurse. Das Wissen über KI und Algorithmen im Hinblick auf eine informatische Grundbildung ist in der deutschen Bevölkerung noch kaum ausgeprägt. [63]

3. Zu dieser neuen KI-Medienkunde zählen auch statistische, psychologische und psychometrische Grundlagenkenntnisse, um algorithmische Entscheidungen und eine menschliche wie maschinelle Bias hinterfragen zu können. Ein Kritikalitätsbewusstsein [64]  im Hinblick auf die sozialen Folgen des Einsatzes von KI-Systemen entsteht weniger durch tiefes technisches Detailwissen, sondern durch die Fähigkeit, relevante Fragen zu den Hintergründen, sozialen Auswirkungen und Risiken des Einsatzes zu stellen und Antworten zu einer informierten Haltung zu bündeln.

4. Förderung einer „ethischen Mentalität“ [65] und ethischen Reflexionsfähigkeit zur Bedienung und Bewertung sozialer Folgen des Einsatzes von KI. Diese ethische Urteilskraft erfordert eine Positionierung von Werten in Wertegemeinschaften und betrifft Bürgerinnen und Bürger ebenso wie die Entwicklerinnen und Entwickler dieser Technologien. [66]

5. Politische Bildung und ein Handlungswissen zur Beantwortung von sozialen Folgen aus der Betroffenenperspektive [67] . Hierzu zählt das Wissen über Verfahren und Anlaufstellen [68] bei Fragen und Problemen zum Datenschutz, zur Qualitätsbewertung, zu Diskriminierungen und zu den Anforderungen einer sich entwickelnden KI- und Medienregulierung im Allgemeinen.

Über konkrete Kompetenzdimensionen hinaus gilt es Spannungsfelder und Grenzziehungen bzw. Entgrenzungen im Kontext von KI und Medienbildung zu erörtern:

Grenzen der Subjektzentrierung: Seit Jahrzehnten fügt sich die subjektzentrierte Fassung von Medienkompetenz in die jeweiligen Diskurse von Bildung, Wirtschaft, Politik und Recht ein und sichert ihre jeweiligen Fortschreibungen beispielsweise als Anpassungsqualifizierung und Akzeptanzfaktor (Wirtschaft), als Demokratiebedingung (Politik) oder als Verbraucher- und Jugendschutzfaktor (Recht). In seiner verkürzten subjektiven Fassung erzeugt Medien-, Digital- und letztlich auch KI-Kompetenz den blinden Fleck soziotechnischer Transformation und erfüllt damit eine strukturbewahrende Latenzfunktion. [69] Die Souveränität des Subjekts wird in der digitalen Transformation mehrfach herausgefordert. In Umwelten mit permanenten Datenflüssen, rückkoppelnden Schleifen und künstlichen Kommunikatoren findet keine individualisierte Mediennutzung statt, sondern ein vernetztes, partizipatives, kollektives, hybrides Interagieren im digitalen Raum. Nicht nur das individuelle Datenhandeln, auch die gewollte oder ungewollte Datenfreigiebigkeit der anderen im Netz und die statistische Datenauswertung trägt zur Erosion informationeller Selbstbestimmung bei. Grenzen zwischen on- und offline, zwischen Werkzeugeinsatz und Umweltverhalten, zwischen individueller und kollektiver Selbstbestimmung, zwischen menschlicher und künstlicher Kommunikation verschwimmen und werden durchlässig. Versuche der Wiedererlangung individueller Souveränität durch ‚digitale Selbstverteidigung‘ gegen die „Big Other“ (S. Zuboff) mit ihren „Weapons of Math Destruction“ [70] kommen schnell an ihre Grenzen.

Grenzen digitaler Aufklärung: Die Verschiebung vom individualisierten Werkzeughandeln zum permanenten Umweltverhalten in datafizierten Räumen erzeugt neue Reflexionsanforderungen mit Überlastungsgefahren und Transparenzproblemen. Eine digitale Aufklärung, die Licht in die Black-Box von kritischen KI-Systemen und ihren Algorithmen bringen will, muss sich mit Fragen der Transparenz, der Nachvollziehbarkeit und der Erklärbarkeit auseinandersetzen. [71] Die Beantwortung dieser Fragen und die funktionale wie kognitive Zugänglichkeit der Systeme ist aus unterschiedlichen Gründen – von geschützten Geschäftsmodellen bis hin zu mangelnder Bewertungskompetenz – erschwert. In Zukunft könnte die Erklärbarkeit wiederum durch den Einsatz von Technologien erhellt werden (Explainable AI). Dennoch kann die Interpretations- und Bewertungslast nicht durch individuelle Urteilskraft allein geschultert werden. Sie muss in den politischen Raum gehoben, um dort bearbeitet und ggf. reguliert zu werden. Politische Bildung hat die Aufgabe, die neuen Macht- und Informationsverhältnisse in einer digitalen Ökologie zu vermitteln.

Grenzen der Kompetenzen – Erstarken ganzheitlicher Bildung: Die soziotechnische Entwicklungsdynamik und damit einhergehend Unsicherheit, Kontrollverlust und Intransparenz heben die Bildung gegenüber Kompetenzen hervor: „Bildung lebt vom Spiel mit den Unbestimmtheiten.“ [72] Bildung ist die übergeordnete und nachhaltige Ebene, unter der sich Kompetenzen erst ausbilden. [73] Mit Unbestimmtheiten, Unsicherheiten und einem Nichtwissen [74] umzugehen, erfordert eine Transformation bestehender Selbst- und Weltverhältnisse durch Bildung in offenen und unbestimmten Räumen. [75] Eine sensorisch totalüberwachte Lernumgebung ist kein solcher Raum. Eine mithilfe von KI und Learning Analytics vorgezeichneter, individualisierter und zu optimierender Lernpfad ist nicht unbestimmt. [76] Bildung ganzheitlich verstanden, braucht offene Entfaltungsräume, betreibt Sinnstiftung und erschöpft sich nicht in instrumentellen und quantifizierenden Perspektiven. [77] Jenseits des Zählens und Messens geht es um das Erzählen und Ermessen zur Bildung eines angemessenen Urteils. [78] Perspektiven auf die Mannigfaltigkeit der Weltzugänge, auf das Nicht-Datafizierbare und Nicht-Messbare müssen bewahrt und gefördert werden. Je lauter die Forderung wird, Daten allein sprechen zu lassen, desto mehr angemessenes Sprechen und Reflexion über die epistemischen und ethischen Grenzen informatischer Modellierung sind nötig. Eben diese ethische Reflexion findet auch in Bildungsprojekten zur KI gegenwärtig kaum statt. [79] Dabei geht es nicht so sehr um ausdifferenzierte und festgeschriebene Ethik-Kodizes, sondern um ethische Vernunft und darum, mit Bildung eine „ethische Kultur und Einstellung“ [80] aufzubauen und zu bewahren.

Wenn bereits die Suggestion einer Berechenbarkeit individuellen Verhaltens die Selbstanpassung an algorithmische Vorgaben fördert, wenn Predictive Analytics zukünftige Handlungsspielräume des Einzelnen verengt, oder wenn Entscheidungen unter Druck auch gegen die vermeintliche Rationalität von KI-Systemen getroffen werden, dann braucht es widerständig, non-konform, mitunter subversiv handelnde „starke Subjekte“ [81] . Diese Erstarkung des Subjekts steht im Spannungsverhältnis zu den oben genannten Punkten der Entgrenzung, der Überforderung und zu gegenwärtigen posthumanistischen Theorielinien. Grundlage ist eine digitale Resilienz [82] und eine Persönlichkeitsbildung, die nicht ein Individuum mit einem „stabilen Selbst“ [83] voraussetzt, sondern durchaus soziotechnische Netzwerk- und Community-Effekte im offenen Bildungsprozess berücksichtigt. [84] Das gebildete Subjekt agiert nicht nur reaktiv und abwehrend und wird nicht in eine „Nische des Emotionalen“ [85] im Verhältnis zur KI abgedrängt, sondern erlebt sich als ganzheitlich handelnder Mensch. Dieser Mensch verfügt über einen ausgebildeten kritischen Wirklichkeitssinn und über einen ethisch grundierten Möglichkeitssinn [86] im Hinblick auf Potenziale der KI zur Erreichung der Ziele nachhaltiger Entwicklung.

Volltext zum Download
Literatur und Anmerkungen zum Download

Anmerkungen und Quellen

  1. nach Thielicke, R. (2019): Geleitwort. In: Künstliche Intelligenz. Technologie | Anwendung | Gesellschaft. Hrsg. v. V. Wittpahl. Berlin. S. 5.
  2. nach Dräger, J. & Müller-Eiselt, R. (2019): Wir und die intelligenten Maschinen. München. S. 13.
  3. Die Betonung dieser non-formalen und informellen Bildungsdimensionen erscheint bedeutsam vor dem Hintergrund der Wissensaneignung der Bürgerinnen und Bürger außerhalb formaler Bildungssysteme, vgl. auch 2.2.3 Öffentlicher und medienkultureller Diskurs.
  4. Die theoretische Grundierung dieses „transformatorischen Bildungsbegriffs“ als ein Korrektiv gegen Verkürzungen kann an dieser Stelle nicht geleistet werden. Zu verweisen wäre auf die bildungstheoretischen Arbeiten von D. Benner, W. Klafki, H.-C. Koller, Marotzki, u.a.m. Ein kritischer Abgleich mit weiteren Verweisen findet sich bei: Asmussen, M; Hardell, S. & Schröder, C. (2020): Bildung in der digitalen Bildungsrevolution? Ein pädagogisches Korrektiv. In: Big Data, Datafizierung und digitale Artefakte. Hrsg. v. S. Iske, J. Fromme, D. Verständig, K. Wilde. Wiesbaden. S. 37-58.
  5. dazu etwa Banse, G. & Grunwald, A. (2010): Technik und Kultur. Bedingungs- und Beeinflussungsverhältnisse. Karlsruhe KIT. Dolata, U. & Werle, R. (2007): Gesellschaft und die Macht der Technik. Sozioökonomische und institutioneller Wandel durch Technisierung. Frankfurt, New York. Rammert, W. (2016): Technik – Handeln – Wissen: Zu einer pragmatistischen Technik- und Sozialtheorie. 2. Aufl. Wiesbaden.
  6. die Evolution der Kommunikationsmedien nach Luhmann, N. (1997): Die Gesellschaft der Gesellschaft. Frankfurt/Main. S. 190f. Vgl. die Übersicht zum “Überschusssinn” von Baecker, D. (2018): 4.0 oder die Lücke die der Rechner lässt. Leipzig. S. 75.
  7. Der Capabilities Approach („Befähigungsansatz“) bezieht auch die Kontexte und Rahmenbedingungen ein, in denen sich Fähigkeiten entfalten können. Mit Blick auf die KI beziehen sich aktuell Gudrun Marci-Boehnke und Matthias Rath auf diesen Ansatz, vgl. dies. (2020): Ein Blick auf die Hinterbühne. In: merz. 64. Jg, 5, S. 34f. Dieser Ansatz erscheint insofern für Punkt 4 anschlussfähig zu sein, da er der Verlagerungs- und Überlastungsproblematik des Subjekts entgegenwirkt und das Augenmerk auch auf die politische Gestaltung der Rahmenbedingungen für ein souveränes Leben und für die Lebensqualität in einer tiefgreifend mediatisierten Welt richtet.
  8. Zahlreiche Begriffskonzepte aus diesem Zusammenhang lassen sich aus dem englischsprachigen Diskurs benennen: „digital literacy“, „algorithmic literacy“, „data literacy“, „big data literacy“ u.a.m.
  9. dazu die KI-Strategie der Bundesregierung, www.ki-strategie-deutschland.de.
  10. Diese Perspektive entspricht der im Rahmenkonzept Digitales Deutschland genannten „Trias von Subjekt, Medien und Gesellschaft“ (S. 2).
  11. “Education is far too complex to be reduced solely to data analysis and algorithms. As with digital technologies in general, digital data do not offer a neat technical fix to education dilemmas – no matter how compelling the output might be.” Selwyn, N. (2016): Is technology good for education? Cambridge, S. 106, zit. nach Zawacki-Richter, O.; Marin, V.; Bond, M. & Gouverneur, F. (2020): Einsatzmöglichkeiten Künstlicher Intelligenz in der Hochschulbildung – Ausgewählte Ergebnisse eines Systematic Review. In: Digitale Bildung und Künstliche Intelligenz in Deutschland. Hrsg. v. R. A. Fürst. Stuttgart. S. 513.
  12. „Es sind die pädagogischen, didaktischen, ethischen, sozialen und auch ökonomischen Dimensionen von KI in der Bildung, über die wir uns Gedanken machen müssen […]“, Zawacki-Richter et al., a.a.O. #11, S. 513.
  13. Im Antrag vom 31.8.1955 zur Durchführung des “Dartmouth Summer Research Project on Artificial Intelligence” (1956) heißt es: „The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it.”, www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html.
  14. Turing, A.M. (1950): Computing machinery and intelligence. In: Mind. A Q Rev. Psychology & Philosophy, 59(236), S. 433–460, academic.oup.com/mind/article-pdf/LIX/236/433/9866119/433.pdf.
  15. Zu den Kritikpunkten zählt die Reduktion auf die Funktionalität und auf einen sehr begrenzten und eingeschränkten Intelligenz-Begriff. Emotionen, Kreativität und Bewusstsein etwa können nicht überprüft werden. dazu: Nebel B. (2019) Turing-Test. In: Mensch-Maschine-Interaktion. Hrsg. v. Liggieri K., Müller O. Stuttgart. Bringsjord, S., Bello, P. & Ferrucci, D. (2001): Creativity, the Turing Test, and the (Better) Lovelace Test. In: Minds and Machines 11, 3–27. Sowie den Eintrag „Turing-Test“ unter plato.stanford.edu/entries/turing-test.
  16. Angesichts der Definitionsvielfalt menschlicher Intelligenz und der Anthropomorphisierung von KI bietet es sich im Sinne Klaus Mainzers an mit einer Arbeitsdefinition von KI umzugehen. Diese Arbeitsdefinition ist zukunftsoffen für eine nicht-menschenähnliche Intelligenz, die sich etwa auch in verteilten, vernetzten Systemen herausbilden kann: „Ein System heißt intelligent, wenn es selbstständigund effizient Probleme lösen kann. Der Grad der Intelligenz hängt vomGrad der Selbstständigkeit, dem Grad der Komplexität des Problems unddem Grad der Effizienz des Problemlösungsverfahrens ab.“, s. Mainzer, (2019): „Künstliche Intelligenz – Wann übernehmen die Maschinen? 2. erw. Aufl.. Berlin. S. 3
  17. Zunächst erlebte die KI-Forschung in einem sogenannten „KI Winter“ übersteigerte Erwartungen an die Umsetzbarkeit und nachfolgende Enttäuschungen, wenngleich viele Konzepte und Algorithmen bereits von Jahrzehnten entwickelt wurden. Ihre technische Realisierung gelang erst mit der Nutzung digitaler Datenmassen für das Training von KI Systemen, der exponentiell gesteigerten Prozessorleistungen und der kostengünstigen Verfügbarkeit der Hardware.
  18. EU Kommission (2020): Weißbuch „Zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen“ (COM(2020) 65 final), vgl. ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_de.pdf.
  19. „Der menschenzentrierte Ansatz für die KI soll sicherstellen, dass menschliche Werte im Mittelpunkt der Entwicklung, Einführung, Nutzung und Überwachung der KI-Systeme stehen. Das soll durch die Achtung der Grundrechte gewährleistet werden, einschließlich der in den Verträgen der Europäischen Union und der Charta der Grundrechte der Europäischen Union verankerten Rechte, die durch Bezugnahme auf eine gemeinsame Grundlage miteinander verbunden sind, welche auf der Achtung der Menschenwürde beruht und dem Menschen einen einzigartigen und unveräußerlichen moralischen Status garantiert.“ Hochrangige Expertengruppe für KI (2019): Ethik-Leitlinien für eine vertrauenswürdige KI. Brüssel. Hier: (153), S. 48.
    europa.eu/newsroom/dae/document.cfm?doc_id=60425.
  20. dazu auch Münchner Kreis (2020): Leben, Arbeit, Bildung 2035+. S. 18. zukunftsstudie.muenchner-kreis.de/res/download/2020_Zukunftsstudie_MK_Band_VIII_Publikation.pdf.
  21. Im Weißbuch der EU-Kommission „Zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen“ ( #18, hier S. 7) heißt es dazu: „Der überarbeitete Aktionsplan für digitale Bildung wird dazu beitragen, daten- und KI-gestützte Technologien wie Lernanalytik und prädiktive Analytik besser zu nutzen, um die allgemeine und berufliche Bildung zu verbessern und für das digitale Zeitalter tauglich zu machen. Mithilfe des Plans wird auch auf allen Ebenen des Bildungssystems stärker für KI sensibilisiert, damit Bürgerinnen und Bürger dann fundierte Entscheidungen treffen können, bei denen KI eine immer größere Rolle spielen wird.“
  22. Mit dem Ergebnis, dass 47 % der Berufe in den USA ein hohes Risiko haben, automatisierbar zu sein, starteten Frey und Osborn (2013) eine breite Debatte über die Auswirkungen am Arbeitsmarkt. Ein Überblick über diese und nachfolgende Studien findet sich in: Christen M. et al. (2020): Wenn Algorithmen für uns entscheiden: Chancen und Risiken der künstlichen Intelligenz. TA-SWISS Publikationsreihe 72. Zürich. 145f.
    Fürst spricht hier von einem „Massenproblem“, wenn „anders als zu früheren Zeiten permanente und umfassende Umschulungen von Menschen aus alten Jobprofilen in neue nachhaltige Arbeitsplätze stattfinden müssen.“ (Fürst, R. A. (2020): Zukunftsagenda und 10 Thesen zur Digitalen Bildung in Deutschland. In: Digitale Bildung und Künstliche Intelligenz in Deutschland. Hrsg. v. ders. Stuttgart, S. 317.) Anschaulich meint der KI-Experte Richard Socher dazu: „Es wird leichter sein 30-50% des Jobs eines Radiologen zu automatisieren als von einer Putzfrau.“ Zeit-Podcast „Alles gesagt?“ vom 17.9.20, ab 2:53:30.
  23. So z.B. „David“ in  I.  (S. Spielberg, 2001);  „Ava“  in  „Ex  Machina“  (A. Garland,  2014) oder die  „Hosts“ in „Westworld“ (J. Nolan, 2016).
  24. Etwa das „Project Debater“ von IBM, www.research.ibm.com/artificial-intelligence/project-debater/. Dazu die KI-Historie von Massmann, C. & Hofstetter, A. (2020): AI-pocalypse now? In: Digitale Bildung und Künstliche Intelligenz in Deutschland. Hrsg. v. Fürst, R. A. S. 176f.
  25. Als epochaltypische Schlüsselprobleme benennt W. Klafki „Strukturprobleme von gesamtgesellschaftlicher, meistens sogar übernationaler bzw. weltumspannender Bedeutung handelt, die gleichwohl jeden einzelnen zentral betreffen.“ Er nennt sie „epochaltypisch“, wenn es sich dabei „um einen in die Zukunft hinein wandelbaren Problemkanon handelt“, Klafki, W. (1996): Neue Studien zur Bildungstheorie und Didaktik. Zeitgemäße Allgemeinbildung und kritisch-konstruktive Didaktik. 4. Aufl. Weinheim, S. 60.
    Angewendet auf Digitalisierung, vgl. Zierer, K. (2020): Die Wirkung digitaler Medien im Schulunterricht – Chancen und Risiken der Digitalisierung aus erziehungswissenschaftlicher Sicht. In: Digitale Bildung und Künstliche Intelligenz. Hrsg. v. R.A. Fürst. Stuttgart, S. 382.
  26. etwa www.ki-campus.org oder www.elementsofai.de.
  27. das Brettspiel „Mensch, Maschine!“, das im Rahmen des Wissenschaftsjahr 2019 KI des BMBF herausgegeben wurde. Vgl. dazu auch Nordemann, L; Opel, S.; Schulte, C & Tenberge, C. (2020): ‚Mensch, Maschine!‘ Ein Unplugged-Einstieg in KI und Maschinelles Lernen. In: merz. 64. Jg., Nr. 5, S. 36-43.
  28. „HyperMind – Das antizipierende Schulbuch“, DFKI gefördert BMBF, 2016-2019, vgl. www.physik.uni-kl.de/kuhn/forschung/aktuelle-projekte/uedu/hypermind/.
  29. dazu das Interview mit Andreas Dengel vom DFKI, www.bildungsserver.de/innovationsportal/bildungplusartikel.html?artid=1161.
  30. Im Whitepaper „Künstliche Intelligenz in der Hochschulbildung“ (Oktober 2020), hrsg. v. de Witt, C; Rampelt, F. & Pinkwart, N., heißt es: „Es ist jetzt der Zeitpunkt, dass Hochschulen sich zu Künstlicher Intelligenz positionieren und eine auf die Zukunft ausgerichtete Hochschulbildung mit Künstlicher Intelligenz mitgestalten. Obwohl wir uns noch in einem Anfangsstadium befinden, deuten sich bereits gegenwärtig weitreichende Transformationsprozesse des Lernens und Lehrens an.“ (S. 10)
    ki-campus.org/sites/default/files/2020-10/Whitepaper_KI_in_der_Hochschulbildung.pdf.
  31. Jahn, S.; Kaste, S.; März, A. & Stühmeier, R. (2019):DENKIMPULS DIGITALE BILDUNG: Einsatz von Künstlicher Intelligenzim Schulunterricht. Initiative D21, Arbeitsgruppe Bildung. Stand 28.5.19.
  32. Im CfP für einen Sammelband zu KI in der Bildung, der Ende 2021 erscheinen soll, heißt es: „Im Bildungssektor ist ein breites Forschungsgebiet erkennbar, welches den Einfluss und die Umsetzung von KI auf und in Bildungsstrukturen und -prozessen nachgeht. Eine umfangreiche Betrachtung aus bildungswissenschaftlicher Perspektive blieb bis jetzt jedoch aus.“www.fernuni-hagen.de/bildungswissenschaft/bildung-medien/sammelband_ki_in_der_bildung.shtml.
  33. Beispielsweise findet sich kein Eintrag zu „KI“ im Nachschlagewerk „Grundbegriffe Medienpädagogik“ (2017, v. Schorb, B.; Hartung, A. & Dallmann, C.), wohl aber ein Eintrag zu „Big Data“. Fachzeitschriften, wie merz, greifen etwa das Thema „Ethik und KI“ in einer aktuellen Ausgabe (Oktober 2020) auf. In der Zeitschrift für Theorie und Praxis der Medienbildung (medienpaed.com) ergibt die Suche in den 41 Themenheften bis ins Jahr 2000 nur drei Artikel, in denen „Künstliche Intelligenz“ genannt wird.
  34. „Ein künstliches System kann als funktional äquivalent zu einem menschlichen Akteur verstanden werden, wenn es über Zustände verfügt, denen eine analoge Funktion zukommt, wie Meinungen, Wünschen und Intentionen beim Menschen.“ Misselhorn, C. (2018): Maschinenethik und „Artificial Morality“: Können und sollen Maschinen moralisch handeln? In: APuZ, 6-8. S. 31.
  35. Ein prominenter Vertreter dieser Position ist der Philosoph Markus Gabriel, vgl. in Vorträgen
    youtube.com/watch?v=U009yYdIdlE oder www.youtube.com/watch?v=d41TaF0CQMI.
  36. So O. Bendel: „Einige lehnen es ab, bei Maschinen von Entscheidungen zu sprechen. Es wird freilich schwierig bei einer solch extremen Position, überhaupt über sie zu sprechen.“ Bendel, O. (2018): Überlegungen zur Disziplin der Maschinenethik. In: APuZ, 6-8. S.
  37. Etwa Wunder, M. (2018): Symmetrische Anthropologie als reflexive Schlüsselkategorie zur Implementierung von digitaler Bildung. In: ZEP : Zeitschrift für internationale Bildungsforschung und Entwicklungspädagogik 41. Jg., H. 3, S. 31-35.
  38. Schenk, S. & Karcher, M. (Hrsg.)(2018): Überschreitungslogiken und die Grenzen des (Neuro-)Enhancement – Kybernetik – Transhumanismus. (Wittenberger Gespräche; 5). Berlin.
  39. „Einerseits kann fast jede Domäne von dem Instrument KI bedient werden, bis auf gerade diejenige, welche es braucht, um das Instrument KI sinnvoll zu bedienen, nämlich ethische Kategorien und Sinngebung.“Grottke, M. & Steimer, A. (2020): Wissenschaft und Forschung als Quelle der Potenzialnutzung von Digitalisierung und Künstlicher Intelligenz. In: Digitale Bildung und Künstliche Intelligenz in Deutschland. Hrsg. v. R. A. Fürst. Stuttgart. S. 435.
  40. So etwa im Bericht der Enquete Kommission KI des Deutschen Bundestags: „Zur Entwicklung einer sinnvollen Selbsteinschätzung sollte über eine KI-spezifische Version des European Digital Competency Framework nachgedacht werden. Dieses ermöglicht der Zielgruppe Bürgerinnen und Bürger bereits heute, ihre Digitalkompetenzen in fünf Kompetenzfeldern einzuschätzen.“ Enquete-Kommission KI des Deutschen Bundestags (2020): Drucksache 19/23700 vom 28.10.20, S. 93; dip21.bundestag.de/dip21/btd/19/237/1923700.pdf.
  41. Polson N., & Scott J. (2018): AIQ – How artificial intelligence works and how we can harness its power for a better world. New York. 3. Zit. nach Massmann, C. & Hofstetter, A. (2020): AI-pocalypse now? In:Digitale Bildung und Künstliche Intelligenz in Deutschland. Hrsg. v. R. A. Fürst. Stuttgart. S. 173.
  42. den Automating Society Report 2020 von AlgorithmWatch, automatingsociety.algorithmwatch.org.
  43. dazu Orwat, C. (2019): Diskriminierungsrisiken durch Verwendung von Algorithmen. Berlin. S. 4f., (Online: www.antidiskriminierungsstelle.de/SharedDocs/Downloads/DE/publikationen/Expertisen/studie_diskriminierungsrisiken_durch_verwendung_von_algorithmen.html)mit weiteren Quellen, und Christen M. et al. (2020): Wenn Algorithmen für uns entscheiden: Chancen und Risiken der künstlichen Intelligenz. TA-SWISS Publikationsreihe 72. Zürich. S. 54.
  44. Christen M. et al. (2020): Wenn Algorithmen für uns entscheiden: Chancen und Risiken der künstlichen Intel-ligenz. TA-SWISS Publikationsreihe 72. Zürich. S. 54.
  45. Cristianini, N. & Scantamburlo, T. (2020): On social machines for algorithmic regulation. In: AI & Society 35. 645-662, doi.org/10.1007/s00146-019-00917-8.
  46. Grafenstein, M.; Hölzel, J.; Irgmaier, F. & Pohle, J. (2018): Nudging. Regulierung durch Big Data und Verhaltenswissenschaft. ABIDA-Gutachten. www.abida.de/sites/default/files/ABIDA-Gutachten_Nudging.pdf, S. 21f. Digitalökonomisch mächtig ist ein sich ansammelnder, in Daten abgebildeter „Verhaltensüberschuss“, der den Rohstoff für „Verhaltensmodifikationen“ und „Vorhersageprodukte“ im „Überwachungskapitalismus“ bildet, vgl. Zuboff, S. (2018): Das Zeitalter des Überwachungskapitalismus. Frankfurt/Main.
  47. Beispiele hierzu bei AlgorithmWatch 2020und Orwat (2019), vgl. #42 und #43.
  48. Hier ist insbesondere das landesweit geplante chinesische Social Credit System zu nennen, das zzt. noch in einer Zahl von Pilotprojekten aufgeteilt ist, vgl. Gapski, H. & Packard, S. (2021): Super-Scoring? München. (im Druck).
  49. dazu Eubanks, V. (2017): Automating Inequality. How High-Tech Tools Profile, Police, and Punish the Poor. New York, sowie die Beispiele von Algorithmwatch (2020) und Orwat (2019), vgl. #42 und #43.
  50. Der Meinungsmonitor Künstliche Intelligenz (MeMo:KI) stellt dazu fest: „Insgesamt wird deutlich, dass unter den Befragten ein eher mäßiges Problembewusstsein gegenüber KI-Diskriminierung vorliegt. Wenn Bürger*innen jedoch direkt danach gefragt werden, ob der Einsatz von KI zu mehr oder weniger Diskriminierung in einzelnen Anwendungsbereichen führt, wird bei einer Mehrheit der Anwendungen eher eine stärkere Diskriminierung erwartet – v. a. in Bereichen, die individuelle wirtschaftliche Folgen nach sich ziehen. Ein Einsatz von KI im Sozial- und Bildungswesen wird jedoch eher mit weniger Diskriminierung verbunden.“ vgl. www.cais.nrw/wp-94fa4-content/uploads/2020/08/Factsheet-2-KI-und-Diskriminierung.pdf.
  51. Orwat (2019), vgl. #43, S. 86f.
  52. Azucar, D.; Marengo, D. & Settanni, M. (2018): Predicting the Big 5 personality traits from digital footprints on social media: A meta-analysis. In: Personality and Individual Differences, 124/2018. S. 150-159. Und die Arbeiten von M. Kosinski et al., z.B. Kosinski, M; Stillwell, D & Graepel, T. (2013): Digital records of behavior expose personal traits. In: Proceedings of the National Academy of Sciences. 110 (15) 5802-5805. org/10.1073/pnas.1218772110.
  53. Hervorzuheben sind die emergenten Eigenschaften des Ineinandergreifens beider Feedback-Schleifen. Das Verhalten einer autonomen sozialen Maschine ist „not dictated externally by any of its participants, nor is it pre-determinated by its original designer: it is instead the emergent result of its interactions” (Cristianini & Scantamburlo 2020, a.a.O. #45, S. 5).
  54. Grafenstein et al. (2018, vgl. #46) weisen darauf hin, dass in „Folge des komplexen Zusammenspiels und der vielfältigen Rückkopplungseffekte zwischen zunehmend automatisierten Formen von Information gathering, Standard setting und Behavior modification […] das Risiko nicht-intendierter und tendenziell schwer zu kontrollierender Nebenfolgen“ steigt und heben insbesondere das Risiko hervor, dass die individuelle und kollektive Selbstbestimmung untergraben werden könnte (S. 62). Sie kommen zu dem Schluss, dass „mit dem Einsatz Big-Data-gestützter und verhaltensökonomisch informierter Beeinflussungsinstrumente erhebliche Gefahren für individuelle sowie gesellschaftliche Werte wie die Würde und Autonomie des Individuums und die demokratische Öffentlichkeit verbunden sind. Darüber hinaus droht eine verstärkte Diskriminierung bereits benachteiligter Gruppen sowie die fortschreitende Unterminierung des Solidarprinzips“ (, S. 8). Potenzielle Diskriminierungsursachen können in der Entwicklung der Algorithmen und Modelle, aber auch in verzerrten (Trainings-)Daten liegen oder durch menschliche Bewertungsaktivitäten entstehen.
  55. dazu etwa Dräger, J. & Müller-Eiselt, R. (2019): Wir und die intelligenten Maschinen. München, S. 60f.
  56. Chiou, C.-K.ai; Tseng, J. C. R. (2015): An intelligent classroom management system based on wireless sensor networks. In: 8th International Conference on Ubi-Media Computing (UMEDIA). doi.org/10.1109/UMEDIA.2015.7297426.
  57. dazu den Bericht des WSJ aus China: https://twitter.com/wsj/status/1177357178975457285?s=21. Auch in Deutschland gibt es in diese Richtung konkrete Forschungen, etwa am DFKI: „Im Living Lab werden verschiedene Technologien, beispielsweise Eye-Tracking, Sprach- und Gestenerkennung oder Augmented Reality eingesetzt und untersucht, wie diese in Lern- und Arbeitsszenarien sinnvoll angewendet werden können. Gewonnene Analysedaten dienen Bildungswissenschaftlern und Fachdidaktikern zur Diagnose von Lernzuständen und Lernfortschritten. So lässt sich zum Beispiel durch die Messung der Gesichtstemperatur mittels Infrarotkameras die Belastung von Lernenden feststellen. Die Kombination solcher Datenquellen mit intelligenten Algorithmen, wie Deep Learning-Verfahren, ermöglicht völlig neue Einblicke in individuelle und gruppendynamische Lernprozesse. Aus diesen lassen sich Handlungsempfehlungen für Lehrende ableiten. Außerdem erlauben die Analysedaten Rückschlüsse auf den kognitiven Zustand der Lernenden. Bei erhöhter Belastung oder Überanstrengung können dann beispielsweise individuelle Maßnahmen zur Erhöhung des Lernerfolges vorgeschlagen werden.“ vgl. www.dfki.de/web/news/detail/News/das-klassenzimmer-der-zukunft-dfki-und-tuk-eroeffnen-neues-labor-fuer-digitale-lehr-und-lernmethode/
    In diesen Forschungen werden „auch Sensoren [eingesetzt], die auf Stühlen angebracht sind, mit denen man „Hibbeligkeit“ und Aufmerksamkeit an der Haltung des Körpers messen kann.“ Zugleich setzt sich diese Forschung von der in China ab, in denen weitreichende Scores gebildet werden, und versteht sich nur als unterstützende „Leistungsverstärkertechnologie“ (vgl. Interview mit Andreas Dengel, #29).
  58. dazu Allert, H; Richter, C. (2019): Learning Analytics: subversive, regulierende und transaktionale Praktiken. In: Big Data, Datafizierung und digitale Artefakte. Hrsg. v. S. Iske, J. Fromme, D. Verständig & K. Wilde. (=Medienbildung und Gesellschaft, Band 42). Wiesbaden. S. 15-36, hier S. 17.
  59. Corrin, L. et al. (2019): The Ethics of Learning Analytics in Australian Higher Education. Discussion Paper.
    melbourne-cshe.unimelb.edu.au/__data/assets/pdf_file/0004/3035047/LA_Ethics_Discussion_Paper.pdf.
  60. V dazu Hartong, S. (2019): Learning Analytics und Big Data in der Bildung. GEW, S. 12 mit Verweis auf G. Deleuze.
  61. dazu Allert, H; Richter, C. (2019): Learning Analytics, a.a.O. #58.
  62. Rahmenkonzept Digitales Deutschland, S. 14.
  63. Eine repräsentative Online-Befragung des bidt vom November 2019 kommt zu dem Ergebnis: „Rund drei Viertel der Internetnutzerinnen und -nutzer in Deutschland gibt in einer Selbsteinschätzung an, kein tiefer gehendes Verständnis des Begriffs KI zu haben.“ (bidt 2020: 6), online unter: www.bidt.digital/wp-content/uploads/2020/06/bidt_KI-Studie_Juni-2020.pdf. In seit 2017 durchgeführten BITKOM-Studien zeigt sich, dass „die Bekanntheit von KI in diesem Zeitraum deutlich zugenommen hat. Zu Beginn gibt noch mehr als ein Fünftel der Befragten an (22 %), den Begriff noch nie gehört zu haben. 2020 sind es nur noch 5 %. Auch die Selbsteinschätzung zum Allgemeinwissen über KI hat über den Untersuchungszeitraum hinweg zugenommen.“ vgl. www.bidt.digital/studie-zu-bekanntheit-und-akzeptanz-von-kuenstlicher-interlligenz-das-wissen-nimmt-zu/
  64. „Je nach Kritikalität müssen Bürgerinnen und Bürger über den Einsatz von KI informiert und generell für den Umgang mit KI gebildet werden, damit sie sowohl bei passiver Betroffenheit als auch bei der aktiven Nutzung von KI informierte Entscheidungen treffen können.“ Enquete-Kommission KI (2020), S. 89, vgl. #40. Mehrere Akteure haben Konzepte für eine Übertragung ethischer Prinzipien für KI in die (politische) Praxis vorgeschlagen, vgl. etwa www.ai-ethics-impact.org. Die Herausforderung wird sein, diese immer noch komplizierten Konzepte herunterzubrechen und in Fragen zu verwandeln, die leicht vermittelbar sind. Es geht um die Förderung einer „Algorithmensouveränität“ durch Fragen für Bürgerinnen und Bürger im Sinne F. Rebitschek (in: Gapski, H. & Packard, S. (2021): Super-Scoring? im Druck.)
  65. Hochrangige Expertengruppe für KI (2019), a.a.O. #19, S. 28f, (109)): „Bildung und Bewusstsein zur Förderung einer ethischen Mentalität […] Das betrifft alle Interessenträger, z. B. die an der Produktfertigung Beteiligten (Designer und Entwickler), die Nutzer (Unternehmen oder Einzelpersonen) und weitere betroffene Gruppen (Personen, die kein KI-System erwerben oder verwenden, die jedoch von den Entscheidungen eines KI-Systems betroffen sind) und die Gesellschaft im Allgemeinen. Grundlegende KI-Kompetenzen sollten in der gesamten Gesellschaft gefördert werden. Eine Voraussetzung für die Aufklärung der Öffentlichkeit ist, dass Ethiker in diesem Bereich ausgebildet werden, damit sie über die angemessenen Kompetenzen verfügen.“
  66. „Klar erscheint in jeder Konstellation und bei jeder der drei Dimensionen Disruption, Virtualisierung und Verzerrung sowie Künstliche Intelligenz, dass Werte und Wertegemeinschaften in Zukunft eine Schlüsselrolle einnehmen. Es ist nicht mehr irrelevant, welche moralisch-ethischen Einstellungen die handelnden Personen aufweisen. Dies gilt zum einen bei der Ausbildungsfunktion von Studierenden, d. h. der Weitergabe erzeugten wissenschaftlichen Wissens.“ (Grottke & Steimer 2020, a.a.O., vgl. #39, S. 436).
  67. „Die Befähigung über die entsprechenden Kompetenzen ist eine Seite der Mündigkeit. Die andere bildet die interessenadäquate Transparenz. Dort, wo Menschen von den Folgen einer Entscheidung auf Basis eines KI-Systems betroffen sind, müssen sie genügend Informationen erhalten, um ihre Rechte angemessen wahrnehmen und die Entscheidung ggf. infrage stellen zu können.“ Enquete-Kommission KI des Deutschen Bundestags (2020), a.a.O., vgl. #40, S.
  68. Dazu zählt das Wissen, wohin man sich als ein von ADM betroffene Personen wenden kann. Ein aktuelles und im Aufbau befindliches Beispiel für eine Anlaufstelle ist: www.unding.de von AlgorithmWatch.
  69. Mehr Medienkompetenz – oder aktueller mehr Digitalkompetenz – für Schüler(innen), Lehrer(innen), Verbraucher(innen) oder Wähler(innen) usw. ist öffentlichkeitswirksamer einzufordern als Verweise auf systemische Wechselwirkungen und notwendige soziotechnische Strukturveränderungen. Ein im Umgang mit Digitalmedien „fit gemachtes“ Individuum ist in der öffentlichen Darstellung griffiger darzustellen als Wechselwirkungsprozesse, welche sich nicht nur auf die Lernenden, sondern auch auf die „lernende Organisation“ und soziotechnische Netzwerke beziehen, vgl. ausführlich Gapski, H. (2001): Medienkompetenz. Opladen. S. 227f.
  70. O`Neil, C. (2016): Weapons of Math Destruction. London. Deutsche Ausgabe: Angriff der Algorithmen. Wie sie Wahlen manipulieren, Berufschancen zerstören und unsere Gesundheit gefährden. München 2017.
  71. Enquete-Kommission KI (2020), a.a.O., #40, S. 64.
  72. Jörissen, B. & Marotzki, W. (2009): Medienbildung – Eine Einführung. Theorie – Methoden – Analysen. S. 21.
  73. „Durch Bildungsprozesse können Individuen mit einer kontingenten Welt und einer von Unbestimmtheit geprägten Kultur derDigitalität umgehen. Sie ermöglichen sich quasi auf übergeordneter Ebeneselbst, sich Kompetenzen für unbestimmte Situationen zu kreieren und somit diesen umgehen zu können. Bildung ist somit nachhaltiger als das Erreichen von Kompetenzen.“ Asmussen, M.; Schröder, C. & Hardell, S. (2017): Bildung in politischen Programmen. Eine pädagogische Revision der KMK-Strategie zur Bildung in der digitalen Welt. In: Digitale Transformation im Diskurs. Kritische Perspektiven auf Entwicklungen und Tendenzen im Zeitalter des Digitalen. v. C. Leineweber & C. de Witt. www.medien-imdiskurs.de, hier S. 110.
  74. De Witt, C. & Leineweber, C. (2020): Zur Bedeutung des Nichtwissens und die Suche nach Problemlösungen. Bildungstheoretische Überlegungen zur Künstlichen Intelligenz. www.medienpaed.com/article/view/859/962.
  75. „Bei allen Autoren geht es aber letztlich um die Begegnung mit dem Unbestimmten, welches das Subjekt mit bisherigen Mitteln nicht erfassen kann, sodass eine Transformation der Selbst- und Weltverhältnisse angestoßen werden muss, um dieser neuen Erfahrung gerecht zu werden. Damit diese Anlässe in Bildungsprozesse münden, bedarf es zum einen der anthropologischen Grundannahme eines bildsamen Menschen […], und zum anderen müssen Räume der Offenheit und Unbestimmtheit (Anlässe sind also gleichzeitig Voraussetzungen) gegeben sein, in denen die Transformationsprozesse durchlaufen werden können […]. Diese Voraussetzungen ermöglichen schließlich Bildung“. Asmussen, M. et al., a.a.O. #73, hier S. 98-99.
  76. „Dabei sollte angesichts der das Individuum immens formierenden und die Welt vorformatierenden Tendenz digitaler Medien und Formate der Gedanke Berücksichtigung finden, dass Bildung immer ein kreatives und exploratives Sichselbstentwerfen ist, das Freiräume für Erprobung und Selbstorganisation braucht. In dieser Hinsicht dürfte z. B. ein unkritischer Einsatz von Nutzerprofilen, ‚learning analytics‘, bei digitalen Lernumgebungen eher als bildungshemmend zu beurteilen sein, denn das mit ‚learning analytics‘ verbundene Individualisierungsversprechen kann in erheblichem Umfang Fremdbestimmung einschließen.“ Metzner, J.; Bartosch, U.; Vogel, M.; Schroll, A.; Rademacher, M. & Neuhausen, H. (2019): Was bedeutet Hochschullehre im digitalen Zeitalter? Eine Betrachtung des Bildungsbegriffs vor den Herausforderungen der Digitalisierung. S. 31. org/10.5281/zenodo.4282368.
  77. „So steht der Bildungsbegriff in vielen Bildungstheorien etwa für eine genuin konflikthafte, unbequeme und biografisch verankerte Auseinandersetzung des Ichs mit der Welt, die weder in letzter Instanz planbar noch in Skalen oder lineare Stufenmodelle zerlegbar ist. Vielmehr müssen Bildungsprozesse systematisch offen bleiben, damit sie zu solchen werden können, was der Geschlossenheit technischer Datensysteme an vielen Stellen widerspricht.“ Hartong, S. (2019): “Wir brauchen Daten, noch mehr Daten, bessere Daten!“. Kritische Überlegungen zur aktuellen Expansionsdynamik des Bildungsmonitorings. In: Pädagogische Korrespondenz (2018) 58, S. 15-30, hier S. 27.
  78. „Aufgrund der Reduktion des Fokus auf das Gemessene, jedoch zulasten des nicht durch Messung erfasste, erfolgt eine deutliche Wirkung im Sinne einer Zerstörung ganzheitlicher Persönlichkeitsbildung. Weiter zeichnet sich eine Verminderung von Fähigkeiten zu kreativer Schaffenskraft und holistischem Denken ab.“ Fürst, R. A. (Hrsg.): Digitale Bildung und Künstliche Intelligenz in Deutschland, doi.org/10.1007/978-3-658-30525-3_2, hier 66. Vgl. mit Verweis auf H.-G. Gadamer, S. Selke (2015): Lifelogging und die neue Taxonomie des Sozialen. In: Big Data und Medienbildung. Hrsg. v. H. Gapski. Düsseldorf, München, S. 105.
  79. „Leider müssen wir nach unserem Systematic Review von 146 KI-Studien ausgerechnet für den Bildungsbereich feststellen, dass dieser Anspruch trotz der oben skizzierten Punkte von den Autorinnen und Autoren nicht eingelöst wird. In gerade einmal zwei von den 146 Aufsätzen werden überhaupt ethische Aspekte von KI in der Bildung diskutiert.“ Zawacki-Richter et al., a.a.O. #11, 512f.
  80. „Ein fachspezifischer Ethikkodex, so einheitlich, hochentwickelt und exakt dieser auch in Zukunft sein mag, kann niemals ein Ersatz für die ethische Vernunft an sich sein; letztere muss stets Einzelheiten im bestehenden Kontext aufgreifen, die sich nicht in allgemeinen Richtlinien erfassen lassen. Die Entwicklung eines Regelwerks reicht nicht aus, wenn wir eine vertrauenswürdige KI gewährleisten wollen. Dazu müssen wir des Weiteren durch öffentliche Debatten, Bildung und praktisches Lernen eine ethische Kultur und Einstellung aufbauen und bewahren.“ Hochrangige Expertengruppe für KI (2019), a.a.O. #19, S. 11.
  81. Taube, G.; Fuchs, M. & Braun, T. (Hrsg.) (2017): Handbuch Das starke Subjekt. Schlüsselbegriffe in Theorie und Praxis. Schriftenreihe Kulturelle Bildung, Bd. 50. München.
  82. Atteneder, H.; Peil, C.; Maier-Rabler, U. & Steinmaurer, T. (2017): Digitale Resilienz und soziale Verantwortung Überlegungen zur Entwicklung eines Konzepts. In: Medien Journal 1/2017, Digitale Aufklärung. Herausforderungen des Wandels, S. 48-55. Zu verweisen ist auch auf den Verbindung zu einer „digital resilienten Demokratie“, vgl. Steinmaurer T. (2019): Digitale Resilienz im Zeitalter der Datafication. In: Der Mensch im digitalen Zeitalter. Ethik in mediatisierten Welten. Hrsg. v. Litschka M., Krainer L. Wiesbaden. doi.org/10.1007/978-3-658-26460-4_3 hier S. 36.
  83. „Persönlichkeitsbildung, wie sie bislang verstanden wurde, setzt die Existenz des Individuums als eines stabilen Selbst voraus, an das Bildung herangetragen wird. Demgegenüber besteht zumindest die Vermutung, dass in einer zunehmend durch digitale Vernetzung bestimmten Kultur Persönlichkeit sich auch in einem ‚networked individualism‘ herausbildet, also Bildungsprozesse sich nicht mehr nur auf Individuen, sondern auch auf sich im Netz konstituierende und wieder auflösende communities beziehen.“ Metzner, J. et al. (2019), a.a.O. #76, hier S.
  84. Zur “Konzeption von Bildung durch kollaborative Transformationsprozesse sozio-technischer Arrangements” vgl. ausführlich: Koenig, C. (2011): Bildung im Netz. Analyse und bildungstheoretische Interpretation der neuen kollaborativen Praktiken in offenen Online-Communities. Diss. TU Darmstadt. tuprints.ulb.tu-darmstadt.de/2641. Koenig (ebd., S. ii) stellt fest: „Im Netz realisiert sich Mündigkeit nicht im Subjekt oder durch individuelle Prozesse, sondern durch kollektive Prozesse von vernetzten Akteuren.“
  85. Autexier, S. & Schelhowe, H. (2020): Interaktion und Künstliche Intelligenz. In: merz, 64. Jg. Nr. 5, S. 12-19, hier: S. 18f.
  86. In Anlehnung an R. Musil („Der Mann ohne Eigenschaften“, erstes Buch, Teil 1, Kap. 4) soll hier auf den „Möglichkeitssinn“ verwiesen werden: „Wer ihn besitzt, sagt beispielsweise nicht: Hier ist dies oder das geschehen, wird geschehen, muß geschehen; sondern er erfindet: Hier könnte, sollte oder müßte geschehn; und wenn man ihm von irgend etwas erklärt, daß es so sei, wie es sei, dann denkt er: Nun, es könnte wahrscheinlich auch anders sein“ (vgl. musilonline.at/musiltext/der-mann-ohne-eigenschaften-1/moe1-teil-1-kapitel-1-9/#). Dieses entwerfende Andersdenken wird in Zeiten von Überwachung und digitalökonomischen Steuerungsmächten zum wichtigen Ziel für die (politische) Medienbildung.