Entwicklung eines KI-Kompetenzprofils aus einer Perspektive der politischen Bildung

Kurzbeschreibung

Der Einsatz Künstliche Intelligenz stellt das Feld der politischen Bildung auf den Kopf und fordert die Vertreter*innen aus der Bildungspraxis bei der Konzeption entsprechender Lernangebote heraus. An welchen Kompetenzmodellen können sie sich dabei orientieren? Und welche KI-Kompetenzen gilt es zu fördern, um Bürger*innen zu befähigen, die politische Situation auf Basis medial vermittelter öffentlicher Kommunikation zu beurteilen und darauf zu reagieren? Die vorliegende Studie bietet erste Orientierungspunkte für die Beantwortung dieser Fragen. Die Autoren sichten und vergleichen bestehende Kompetenzmodelle bezüglich ihres Kompetenzverständnisses und ihrer Passfähigkeit für die Anliegen der politischen Bildung. Zudem diskutieren sie, inwiefern jene Kompetenzmodelle erweitert werden müssten, um die individuelle Handlungsfähigkeit der Bürger*innen in digitalisierten, demokratisch verfassten Gesellschaften sicherzustellen. Berücksichtigt wird zudem, ob und – falls ja – wie KI-Kompetenzen in der politischen Bildung erfasst und gefördert werden können.

Annahmen über die Folgen der Digitalisierung

Aufgrund der Diffundierung von Künstlicher Intelligenz in sämtliche Lebensbereiche wird aktuell intensiv über gesellschaftliche Folgen Künstlicher Intelligenz diskutiert. So besteht auf der einen Seite die Sorge, dass Künstliche Intelligenz demokratische Prozesse unter Druck setzt. Denn mithilfe Künstlicher Intelligenz können Nutzer*innen getäuscht werden (etwa über sogenannte Deepfakes, also manipulierte, aber echt wirkende Inhalte). Diese können in Form von Des- und Falschinformationen zur Manipulation demokratischer Wahlen und zur gesellschaftlichen Polarisierung führen sowie das Vertrauen in Medien und in die Funktionsfähigkeit staatlicher Institutionen untergraben. Eine dadurch in der Bevölkerung entstehende Verunsicherung kann im schlimmsten Fall auch die gut gemeinten Absichten von Bildungsangeboten untegraben. Prozesse der öffentlichen Meinungsbildung können aber auch durch eine veränderte kulturelle Bildnutzung gestört werden, da selbst als künstlich erkennbare KI-generierte Bilder eine starke emotionalisierende Sogwirkung entfalten können. Zudem können bestimmte soziale Gruppen von Künstlicher Intelligenz diskriminiert werden (gerade, wenn Menschen deren Outputs nicht kritisch hinterfragen). Dadurch können sich bestehende soziale Ungleichheiten weiter verschärfen. Zudem kann das Risiko von Datenmissbrauch steigen, da eine Künstliche Intelligenz große Datenmengen benötigt. Eine realistische Einschätzung von Gefahren ist allerdings schwierig. Auf der anderen Seite sind KI-Systeme auch als Chance für den Demokratieerhalt zu begreifen. So können etwa argumentative KI-Modelle dazu beitragen, mit fundierten Gegenargumenten Verschwörungstheorien vom Sockel zu heben, Desinformationen automatisch zu erkennen oder Moderationsfunktionen in Online-Debatten übernehmen, um einen konstruktiven Argumentationsaustausch sicherzustellen. Zudem können sie Verfahren der Beteiligung von Bürger*innen vereinfachen. Aufgrund dieser vielfältigen Bedeutung Künstlicher Intelligenz ist die politischen Bildung gefordert, Bürger*innen beim Kompetenzerwerb zu unterstützen.

Kompetenzanforderungen

Der Beitrag skizziert zahlreiche Kompetenzanforderungen, welche unter der Überschrift „Kompetenzdimensionen“ detailliert aufgeführt sind.

Kompetenzbegriffe (nach dem Papier)

KI-Kompetenzen | Kritische KI-Kompetenz

Unterdimensionen (nach dem Papier)

Menschenzentrierte Denkweise,
KI-Ethik,
KI-Techniken und Anwendungen,
KI-Systemdesign

Kompetenzdimensionen (nach dem Rahmenkonzept von Digitales Deutschland)

Instrumentell-qualifikatorische Dimension: Mit KI-Anwendungen umgehen; grundlegende Fähigkeiten zur Programmierung von KI-Systemen.

Kognitive Dimension: Wissen über Algorithmen, Daten und Programmierung; Wissen über die Funktionsweise verschiedener KI-Systeme; KI-Systeme als Informationsquelle nutzen; faktisch falsche Outputs identifizieren; erkennen, wie KI-Modelle Informationen erzeugen und validieren.

Affektive Dimension: Ambiguitätstoleranz; Empathie; KI-Systemen widerstehen, die ungerechte Machtverhältnisse reproduzieren; emotionale Selbstkompetenz; eigene und fremde emotionale Reaktionen auf Künstliche Intelligenz analysieren.

Kreative Dimension: Künstliche Intelligenz als Kollaborateur in kreativen Aufgaben einsetzen; programmieren; KI-Modelle iterativ testen und verbessern; KI-Systeme gestalten und entwickeln; die Gesellschaft mit Hilfe von Künstlicher Intelligenz aktiv mitgestalten; Technologien entwerfen, die Inklusivität, Fairness und soziale Gerechtigkeit priorisieren; Ungerechtigkeit im Output von KI-Systemen aktiv durch die Entwicklung fairer KI-Systeme herausfordern; spekula¬tive und kreative Praktiken kennen, um transformative KI-Anwendungen zu entwerfen.

Soziale Dimension: Selbstbestimmt und verantwortungsvolle in einer von Künstlicher Intelligenz geprägten Welt handeln; Wissen, ob man mit realen oder „gefälschten“ Personen interagiert; sich der motivationalen Orientierungen von Desinformation verbreitenden Nutzenden bewusst sein; mit Hilfe von KI-Systemen zusammenarbeiten (z. B. in Bürger*inneninitiativen); Zusammenarbeit in interkulturellen Kontexten; Zivilcourage ins Digitale übertragen; sich an kollektiven Aktionen beteiligen, um negative Auswirkungen von Künstlicher Intelligenz auf die Gesellschaft zu mildern.

Kritisch-reflexive Dimension: Künstliche Intelligenz und KI-generierte Inhalte kritisch analysieren und bewerten; Verständnis von Vorurteilen innerhalb von KI-Systemen; KI-Tools ethisch nutzen; die Echtheit digitaler Inhalte beurteilen; die Zuverlässigkeit von KI-Antworten bewerten; Ungerechtigkeit im Output von KI-Systemen identifizieren und angehen; Strategien entwickeln, um KI-Systemen zu widerstehen, die als ungerechtfertigt verstandene Machtverhältnisse reproduzieren; Vertrauenswürdigkeit und Verhältnismäßigkeit von Künstlicher Intelligenz einschätzen; emotionale und motivationale Beweggründe reflektieren; gesellschaftliche, politische, wirtschaftliche und kulturelle Folgen von Künstlicher Intelligenz beurteilen können; die Folgen eines gesamtgesellschaftlichen Einsatzes von KI-Systemen kritisch hinterfragen und ethisch reflektieren; den Einsatz von Künstlicher Intelligenz in verschiedenen Lebensbereichen – insbesondere in Bezug auf Gerechtigkeit und Nachhaltigkeit – kritisch evaluieren; erkennen, dass Menschen Verantwortung für den Einsatz Künstlicher Intelligenz tragen; analysieren, ob Künstliche Intelligenz in einer bestimmten Situation das passende Mittel ist; Einfluss auf die Gestaltung von KI-Regulierungen nehmen; Kontrolle und Authentizität menschlichen Handelns und Urteilens in der Interaktion mit Künstlicher Intelligenz reflektieren; erkennen, dass Künstliche Intelligenz die eigenen Urteils- und Entscheidungsprozesse möglicherweise in subtiler Weise vorstrukturiert; die Auswirkungen von KI auf Identitäten und Werte erforschen.

Zentrale theoretische Annahmen über Kompetenz

Die Definition von KI-Kompetenzen (auch AI Literacy genannt) war zu Beginn vor allem informatisch geprägt. Später lag der Fokus zunehmend auf Aspekten der Anwendung und Nutzung. Häufig werden KI-Kompetenzen in eine technische und eine soziale Dimension unterschieden. Erstere beschreibt Wissen über Funktionsweisen von KI-Systemen, während letztere die Befähigung zu einem selbstbestimmten und verantwortungsvollen Handeln in den Mittelpunkt rückt. Die vorliegende Studie beschreibt notwendige KI-Kompetenzen ausgehend vom AI Competency Framework for Students der UNESCO, da dieses gesellschaftliche und politische Fragen als wesentliche Teile von Kompetenz berücksichtigt. Dabei werden Kompetenzträger*innen nicht als passive Nutzende, sondern als Mitgestalter*innen verstanden. Das Modell bedarf für die Anwendung im Feld der politischen Bildung jedoch weiterer Anpassungen. Ein Grund dafür liegt in fundamentalen Unterschieden zwischen digitalen Werkzeugen und KI-Anwendungen. So ist es nur Letzteren möglich, realitätsnahe Inhalte automatisch zu erzeugen. Dieser Unterschied ist etwa bei kritischen Medienkompetenzen wie der Quellenprüfung relevant, denn mit generativen KI-Systemen steigt unter anderem der Schwierigkeitsgrad, echte von unechten Inhalten zu unterscheiden. Für die Bildungsarbeit hat das zur Konsequenz, dass Ansätze zur Vermittlung der Fähigkeit des kritischen Hinterfragens von Informationen dazu führen könnten, dass Bürger*innen jeglicher Art von Informationen nicht mehr vertrauen. Zudem spielen affektive Faktoren (wie Emotionen oder Motivation) eine wichtigere Rolle, da KI-Systeme Nutzenden bestimmte Narrative prominent anzeigen und Vorurteile bestärken können. Kompetenzprofile im Bereich der politischen Bildung sollten vor diesem Hintergrund emotionalen Selbstkompetenzen und motivationalen Orientierungen mehr Rechnung tragen. So darf die Vermittlung kognitiver Fähigkeiten nicht bei der Frage stehen bleiben, ob ein bestimmter Inhalt echt oder falsch ist. Vielmehr sollte mit den Teilnehmer*innen von Bildungsangeboten gemeinsam ermittelt werden, aus welchen Gründen gewisse Nutzer*innen bewusst Desinformationen bzw. manipulierte Inhalte verbreiten.

Perspektive der Kompetenzträger*innen auf Kompetenz einbezogen?

keine Angabe

Lebenskontexte der Kompetenzträger*innen einbezogen?

Die Autoren betonen die Bedeutung von Lebenskontexten in mehrfacher Hinsicht. Für eine erfolgreiche Evaluation von KI-Kompetenzen ist es essenziell, Instrumente sowie Lernziele an die entsprechenden Altersgruppen und Kontexte anzupassen. Zudem begünstigen internationaler sowie interdisziplinärer Austausch die weitere Anpassung politischer Bildung an den digitalen Wandel und die sich damit stetig ändernden Kompetenzanforderungen.

Herausforderungen der Erfassung von Kompetenz

Zum einen erschwert die rasante technologische Entwicklung die standardisierte Erfassung von KI-Kompetenzen. So können Standards, was als kompetent gilt, ein paar Jahre später bereits überholt sein. Standardisierte Verfahren zur Erfassung von KI-Kompetenzen werden bei Befragungen eingesetzt, die auf den Selbsteinschätzungen beruhen und sich vor allem für die Erfassung technischer Fähigkeiten eignen (z. B. Verständnis von KI-Konzepten wie maschinellem Lernen). Gerade ethische Reflexionsfähigkeit oder gestaltende Fähigkeiten lassen sich durch standardisierte Verfahren schwer erfassen. Dazu eignen sich eher authentische Aufgaben und qualitative Verfahren.

Quellenangabe

Kindlinger, M., & Abs, H. J. (2025). Entwicklung eines KI-Kompetenzprofils aus einer Perspektive der politischen Bildung. PrEval Studie 2/2025. PRIF – Leibniz-Institut für Friedens- und Konfliktforschung. https://doi.org/10.48809/PrEvalStu2502

Sonstige Anmerkungen

Jugendliche werden im Papier zwar immer wieder explizit erwähnt, im ersten Absatz beschreiben die Autoren allerdings, dass es wichtig ist, die KI-Kompetenzen von allen Bürger*innen zu fördern.

Zuletzt geändert am 23. Dezember 2025.