Prompten nach Plan: Das PCRR-Framework als pädagogisches Werkzeug für den Einsatz von Künstlicher Intelligenz

Kurzbeschreibung

Der Beitrag stellt das PCRR-Framework (Plan – Create – Review – Reflect) vor, das als ganzheitlicher Ansatz für den Einsatz von Prompt Engineering im Unterricht dient. Das PCRR-Framework wurde 2024 entwickelt, um Lehrpersonen praxisnah in das Prompting einzuführen. Im Gegensatz zu bisherigen Modellen betrachtet dieses Prompting als integralen Bestandteil eines didaktischen Gesamtkonzepts. Es erweitert den Fokus über den eigentlichen Prompt hinaus und integriert Prompting in den gesamten Lernprozess. Es besteht aus den vier Phasen Plan, Create, Review und Reflect. Der Beitrag diskutiert Ergebnisse aus der Erprobungsphase des Konzeptes und argumentiert dafür, AI Literacy systematisch in Lehrpläne und Lehramtsausbildungen zu integrieren.

Annahmen über die Folgen der Digitalisierung

Angesichts der Fortschritte im Bereich generativer Künstlicher Intelligenz wird die Kompetenz, effektive Prompts zu verfassen, sowohl für Lehrende als auch Lernende in Zukunft an Bedeutung gewinnen.

Kompetenzanforderungen

Der Beitrag argumentiert die Notwendigkeit, AI Literacy systematisch in Lehrpläne und Lehramtsausbildungen zu integrieren, um eine nachhaltige und verantwortungsbewusste Nutzung von KI im Bildungsbereich zu ermöglichen. Für den Bildungskontext ist es wichtig, nicht nur den effektiven, sondern auch den kritischen und ethischen Umgang mit KI zu trainieren.

Kompetenzbegriffe (nach dem Papier)

AI Literacy

Unterdimensionen (nach dem Papier)

keine Angabe

Kompetenzdimensionen (nach dem Rahmenkonzept von Digitales Deutschland)

Instrumentell-qualifikatorische Dimension: Einen Prompt formulieren (der Künstlichen Intelligenz eine Rolle zuweisen, Informationen zum Kontext geben, präzise formulieren und die Künstliche Intelligenz Rückfragen zur Aufgabe stellen lassen); einen Prompt anpassen oder einen neuen Chat starten.

Kognitive Dimension: Konstruktives Feedback an eine Künstliche Intelligenz geben.

Affektive Dimension: Reflektieren, wie es einem bei der Zusammenarbeit mit Künstlicher Intelligenz ergangen ist bzw. ob sie Emotionen hervorgerufen hat.

Kreative Dimension: Ein anderes Modell testen.

Kritisch-reflexive Dimension: Das Ergebnis eines Prompting-Prozesses bewerten; überprüfen, ob das Ergebnis inhaltlich korrekt ist; prüfen ob der Output aus rechtlicher Perspektive verwendet werden darf; den Output aus ethischer Sicht reflektieren; reflektieren, wie sich das Ergebnis verbessern lässt; einen Prompting-Prozess und die Interaktion mit der Künstlichen Intelligenz hinterfragen; geeignete KI-Tools auswählen.

Zentrale theoretische Annahmen über Kompetenz

Im vorliegenden Beitrag wird der Begriff AI Literacy verwendet, der jedoch nicht näher definiert wird. Im Zentrum steht allerdings auch nicht der Kompetenzbegriff sondern ein mediendidaktisches Konzept zum Einsatz von Künstlicher Intelligenz in Bildungskontexten. Betont werden darin kritische und ethische Aspekte von Kompetenz. Mit Bezug auf eigene Arbeiten weisen die Autor*innen darauf hin, dass Prompting – neben Lesen, Schreiben und Rechnen zu einer neuen Schlüsselkompetenz, vielleicht sogar Kulturtechnik, wird. Dementsprechend wichtig erscheint es, Prompt Engineering zu erlernen.

Perspektive der Kompetenzträger*innen auf Kompetenz einbezogen?

keine Angabe

Lebenskontexte der Kompetenzträger*innen einbezogen?

Die Einbindung von Prompting in den schulischen Kontext ist bislang unzureichend systematisiert. Daher wird in diesem Artikel mit dem PCRR ein Konzept vorgestellt, welches sich an Lehrkräfte und Schüler*innen richtet. Um eine nachhaltige Implementierung von AI Literacy zu gewährleisten, bedarf es allerdings einer umfassenden bildungspolitischen Strategie. Diese muss Lehramts-Curricula, Schulbücher, Unterrichtsmaterialien und technische Infrastruktur gleichermaßen berücksichtigen. In die Studie wurden auch Prompting-bezogene Vorkenntnisse der Schüler*innen einbezogen.

Herausforderungen der Erfassung von Kompetenz

Eine Herausforderung besteht darin, dass bisher kaum standardisierte Methoden zur Vermittlung und Evaluation von Prompting-Kompetenzen existieren.

Zentrale empirische Befunde über Kompetenz

Die Ergebnisse der Praxisstudien zeigen, dass das PCRR-Framework die Effizienz und Qualität der Prompt-Erstellung signifikant verbessert. Die methodische Struktur unterstützt Lernende – unabhängig von ihrem Vorwissen – dabei, systematisch vorzugehen und schneller zu nutzbaren Ergebnissen zu gelangen. Diese können dann der Ausgangspunkt für weitere Verbesserungen sein. Das PCRR-Framework ist also ein vielversprechender Ansatz, hat jedoch auch noch Schwächen, die bearbeitet werden müssen.

Quellenangabe

Freinhofer, D., Schwabl, G., Aichinger, S., Breitenberger, S., Steindl, S., & Hechenberger, T. (2025). Prompten nach Plan: Das PCRR-Framework als pädagogisches Werkzeug für den Einsatz von Künstlicher Intelligenz. Medienimpulse, 63(1). https://doi.org/10.21243/mi-01-25-26

Sonstige Anmerkungen

Das PCRR-Framework gliedert den Prozess des Prompting in vier Phasen: Plan, Create, Review und Reflect. Diese lassen sich als didaktisch geplante Phasen verstehen, um angeleitet Kompetenz zu entwickeln. Während klassisches Prompting lediglich den Create-Schritt umfasst, erweitert das PCRR-Framework diesen um analytische Vorarbeit (Plan), eine kritische Überprüfung des Ergebnisses (Review) und eine reflektierende Nachbetrachtung des Prozesses (Reflect). Gerade im schulischen Kontext spielt die Phase der Reflexion eine zentrale Rolle. Aber auch die ethische Beurteilung des Einsatzes von Künstlicher Intelligenz, der Formulierung von Prompts und der KI-generierten Ergebnisse hat einen hohen Stellenwert in diesem Modell. Obwohl die Praxisberichte wertvolle Einblicke in die didaktische Anwendung des PCRR-Frameworks lieferten, weist die Untersuchung methodische Limitationen auf, die die Generalisierbarkeit der Ergebnisse einschränken: Für die Schulklassen gab es keine Kontrollgruppen. Die Befragung der Schüler*innen erfolgte an den einzelnen Schulen mit unterschiedlichen Fragebögen. Dadurch sind die Ergebnisse nicht direkt vergleichbar, was die methodische Aussagekraft der Untersuchung einschränkt. Zudem waren die Stichproben zum Teil eher klein.

Zuletzt geändert am 27. Juni 2025.