
Prompten statt Lernen?
Warum der Lerneffekt beim Einsatz von LLMs oft auf der Strecke bleibt.
Autor: Manfred Hofferer & Team Bildungspartner Österreich, © BPÖ 2025
Ein Gedankenspiel: Stellen Sie sich vor, Sie navigieren mit einem GPS durch eine fremde Stadt. Sie kommen mühelos und schnell ans Ziel, doch am Ende des Tages haben Sie, wenn man die Sache ehrlich betrachtet, kein Gefühl für die Stadt entwickelt. Man kennt keine unterschiedlichen Wege, keine Abkürzungen, und man wüsste nicht, wie man den Weg ohne das Gerät erneut finden kann. Dieses Phänomen der „effizienten Orientierungslosigkeit“ ist der perfekte Ausgangspunkt für die Frage: Was passiert eigentlich im Kopf, wenn sich Lernende eine unbekannte Wissenslandschaft nicht mehr selbst erwandern, sondern von LLMs direkt zum Ziel führen lassen?
Oder ein anderes Beispiel: Wird ein Wissensgebiet von einem LLM aufbereitet, ist das wie ein exquisites Fünf-Gänge-Menü aus der Mikrowelle. Es ist sofort verfügbar, sieht beeindruckend aus und stillt den unmittelbaren Wissenshunger. Doch solchen Gerichten fehlt es am etwas Entscheidenden: der Erfahrung des Kochens. Die Zubereitenden haben weder die Zutaten selbst ausgewählt noch das Handwerk des Würzens und Abschmeckens gelernt. Zeit, darüber nachzudenken, was an geistiger „Nahrungskompetenz“ verloren geht, wenn sich der Mensch nur noch von perfekt zubereiteten, aber fremdgekochten Informations-Mahlzeiten ernährt.
Was wäre es aber, wenn der anstrengendste Teil des Lernens, das Suchen, das Scheitern, das mühsame Verbinden von losen Enden, kein notwendiges Übel, sondern der eigentliche Lernvorgang ist? Die Verlockung durch LLMs ist enorm: Sie verspricht, diesen durchaus wenig angenehmen und von manchen als schmerzhaft empfundenen Prozess abzukürzen und zu ersparen und direkt das glänzende, fertige Ergebnis zu liefern. Doch was, wenn wir damit nicht die Arbeit, sondern das Lernen selbst abschaffen? Betrachtet man den Prozess, Kriminalistinnen und Kriminalisten, die nicht nur die Antwort, sondern auch den Tathergang des Wissenserwerbs verstehen wollen.
Die inhaltliche Lernebene: Was wird gelernt?
Wenn eine Person ein neues Thema mit einem LLM aufbereitet, finden auf der Inhaltsebene primär folgende Lernprozesse statt:
-
Erwerb von Fakten- und Konzeptwissen: Das LLM liefert schnell Definitionen, Schlüsseldaten, Namen, Zusammenfassungen von Theorien und grundlegende Konzepte. Die Lernenden nehmen dabei
eine große Menge an deklarativem Wissen (Wissen, was etwas ist) auf.
-
Strukturierung und Gliederung: LLMs sind exzellent darin, Informationen zu ordnen. Die Nutzenden lernen eine mögliche, oft (aber nicht immer) mehr oder weniger logische und kohärente
Gliederung des Themas kennen (z. B. Einleitung, Geschichte, Hauptthesen, Kritik, Fazit). Sie übernehmen quasi eine fertige „Wissensarchitektur“.
-
Formulierung und Wortschatz: Die Lernenden eignen sich themenspezifisches Vokabular und gängige Formulierungen an. Die sprachliche Aufbereitung durch das LLM schult durchaus auch das
Ausdrucksvermögen zu diesem spezifischen Thema.
- Synthese von Informationen: Das LLM fasst verschiedene Quellen und Perspektiven (sofern in den Trainingsdaten vorhanden) zu einem scheinbar geschlossenen Ganzen zusammen. Die Nutzenden lernen eine (von vielen) mögliche Art der Synthese kennen.
Kritische Betrachtung aus lernpsychologischer Sicht
Der Schein des schnellen und umfassenden Lernens ist trügerisch. Aus lernpsychologischer Sicht ergeben sich erhebliche Bedenken, die den nachhaltigen Lernerfolg infrage stellen.
1. Passiver Wissenskonsum statt aktiver Konstruktion
Lernen ist nach konstruktivistischer Auffassung kein passives Aufnehmen, sondern ein aktiver, individueller Prozess, bei dem neues Wissen an bereits bestehendes angebunden, interpretiert und in eigene mentale Modelle (Schemata) integriert wird.
-
Problem: LLMs liefern (scheinbar) perfekt vorstrukturierte und ausformulierte Wissensbausteine. Die Lernenden müssen die anstrengende, aber entscheidende kognitive Arbeit der
Recherche, des Vergleichens, des Verwerfens, des Neuordnens und des Ringens um Verständnis nicht mehr selbst leisten. Dieser „produktive Kampf“ (desirable difficulty) ist jedoch essenziell
für die tiefe Verankerung von Wissen.
- Folge: Es entsteht nur ein sogenanntes oberflächliches „Inselwissen“. Die Informationen sind zwar irgendwo vorhanden, aber nicht tief verarbeitet und auch nicht flexibel abruf- und anwendbar. Die Lernenden wissen zwar, was die Antwort ist, aber nicht, warum sie so lautet oder wie sie sich zu anderem Wissen verhält.
2. Die Illusion der Kompetenz
Die Leichtigkeit, mit der LLMs komplexe Informationen aufbereiten, kann zu einer gefährlichen Fehleinschätzung der eigenen Kompetenz führen.
-
Problem: Die Nutzenden verwechseln die Eloquenz und Struktur der Maschine mit dem eigenen Verständnis. Da der Prozess mit geringer kognitiver Belastung (cognitive load)
verbunden ist, fehlt das Gefühl der Anstrengung, das oft ein Indikator für intensives Lernen ist.
- Folge: Die Lernenden fühlen sich kompetenter, als sie es tatsächlich sind. Diese „Illusion of Competence“ wird spätestens dann entlarvt, wenn das Wissen in einer neuen, unbekannten Situation (bspw. einer kritischen Rückfrage, einer Anwendungs- bzw. Transferaufgabe) angewendet werden muss und die Wissensbasis sich als brüchig erweist.
3. Verkümmerung metakognitiver und kritischer Fähigkeiten
Metakognition (also die Kompetenz, das eigene Denken und Lernen zu planen, zu überwachen und zu regulieren) ist eine weitere wichtige Schlüsselkompetenz für lebenslanges Lernen.
- Problem: Die Nutzung von LLMs lagert zentrale metakognitive Prozesse aus:
-
- Planung: Anstatt dass die Lernenden selbst überlegen, wie sie sich einem Thema nähern, übernimmt das LLM die Gliederung.
- Informationsbewertung: Die kritische Prüfung von Quellen, das Erkennen von Bias oder die Bewertung der Glaubwürdigkeit entfällt, da das LLM eine autoritativ klingende, fertige Synthese liefert. Die Folge ist, dass der Aufbau und die Entwicklung von Informationskompetenz nicht trainiert werden.
-
Monitoring: Die Selbstüberprüfung („Habe ich das wirklich verstanden?“) wird zusätzlich erschwert, weil die flüssigen Texte der LLMs keine offensichtlichen Verständnislücken
erkennen lassen.
- Folge: Anstatt Lernen, kritisches Denken und Problemlösekompetenz zu entwickeln, lernen die Nutzenden vor allem, wie man eine Maschine effizient bedient (prompt engineering). Das ist zwar eine nützliche Fertigkeit bzw. Kompetenz, ersetzt aber nicht die Kernkompetenzen akademischer und professioneller Arbeit.
4. Fehlendes prozedurales und konditionales Wissen
Allen bekannt sein dürfte, dass effektives Lernen nicht nur Faktenwissen (deklarativ) umfasst, sondern auch:
-
Prozedurales Wissen: Wissen, wie man etwas tut (z. B. wie man eine Quelle findet, wie man ein Argument entwickelt und aufbaut).
-
Konditionales Wissen: Wissen, wann und warum man eine bestimmte Strategie oder Information anwendet.
-
Problem: Bei der Aufbereitung durch LLMs werden diese Wissensarten kaum aufgebaut. Die Lernenden erfahren Ergebnisse (z. B. den fertigen Text), aber nicht den Prozess seiner
Entstehung.
- Folge: Das erworbene Wissen bleibt starr und kontextgebunden. Den Lernenden fehlt die Kompetenz, den Prozess der Wissensgenerierung selbstständig auf neue Themen und Probleme zu übertragen.
Fazit und Empfehlung
Die Aufbereitung eines unbekannten Themas mit LLMs ist primär ein Training im Umgang mit einer KI zur Informationsbeschaffung und -strukturierung. Die Lernenden erwerben schnell eine thematische Orientierung und einen Grundstock an Faktenwissen.
Aus lernpsychologischer Sicht ist dieser Prozess jedoch für einen nachhaltigen, tiefen Wissenserwerb unzureichend und potenziell, was die Entwicklung des Lernens anbelangt, schädlich, da er aktives Konstruieren, kritisches Denken und die Entwicklung metakognitiver Fertigkeiten umgeht.
Wenn Interesse und Bedarf bestehen, unterstützen wir dich gerne. Reden wir darüber! Unsere Angebote zu diesem Themenbereich:
- Lehrlingsbildung
- Train the Trainer:in
- Soft Skill Trainer:in
- Outdoorpädagogik
- Bildungsbike-Trainer:in
- Ausbildung Bildungsbiken
HINWEIS: Für die sprachliche Glättung und stilistische Vereinfachung dieses Beitrags wurden KI-basierte Tools (ChatGPT 5, Gemini 2.5 Pro, Copilot) unterstützend eingesetzt. Alle inhaltlichen Aussagen und Schlussfolgerungen wurden von dem Autor ausgewählt, geprüft und verantwortet. Die KI hatte keine Rolle bei der inhaltlichen Generierung oder Bewertung der Forschungslage.