Zwischen individueller Förderung und De-Skilling. Kompetenzerwerb in Zeiten von Künst­licher Intelligenz

von Dr. Stefanie Junges (30. September 2025), Lesezeit: ca. 10 Minuten

Beinahe drei Jahre ist die Veröffentlichung von ChatGPT her, doch der Staub, der damit 2022 in Schu­len auf­ge­wir­belt wurde, hat sich noch lange nicht wieder gesetzt. Dabei scheinen die Pro­ble­me, die KI verursacht, ebenso groß wie die Hoffnungen, die daran geknüpft sind.

Da ist es nicht verwunderlich, dass Künstliche Intelligenz weiterhin eines der Haupt­themen für Fort­bil­dungen, Schul­entwick­lungs­tage und Diskussionen im Bildungsbereich bleibt. Der Wunsch nach Orientierung und Halt ist groß, besonders da das Feld der Künstlichen Intelligenz immer größer und unübersichtlicher wird. Viele Lehr­kräfte stellen sich daher die Frage: Was muss ich jetzt wissen? Aber auch: Was müssen meine Lernenden zu­künftig noch können?

 

Worüber sprechen wir denn eigentlich?

Scheinbar wirft Künstliche Intelligenz uns zurück auf die Frage, was wirklich wichtig ist. Wie ani­mie­ren wir zum Ler­nen? Wie wollen wir die Zeit im Unterricht nutzen? Welche Lern­kon­zepte tragen noch, wenn Lern­produkte jetzt auf Knopfdruck entstehen?

Abbildung 1: Grafik von Beat Döbeli Honegger, in: Pädagogik 3/24, S. 38.

Doch diskutiert wird nur selten über pädagogische oder fachliche Prämissen. Die meisten Ge­sprä­che ver­har­ren an der Oberfläche oder kreisen sich um Fragen von Datenschutz, Tools und Trends. Interessanterweise hat sich das in den vergangenen drei Jahren nicht geändert und hängt auch nicht davon ab, ob man sich das erste Mal oder schon vertieft mit KI beschäftigt. Warum ist das so?

Ein möglicher Grund liegt darin, dass es in diesen Diskussionen gar nicht vorrangig um Künstliche Intelligenz und ihre Bedeutung für Lernen und Schule geht. Vielmehr lassen sich Fragen wie „Sind Hausaufgaben noch sinn­voll?“, „Wie kann ich ‚KI-Betrug‘ erkennen?“ oder „Kann ich mit KI meine Kor­rektur­last verringern?“ als symp­to­ma­tisch für systemische Probleme.

 

Beispiel: Hausaufgaben in Zeiten von KI

Viele Lehrkräfte versuchen derzeit regelmäßig herauszufinden, ob Hausaufgaben auch tatsächlich von den Ler­nen­den eigenständig erledigt wurden. Das raubt vielen nicht nur Zeit, sondern auch Nerven. Denn der ein­fache Zugang zu KI-Systemen verführt dazu – so könnte man vermu­ten –, lei­dige Haus­aufgaben einfach von der Ma­schine machen zu lassen.

Das Problem ist aber nicht ‚KI-gemacht‘. Auch vor 2022 wurden Hausaufgaben abgeschrieben, von Ge­schwis­tern erledigt, aus dem Internet zusammen­kopiert oder sogar käuflich erworben. Darüber, inwiefern es sich nun um eine Häufung des ‚Hausaufgaben-Outsourcings‘ handelt, lässt sich an dieser Stelle nur spekulieren.

Was aber schon vor dem Auftritt vom KI auf dem schulischen Parkett klar war, ist, dass Haus­auf­gaben ihren ei­gent­lichen Zweck, den Lern­prozess im häuslichen Umfeld zu ver­tiefen, nicht zu­verlässig erfüllt haben. Laut Hatties Met­astudie Visible Learning weisen Hausaufgaben eine Kor­re­la­tion von 0.29 für den Lern­erfolg auf, das be­deu­tet, es ist kein Effekt nach­zu­weisen (erst ab einem Schwel­len­wert von 0.4 kann man von ei­nem nach­weis­lichen Ein­fluss auf den Lernerfolg ausgehen).[1]

Die Frage lautet also vielleicht nicht, ob Hausaufgaben in Zeiten von KI noch sinnvoll sind, sondern mit welchen Konzepten in Schule Lernprozesse angestoßen werden, die auch außerhalb der Unterr­ichts­zeit tragen. Oder gar: Sollte Lernen nicht vor allem während der schulischen Lernzeit passieren, um zum Bei­spiel Be­nach­tei­li­gung von Ler­nen­den aus sozial schwachen Familien ent­ge­gen­zu­wir­ken?[2]

 

Differenzierung statt Eindimensionalität

Die Debatte um den Einsatz Künstlicher Intelligenz an Schulen beißt sich also an Themen wie Daten­schutz, Li­zen­sie­rung, Tools oder kurzfristigen Anwendungsszenarien fest. Diese ein­di­men­sio­na­le Perspektive auf KI in Schule führt nicht selten für Lehrkräfte zu einem Gefühl von Ohnmacht und Überforderung. Überforderung beim Versuch, über das Feld der Künstlichen In­tel­li­genz und ihrer Bedeutung für Schule einen Überblick zu gewinnen; Ohnmacht im Angesicht teil­weise sehr enger Vorgaben, die Schulalltag und Unterricht prägen und so den Ein­druck er­wecken, Lehr­kräfte hätten keinen Handlungsspielraum für die eigene Gestaltung.

Für einen nachhaltigen, konstruktiven Umgang mit KI braucht es einen differenzierten Blick dafür, wie eine lern­för­der­liche Implementierung in Schule gelingen kann. Dabei sind bildungspolitische Prämissen ebenso zu be­rücksich­tigen wie rechtliche, fachliche und pädagogische. Eine Rück­be­sin­nung darauf, wie Lern­pro­zesse ge­stal­tet und lernförderlich begleitet werden können, ist dabei ebenso hilfreich wie die eigene Kom­pe­tenz­ent­wick­lung voranzubringen (z.B. im Bereich der Data, AI oder Information and Media Literacy).

­Abbildung 2: Grafik von Beat Döbeli Honegger, in: Pädagogik 3/24, S. 35.

Handlungsspielräume statt Schockstarre

Um zwischen dynamischen Anforderungen an Lernen und Unterricht (z.B. durch die rasan­ten techno­lo­gischen Ent­wick­lungen im Bereich der Künstlichen Intelligenz) und den teils strikten Vor­gaben und engen Taktungen im Schul­jahr (z.B. durch klare Format- oder Zeitvorgaben für Prüfungen) nicht in eine Schockstarre zu verfallen, hilft ein Blick auf die Hand­lungs­spiel­räume, die Lehr­kräfte haben.

Diese Handlungsspielräume sind von Schule zu Schule und von Bundesland zu Bundesland unter­schied­lich groß. Wo er jedoch stets groß ist, ist im eigenen Unterricht. Die Gestaltung und Begleitung von Lernprozessen ist das Feld der Expertise von Lehrkräften. Sie entscheiden nicht zwangsläufig, welche Kompetenz mit wel­chem In­halt erarbeitet wird, aber sie entscheiden stets darüber, wie sich dieser Prozess konkret ausgestaltet.  

 

Tradition oder Transformation?

Dabei fällt mancherorts gerade im Unterricht eine Tendenz zur Verfestigung auf: Man­che Lehr­kräfte be­rich­ten davon, dass sie möglichst komplexe, ‚KI-sichere‘ Aufgabenstellungen formulieren oder das Thema KI gar nicht erst besprechen, um ihre Lernenden nicht auf die Idee zu bringen, sie bei der Bearbeitung von Auf­ga­ben zu be­mühen.

Dabei ergibt sich folgende Frage: Wenn Künstliche Intelligenz das derzeitige Schulgeschehen (z.B. Haus­auf­ga­ben, Prüfungen etc.) derart an seine Grenzen bringt, wieso glauben wir dann, mit tra­dier­ten Me­tho­den (handschriftliche Produkte, analoge Arbeitsblätter etc.) und Vor­gehens­wei­sen diesem Problem zu ent­kom­men? Vielmehr ermöglicht KI nun, Unterricht weiterzuentwickeln und neu über die Messbarkeit von Lern­er­fol­gen zu sprechen.

Künstliche Intelligenz holt derzeit alle Ak­teure im Bil­dungs­bereich aus ihrer Komfort­zone und fordert ein enor­mes Maß an En­gage­ment, Fortbildung und Beschäftigung ein, um noch di­dak­tisch be­grün­dete Ent­schei­dungen für die Unterrichtsgestaltung zu treffen. Was Leh­rende (und Ler­nende) derzeit dringend benötigen, ist AI Literacy.

 

Das Problem der AI Literacy

Von AI Literacy bzw. von KI-Kompetenzen scheint derzeit überall die Rede zu sein. Es gibt einige An­sätze, den Be­griff zu definieren oder Modelle zu entwerfen und es sind einige Hand­rei­chungen, Leit­fäden und sogar Listen von benötigten Kompetenzen im Umlauf.[3] Problematisch daran ist, dass der Begriff der AI Literacy nicht einfach definiert werden kann.

Es gibt einige bekannte Definitionsversuche. So haben z.B. Long/Magerko 2020 versucht, einen Diskussions­vorschlag zu formulieren, der davon ausgeht, dass es sich bei AI Literacy um ein „set of competencies“[4] handelt. Im Anschluss schlagen sie sechzehn Kompetenzen vor, die sich in erster Linie auf techno­logisches Verständnis und Anwendungs­wissen beziehen. Ethische Pers­pek­tiven sind zwar genannt, aber nicht weiter ausgeführt.

In der Handreichung Künstliche Intelligenz in der Schule von 2025 wird die Problematik der un­ein­deu­tigen De­fini­tion tangiert. Dort heißt es:

„Für den Umgang mit KI-Systemen sind zudem spezielles Wissen und Fertig­keiten relevant, welche als ‚AI Literacy‘ zusammen­gefasst werden. Während Art und Umfang der erfor­der­lichen AI Literacy von Einzelpersonen weiterhin diskutiert werden, gibt es den­noch Vor­schlä­ge zur Konzeptualisierung.“[5]

Hier wird KI-Kompetenz also als Synthese aus Wissen und Fertig­keiten betrachtet (der Aspekt der Perfor­manz, der Weinerts Kompetenz­begriff inhärent ist, wird nicht aufgegriffen). Unstimmig­keit scheint es dabei weniger beim Kompetenz­begriff zu geben als bei der Frage, wie dieser ge­füllt wer­den kann.

Die erwähnten Konzeptualisierungsversuche finden sich zum Beispiel im aktuellen Framework der OECD, Empowe­ring Learners for the Age of AI, das AI Literacy als „technical knowledge, durable skills, and future-ready attitudes required to thrive in a world influenced by AI“[6] betrach­tet. In der Fol­ge werden vier Do­mänen identifiziert, in denen sich AI Literacy ausbildet: engaging with AI, creating with AI, managing AI und designing AI. Einen ähnlichen Ansatz verfolgt auch das Kom­pe­tenz­mo­dell von Alles, Falck, Flick und Schulz, das vier Handlung­sfelder – ver­stehen, an­wenden, re­flek­tieren, mit­gesta­lten – definiert, in denen KI-Kompetenzen einzuordnen sind.[7]

All diesen Ansätzen ist gemein, dass sie AI Literacy bzw. KI-Kompetenzen einerseits als dy­na­misches Kon­strukt betrachten, dessen konkrete Ausgestaltung vom jeweiligen Nut­zungs­kon­text abhängt. Zugleich werden aber konkrete Aus­formulie­rungen von Kom­pe­ten­zen vorgeschlagen, die Orientierung liefern. Diese Divergenz zwischen dem Versuch, ein dynamisches Kon­strukt mit sta­tischen Kategorien zu belegen, lässt sich nicht einfach auflösen. Pro­ble­ma­tisch scheint aber, dass dadurch der (Irr-)Glaube entsteht, man müsse nur bestimmte Dinge ver­stehen und tun (gleichsam Checklisten abhaken) können, um als KI-kompetent zu gelten. Dabei bedeutet gerade die Kontext­abhängig­keit von AI Literacy, dass bspw. Deutsch­lehrkräfte an­dere KI-Kom­pe­ten­zen benö­tigen als ein Programmierer – beide würden aber dennoch auf ihrem spe­zi­fischen Feld als ‚AI literate‘ gelten.

 

Zum Verhältnis von AI Literacy und Fachkompetenz

Wie steht es nun mit Blick auf kompetenzorientierten Unterricht um AI Literacy, wenn es sich da­bei um ein kontext­abhängiges, dynamisches Konzept handelt?

Viele Lehrkräfte fühlen sich im Angesicht einer weiteren Liste an Kompetenzen, die in den Fach­unter­richt imple­mentiert werden soll, überfordert. Zwischen Bildungs­stan­dards, Kom­peten­zen für die digitale Welt, Sozial- und Selbstkompetenzen erleben sie die KI-Kompetenz als zu­sätz­liche Be­las­tung für die wert­volle Unter­richts­zeit. Sie fragen daher oft:

„Welche KI-Kom­peten­zen kommen nun hinzu?“

Es fragt sich aber, ob dabei tatsächlich etwas Zusätzliches hinzukommt (abseits der Nut­zung einer neuen Techno­logie). Bei genauem Blick auf die verschiedenen Modelle, Frameworks etc. zeigt sich, dass AI Literacy voraus­setzungs­reich ist. Im OECD-Framework heißt es beispielsweise konkreter, dass zu den Skills, die AI Literacy ausmachen, „critical thinking“ ebenso gehört wie „creativity“, „collaboration“ oder „communication“.[8] – also die „4K“, die auch im KMK-Stra­tegie­pa­pier Lehren und Lernen in der digitalen Welt von 2021 eingefordert werden.[9]  

Dem Fachunterricht wird also nur wenig essen­ziell Neues aufer­legt bzw. abver­langt. Mehr noch: Mit Blick auf die eingeforderten „Attitudes“ wie „responsible“, „curious“ oder „empathetic“[10] fragt sich vielmehr: Was leistet der Fachunterricht schon längst, das maßgeblich zur Ent­wick­lung von AI Lite­racy beiträgt?

 

Kompetenzsynthese am Beispiel des Schreibens

Es handelt sich bei KI-Kompetenzen also nicht um etwas „Zusätzliches“, sondern viel­mehr um eine An­pas­sung des bereits erfolgreich Etablierten mit Blick auf aktuelle Entwicklungen. Am Bei­spiel der Schreib­kompetenz lässt sich das nachvollziehen:

Schreiben ist ein Prozess des verlangsamten Denkens und Reflektierens, des Gedanken­sort­ierens und -ausla­gerns sowie des Sich-Ausdrückens. Um dazu fähig zu sein, erwerben Ler­nen­de im Lau­fe ihrer Schul­zeit z.B. Kenntnisse über verschiedene Textsorten, deren Aufbau und ihre Funk­tion usw.

In Zeiten von KI ist die Sorge groß, dass diese Kompetenz nicht mehr umfassend erwor­ben wird, weil Sprach­modelle inner­halb von Sekunden Texte produzieren und die Versu­chung, die Schreib­auf­gaben an die KI auszulagern, zu groß ist (einige sprechen hier von Skill-Skip­ping bzw. De-Skil­ling). Die Ausgaben von Sprachmodellen sind allerdings (zumindest derzeit) überwie­gend schrift­sprach­lich. Das bedeutet, bevor eigenständig mit diesen Systemen gearbeitet werden kann, um AI Literacy zu fördern, müssen Lernende auf der einen Seite hinreichende Lese- und Schreib­kom­peten­zen erworben haben, um die Antworten zu verstehen. Darüber hinaus müssen sie auf der anderen Seite die KI über Prompts schriftlich anweisen und mit den Ergebnissen kon­struk­tiv weiterarbeiten zu können. Die Formulierung eines guten Prompts lässt sich selbst also als Schreibprozess betrachten.

Was hier erfolgt, ist eine Synthese zwischen Fach- und KI-Kompetenzen. Und auch das OECD-Frame­work fordert von Lehr­kräften ein: „Educators are encouraged to embed AI literacy when and where it aligns with their subject and context.“[11] Um AI Literacy im Fachunterricht zu fördern, reicht es also nicht, KI-Tools zu nutzen oder andere Medien nun durch KI zu ersetzen. Es braucht ein fachlich-didaktisches Urteil der Lehrkraft, wie die Beschäftigung mit Künstlicher Intelligenz im Fach­unterricht zu Lernfortschritten führt.

 

Randnotiz: Das Problem der verschiedenen Curricula

KI-Kompetenzmodelle wie das von Alles/Falck/Flick/Schulz, das praxis­nahe und opera­tionali­sier­bare Kom­peten­zen anbieten möchte, die so „den Aufbau eines KI-Curricu­lums der ein­zelnen Schule“[12] unterstützen, sind insofern wenig hilfreich, als es nicht darum gehen kann, Fach­kompetenz, AI Literacy oder auch digitale Kompetenzen als voneinander losgelöste Faktoren zu betrachten, die ein eigenes Curriculum benötigen. Vielmehr benötigt es eine Verza­hnung zwischen Fachlichkeit und Technologie, um vernetztes Lernen zu ermöglichen.

 

Wie anfangen?

Wie nun kann man als Lehrkraft aus dem Gefühl von Ohnmacht heraustreten? Wie kann aus der KI-Hetz­jagd zwischen neuen Tools und Täuschungsversuchen ein gelassener Marathon werden?

Basierend auf Beratungs- und Fortbildungserfahrungen der letzten drei Jahre ist ein erster Schritt, sich der eigenen AI Literacy zuzuwenden, ohne Sorge zu haben, den Anschluss zu verlieren. Lehrkräfte sind derzeit ebenso Lernende wie ihre Schülerinnen und Schüler. Die Erwartung, dass Lehr­kräfte hier einen ‚Vorsprung‘ bräuchten, scheint mir im Angesicht der rasanten Ent­wick­lungen auf dem KI-Markt als utopisch.

Daher möchte ich diese Impulse und Ratschläge mitgeben:

  • Gehen Sie mit Ihren Lernenden (und ggf. Eltern) ins Gespräch. Fragen Sie sie, warum und wie sie KI nutzen. Bleiben Sie offen für die etwaigen Antworten, die Ihnen tiefere Einblicke in mo­tiva­tio­nale As­pekte und Hinweise auf eine veränderte Unterrichtsgestaltung liefern könnten.
  • Stützen Sie sich beim Aufbau Ihrer eigenen AI Literacy auf „Konzeptwissen“ statt auf „Ver­sions­wissen“ (s. Abb. 2). Sie brauchen sich nicht sorgen, dass Sie den An­schluss ver­pas­sen. Es ist nicht so wichtig, immer die neuesten Tools zu kennen, wenn Sie ein grund­legen­des Ver­ständ­nis der Technologie (z.B. Sprachmodelle) entwickelt haben. Diese bildet die Basis für eine grundlegende Orientierung und Beurteilungskompetenz.
  • Besinnen Sie sich auf Ihre vorhandene fachliche, didaktische und pädagogische Expertise, die Ihnen erlaubt, aktuelle Entwicklungen mit Blick auf Ihre Lerngruppe einzuschätzen und Ihren Schüler­innen und Schülern neue Perspektiven auf das Thema zu ermöglichen.
  • Tauschen Sie sich mit anderen aus – über Probleme, Sorgen, offene Fragen und Ideen für den Un­ter­richt. Dies kann im Lehrerzimmer ebenso gelingen wie in Fortbildungen oder auf Social Media.

 

Unterstützung in Form von Beratung oder Fortbildung finden Sie z.B. hier.

 

Anmerkungen

  1. Vgl. Zierer, Klaus: Kernbotschaften aus John Hatties Visible Learning. 2., überarbeitete Auflage. Sankt Augustin/Berlin 2015.
  2. Schon seit einigen Jahren weisen diverse Bildungsberichte auf die große Abhängigkeit von Bildungserfolg und sozialer Herkunft in Deutschland hin. Neueste Studien weisen allerdings darauf hin, dass Künstliche Intelligenz nicht die Ungleichheit im Bildungsbereich löse, sondern sogar weiter verschärfen könne: „Dabei können sich einerseits hehre Ziele wie die intendierte Reduktion sozialer Ungleichheit ins Gegenteil verkehren oder scheinbar neutrale Diagnoseinstrumente zu laufbahnentscheidenden Bewertungsinstrumenten werden.“ Röhl/Kirchner: Algorithmische Alchemie – die sozio-technische Reproduktion sozialer Ungleichheit im Bildungssystem. In: Soziale Probleme 2/2023, 34. Jg., S. 276.   
  3. Vgl. zum Beispiel das OECD-Framework Empowering Learners for the Age of AI (2025) oder das Kompetenzmodell von Alles/Falck/Flick/Schulz: KI-Kompetenzen für Lehrende und Lernende. Aus der Praxis für die Praxis – eine adaptierbare Basis. Blogbeitrag vom 12.03.2025, S. 3.
  4. „We define AI literacy as a set of competencies that enables individuals to critically evaluate AI technologies; communicate and collaborate effectively with AI; and use AI as a tool online, at home, and in the workplace.“ Long, Duri; Magerko, Brian: What is AI Literacy? Competencies and Design Considerations. Honululu 2020, S.2.
  5. Scheiter, Katharina; Bauer, Elisabeth; Omarchevska, Yoana; Schumacher, Clara; Sailer, Michael: Künstliche Intelligenz in der Schule. Eine Handreichung zum Stand in Wissenschaft und Praxis. Bonn 05/2025, S. 20.
  6. OECD-Framework, S. 6.
  7. Vgl. Alles/Falck/Flick/Schulz, S. 4ff.
  8. OECD-Framework, S. 18.
  9. KMK: Lehren und Lernen in der digitalen Welt. Die ergänzende Empfehlung zur Strategie „Bildung in der digitalen Welt“ (2021), S. 15.
  10. OECD-Framework, S. 18.
  11. OECD-Framework, S. 8.
  12. Alles/Falck/Flick/Schulz, S. 3.

Zurück