Transformative (inklusive) Bildung im Kontext der Entwicklung von Künstlicher Intelligenz

Daniel Autenrieth, Jan-René Schluchter und Lea Schulz

Zusammenfassung
Die rasante Entwicklung Künstlicher Intelligenz verändert Bildung und gesellschaftliche Teilhabe grundlegend. Während KI-Systeme Potenziale für Inklusion bieten, entstehen neue Risiken, die vulnerable Gruppen besonders betreffen. Der Beitrag analysiert, wie digitale Ungleichheit durch KI verstärkt wird. Als Antwort wird transformative Bildung vorgestellt, die nicht nur Wissen vermittelt, sondern kritisches Hinterfragen und aktive Gestaltung fördert. Drei pädagogische Prinzipien verdeutlichen, wie sich Schulen konzeptionell mit KI-Systemen auseinandersetzen können: Schulen benötigen Reflexionsräume, kritische Medienanalysen und partizipative Gestaltungsaufgaben, um KI inklusiv, gerecht und handlungsorientiert mitzugestalten.

Résumé
Le développement rapide de l’intelligence artificielle transforme profondément l’éducation et la participation sociale. Si les systèmes d’intelligence artificielle offrent des possibilités d’inclusion, ils font également apparaitre de nouveaux risques touchant particulièrement les groupes vulnérables. Cet article analyse de quelle manière les inégalités digitales sont amplifiées par l’IA. La solution pourrait être l’éducation transformatrice qui ne se contente pas de transmettre du savoir, mais qui encourage également la réflexion critique et la participation active. Ces trois principes pédagogiques illustrent la façon dont les écoles peuvent aborder conceptuellement les systèmes d’IA : des espaces de réflexion, une analyse critique des médias et des projets de conception participative, afin de contribuer à rendre l’IA inclusive, équitable et orientée vers la pratique.

Keywords: digitale Transformation, digitale Kompetenz, Künstliche Intelligenz, Inklusion, Partizipation, Chancengleichheit / transformation numérique, compétence numérique, intelligence artificielle, inclusion, participation, égalité des chances

DOI: https://doi.org/10.57161/z2025-08-06

Schweizerische Zeitschrift für Heilpädagogik, Jg. 31, 08/2025

Creative Common BY

Einleitung

Die rasante Entwicklung von Künstlicher Intelligenz (KI) zeichnet sich zunehmend in gegenwärtigen Gesellschaften ab: In den letzten Jahren haben insbesondere multimodale Large Language Models (LLMs[1]) grosse Fortschritte erzielt und teilweise menschliche Leistungsniveaus erreicht oder übertroffen (u. a. Bengio et al., 2025). Es zeichnet sich allerdings bereits die nächste Entwicklungsstufe ab: Künstliche Allgemeine Intelligenz (Artificial General Intelligence, kurz AGI). AGI beschreibt keine einzelne technologische Innovation, welche nur in bestimmten Bereichen erfolgreich ist, sondern einen schrittweisen Prozess hin zu Systemen. Solche Systeme können in vielen verschiedenen kognitiven Aufgaben ein Niveau erreichen, auf dem sie komplexe Probleme eigenständig lösen können (Morris et al., 2024). Diese technologischen Sprünge sind längst nicht mehr nur theoretische Entwicklungen, sondern prägen (und verändern) bereits konkret vielfältige gesellschaftliche Bereiche – zum Beispiel die Wirtschaft, Gesundheit, Wissenschaft und auch die Bildung.

In Anbetracht dieser transformativen Kraft stellt sich die Frage, inwieweit KI-Systeme einen Beitrag zu Inklusion[2] leisten können (AI for Inclusion) und inwieweit Inklusion zur ethischen Ausrichtung von KI-Systemen selbst wird (Inclusive AI) (Shams et al., 2023). Demgegenüber stehen die Risiken, welche in Bezug auf gesellschaftliche Zugehörigkeit und Teilhabe mit KI-Systemen einhergehen:

Vor allem gesellschaftlich vulnerable Gruppen sind stärker betroffen von diesen negativen sozialen Auswirkungen, die der Einsatz von KI-Systemen mit sich bringt (Varsik & Vosberg, 2024).

Vor diesem Hintergrund richtet der Beitrag den Blick auf die Wechselwirkungen zwischen KI, gesellschaftlicher Zugehörigkeit und Teilhabe sowie auf die Potenziale transformativer Bildung.

Digitale Ungleichheit und Künstliche Intelligenz

Es stellt sich die Frage: Ergeben sich durch die zunehmende Verbreitung Künstlicher Intelligenz neue Dimensionen digitaler Ungleichheit, die als Erweiterung oder Transformation des klassischen Digital Divide[4] interpretiert werden könnten (Carter, 2020; Autenrieth et al., 2025)? KI-Systeme werden zunehmend im Bildungsbereich eingesetzt; zum Beispiel, um individuelle Lernprozesse zu unterstützen oder Leistungen automatisch auszuwerten (Varsik & Vosberg, 2024). Diese Entwicklungen gehen mit hohen Erwartungen einher: KI soll sowohl Lern- als auch Bildungsprozesse effizienter, individueller und gerechter machen.

Doch genau hier entstehen Spannungsfelder: Es zeigt sich, dass es nach wie vor Unterschiede gibt in Bezug auf den Zugang zu und den Umgang mit KI-Systemen. Diese Unterschiede hängen oft von sozialen und gesellschaftlichen Bedingungen ab. Zudem können Verzerrungen in den Algorithmen benachteiligen, was wiederum strukturelle Ungleichheiten verstärkt (van Dijk, 2020; Wang et al., 2024). KI-Anwendungen sind somit nicht neutral, sondern in ihren Daten, Modellarchitekturen und normativen Setzungen gesellschaftlich vorgeprägt (Varsik & Vosberg, 2024; Boateng & Boateng, 2025). Sie können bestehende soziale Ungleichheiten nicht nur abbilden, sondern verstärken diese durch intransparente Entscheidungslogiken (Boateng & Boateng, 2025).

Zum Beispiel sind sozioökonomisch benachteiligte Gruppen systematisch weniger daran beteiligt, KI zu entwickeln, zu nutzen und mitzugestalten (Carter et al., 2020). Dies gilt besonders in Bildungskontexten (Walgenbach, 2023), wenn adaptive Systeme häufig auf implizit normierte Lernverläufe ausgerichtet sind. Individuelle Voraussetzungen, zum Beispiel sprachliche, kulturelle oder kognitive Diversität, werden nur unzureichend berücksichtigt (Shew & Earle, 2024). Somit verweisen Diskurse um AI Divide und AI Bias auf eine doppelte Herausforderung: einerseits den chancengleichen Zugang sicherzustellen, andererseits die gesellschaftlichen Bedingungen kritisch zu reflektieren, unter denen KI gestaltet und eingesetzt wird.

Gleichermassen gibt es Sichtweisen, die Technologie – so auch KI – als ‹Wunderlösung› für Probleme und Herausforderungen von Gesellschaften verstehen (sog. Techno-Solutionismus; Morozov, 2014). Diese Sichtweise verstärkt den sogenannten Techno-Ableismus (Shew, 2022): Technik wird als neutrale Lösung betrachtet, die Menschen an normierte Standards anpassen soll. Was von diesen Standards abweicht (Sengupta, 2020), gilt als Defizit, das technisch ‹repariert› werden muss, anstatt Vielfalt als legitimen Teil gesellschaftlicher Realität anzuerkennen.

Angesichts dieser Tendenzen braucht es ein anderes Verständnis von Bildung beziehungsweise neue Ansätze für den Einsatz von Technologien in der Bildung (Autenrieth et al., 2025).

Transformative Bildung und Entwicklung von KI

Transformative Bildung (Laros et al., 2017) beschreibt Prozesse, die nicht darauf abzielen, Wissen zu übertragen, sondern auf tiefgreifende Veränderungen im Denken, Fühlen und Handeln ausgerichtet sind (ebd.). Bildung eröffnet Räume, in denen Menschen gesellschaftliche und persönliche Vorstellungen, Einstellungen, (Vor-)Urteile und Werthaltungen reflektieren. Sie können sich neue Perspektiven und Bedeutungen erschliessen, gerade angesichts der tiefgreifenden Veränderungen durch KI (Autenrieth, 2025).

Bisher galt vor allem der Zugang zu Arbeit als wichtiger Schlüssel für gesellschaftliche Teilhabe (Institut für Arbeitsmarkt- und Berufsforschung, 2025). Doch durch technische Entwicklungen verändern sich die Anforderungen sowohl an Lernende als auch an Lehrpersonen grundlegend. Heute hat die Schule vor allem zwei Funktionen: den Schüler:innen Wissen und Fähigkeiten für das Berufsleben zu vermitteln (Qualifikationsfunktion) und sie auf verschiedene Bildungs- und Berufswege zu verteilen (Allokationsfunktion). Dabei bleibt die Fähigkeit, arbeiten zu können und einen Beruf auszuüben (sog. Beschäftigungsfähigkeit), ein entscheidender Schlüssel für die gesellschaftliche Teilhabe (Fend, 2008).

In diesem Zusammenhang unverzichtbar sind grundlegende Fähigkeiten wie Lesen, Schreiben, mathematische Grundbildung und basale informationstechnische Kompetenzen sowie Medienkompetenzen. Allerdings erreichen Schüler:innen diese Mindeststandards zunehmend nicht (z. B. IGLU; McElvany et al., 2023). Mit Blick auf zukünftige Anforderungen verdeutlicht das World Economic Forum (2025), dass diese Basisfähigkeiten zunehmend vorausgesetzt werden (vgl. Abb. 1). Kompetenzen wie Lesen, Schreiben, Rechnen und Programmieren (Out of focus skills), im unteren linken Quadranten, finden künftig weniger Beachtung, weil sie als selbstverständlich angesehen werden. Sie sind damit eine Zugangsvoraussetzung für gesellschaftliche Teilhabe und berufliche Anschlussfähigkeit, werden jedoch allein nicht mehr als ausreichend bewertet.

Die eigentlichen Herausforderungen für Teilhabe und Beschäftigungsfähigkeit werden im rechten oberen Quadranten der Grafik sichtbar (vgl. Abb. 1, Core skills). An dieser Stelle verortet sind Kompetenzen wie Resilienz, Flexibilität und Agilität, analytisches Denken, Kreativität sowie Leadership. Die meisten Arbeitgebenden betrachten diese Zukunftskompetenzen als zentral. Es sind zugleich Fähigkeiten, die kontinuierliche Lern- und Anpassungsprozesse, Problemlösungskompetenz und aktive Mitgestaltung voraussetzen. Es braucht einen permanenten Prozess des (Um-)Lernens und der kritischen Auseinandersetzung mit neuen Herausforderungen.

Abbildung 1: Core skills 2030 (World Economic Forum, 2025, S. 41)

Daraus ergibt sich die zentrale Frage: Wie sollen Lernende, die bereits Schwierigkeiten mit den vorausgesetzten Mindeststandards haben, jene komplexen Zukunftskompetenzen erwerben, die künftig entscheidend sind für gesellschaftliche Teilhabe und beruflichen Anschluss? Das Risiko neuer Exklusionsmechanismen an der Schnittstelle von digitalen Medientechnologien wie KI und Gesellschaft verschärft sich dadurch erheblich.

Diese Perspektive lenkt den Blick zugleich auf die Ausrichtung des Arbeitsmarktes sowie auf Fragen von Macht, Herrschaft und Inklusion in kapitalistischen Gesellschaften. Daraus ergibt sich eine doppelte Herausforderung: Erstens braucht es gezielte Förderung dieser Zukunftskompetenzen, um gesellschaftliche Teilhabe zu ermöglichen. Zweitens verlieren klassische Erwerbsbiografien ihre Rolle als zentraler Zugang zu gesellschaftlicher Zugehörigkeit.

KI und Automatisierung verändern die Arbeitswelt und Wertschöpfung so grundlegend, dass berufliche Anschlussfähigkeit nicht mehr an feste Rollen und Erwerbsarbeit gebunden ist. Zugleich zeigen Entwicklungen wie die Debatte um ein bedingungsloses Grundeinkommen (Bohmann et al., 2025), dass gesellschaftliche Zugehörigkeit und Teilhabe auch jenseits von traditioneller Erwerbsarbeit möglich sind. Menschen bleiben tätig, gestalten flexibler und oft mit grösserem Sinnbezug, wenn neue Freiräume und Sicherheit entstehen (ebd.).

Vor diesem Hintergrund verschiebt sich der Blick auf die Anforderungen an schulische Bildung. Entscheidend ist nicht mehr die Vorbereitung beziehungsweise Anpassung an eine Berufsbiografie, sondern die Fähigkeit zur permanenten Adaptivität: zum Neu-, Um- und Verlernen, zur aktiven Reflexion und Gestaltung des eigenen Selbst- und Weltverhältnisses (Laros et al., 2017). Im 21. Jahrhundert ist die permanente Adaptivität die Schlüsselfähigkeit. Transformative Bildung bedeutet daher, dass Menschen ihre Biografie in Wechselseitigkeit mit ihrer Umwelt kritisch und engagiert gestalten – unabhängig davon, wie sich Arbeit und Teilhabe in Zukunft entwickeln.

Konsequenzen für pädagogisches Handeln und Ausblick

Schulen stehen vor der Aufgabe, sich nicht nur technisch, sondern auch konzeptionell mit KI auseinanderzusetzen. Lehrpersonen benötigen dafür Räume zur Reflexion: Welche KI-Systeme nutzen wir? Wem helfen oder schaden sie? Wer wird einbezogen, wer bleibt aussen vor? Solche Fragen können im Team, im Unterricht und in Fortbildungen bearbeitet werden, durch Fallanalysen, medienethische Diskussionen oder explorative KI-Projekte mit Schüler:innen.

Zugleich braucht es didaktische Szenarien, in denen Lernende selbst aktiv werden: Sie sollen KI nicht nur bedienen, sondern verstehen, hinterfragen und mitgestalten. Es braucht eine strukturierte Reflexion, die eine kritische Auseinandersetzung mit eigenen Grundannahmen ermöglicht und damit einen Perspektivenwechsel fördert (Autenrieth, 2025).

Für die Schule lassen sich daraus drei handlungsleitende Prinzipien ableiten:

Diese drei Prinzipien erlauben es, nicht nur auf KI zu reagieren, sondern diese aktiv und inklusionsorientiert mitzugestalten – und auf diese Weise auf Phänomene wie AI Divide, AI Bias sowie Techno-Ableismus zu antworten. Bildungsprozesse sollten Teilhabe fördern, kritische Kompetenzen stärken und soziale Gerechtigkeit unterstützen. So wird KI nicht zur Barriere, sondern zum Impuls für eine inklusive Bildungskultur.

Daniel Autenrieth
M. Sc./M. A.
Geschäftsführer Autenrieth &
Partner, Greven
daniel@autenrieth-partner.de

Dr. Jan-René Schluchter
Akad. Oberrat für Medienpädagogik
Pädagogische Hochschule
Ludwigsburg
schluchter@ph-ludwigsburg.de

Dr. Lea Schulz
Educational Engineer für Diklusion
Europa-Universität Flensburg / IQSH
lea.schulz@uni-flensburg.de

Literatur

Autenrieth, D. (2025). Transformative Bildungsprozesse und Partizipation. Eine empirische Untersuchung im Kontext von Künstlicher Intelligenz und der Lehrkräftebildung. kopaed.

Autenrieth, D., Schluchter, J.-R. & Schulz, L. (2025). AI is all you need? Künstliche Intelligenz, gesellschaftliche Teilhabe und Perspektiven transformativer Bildung auf die Herausforderungen eines AI Divide. Zeitschrift für Inklusion, 3, 19–42.

Bengio, Y., Mindermann, S. & Privitera, D. (2025). International AI Safety Report (No. DSIT 2025/001). https://assets.publishing.service.gov.uk/media/679a0c48a77d250007d313ee/International_AI_Safety_Report_2025_accessible_f.pdf

Boateng, O. & Boateng, B. (2025). Algorithmic bias in educational systems: Examining the impact of AI-driven decision making in modern education. World Journal of Advanced Research and Reviews, 25, 2012–2017. https://doi.org/10.30574/wjarr.2025.25.1.0253

Bohmann, S., Fiedler, S., Kasy, M. B., Schupp, J. & Schwerter, F. (2025). Cash Transfers, Mental Health, and Agency: Evidence from an RCT in Germany. https://maxkasy.github.io/home/files/papers/supplement_cash_mentalhealth_agency.pdf

Carter, L., Liu, D. & Cantrell, C. (2020). Exploring the intersection of the digital divide and artificial intelligence: A hermeneutic literature review. AIS Transactions on Human-Computer Interaction, 12 (4), 253–275.

Fend, H. (2008). Neue Theorie der Schule: Einführung in das Verstehen von Bildungssystemen (2., durchges. Aufl.). Springer VS.

Institut für Arbeitsmarkt- und Berufsforschung (IAB) (2025). Erwerbsbeteiligung, Armut und Sozialpolitik. Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit. https://iab.de/themen/erwerbsbeteiligung-armut-und-sozialpolitik/ [Zugriff: 08.09.2025].

Laros, A., Fuhr, T. & Taylor, E. W. (2017). Transformative learning meets Bildung: An international exchange. Sense Publishers.

McElvany, N., Lorenz, R., Frey, A., Goldhammer, F., Schilcher, A. & Stubbe, T. C. (Hrsg.) (2023). IGLU 2021: Lesekompetenz von Grundschulkindern im internationalen Vergleich und im Trend über 20 Jahre. Waxmann.

Morozov, E. (2014). To save everything, click here: The folly of technological solutionism (Paperback 1. Publ.). PublicAffairs.

Morris, M. R., Sohl-Dickstein, J., Fiedel, N., Warkentin, T., Dafoe, A., Faust, A., Farabet, C. & Legg, S. (2024). Levels of AGI for Operationalizing Progress on the Path to AGI (No. arXiv:2311.02462). arXiv. https://doi.org/10.48550/arXiv.2311.02462

Sengupta, U. (2020). How Monoculturalism, Aculturalism, and Postculturalism in Algorithmic Development Excludes a Variety of Contributions From Diverse Cultures. SSRN Electronic Journal. https://doi.org/10.2139/ssrn.3621779

Shams, R. A., Zowghi, D. & Bano, M. (2025). AI and the quest for diversity and inclusion: A systematic literature review. AI Ethics, 5, 411–438. https://doi.org/10.1007/s43681-023-00362-w

Shew, A. (2022). How To Get A Story Wrong: Technoableism, Simulation, and Cyborg Resistance. Including Disability, 1, 13–36. https://doi.org/10.51357/id.vi1.169

Shew, A. & Earle, J. (2024). Cyborg-Technology Relations. Journal of Human-Technology Relations, 2 (1), 1–19. https://doi.org/10.59490/jhtr.2024.2.7073

Singer-Brodowski, M., Förster, R., Eschenbacher, S., Biberhofer, P. & Getzin, S. (2022). Facing Crises of Unsustainability: Creating and Holding Safe Enough Spaces for Transformative Learning in Higher Education for Sustainable Development. Frontiers in Education, 7, 787490. https://doi.org/10.3389/feduc.2022.787490

van Dijk, J. (2020). The Digital Divide. Polity Press.

Varsik, S. & Vosberg, L. (2024). The potential impact of Artificial Intelligence on equity and inclusion in education (OECD Artificial Intelligence Papers No. 23). OECD. https://doi.org/10.1787/15df715b-en

Walgenbach, K. (2023). Digitaler Ableismus im Feld der Bildung. MedienPädagogik: Zeitschrift für Theorie und Praxis der Medienbildung, 20, 1–26. https://doi.org/10.21240/mpaed/jb20/2023.09.01.X

Wang, C., Boerman, S. C., Kroon, A. C., Möller, J. & de Vreese, C. (2024). The artificial intelligence divide: Who is the most vulnerable? New Media & Society, 27 (7), 3867–3889. https://doi.org/10.1177/14614448241232345

World Economic Forum (2025). Future of Jobs Report 2025. World Economic Forum.

  1. LLMs sind KI-Modelle, die Sprache verstehen, verarbeiten und selbstständig Texte generieren können.

  2. Wir verstehen unter Inklusion, dass Menschen an der Gesellschaft teilhaben und sich zugehörig fühlen. Zentrale Bereiche dafür sind die Erwerbsarbeit, (Bürger:innen-)Rechte und soziale Beziehungen.

  3. Zum Beispiel: Ein KI-basiertes Lernsystem wird mit Daten trainiert, die überwiegend Schüler:innen ohne Behinderungen enthalten. Aufgrund dessen bewertet das System Schüler:innen mit Behinderungen ungünstiger oder schätzt ihre Fähigkeiten schlechter ein, weil es unbewusst gesellschaftliche Stereotype reproduziert. Diese gehen davon aus, dass Schüler:innen mit Behinderungen weniger lernfähig oder weniger leistungsstark sind. Dadurch werden diese Schüler:innen in ihrer individuellen Entwicklung benachteiligt und ihre Fähigkeiten werden gesellschaftlich falsch repräsentiert.

  4. Unter Digital Divide versteht man die digitale Spaltung der Gesellschaft auf den Ebenen des Zugangs zu und des Umgangs mit digitalen Technologien.

  5. Low-Code- oder No-Code-Tools sind Plattformen, die es ermöglichen, Anwendungen ohne (umfangreiche) Kenntnisse im Programmieren zu erstellen und zu verändern.