Zwischen Fortschritt und Vorsicht

Assistive Technologien und künstliche Intelligenz

Christina Arn

Zusammenfassung
Der Artikel behandelt das Zusammenspiel von assistiven Technologien und künstlicher Intelligenz (KI) aus einer ethischen Perspektive. Zunächst wird nach den positiven und negativen Aspekten von KI gefragt. Danach wird gezeigt, welche moralischen Dimensionen KI aufweist, beispielsweise in Bezug auf Chancengerechtigkeit und Datenschutz. Abschliessend soll anhand der Richtlinien der OECD exemplarisch aufgezeigt werden, dass gemeinsame Prinzipien für den Umgang mit KI wichtig sind, um KI verantwortungsvoll und wertebasiert einzusetzen.

Résumé
Cet article traite de l’interaction entre les technologies d’aide et l’intelligence artificielle (IA) d’un point de vue éthique. Il commence par s’interroger sur les aspects positifs et négatifs de l’IA. Ensuite sont présentées les dimensions morales de l’IA, par exemple en matière d’égalité des chances et de protection des données. Enfin, les lignes directrices de l’OCDE sont utilisées pour illustrer l’importance de principes communs pour une utilisation de l’IA responsable et fondée sur des valeurs.

Keywords: Digitalisierung, künstliche Intelligenz, Hilfsmittel, assistive Technologien, Barrierefreiheit, Chancengerechtigkeit, Ethik / numérisation, intelligence artificielle, moyen auxiliaire, technologies d'aide, accessibilité, équité des chances, éthique

DOI: https://doi.org/10.57161/z2026-01-01

Schweizerische Zeitschrift für Heilpädagogik, Jg. 32, 01/2026

Creative Common BY

Künstliche Intelligenz und assistive Technologien

Viele assistive Technologien basieren auf künstlicher Intelligenz (KI). Sie bieten neue Möglichkeiten, das Leben vieler Menschen zu verbessern. In der Heilpädagogik und für Menschen mit Beeinträchtigungen eröffnen sie die Chance auf mehr Autonomie, Selbstbestimmung und Wohlbefinden. Doch sie bergen nachweislich auch Risiken, gerade in der Heilpädagogik, die sich mit besonders vulnerablen Menschen beschäftigt. Deshalb ist es notwendig, ab und zu einen Schritt zurückzutreten und insbesondere die moralischen Fragen in den Blick zu nehmen, die im Zusammenhang mit KI zweifelsohne bestehen.

Der Begriff der KI ist längst im Alltag angekommen. Dennoch soll an dieser Stelle eine Überlegung folgen, wie KI definiert werden kann. Tzafestas (2016, S. 37) beschreibt KI zum Beispiel als «Maschinen, die in der Lage sind, auf menschenähnliche Weise zu ‹denken› und höhere intellektuelle Fähigkeiten und berufliche Fertigkeiten zu besitzen, einschliesslich der Fähigkeit, sich selbst aus ihren eignen Fehlern zu korrigieren». Coeckelbergh (2020, S. 203) ergänzt, dass «Intelligenz durch technische Mittel dargestellt oder simuliert wird». Und Boden (2016, S. 1) versteht künstliche Intelligenz als Bestreben, «Computer dazu zu bringen, die Art von Dingen zu tun, die der Verstand tun kann».

Künstliche Intelligenz ist ein zentraler Bestandteil moderner assistiver Technologien, die Menschen mit Behinderungen im Alltag und im Berufsleben nutzen können. Dazu gehören Sprachassistenten, visuelle Hilfen und Systeme, die Texte in Leichte Sprache übertragen. Es gibt Tools, die visuelle Inhalte für Menschen mit Sehbehinderungen erschliessen oder KI-gestützte Echtzeit-Gebärdensprachübersetzer für Personen mit einer Hörschädigung. Auch Spracherkennung und Sprachausgabe sowie personalisierte Lern- und Alltagshilfen beruhen zunehmend auf KI-Systemen. All diese Technologien helfen dabei, Barrieren zu überwinden und die Teilhabe zu verbessern.

In der Bildung ermöglichen KI-gestützte assistive Technologien personalisierte Lernwege. Sie unterstützen inklusive Unterrichtsmethoden und fördern die individuellen Kompetenzen der Schüler:innen: «KI-gestützte Lösungen fungieren somit nicht nur als Werkzeuge zur Verbesserung des Lernens, sondern auch als Mittel, um einen inklusiven, adaptiven Unterricht zu realisieren» (Schulz & Schmid-Meier, 2024, S. 36). Beispiele dafür sind Sprachassistenten, Seh- und Hörhilfen, Lese- und Schreibunterstützung sowie mehrsprachige Unterrichtsmaterialien.

Auch im Rahmen des Human Enhancement gibt es KI-gestützte assistive Technologien: «Robotergestützte Wiederherstellung oder Restauration bedeutet, dass fehlende physische oder kognitive Fähigkeit durch eine funktionale mechanische oder elektronische Fähigkeit ersetzt wird» (Bartneck et al., 2019, S. 109). Ebenfalls In diesen Bereich gehören Roboter wie die Robbe Paro. Sie kann eingesetzt werden, um soziale Isolation und Einsamkeit zu verringern. Ein weiteres Beispiel sind Roboter, die sogenannte nudges (Schubse) geben, um einen Menschen zu einem bestimmten Verhalten zu animieren.

KI aus ethischer Perspektive

Die digitale Zukunft birgt unzählige Möglichkeiten, wirft aber auch essenzielle Fragen auf. Ethiker:innen auf der ganzen Welt haben sich darum in den vergangenen Jahren intensiv mit diesem Thema auseinandergesetzt. Die Intensität dieser Auseinandersetzung ist vergleichbar mit anderen grossen Themen der Ethik, sie erfolgte jedoch innerhalb einer viel kürzeren Zeit. Hinter dem Interesse der Forschung steckt eine immer wieder in ähnlicher Form formulierte Sorge: «Noch können Maschinen nicht denken wie wir. Doch wenn sich KI weiterentwickelt und alles besser kann, stellen sich die Fragen, was dies für die Gesellschaft bedeutet und ob der Mensch die Kontrolle behält» (Gull, 2024, S. 43). In dieser Formulierung zeigt sich eine existenzielle Angst vor dem Verlust der menschlichen Rolle.

In den letzten 15 Jahren sind erste Orientierungshilfen und Leitlinien in Bezug auf KI entstanden – noch bevor das Thema im Bewusstsein der meisten Menschen präsent war. Oft wurden sie in Zusammenarbeit mit Regierungen, Nicht-Regierungs-Organisationen, Universitäten und anderen Institutionen entwickelt. Die Grundfrage dieser Dokumente lautet zusammengefasst: Wie können wir sicherstellen, dass technologische Fortschritte im Einklang mit unseren Werten und unseren Bedürfnissen stehen?

Aus ethischer Sicht lässt sich zeigen, dass KI alle betrifft. Denn «bei KI geht es nicht nur um Technologie, sondern auch darum, was Menschen damit machen, wie sie sie nutzen, wie sie sie wahrnehmen und erleben und wie sie sie in ein grösseres sozio-technisches Umfeld einbetten» (Coeckelberg, 2020, S. 80). Tabelle 1 enthält eine nicht abschliessende Sammlung von Vor- und Nachteilen von KI. Sie basiert auf den Arbeiten verschiedener Autor:innen (Bartneck et al., 2019; Heinemann & Matusiewicz, 2020; Kirchschläger, 2024; Taddeo, 2025).

Tabelle 1: Chancen und Risiken von KI

Chancen

Risiken

Effizienz und Entlastung

KI kann repetitive, gefährliche oder monotone Aufgaben übernehmen.

Diskriminierung und Vorurteile

Wenn KI mit verzerrten Daten trainiert wird, kann sie bestehende gesellschaftliche Vorurteile verstärken.

Zugang zu Wissen und Bildung

KI-gestützte Lernplattformen ermöglichen personalisiertes Lernen. Dadurch kann Bildung inklusiv und global zugänglicher werden.

Überwachung und Privatsphäre

KI wird in der Überwachung eingesetzt, zum Beispiel für die Gesichtserkennung im öffentlichen Raum.

Medizinische Fortschritte

KI hilft dabei, Diagnosen zu stellen und Krankheiten frühzeitig zu erkennen. Das kann Leben retten und Fähigkeiten erhalten.

Verantwortung und Kontrolle

Die Abläufe von KI sind oft nicht nachvollziehbar und somit nicht kontrollierbar.

Barrierefreiheit

KI-gestützte Tools können Menschen mit Beeinträchtigungen im Alltag unterstützen.

Manipulation und Desinformation

KI-generierte Inhalte können zur Täuschung und Manipulation verwendet werden.

Aus ethischer Sicht kann KI also zu mehr Sicherheit, grösserem Wohlbefinden und besserer Bildung führen. Sie kann den Alltag erleichtern und Gesundheit, Autonomie und Teilhabe für viele Menschen zugänglicher oder überhaupt erst verfügbar machen. In den Überlegungen zu KI ist es jedoch auch sinnvoll, den negativen Aspekten Aufmerksamkeit zu schenken. Weiterführend ist es wichtig, sich die Frage zu stellen, welche moralischen Dimensionen an die Chancen und Risiken der KI geknüpft sind.

Moralische Dimensionen von KI

Die nachfolgenden Dimensionen setzen sich zusammen aus einigen Chancen und Risiken aus der Tabelle 1 sowie zusätzlichen Aspekten aus den Bereichen Heilpädagogik und Medizin.

Chancengerechtigkeit und Zugänglichkeit

KI soll dabei helfen, Barrieren abzubauen und Chancengleichheit zu fördern. Das bedeutet, dass alle Menschen im Umgang mit KI geschult und an die Bedienung herangeführt werden müssen. Zudem müssen assistive Technologien für alle erschwinglich sein. Andernfalls besteht die Gefahr, bestehende Ungleichheiten zu verstärken.

Qualität der ‹gefütterten› Daten

KI-Systeme können nur so zuverlässig und objektiv arbeiten wie die Daten, mit denen sie trainiert werden, es zulassen. Verzerrte oder fehlerhafte Datensätze führen zu unvollständigen, möglicherweise diskriminierenden und unredlichen Ergebnissen.

Manipulation und Desinformation

KI kann das Verhalten von Nutzenden beeinflussen, etwa durch Empfehlungssysteme (z. B. KI-generierte Vorschläge bei der Spracheingabe) oder adaptive Sprachführung. Aus Sicht der Gerechtigkeit sollte KI unvoreingenommen handeln. Aufgrund der Prämisse, dass KI nur so gut ist wie ihr Dateninput, kann dies jedoch nicht mit Sicherheit gewährleistet werden (Bartneck et al., 2019).

Verantwortung und Kontrolle

Wer ist verantwortlich, wenn die Nutzung einer Technologie zu einem Schaden führt? Meist wird erst dann nach der Verantwortung gefragt, wenn ein Schaden bereits angerichtet ist und nicht, solange eine Sache einwandfrei funktioniert. Solche Schäden «können ernsthafte Probleme sein, d.h. Probleme, die nicht nur einen einzelnen Fall, sondern in vielen Fällen systematisch auftreten» (Bartneck et al, 2019, S. 57). Daher wird von unterschiedlichen Seiten Kontrolle gefordert. Es ist unklar, wer eine solche legale und legitime Kontrollfunktion übernehmen kann.

Grenze Mensch–Maschine

KI greift unmittelbar in das Leben jener ein, die sie nutzen. Eine Sprachausgabe artikuliert nicht nur für die Nutzenden, sondern formuliert häufig auch für sie. Dabei ist jedoch nicht gewährleistet, dass die ursprüngliche Absicht der Nutzenden übermittelt wird. Dadurch ist ihre Selbstbestimmung eingeschränkt.

In diesem Zusammenhang muss auch die Frage nach der oft beobachteten Anthropomorphisierung gestellt werden. Das bedeutet, dass der KI menschliche Eigenschaften und Verhaltensweisen zugeschrieben werden, wodurch die Grenzen zwischen Mensch und Technologie verschwimmen. «In einer sozialkonstruktivistischen Lesart des Phänomens der Anthropomorphisierung (speziell von Robotern) stellt sich nämlich die Frage, unter welchen Umständen Zuschreibungen menschlicher Eigenschaften auf nicht-menschliche Entitäten auch handlungswirksam werden» (Marquardt, 2017, S. 4).

Datenschutz

Wenn mit einer KI Personendaten bearbeitet oder ausgegeben werden, ist meist nicht sicher nachvollziehbar, was anschliessend mit den Daten passiert. Es besteht die Gefahr, dass das Menschenrecht auf Privatsphäre verletzt wird. «Die Bearbeitung von Personendaten kann dabei zu unterschiedlichen Zeitpunkten im KI-Lebenszyklus erfolgen. So zum Beispiel, wenn Personendaten:

Gesellschaftliche Auswirkungen

KI verändert die Gesellschaft nachhaltig: Sie kann Teilhabe und Selbstständigkeit fördern, gleichzeitig aber auch neue Abhängigkeiten schaffen. Diskriminierende Algorithmen oder mangelnde Transparenz in Entscheidungsprozessen können zusätzliche soziale Ungleichheiten hervorrufen. Die Übernahme bestimmter Handlungen und Dienstleistungen durch KI-gesteuerte Systeme, beispielsweise in der Robotik, kann dazu führen, dass der Unterstützungsbedarf einer Person oder Gruppe als erledigt betrachtet wird und diese Menschen aus dem Blick verloren werden.

Ökologische Auswirkungen

Es wird erwartet, dass KI in den kommenden Jahren den grössten Anteil am steigenden Energieverbrauch verursacht. Eine Studie der Internationalen Energieagentur (IEA) kommt zum Ergebnis: «Data centre electricity consumption is set to more than double to around 945 TWh by 2030» (IEA, 2024, S. 14)[1]. Es ist auch bekannt, dass der Wasserverbrauch für die Kühlung der Server dramatisch ansteigt. Dies wirft umweltethische Probleme auf, die alle Menschen betreffen.

Es sind also grundlegende ethische Werte, die je nach Einsatz von KI berührt und möglicherweise verletzt werden, darunter Gerechtigkeit, Vertrauen, Privatsphäre, Autonomie, Verantwortung und Wohlergehen. Künstliche Intelligenz und assistive Technologien eröffnen neue Möglichkeiten der Teilhabe, es stellt sich jedoch die Frage, ob sie wirklich echte Selbstbestimmung gewährleisten.

Konsequenz: Orientierung an gemeinsamen Prinzipien

Die Nutzer:innen müssen einer KI vertrauen können. Das Vertrauen in eine Maschine unterscheidet sich aber deutlich vom Vertrauen in einen Menschen. Bartneck et al. (2019, S. 38) schreiben: «Wenn eine Person einer KI-Handlungseinheit vertraut, ist es unklar, ob die Maschine selbst Entscheidungen trifft, oder einem vordefinierten gesteuerten Verhalten folgt. [...] Wir können nicht sicher sein, ob ein System in unserem besten Interesse handelt.» Daher braucht es allgemeinverbindliche Richtlinien, denen eine KI genügen muss. Wenn Richtlinien oder mindestens Empfehlungen ausgesprochen werden sollen, lohnt es sich, auf einen Akteur zu schauen, der international agiert.

An dieser Stelle sollen die Überlegungen der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) einbezogen werden. Bei der Ausarbeitung von Prinzipien zum Umgang mit KI bemüht sich die OECD sehr um responsible innovation, also die Beachtung ethischer Grundsätze von Anfang an. Sie möchte den Bedürfnissen der Menschen und geteilten moralischen Werten von Beginn weg Rechnung tragen. Die Überlegungen der OECD (o.J.b) stehen stellvertretend für weitere, vergleichbare Reflexionen anderer Organisationen und Initiativen (z. B. das EU-Gesetz zur künstlichen Intelligenz, 2024):

Responsible innovation is trustworthy technology development guided by democratic values, responsive to social needs and accountable to society. Adopting a responsible innovation approach in the development of emerging technologies can help align research and commercialisation with societal needs.[2]

Im Folgenden werden die wertebasierten Prinzipien der OECD (o.J.a) zur künstlichen Intelligenz zusammengefasst.[3]

Die OECD schreibt, dass sie mit den Prinzipien den Einsatz von innovativer und vertrauenswürdiger KI fördern will, welche die Menschenrechte und demokratischen Werte achtet. Zudem möchte sie das Vertrauen in ein Mittel stärken, das aus dem Alltag nicht mehr wegzudenken ist. Prognosen sagen voraus, dass KI bis 2030 die gesamte Industrie und Gesellschaft durchdringen und zum Wachstumsfaktor Nummer 1 werden wird, als wichtigste Anwendung in der Neuzeit (Otte, 2021).

Fazit

KI steckt in vielen assistiven Technologien, wird jedoch nicht immer als solche wahrgenommen. Umso wichtiger ist es, ihre ethischen Aspekte zu kennen und während der Anwendung angemessen zu berücksichtigen. Angesichts der Tatsache, dass sich die Möglichkeiten der KI beinahe im Halbjahrestakt verändern, ist überlegtes und rasches, aber nicht überhastetes Handeln notwendig. «‹Digital Detox› erscheint keinem mehr als valide Option» (Müller, 2020, S. 85), um mit Ängsten, Risiken und Sorgen umzugehen. KI kann im Rahmen assistiver Technologien ihr volles Potenzial entfalten und Menschen wirklich unterstützen, wenn gesellschaftliche Werte, erarbeitete Prinzipien, Leitlinien und Ordnungen berücksichtigt werden.

Ein Bild, das Menschliches Gesicht, Person, Porträt, Schwarzweiß enthält.

Automatisch generierte Beschreibung

Christina Arn, lic. phil. MAE
Senior Lecturer

Präsidentin Ethikkomission

Interkantonale Hochschule für Heilpädagogik

christina.arn@hfh.ch

Literatur

Bartneck, C., Lütge, C., Wagner, A. & Welsh, S. (2019). Ethik in KI und Robotik. Hanser.

Boden, M. (2016). AI: Its nature and future. Oxford university press.

Coeckelbergh, M. (2020). AI Ethics. The MIT Press essential Knowledge. MIT Press.

educa (o. J.). Künstliche Intelligenz aus Datenschutzsicht. www.educa.ch/de/aktuelles/educa-dossier/ki-der-bildung/kuenstliche-intelligenz-aus-datenschutzsicht [Zugriff: 02.12.2025].

Gull, T. (2024). KI muss menschlicher werden. UZH Magazin, 29 (3), 36–45. https://www.news.uzh.ch/de/articles/news/2024/ai_human.html

IEA (o. J.). Energy and AI. Executive summary. https://www.iea.org/reports/energy-and-ai/executive-summary [Zugriff: 02.12.2025].

Kirchschläger, P. C. (2024). Digitale Transformation und Ethik. Nomos Verlagsgesellschaft.

Marquardt, M. (2017). Anthropomorphisierung in der Mensch-Roboter Interaktionsforschung: theoretische Zugänge und soziologisches Anschlusspotential. Working Papers kultur- und techniksoziologische Studien, 10 (1). Universität Duisburg-Essen Campus Duisburg, Fak. für Gesellschaftswissenschaften, Institut für Soziologie. https://nbn-resolving.org/urn:nbn:de:0168-ssoar-57037-3

Müller, T. (2020). Kernthemen der digitalen Transformation eines Krankenhauskonzerns aus ethischer Sicht. In S. Heinemann & D. Matusiewicz (Hrsg.), Digitalisierung und Ethik in Medizin und Gesundheitswesen (S. 79–86). Medizinisch Wissenschaftliche Verlagsgesellschaft.

OECD (o.J.a). OECD AI Principles overview. https://oecd.ai/en/ai-principles [Zugriff: 10.10.2025].

OECD (o.J.b). Responsible innovation. https://www.oecd.org/en/topics/responsible-innovation.html [Zugriff: 10.10.2025].

Otte, R. (2021). Künstliche Intelligenz. Risiko und Chance. Wiley-VCH GmbH.

Schulz, L. & Schmid-Meier, C. (2024). Assistive Technologien und Künstliche Intelligenz: Ein KI-Kompetenzmodell zum Einsatz im Klassenzimmer. #schuleverantworten, 4 (1), 35–43. https://doi.org/10.53349/schuleverantworten.2024.i1.a397

Taddeo, M. (2024). Ethical Frontiers – information conflicts in the Digital Age. In M. Meyer & S. Sura (Hrsg.), Neue Räume für alte Ängste (S. 119–133). NZZ Libro.

Tzafestas, S. G. (2016). Roboethics: A Navigating Overview. Springer.

  1. Deutsche Übersetzung, erstellt mithilfe von KI: «Der Stromverbrauch von Rechenzentren wird bis 2030 auf rund 945 TWh ansteigen, und sich damit mehr als verdoppeln.»

  2. Deutsche Übersetzung, erstellt mithilfe von KI: «Verantwortungsvolle Innovation bedeutet vertrauenswürdige Technologieentwicklung, die von demokratischen Werten geleitet wird, auf soziale Bedürfnisse eingeht und der Gesellschaft gegenüber rechenschaftspflichtig ist. Ein verantwortungsvoller Innovationsansatz bei der Entwicklung neuer Technologien kann dazu beitragen, Forschung und Vermarktung an den gesellschaftlichen Bedürfnissen auszurichten.»

  3. Die OECD formuliert im gleichen Schritt auch Empfehlungen für politische Verantwortungsträger. Dieser Aspekt wird in diesem Artikel ausgelassen, findet sich aber unter der folgenden Adresse: https://oecd.ai/en/ai-principles