Künstliche Intelligenz und Inklusion in der Arbeitswelt

Susan Beudt

Veröffentlicht am 4.4.2024

Leitlinien und Kompetenzen für die KI-gestützte Förderung beruflicher Teilhabe

1 Einführung – Relevanz von KI für Inklusion

In den Jahren 2011 bis 2021 stieg der weltweite Anteil von Menschen mit Behinderungen aufgrund demografischer und epidemiologischer Veränderungen auf circa 1,3 Mrd. Menschen (etwa 16 % der Weltbevölkerung, WHO, 2022). [1] Im weltweiten Vergleich zeigt sich ein niedrigerer sozioökonomischer Status von Menschen mit Behinderungen mit weitverbreiteten Ungleichheiten in den Bereichen Bildung und Arbeit (WHO, 2022). Die Ungleichheiten erstrecken sich über alle Ebenen des Bildungssystems. [2] Die Betrachtung der Beschäftigungssituation von Menschen mit Behinderungen zeigt ebenfalls eine deutliche Benachteiligung. [3] Ein nennenswerter Anteil der (Welt-)Bevölkerung ist somit von (potenziellen) Zugangsbeschränkungen und Benachteiligung in verschiedenen Lebensbereichen betroffen. Wandel und Disruption insbesondere durch Künstliche Intelligenz (KI) können zwar neue Barrieren schaffen, aber auch vielfältige Potenziale für Inklusion bieten.

KI kann nicht nur unterstützend bei der Ausbildung (Ersteingliederung) eingesetzt werden und dadurch breitere und/oder interessantere Möglichkeiten erlernbarer Berufe bieten (Beudt & Pinkwart, 2021). Auch für die Wiedereingliederung von Menschen mit erworbener veränderter Leistungsfähigkeit ist der Einsatz innovativer Technologien vielversprechend, indem diese bei Erwerb und Weiterentwicklung von auf dem allgemeinen Arbeitsmarkt nachgefragten Kompetenzen – einschließlich im Umgang mit KI – unterstützen (ebd.). Übergeordnet bieten KI-Technologien Potenziale, um gesundes Arbeiten zu fördern (etwa durch Entlastung oder Übernahme monotoner oder gesundheitsschädlicher Tätigkeiten; Apt et al., 2018). Noch vor einigen Jahren gab es nur vereinzelte wissenschaftliche Studien zu Potenzialen von KI für die Unterstützung von Menschen mit Behinderungen im Bildungs- und Arbeitskontext – etwa mit Fokus auf einen Nachteilsausgleich bei einer bestimmten Behinderung (z. B. durch intelligente Prothesen [4] oder einen Gebärdensprach-Avatar [5] ) und eine spezifische Lernaufgabe oder Arbeitstätigkeit (z. B. motivationsförderliche Arbeitsteilung für schwerbehinderte Produktionsmitarbeitende in Mensch-Roboter-Kollaborationen [6] oder AR-Assistenz für Menschen mit kognitiven Beeinträchtigungen bei Montagearbeiten [7] ).

Es fehlte eine „systematische, wissenschaftlich fundierte Übersicht existierender und in Entwicklung befindlicher KI-basierter Assistenzsysteme für Menschen mit Behinderungen, welche nutz- und mehrwertig für die Unterstützung im Rahmen der beruflichen Rehabilitation“ sowie in Unternehmen sein können (Beudt & Pinkwart, 2021). Diese Forschungslücke wurde in den letzten Jahren erstmals adressiert: [8] So zeigte ein Monitoring KI-gestützter Assistenztechnologien deutliche Angebotslücken in Hinblick auf die tatsächliche Verfügbarkeit der Technologien sowie die adressierten Behinderungsarten (Blanc & Beudt, 2022; Blanc et al., 2021). Von den hier erfassten 157 Technologien [9] waren nur 46 Prozent fertige Produkte, 54 Prozent stammten aus Forschungs- und Entwicklungsprojekten. Viele der Technologien waren für Menschen mit Sinnes- und Körperbehinderungen gedacht, nur wenige für Menschen mit psychischen Einschränkungen oder Lernbehinderungen (ebd.). Die (Nicht‑) Verfügbarkeit von Technologien hatte Auswirkungen auf im Projekt geplante Erprobungen (teils waren Ansprechpersonen und Prototypen nicht mehr verfügbar). Aufgrund der insgesamt zunehmenden Zahl psychischer sowie geistiger und Lernbehinderungen stieg zudem auch der Bedarf an entsprechend geeigneten technischen Hilfsmitteln in der beruflichen Rehabilitation und dem Arbeitsleben (Beudt & Pinkwart, 2021), was eine Reihe von Forschungs- und Entwicklungsbedarfen aufzeigte. Eine Befragung von Inklusions- und KI-Expert*innen ergab darüber hinaus, dass für das Gelingen der Einführung und langfristigen Nutzung KI-gestützter Assistenzsysteme – neben dem persönlichen Mehrwert für die Nutzenden (in Hinblick auf Arbeitszufriedenheit, ‑erleichterung bzw. ‑ermöglichung) – eine mit geringem Lernaufwand sowie einfach und selbstbestimmt anzuwendende Technologie als ausschlaggebend bewertet wurde (Blanc & Beudt, 2022).

Der Einsatz KI-gestützter Assistenztechnologien zur Unterstützung von Menschen mit Behinderungen in der beruflichen Bildungspraxis und bei betrieblichen Arbeitsprozessen erfordert nicht nur die Betrachtung und Förderung individueller Faktoren der Nutzenden (insbes. Kompetenzen, Akzeptanz der Technologien, Motivation zu deren Nutzung, Selbstbestimmung; Beudt & Pinkwart, 2021; s. auch Kap. 3). Auch weitere Beteiligte – im Rahmen der beruflichen Rehabilitation etwa die Fachkräfte, Ausbildenden/Lehrkräfte, Betreuungspersonen – spielen eine entscheidende Rolle bei der Förderung dieser Faktoren (Feichtenbeiner & Beudt, 2022; Blanc & Beudt, 2022; s. auch Kap. 4). Diese müssen selbst entsprechende KI-Kompetenzen aufbauen, um Menschen mit Behinderungen in Hinblick auf einen möglichst selbstbestimmten Umgang mit KI-Technologien zu unterstützen (Beudt & Pinkwart, 2021). Auch für den Einsatz der Assistenztechnologien in Unternehmen des allgemeinen Arbeitsmarkts sind Qualifizierungsmaßnahmen zu ergreifen, damit nicht nur Arbeitnehmende, sondern auch Führungskräfte und Entscheider*innen den neuen Kompetenzanforderungen durch den digitalen und KI-getriebenen Wandel der Arbeitswelt entsprechen können (Feichtenbeiner & Beudt, 2022).

Ziel des vorliegenden Beitrags ist es, die Bedeutung von KI zur konkreten Unterstützung von Menschen mit Behinderungen sowie – breiter betrachtet – zur Förderung von Teilhabe, insbesondere im Bildungs- und Arbeitskontext, zu beleuchten. Dabei wird unter anderem eine Reihe von (KI-)Kompetenzen und Rahmenbedingungen für den qualifizierten Einsatz von KI in den Blick genommen, die zu einem autonomen und selbstbestimmten Leben von Menschen mit Behinderungen beitragen können.

2 Rahmenwerke und rechtlich-regulatorische Entwicklungen

2.1 Globale Ziele und ethische Leitlinien für Inklusion und KI

Die Vereinten Nationen stellten in ihrer Agenda 2030 vulnerable Personengruppen (Menschen mit Behinderungen einbeziehend) in den Mittelpunkt: Dem Grundprinzip „leave no one behind“ folgend soll durch die globalen Nachhaltigkeitsziele (Sustainable Development Goals, SDGs) verhindert werden, dass diese Gruppen bei der Transformation der Welt in allen gesellschaftlichen Bereichen benachteiligt werden (UN, 2015). Menschen mit Behinderungen werden hier insbesondere im Zusammenhang mit Bildungsteilhabe, menschenwürdiger Arbeit und fairer Entlohnung sowie Reduktion von Ungleichheit zur Förderung von mehr sozialer, wirtschaftlicher und politischer Inklusion angeführt (Beudt, Feichtenbeiner, Blanc & Pinkwart, in press).

Die letzten Jahre waren geprägt durch eine zunehmende Debatte zu „AI Ethics“, also ethisch-normativen Fragen im Zusammenhang mit der Entwicklung, der Gestaltung und dem Einsatz von KI-Technologien. In Deutschland nahm die Auseinandersetzung mit dem Thema – auch auf politischer Ebene – insbesondere in den Jahren 2018 bis 2020 an Fahrt auf. [10] Insgesamt wurde national, EU-weit und international eine beträchtliche Anzahl ethischer Leitlinien entwickelt. [11] Die Perspektive von Menschen mit Behinderungen war hierbei allerdings deutlich unterrepräsentiert (Beudt et al., 2020). Die zunehmende Thematisierung ethischer Fragestellungen im Kontext von KI und in diesem Zusammenhang die nähere Beschäftigung mit Diskriminierung und Bias rückten jedoch diverse und vulnerable Nutzergruppen mehr ins Licht des Interesses. Diversität und Diskriminierungsfreiheit wurden zum einen im Zusammenhang mit Trainingsdaten, zum anderen in Bezug auf diverse (KI-)Teams diskutiert, insbesondere jedoch in Hinblick auf die Dimensionen Geschlecht und Geschlechtsidentität, ethnische Herkunft und Nationalität sowie Alter.

Da Diversität in Bezug auf körperliche, geistige und psychische Fähigkeiten hierbei noch eine sehr untergeordnete Rolle spielte, wurde diese Lücke im Rahmen eines Forschungsprojekts adressiert: Eine interdisziplinäre Arbeitsgruppe [12] beleuchtete entsprechende ethisch-normative Fragestellungen beim Einsatz KI-gestützter Assistenztechnologien (Ergebnisse in Feichtenbeiner, Stähler & Beudt, 2022). Unter anderem wurden hier ethische Dimensionen identifiziert und mit normativen Anforderungen beschrieben, die aus Sicht der beruflichen Inklusion von Menschen mit Behinderungen von Bedeutung sind. Dabei wurde deutlich, dass neben Diversität und Diskriminierungsfreiheit vor allem auch die Selbstbestimmung sowie Partizipation und Teilhabe wichtige ethische Werte sind, die bei der Entwicklung und dem Einsatz von KI-Technologien berücksichtigt werden sollten. Darüber hinaus wurden Privatsphäre (Menschen mit Behinderungen können in besonderer Weise von Privatsphäre-Eingriffen betroffen sein, wenn sie etwa auf persönliche Assistenz angewiesen sind), Sicherheit und Transparenz [13] als besonders bedeutsam bewertet. Wenn KI-Systeme aufgrund fehlender Trainingsdaten von Menschen mit Behinderungen für diese nicht genau und zuverlässig funktionieren (ebd.) und sie z. B. im Rahmen von Einstellungsverfahren zum Ausschluss von Interviews aufgrund atypischer Merkmale führen, birgt dies ein zusätzliches Risiko, auf dem Arbeitsmarkt benachteiligt zu werden (ILO, 2022). Eine transparente, zugängliche und verständliche Beschreibung unter anderem der Ziele und Wirkungsabsicht genutzter Daten und Modelle ist eine wichtige Voraussetzung für die selbstbestimmte Entscheidung über sowie die Nutzung von Technologien durch Menschen mit Behinderungen (Feichtenbeiner et al., 2022). Die Ergebnisse der Arbeitsgruppe zeigten, dass

  1. ein Transfer ethisch-normativer Dimensionen und Anforderungen in konkrete technische und organisatorische Maßnahmen zu deren Einhaltung notwendig ist und eine Herausforderung darstellen kann,
  2. geeignete methodische Ansätze zur ethischen Evaluation in der Praxis der Entwicklung und des Einsatzes von KI-Technologien zu erarbeiten sind und
  3. für die Einhaltung ethisch-normativer Anforderungen vor allem auch rechtliche Regulierungsansätze von Bedeutung sind (ebd.).

Betreiber müssen gemäß der Transparenzverpflichtungen [14] betroffene natürliche Personen zukünftig darüber informieren,

  • wenn sie mit KI-Systemen interagieren, die Inhalte künstlich generieren oder manipulieren (Art. 52). Unabhängig von der Risikoeinstufung bestehe hier ein besonderen Risiko der Täuschung oder Nachahmung („impersonation“, z. B. durch „deep fakes“, EG 70)
  • wenn sie Emotionserkennungssystemen und Systemen zur biometrischen Kategorisierung ausgesetzt sind (Art. 52). Diese können durch die Verarbeitung biometrischer Daten Emotionen, Absichten oder Zugehörigkeiten zu spezifischen Kategorien, wie z. B. Alter, Geschlecht, ethnische Herkunft, persönlichen Eigenschaften, Vorlieben und Interessen, ableiten (EG 70).

Dass bei der Umsetzung dieser Transparenzpflichten die Merkmale von schutzbedürftigen Gruppen (z. B. aufgrund einer Behinderung) berücksichtigt werden und Informationen in für Menschen mit Behinderungen zugänglichen Formaten verfügbar sein sollten, wird nicht im Art. 52, sondern nur im EG 70 aufgeführt (ohne rechtliche Bindungswirkung).

Es finden sich weitere Anforderungen in Bezug auf Maßnahmen für eine inklusive und diversitätssensible Gestaltung und Entwicklung von KI-Systemen (einschließlich Berücksichtigung vulnerabler Gruppen, Zugänglichkeit für Menschen mit Behinderungen, Diversität der Entwicklungsteams; Art. 69d, EGs 14a und 81) sowie Hinweise in Bezug auf die Partizipation relevanter Stakeholder bei Entwicklung der KI-Systeme (EG 81) und die Ausarbeitung von Verhaltenskodizes für die freiwillige Anwendung spezifischer Anforderungen der KI-Verordnung (EG 60s).

In Hinblick auf KI-Kompetenzen sollen Anbieter und Betreiber von KI-Systemen sicherstellen, dass das Personal, das mit Entwicklung, Betrieb und Nutzung der Systeme betraut ist, über ausreichende KI-Kenntnisse verfügt (auch unter Berücksichtigung des Kontextes, in dem KI eingesetzt wird und vor dem Hintergrund der nutzenden Personengruppen, Art. 4b, EG 58). Zudem sollen sie freiwillig zusätzliche Maßnahmen umsetzen, die zur Förderung von KI-Kompetenzen beitragen (Art. 69, EG 81).

Anbieter, Anwender*innen und Betroffene sollen durch die Vermittlung notwendiger Kenntnisse in die Lage versetzt werden, fundierte Entscheidungen über KI-Systeme zu treffen sowie u. a. deren Ergebnisse geeignet zu interpretieren und mögliche Auswirkungen von (mithilfe KI getroffener) Entscheidungen auf Betroffene zu verstehen (EG 9b). Insbesondere in Hinblick auf den Einsatz von Hochrisikosystemen müssten zwecks Risikobeseitigung oder -verringerung die am besten geeigneten Risikomanagementmaßnahmen ergriffen und hierfür beim Endnutzenden (Deployer) die erforderlichen Kompetenzen sowie der voraussichtliche Anwendungskontext angemessen berücksichtigt werden (Art. 9). Die angemessene Einhaltung und korrekte Durchsetzung der KI-Verordnung soll auch darüber sichergestellt werden, dass allen relevanten Akteur*innen der KI-Wertschöpfungskette die dafür notwendigen Kenntnisse vermittelt werden (EG 9b).

Zudem weist der AIA auf die Bedeutung des Einsatzes von KI im Bildungswesen hin, um bei Lernenden und Lehrenden den Aufbau notwendiger digitaler Kompetenzen (inkl. Medienkompetenz und kritisches Denken) zu unterstützen und dadurch die Teilhabe an Wirtschaft, Gesellschaft und dem demokratischen Prozess zu fördern (EG 35). Einige KI-Systeme, die den Bildungs- und Berufsweg bestimmen, werden als Hochrisikosysteme eingestuft, da sie bei unsachgemäßer Gestaltung und Nutzung das Recht auf (Aus-)Bildung und Nichtdiskriminierung verletzen. Darunter fallen Systeme, die Zugang oder Zulassung sowie Zuweisung zu bestimmten (Berufs-)Bildungseinrichtungen und -programmen bestimmen, die Lernergebnisse oder ein angemessenes Bildungsniveau bewerten oder Systeme, die verbotene Verhaltensweisen während einer Prüfung überwachen und erkennen können (EG 35, u. Auflistung der in Art. 6 Abs. 2 genannten KI-Systeme mit hohem Risiko in Anhang III, Abs. 3).

Systeme, die auf der Grundlage biometrischer Daten situativ emotionale Zustände im Zusammenhang mit Arbeits- und Bildungskontexten ableiten, sollen – aufgrund von Bedenken hinsichtlich der wissenschaftlichen Grundlage (insbes. bezüglich Zuverlässigkeit, Spezifität und Generalisierbarkeit) – verboten werden, um potenzieller Diskriminierung und Eingriffen in Rechte und Freiheiten vorzubeugen (Art. 5, EG 26c; medizinische oder sicherheitstechnische Verwendungsgründe ausgenommen). Im Rahmen ihrer Digitalstrategie verfolgt die EU im „digitalen Jahrzehnt“ [15] bis 2030 eine nachhaltige, auf den Menschen ausgerichtete Vision für die digitale Gesellschaft: Eines der vier Hauptziele ist eine „digital qualifizierte Bevölkerung und hochqualifizierte Fachkräfte“ (neben „sicheren und nachhaltigen digitalen Infrastrukturen“, „digitaler Transformation von Unternehmen“ und „Digitalisierung öffentlicher Dienstleistungen“). Auch die europäische KI-Strategie betont die Bedeutung digitaler Kompetenzen. Insgesamt soll eine Reihe von Gesetzesvorhaben (u. a. AIA) und Initiativen (u. a. Kompetenzrahmen, s. Kap. 3) Bürger*innen, Unternehmen und Verwaltung entsprechend stärken.

2.2 Inklusion und Kompetenzentwicklung in der Europäischen KI-Verordnung

In ihrem Bestreben, den weltweit ersten umfassenden rechtlich-regulatorischen Rahmen für eine vertrauenswürdige KI (und deren Entwicklung und Nutzung) auf der Basis europäischer Werte zu schaffen [16] , hat sich die EU für 2024 das Ziel gesetzt, den AI Act (AIA) final zu verabschieden. Der AIA verfolgt einen risikobasierten Ansatz, nach dem bestimmte KI-Systeme verboten werden (z. B. biometrische Gesichtserkennung zur Personenidentifikation, mit Ausnahme in der Strafverfolgung, oder Systeme mit Emotionserkennung im Kontext Bildung und Arbeit, s. u.) und für Systeme mit unterschiedlichen Risikoeinstufungen unterschiedliche Regularien und Berichtspflichten gelten sollen.

Menschen mit Behinderungen finden in drei Artikeln und drei Erwägungsgründen (EG) [17] Erwähnung: Für ihren konkreten Schutz sollen

  1. KI-Systeme (deren „Inverkehrbringen, Inbetriebnahme und Verwendung“) verboten werden, die Schwächen von Personen oder Personengruppen etwa aufgrund einer Behinderung ausnutzen und dadurch betreffende Personen hin zu einem für sie sehr schädlichen Verhalten beeinflussen (bzw. sehr wahrscheinlich beeinflussen werden) (Art. 5),
  2. (potenzielle) Anbieter von KI-Systemen mit hohem Risiko, die Tests unter realen Bedingungen, jedoch außerhalb der „KI-Sandkästen“ [18] , durchführen wollen, dazu verpflichtet werden, „Personen, die aufgrund ihres Alters oder einer körperlichen oder geistigen Behinderung [19] zu schutzbedürftigen Gruppen gehören“ angemessen zu schützen (Art. 54a) und
  3. Verhaltenskodizes (einschl. Governance-Mechanismen) für die freiwillige Anwendung spezifischer Anforderungen der KI-Verordnung auch für nicht Hochrisikosysteme ausgearbeitet werden – auf der Grundlage klarer Ziele und Leistungsindikatoren (z. B. Bewertung und Vermeidung negativer Auswirkungen von KI-Systemen auf schutzbedürftige Personen oder Personengruppen, auch im Hinblick auf die Zugänglichkeit für Menschen mit Behinderungen, Art. 69 2e).

Betreiber müssen gemäß der Transparenzverpflichtungen [20] betroffene natürliche Personen zukünftig darüber informieren,

  • wenn sie mit KI-Systemen interagieren, die Inhalte künstlich generieren oder manipulieren (Art. 52). Unabhängig von der Risikoeinstufung bestehe hier ein besonderen Risiko der Täuschung oder Nachahmung („impersonation“, z. B. durch „deep fakes“, EG 70)
  • wenn sie Emotionserkennungssystemen und Systemen zur biometrischen Kategorisierung ausgesetzt sind (Art. 52). Diese können durch die Verarbeitung biometrischer Daten Emotionen, Absichten oder Zugehörigkeiten zu spezifischen Kategorien, wie z. B. Alter, Geschlecht, ethnische Herkunft, persönlichen Eigenschaften, Vorlieben und Interessen, ableiten (EG 70).

Dass bei der Umsetzung dieser Transparenzpflichten die Merkmale von schutzbedürftigen Gruppen (z. B. aufgrund einer Behinderung) berücksichtigt werden und Informationen in für Menschen mit Behinderungen zugänglichen Formaten verfügbar sein sollten, wird nicht im Art. 52, sondern nur im EG 70 aufgeführt (ohne rechtliche Bindungswirkung).

Es finden sich weitere Anforderungen in Bezug auf Maßnahmen für eine inklusive und diversitätssensible Gestaltung und Entwicklung von KI-Systemen (einschließlich Berücksichtigung vulnerabler Gruppen, Zugänglichkeit für Menschen mit Behinderungen, Diversität der Entwicklungsteams; Art. 69d, EGs 14a und 81) sowie Hinweise in Bezug auf die Partizipation relevanter Stakeholder bei Entwicklung der KI-Systeme (EG 81) und die Ausarbeitung von Verhaltenskodizes für die freiwillige Anwendung spezifischer Anforderungen der KI-Verordnung (EG 60s).

In Hinblick auf KI-Kompetenzen sollen Anbieter und Betreiber von KI-Systemen sicherstellen, dass das Personal, das mit Entwicklung, Betrieb und Nutzung der Systeme betraut ist, über ausreichende KI-Kenntnisse verfügt (auch unter Berücksichtigung des Kontextes, in dem KI eingesetzt wird und vor dem Hintergrund der nutzenden Personengruppen, Art. 4b, EG 58). Zudem sollen sie freiwillig zusätzliche Maßnahmen umsetzen, die zur Förderung von KI-Kompetenzen beitragen (Art. 69, EG 81).

Anbieter, Anwender*innen und Betroffene sollen durch die Vermittlung notwendiger Kenntnisse in die Lage versetzt werden, fundierte Entscheidungen über KI-Systeme zu treffen sowie u. a. deren Ergebnisse geeignet zu interpretieren und mögliche Auswirkungen von (mithilfe KI getroffener) Entscheidungen auf Betroffene zu verstehen (EG 9b). Insbesondere in Hinblick auf den Einsatz von Hochrisikosystemen müssten zwecks Risikobeseitigung oder -verringerung die am besten geeigneten Risikomanagementmaßnahmen ergriffen und hierfür beim Endnutzenden (Deployer) die erforderlichen Kompetenzen sowie der voraussichtliche Anwendungskontext angemessen berücksichtigt werden (Art. 9). Die angemessene Einhaltung und korrekte Durchsetzung der KI-Verordnung soll auch darüber sichergestellt werden, dass allen relevanten Akteur*innen der KI-Wertschöpfungskette die dafür notwendigen Kenntnisse vermittelt werden (EG 9b).

Zudem weist der AIA auf die Bedeutung des Einsatzes von KI im Bildungswesen hin, um bei Lernenden und Lehrenden den Aufbau notwendiger digitaler Kompetenzen (inkl. Medienkompetenz und kritisches Denken) zu unterstützen und dadurch die Teilhabe an Wirtschaft, Gesellschaft und dem demokratischen Prozess zu fördern (EG 35). Einige KI-Systeme, die den Bildungs- und Berufsweg bestimmen, werden als Hochrisikosysteme eingestuft, da sie bei unsachgemäßer Gestaltung und Nutzung das Recht auf (Aus-)Bildung und Nichtdiskriminierung verletzen. Darunter fallen Systeme, die Zugang oder Zulassung sowie Zuweisung zu bestimmten (Berufs-)Bildungseinrichtungen und -programmen bestimmen, die Lernergebnisse oder ein angemessenes Bildungsniveau bewerten oder Systeme, die verbotene Verhaltensweisen während einer Prüfung überwachen und erkennen können (EG 35, u. Auflistung der in Art. 6 Abs. 2 genannten KI-Systeme mit hohem Risiko in Anhang III, Abs. 3).

Systeme, die auf der Grundlage biometrischer Daten situativ emotionale Zustände im Zusammenhang mit Arbeits- und Bildungskontexten ableiten, sollen – aufgrund von Bedenken hinsichtlich der wissenschaftlichen Grundlage (insbes. bezüglich Zuverlässigkeit, Spezifität und Generalisierbarkeit) – verboten werden, um potenzieller Diskriminierung und Eingriffen in Rechte und Freiheiten vorzubeugen (Art. 5, EG 26c; medizinische oder sicherheitstechnische Verwendungsgründe ausgenommen). Im Rahmen ihrer Digitalstrategie verfolgt die EU im „digitalen Jahrzehnt“ [21] bis 2030 eine nachhaltige, auf den Menschen ausgerichtete Vision für die digitale Gesellschaft: Eines der vier Hauptziele ist eine „digital qualifizierte Bevölkerung und hochqualifizierte Fachkräfte“ (neben „sicheren und nachhaltigen digitalen Infrastrukturen“, „digitaler Transformation von Unternehmen“ und „Digitalisierung öffentlicher Dienstleistungen“). Auch die europäische KI-Strategie betont die Bedeutung digitaler Kompetenzen. Insgesamt soll eine Reihe von Gesetzesvorhaben (u. a. AIA) und Initiativen (u. a. Kompetenzrahmen, s. Kap. 3) Bürger*innen, Unternehmen und Verwaltung entsprechend stärken.

3 Kompetenzmodelle und -anforderungen für die KI-Nutzung

Internationale Betrachtungen von Kernkompetenzen für die zukünftige Arbeitswelt z. B. der ILO (2021), erwähnen nur am Rande KI, technologische Innovationen und Automation sowie damit verbundene Veränderungen in Hinblick auf Arbeitsplätze, Tätigkeiten und erforderliche Kompetenzen. Dabei wird betont, wie wichtig die Entwicklung der beschriebenen Kernkompetenzen ist, damit alle Arbeitnehmenden – einschließlich vulnerabler Gruppen – sich an die verändernden Anforderungen anpassen, neue Chancen nutzen und dadurch zukünftige Arbeitsplätze besetzen können (ebd.). Spezifische (globale und regelmäßig erhobene) Daten zum Level digitaler Kompetenzen von Menschen mit Behinderungen existieren bisher nicht (ILO, 2021). Laut OECD [22] (2022) verfügten diese 2016 in der EU im Vergleich zu Menschen ohne Behinderung über geringere digitale Kompetenzen, selbst wenn ein Internetzugang existierte, wobei Alter und Bildung diese Kompetenzlücke nicht vollständig erklären könnten. Mögliche weitere Gründe werden in nicht behindertengerechten digitalen Technologien, weniger Gelegenheiten, digitale Kompetenzen durch Arbeit oder Erwachsenenbildung zu erwerben, und geringerem Einkommen gesehen (OECD, 2022). In diesem Zusammenhang wird die Wichtigkeit betont, Menschen mit Behinderungen Zugang zu (allgemeinen) digitalen Kompetenzschulungen und Arbeitsplätzen zu gewährleisten (zur Erleichterung des Wieder- oder Ersteintritts in den allgemeinen Arbeitsmarkt) und jenen in Arbeit über passende Weiterbildungsangebote Perspektiven zu bieten. Dies soll dem Risiko einer größer werdenden Ungleichheit und Benachteiligung aufgrund z. B. Automatisierung [23] entgegenwirken (ILO, 2022). Im Folgenden soll zunächst beleuchtet werden, inwieweit Menschen mit Behinderung in den existierenden Kompetenzrahmen eine Rolle spielen, um im Anschluss einen Blick auf den Stand der Forschung zu digitalen und KI-Kompetenzen zu werfen.

 

3.1 KI und Behinderung in existierenden Kompetenzrahmen

Noch vor ein paar Jahren existierten kaum umfassende Rahmenmodelle für digitale Kompetenzen. Inzwischen wurden mehrere Frameworks entwickelt (und teils weiterentwickelt), etwa zu digitalen Kompetenzen bei Lernenden (OECD Lernkompass, 2019; DigComp 2.2, Vuorikari, Kluzer & Punie, 2022) und Lehrenden (DigCompEDU; Redecker, 2017) sowie zu Zukunftskompetenzen bzw. Kernkompetenzen für die Zukunft der Arbeit (Global framework on core skills/ skills for the future of work, ILO, 2021). Anders als bei den zuvor genannten Rahmenmodellen existiert in Bezug auf KI-Kompetenzen („AI literacy“) noch kein etabliertes Rahmenwerk. Erste Ansätze (laufende Arbeiten im Rahmen des OECD-Projekts „AI for Future Skills“, OECD, 2021b, 2023; sowie im Rahmen der UNESCO-Initiative “AI and the Futures of Learning“ [24] , UNESCO, 2023) und Modelle (etwa AIComp, Daniels, Lindner, Sommer & Rauch, 2023) wurden in diesem Zusammenhang vorgestellt.

Die neueste Überarbeitung des europäischen Kompetenzrahmens „DigComp 2.2“ unterteilt weiterhin fünf Kompetenzbereiche: Drei beziehen sich auf bestimmte Tätigkeiten und Verwendungen (1. Informations- und Datenkompetenz, 2. Kommunikation und Kollaboration, 3. digitale Inhaltserstellung) und zwei bereichsübergreifend auf alle digitalen Tätigkeiten (4. Sicherheit, 5. Problemlösen; Vuorikari et al., 2022). Allerdings weist diese Version die Besonderheit auf, dass sich hierin erstmals explizite Bezüge zu den Themen KI und Behinderung finden:

  1. KI wird als Querschnittsthema in allen Kompetenzbereichen adressiert, mit klarem Fokus auf die Interaktion von Menschen mit KI-Systemen (statt auf ihr Wissen über KI-Systeme). Das Rahmenwerk bündelt zahlreiche Beispiele für Wissen, Fähigkeiten und Einstellungen, über die Kompetenzträger*innen verfügen sollten, um „selbstbewusst, kritisch und sicher mit KI-Systemen interagieren zu können“. Die Beispiele sind in fünf thematische Bereiche [25] gruppiert, um eine bessere Verständlichkeit sowie Impulse für Lehrplanentwickelnde und Lehrkräfte zu bieten (s. Annex A2, ebd.).
  2. Zum anderen stellt DigComp 2.2 nun vereinzelt Bezüge zu Menschen mit Behinderungen und digitaler Barrierefreiheit in vier der fünf Kompetenzbereiche (1. bis 3. sowie 5.) [26] her, hauptsächlich über die jeweiligen Beispiele (Wissen, Fähigkeiten, Einstellungen) und auf digitale Kompetenzen (ohne KI-Fokus) bezogen. Nur ein Beispiel (für Wissen zur Identifizierung von Bedürfnissen und möglicher technologischer Lösungen, 5.2) nimmt gleichzeitig Bezug auf KI und digitale Barrierefreiheit: Darin wird das Bewusstsein beschrieben, dass sprachbasierte KI-Technologien über gesprochene Befehle die Zugänglichkeit verbessern können (z. B. für Menschen mit Mobilitäts- oder Seheinschränkungen, eingeschränkter Kognition, Sprach- oder Lernschwierigkeiten), Sprachen kleinerer Bevölkerungsgruppen jedoch oft aufgrund kommerzieller Prioritäten nicht verfügbar sind oder schlechter funktionieren (ebd.).

Das europäische Rahmenmodell für Lehrende DigCompEdu befasst sich nicht mit KI-Kompetenzen, enthält jedoch Bezüge zu Barrierefreiheit, Inklusion und Bedarfen von Menschen mit Behinderungen (Redecker, 2017). Insbesondere Kompetenzbereich 5 „Lernerorientierung“ [27] zeigt auf, dass Lehrende nicht nur die diversen Bedürfnisse der Lernenden berücksichtigen und personalisiertes Lernen mittels digitaler Technologien unterstützen, sondern durch Technologieeinsatz auch Barrierefreiheit, Inklusion und damit die digitale Teilhabe aller Lernenden fördern sollten. Lehrende sollten befähigt werden, bereits bei der Auswahl digitaler Lehr-Lern-Ressourcen Barrierefreiheit zu berücksichtigen (Kompetenz 2.1), Lernende zu einem sicheren und verantwortungsvollen Umgang mit digitalen Medien zu verhelfen und deren Bewusstsein über digitale Technologien in Hinblick auf physisches, psychisches und soziales Wohlbefinden sowie soziale Inklusion zu fördern (Kompetenz 6.4; ebd.).

Das laufende Projekt „AI for Future Skills“ (AIFS, OECD, 2021b, 2023) stellte (bislang) keinen KI-Kompetenzrahmen vor, sondern entwickelt ein Programm mit neuen Messgrößen, das es ermöglichen soll, menschliche Kompetenzen für zukünftige Arbeitsplätze sowie Fähigkeiten von KI-Systemen zu bewerten und miteinander zu vergleichen. Auf dieser Grundlage soll beantwortet werden, welche menschlichen Kompetenzen in den nächsten Jahrzehnten für KI und Robotik „zu schwer“ und nicht reproduzierbar sowie welche (Aus-)Bildungsmaßnahmen erforderlich sein werden, um Menschen bei der Entwicklung ebenjener arbeitsbezogenen Kompetenzen zu unterstützen. Ziel ist es, die Auswirkungen des KI-Fortschritts auf die Arbeits- und Bildungswelt zu ermitteln und damit Forschenden und politischen Entscheidungsträger*innen eine Grundlage zu bieten, um realistische Szenarien hinsichtlich des sich ändernden Kompetenzbedarfs und zukünftiger Anforderungen an Bildung und Arbeit einschätzen zu können. Behinderung und Barrierefreiheit spielen in den bisherigen Berichten des Projekts noch keine relevante Rolle. [28]

Behinderung und Barrierefreiheit werden auch im Kompetenzrahmen „AIComp“ bisher [29] nicht explizit behandelt. Basierend u. a. auf einer Meta-Analyse existierender Kompetenzrahmen (z. B. DigComp 2.2) und weiterer Arbeiten in Bezug auf AI Literacy und KI-Kompetenzen legt AIComp einen spezifischen Fokus auf KI-Kompetenzen, die für ein breites Spektrum von Individuen (ohne konkrete Betrachtung bestimmter Berufe, Gewerbe oder Lebensbereiche) wichtig seien (Daniels et al., 2023). Die Systematik umfasst zwölf Kompetenzfelder mit Kompetenzbeschreibungen und Beispielen (für Wissen, Fähigkeiten und Einstellungen bzw. Werte), die wiederum drei übergeordneten Kompetenzbereichen (Dimensionen) [30] zugeordnet werden. Dimension 1 bündelt Kompetenzen, die für „Arbeiten und Gestalten mit KI und für KI“ relevant sind, darunter die instrumentell digitale Fähigkeit KI-Werkzeuge anzuwenden und deren Grenzen (Aktivitäts- und Umsetzungskompetenz) zu kennen, die Kompetenz Potenziale von KI-Werkzeugen (Systemdesignkompetenz) etwa zur Lösung komplexer Probleme (kreative Problemlösekompetenz) realistisch einzuschätzen sowie deren Auswirkungen auf Daten, Organisationen und Gesellschaft zu verstehen (kritische digitale Kompetenz; ebd.). Für die zukünftig immer wichtiger werdende Zusammenarbeit zwischen Menschen und KI-Systemen können darüber hinaus auch weitere Kompetenzen des AIComp-Modells als relevant erachtet werden (z. B. Entscheidungskompetenz, kritisches Denken, Selbstwirksamkeit und Selbstbestimmtheit, Dimension 2, sowie ethische Kompetenz für ein verantwortungsvolles Handeln in Bezug auf KI, Dimension 3). Kollaborationen in hybriden Mensch-KI-Systemen werden auch in Bildungskontexten bedeutsamer werden und sich verändernde Rollen, Aufgaben und Kompetenzanforderungen mit sich bringen (z. B. Becker et al., 2020; Pinkwart & Beudt, 2020), die „im Kern beruflicher Domänen verankert“ sind (Becker et al., 2020). Demnach werden – über allgemeinere (wie in AIComp) hinaus – auch domänenspezifische Kompetenz-Betrachtungen erforderlich.

Ein Vorteil, den KI-Systeme gegenüber digitalen Technologien aufweisen – die Adaptivität an Nutzer*innenbedürfnisse – kann neben allen Unterstützungspotenzialen z. B. im Bildungskontext auch kritisch betrachtet werden, da durch algorithmisch basierte Vorgaben „geeigneter“ Inhalte ein gewisser Kontrollverlust über den eigenen Bildungsprozess die Folge sein kann (Pinkwart & Beudt, 2020). Insbesondere im Fall statistisch lernender KI-Bildungstechnologien lernen nicht nur die Nutzer*innen mittels der Technologie, sondern ihre Daten sind zentral für die Verbesserung ebendieser Technologie (ebd.). Diese Hybridität sollte bei der Konzeption und Gestaltung von KI-Bildungstechnologien mitgedacht werden. Beispielsweise können Menschen mit KI-Systemen lernen, die wiederum durch menschliche Instruktion oder Beobachtung menschlicher Aktionen lernen (reziprokes Lernen; ebd.). Durch das Verbinden der jeweiligen Stärken von Mensch und KI können gemeinsam komplexe Ziele erreicht und bessere Ergebnisse erzielt werden, was auch als „hybride Intelligenz“ [31] bezeichnet wird (z. B. Dellermann et al., 2019). Menschen werden dabei Stärken im Bereich Flexibilität, Empathie, Kreativität und „gesunder Menschenverstand“, Maschinen insbesondere im Bereich Mustererkennung, Wahrscheinlichkeitsbestimmung, Geschwindigkeit und Ausdauer zugeschrieben (Seufert & Meier, 2023). Allerdings erkennen Seufert & Meier (2023) durch das Aufkommen der großen generativen KI-Modelle (für die Sprachdomäne z. B. GPT-3.5/GPT-4) und Anwendungen auf dieser Basis eine Verschiebung des Fokus – von der Übernahme analytischer hin zu kreativen Aufgaben durch KI.

Hybride Mensch-KI-Systeme werden in Bildungskontexten bedeutsamer (Pinkwart & Beudt, 2020), nicht nur wie zuvor beschrieben hinsichtlich Mensch-KI-Kollaboration, sondern auch in Hinblick auf die KI-Verfahren selbst. Für die Steuerung des Lernprozesses ist die Erklärbarkeit dessen, was das KI-System als Resultat ausgibt, essenziell. Da dies im Fall von statistisch lernenden Systemen schwer realisiert werden kann (Black-Box-Problematik), wird zunehmend eine erklärbare oder transparente KI (z. B. Dellermann et al, 2019) gefordert und die Zunahme von hybriden Systemen erwartbar (Wahlster, 2020). Diese Systeme kombinieren maschinelles Lernen mit symbolischer KI und verbinden dadurch die Vorteile datenbasierter Erkenntnisse mit wissensbasierten Erklärungen – beispielsweise über die gezielte Reflexion automatischer Rückmeldungen zu den Lösungen der Lernenden (Pinkwart & Beudt, 2020). Insgesamt müssen diese Erklärungen für die Nutzenden verständlich und zugänglich sein. In diesem Zusammenhang gibt es in Bezug auf Menschen mit Behinderungen noch große Forschungslücken.

 

3.2 Forschung zu digitalen und KI-Kompetenzen in Bezug auf Menschen mit Behinderungen

Die Doppelfunktion von KI in der Kompetenzentwicklung (André & Bauer et al., 2021) wurde bereits beleuchtet: Die KI-Implementierung führt zu veränderten Arbeitsprozessen und Kompetenzanforderungen und gleichzeitig können KI-basierte Technologien den Kompetenzaufbau fördern (z. B. durch individualisierbare Lernprozesse und Feedback). Letztere können – durch Adaptivität an individuelle Bedarfe und Aktionen sowie an kontextuelle Änderungen – personalisierte Lern- und Arbeitsunterstützung für Menschen mit Behinderungen bieten und ihnen dadurch beim Barriereabbau und Kompetenzaufbau helfen (Beudt & Pinkwart, 2021). Im Hinblick auf Kompetenzanforderungen für die Nutzung von KI-Systemen durch Menschen mit Behinderungen besteht jedoch eine deutliche Forschungslücke.

Kompetenzmodelle, die explizit auch Menschen mit Behinderungen und digitale Barrierefreiheit adressieren, beziehen sich primär auf „Digital Literacy“, die als Voraussetzung u. a. für KI-Kompetenzen (AI Literacy; Long & Magerko, 2020) betrachtet werden kann. Insbesondere fehlende Digitalkompetenzen stellen einen Prädiktor für den Digital Divide dar. Nachdem sich frühere Betrachtungen zunächst auf den ungleichen Zugang zu Informations- und Kommunikationstechnologien (IKT) und das Internet fokussierten (First-level Digital Divide), rückten über die Jahre zusätzlich auch die Unterschiede hinsichtlich Fähigkeiten und Nutzung der Technologien (Second-level Digital Divide) sowie greifbare Folgen und Konsequenzen durch Unterschiede beim Zugang zu IKT und deren Nutzung für die reale Lebensumwelt der Nutzenden (Third-level Digital Divide) in den Fokus (Scheerder et al., 2017; van Deursen & Helsper, 2015). In der Forschung zum Digital Divide wird Behinderung bislang selten als möglicher Einflussfaktor beachtet (Johansson et al., 2021). Studien zeigen teils eine geringere Nutzung digitaler Medien und geringere Digitalkompetenzen von Menschen mit Behinderungen im Vergleich zu Menschen ohne Behinderungen (Nam & Park, 2017; Park, 2022; Johansson et al., 2021) [32] . Es gibt nicht den „einen“ Disability Digital Divide (Johansson et al., 2021), Behinderungsarten scheinen unterschiedlich benachteiligt zu sein (ebd. und z. B. Dobransky & Hargittai, 2006, sowie Scanlan, 2022). Es ist anzunehmen, dass der Disability Digital Divide auch im Umgang mit KI zunächst fortbestehen und aufgrund der Komplexität und teils mangelnden Erklärbarkeit möglicherweise verstärkt wird. Scanlan (2022) sieht Anzeichen dafür, dass die digitale Kluft zwischen Menschen mit und ohne Behinderung teilweise überbrückt wurde, findet jedoch weiterhin Unterschiede zulasten von Menschen mit Behinderungen auf der ersten und teils der zweiten Ebene und formuliert weiteren Forschungsbedarf insbesondere auch in Hinblick auf die dritte, schwieriger messbare Ebene. Auch wenn Studien auf eine Benachteiligung bei Zugang und Nutzung der Technologien verweisen (z. B. Scanlan, 2022; Park, 2022), lassen sich auch positivere Entwicklungen finden: Conley et al. (2018) zeigen in ihrem Literature Review anhand einiger Beispiele, dass junge Lernende mit Behinderungen sich ebenso digitale Kompetenzen aneignen können, wenn die Lernumgebung ihre Bedürfnisse adäquat unterstützt und Pädagog*innen, Lehrkräfte, Verwaltungsangestellte, Arbeitgeber und politische Entscheidungsträger*innen beim Kompetenzerwerb helfen. Zudem wurden in einer kanadischen Studie positive Auswirkungen erhöhter Internetnutzung auf die Beschäftigung für Menschen mit Hörbehinderung aufgezeigt (Gupta, 2023).

Hinsichtlich digitaler (und KI-Kompetenzen) bei Menschen mit bestimmten Behinderungen zeigt sich ein fragmentiertes Forschungsbild mit mehrheitlich Einzel- und kaum übergreifenden Betrachtungen. So wurden etwa für Studierende mit Sehbehinderung Kompetenzlücken bei digitalen Fähigkeiten wie Informationsmanagement, effektive Zusammenarbeit, Kommunikation und Erstellung digitaler Inhalte berichtet (Arslantas & Gul, 2022). Kamei-Hannan et al. (2023) untersuchten die Besonderheiten digitaler Kompetenzen für Menschen mit Sehbehinderungen: sie betonen die zentrale Bedeutung von Accessibility-Wissen und führen darüber hinaus Fähigkeiten zur Problemlösung, zur Selbstbestimmung und Selbstvertretung sowie grundlegende Fähigkeiten zur Fehleranalyse und -beseitigung an (etwa durch treffende Beschreibung eines Accessibility-Problems um Hilfe zu bitten). In Bezug auf digitale Kompetenzen wurden in einer weiteren Studie bei Menschen mit schweren psychischen Erkrankungen insbesondere geringere Kompetenzen beim Passwort-Handling und dem Bedienen von Geräteeinstellungen (Bereich „Foundation Skills“) sowie beim Online-Problemlösen (Bereich „Skills for Life“) festgestellt (Spanakis et a., 2022). Baxter & Reeves (2023) untersuchten Digital Literacy etwa bei Menschen mit intellektuellen Behinderungen (konkret Schüler*innen, die Autorinnen sehen jedoch auch eine Nützlichkeit der Ergebnisse für die Arbeitswelt) und schlagen neben dem Auf- und Ausbau dieser Kompetenzen auch die Förderung konkreter, relevanter Kompetenzen im Umgang mit Assistenztechnologien („assistive technology skills“) vor: So sollten nicht nur Lernende mit Sehbehinderung, sondern auch jene mit Schreib- und Leseschwierigkeiten den Umgang mit Screenreadern sowie TTS-Technologien (Text-zu-Sprache) sowie STT-Technologien (Sprache-zu-Text) beherrschen. Durch deren Nutzung würden kognitive Ressourcen (die sonst z. B. für das Dekodieren von Wörtern oder die Textproduktion benötigt würden) frei, welche für das Textverständnis aufgewendet werden könnten (ebd.). Menschen mit schweren geistigen und Mehrfachbehinderungen sowie komplexem Kommunikations- bzw. hohem Unterstützungsbedarf erwerben Wissen und Fähigkeiten in erster Linie durch aktive Auseinandersetzung mit Objekten oder durch Lernumgebungen, die mehrere Sinnesmodalitäten ansprechen (Übersicht s. Keeley & Bernasconi, 2023). Sie können daher von zwei der wichtigsten technischen Merkmale digitaler Medien profitieren: Multimedialität (Darstellung von Inhalten in haptischer, auditiver oder visueller Form) und Multimodalität (Auswahl verschiedener Eingabemedien und -Geräte), was eine umfassende und flexible Anpassung an individuell vorliegende Fähigkeiten der Nutzer*innen ermöglicht (Keeley & Bernasconi, 2023). KI-gestützte Technologien bergen diesbezüglich in besonderem Maße Potenziale für individuelle Unterstützung. Ascari et al. (2020) schlagen etwa eine auf Computer Vision und Maschinellem Lernen basierende Methode für Menschen mit Körper- und Sprachbehinderungen vor, bei der Nutzer*innen einen individuellen Satz an Gesten erstellen können, der zum Training eines interaktiven Systems der Unterstützten Kommunikation (AAC) verwendet wird. Auf diese Weise können die Nutzer*innen eine personalisierte Gestensprache für Kommunikationszwecke entwickeln, die ihre Fähigkeiten und Einschränkungen berücksichtigt, und es ihnen ermöglicht sich mittels dieser Assistenztechnologie auszudrücken und diese für Bildungszwecke zu nutzen (ebd.).

Die vorhandenen Digitalkompetenzen variieren je nach individuellen Nutzungsgewohnheiten und körperlichen, kognitiven und psychischen Voraussetzungen. Es ist entscheidend, diese Unterschiede empirisch zu untersuchen und in eine partizipative, kompetenzorientierte Technologieentwicklung einzubeziehen (Bayor et al., 2021; Reyes-Cruz et al., 2020). Zukünftig gilt es, „die künstliche Intelligenz von Computern mit den kognitiven, sozialen und emotionalen Fähigkeiten und Werten von Menschen“ (dt. Übersetzung des OECD Learning Compass 2030, 2019) im Rahmen hybrider Mensch-Maschine-Kollaborationen zu verknüpfen. Hierbei wird es wichtig sein, die Diversität der Nutzer*innen bei der Konzeption, Gestaltung, Entwicklung und dem Einsatz von Technologien im Bildungs- und Arbeitskontext zu berücksichtigen und entsprechende Maßnahmen hierfür zu ergreifen.

4 Anforderungen in Hinblick auf die inklusive Gestaltung und Einsatz von KI-Technologien

Voraussetzungen dafür zu schaffen, dass KI-Technologien inklusiv gestaltet und durch Menschen mit Behinderungen ohne Benachteiligung genutzt werden können, stellt eine gesamtgesellschaftliche Aufgabe dar. Entsprechende Betrachtungen beziehen sich einerseits auf die Entwicklung inklusiver Technologien nach Maßgaben des inklusiven Designs und des Universal Design. Andererseits sind für eine inklusive Nutzung der Technologien neben entsprechenden Kompetenzen der anwendenden Personen auch erforderliche Rahmenbedingungen und relevante Akteur*innen in der beruflichen Rehabilitation sowie des allgemeinen Arbeitsmarktes zu betrachten.

Die zunehmende Interaktion mit digitalen Medien erleichtert die Transition in das (digitale) Arbeits- und Alltagsleben (OECD, 2021a). Politische Entscheidungsträger*innen stehen vor der Herausforderung, digitale Curricula zu entwickeln, welche die Ungleichheiten hinsichtlich der Lernmöglichkeiten und -ergebnisse nicht weiter verschärfen (ebd.). Die OECD weist darauf hin, dass digitale Curricula ein besonderes Potenzial bei der Förderung des Lernens und der Lernerfahrung von vulnerablen Lernenden haben – etwa indem sie kombiniert mit assistiven Technologien und Tools auf deren individuelle Bedürfnisse zugeschnitten werden. Entsprechende Ansätze zur Anpassung der digitalen Curricula an die Bedürfnisse einer diversen Schüler*innenschaft stellen Design Thinking und Universal Design for Learning dar. Da die grundlegende Infrastruktur und digitale Ressourcen einen Einfluss auf die Leistungen der Schüler*innen haben, kommt Schulen eine wichtige Rolle bei der Förderung des Zugangs zu digitalen Medien und dem Aufzeigen vielfältiger und konstruktiver Nutzungsmöglichkeiten zu (OECD, 2021a). Der vorliegende Beitrag setzt jedoch einen Fokus auf Aus-/Weiterbildung und die berufliche Teilhabe, daher werden im Folgenden entsprechende Akteure und deren Einflussmöglichkeiten betrachtet.

 

4.1 Menschenzentrierte Gestaltung und Entwicklung von KI-Technologien

Da KI-Forschende und -Entwickelnde sowie Technologieunternehmen KI-Technologien gestalten und in die Gesellschaft bringen, haben sie maßgeblichen Einfluss u. a. darauf, wofür diese eingesetzt werden und wer sie nutzen kann. KI-Technologien werden zur Lösung unterschiedlicher Probleme von verschiedenen Organisationen (z. B. Unternehmen verschiedener Branchen) oder Personengruppen (z. B. Menschen mit Behinderungen) entwickelt – die Vielfalt der Systeme ist groß. Hinzu kommt, dass es sich bei KI um ein differenziertes Forschungs- und Technologiefeld mit einer Vielzahl konzeptioneller und technischer Ansätze handelt. In ihren Zielen, ihrer Ausgestaltung und ihrem Einsatzgebiet unterscheiden sich beispielsweise KI-gestützte Service-Roboter (die z. B. für Menschen gefährliche Aufgaben übernehmen), Chatbots (die z. B. Dialoge mit Kund*innen führen und Fragen beantworten, und Smartphone-Apps oder Datenbrillen (die z. B. die Umgebung erkennen und beschreiben) stark voneinander.

In Hinblick auf Menschen mit Behinderungen sollte unterschieden werden zwischen KI-gestützten Assistenztechnologien – zur Unterstützung von Beschäftigten in Unternehmen oder mit dem Ziel des Nachteilsausgleichs (in diesem Fall kann von „KI-gestützten Hilfsmitteln“ gesprochen werden) (Feichtenbeiner & Beudt, 2021) – und KI-Alltagstechnologien – die z. B. von Unternehmen im Bewerbungsverfahren (z. B. zur Vorauswahl), im Produktionsprozess (z. B. zur Qualitätskontrolle oder Automatisierung) oder für Produktverbesserungen (z. B. Empfehlungen in Online-Shops) eingesetzt werden können. Aufgrund der Vielfalt der KI-Technologien sind für deren Gestaltung und Entwicklung Empfehlungen auszusprechen: Bei der Entwicklung von KI-Alltagstechnologien, aber auch solchen KI-gestützten Assistenztechnologien, die nicht explizit zum Nachteilsausgleich entwickelt wurden, ist es wichtig, Menschen mit Behinderungen aktiv und frühzeitig mit einzubeziehen, um Verständnis für Bedarfe und mögliche Nutzungsbarrieren zu erzeugen und Letztere zu verhindern (s. auch Kap. 2, Ethik-Dimension, Partizipation, AIA). KI-entwickelnde Unternehmen sind angehalten, Ansätze des inklusiven Designs zu verwenden, um KI-Technologien für möglichst viele Personengruppen nutzbar zu machen. Eine wichtige Säule des inklusiven Designs ist die Partizipation von diversen Nutzer*innen in Entwicklungsprozessen wie der Konzeptentwicklung, dem Prototyping, dem Testing und der Evaluation. Dies ist umso bedeutender, da Technologieunternehmen oftmals

  • wenig diverse Entwicklerteams auch und vor allem in Hinblick auf Behinderungen aufweisen,
  • selten Berührungspunkte und Erfahrungen mit Inklusions- und Rehabilitationskontexten haben,
  • über geringe Kompetenzen in den Bereichen Diversität, Inklusion und Barrierefreiheit verfügen und

daher die Perspektive von Menschen mit Behinderungen in den Arbeits- und Entwicklungsprozessen nicht abgebildet ist. Hier sind Anreize für KI-Unternehmen zu schaffen, sich bei der Entwicklung von KI-Technologien an Richtlinien des universellen Designs zu orientieren und mehr Menschen mit Behinderungen in die operativen Prozesse einzubeziehen (ebd.).

Im Hinblick auf KI-gestützte Hilfsmittel (zum Zwecke des Nachteilsausgleichs) ist zentral, dass deren Erforschung und Entwicklung zu marktreifen Produkten gefördert wird (s. Kap 2.1). Plos et al. (2012) führen an, dass Assistenztechnologien Nischenprodukte auf dem Markt sind und bleiben werden und schlagen daher einen Ansatz vor, um mehr Innovation in diesem Bereich zu stimulieren. Wie in Kapitel 1 aufgeführt, existieren Lücken zwischen den Unterstützungsbedarfen von Menschen mit Behinderungen und den vorhandenen KI-Technologien (Blanc & Beudt, 2022; Blanc et al., 2021). Freitas et al. (2022) zeigen, dass mehr als 50 Prozent der Forschungsarbeiten zu KI und Assistenztechnologien auf Sehbehinderungen fokussieren und dabei Ansätze des KI-Forschungsfelds Computer Vision und KI-Methoden im Bereich von neuronalen Netzwerken genutzt werden. Menschen mit Sehbehinderungen stellen quantitativ allerdings einen kleinen Anteil an der Gruppe von Menschen mit Behinderungen dar. Insbesondere für Menschen mit geistigen und psychischen Behinderungen bestehen Potenziale für KI-gestützte Assistenztechnologien (Blanc & Beudt, 2022), für die auch andere KI-Forschungsfelder und -methoden von Bedeutung sein können und zukünftig genutzt werden sollten (s. auch Kap. 2.1, Ethik-Dimensionen, Partizipation und Teilhabe).

Ein gewinnbringendes Vorgehen kann es sein, die Bedarfe von Menschen mit Behinderungen als Ausgangspunkt von KI-Entwicklungsprozessen zu nutzen und diese mit Bedarfen von Menschen ohne Behinderungen zu verbinden. In jedem Fall benötigen KI-entwickelnde Unternehmen Kompetenzen in den Bereichen

  • Inklusion (z. B. zu den unterschiedlichen Ausprägungen von Behinderungen),
  • Barrierefreiheit (z. B. zu möglichen Barrieren und Ansätzen, diese zu verhindern) und
  • Nicht-Diskriminierung (z. B. zu Bias, s. auch Kap. 1).

 

4.2 Einsatz von KI-Technologien in der beruflichen Rehabilitation und bei Arbeitgebern

Neben jenen Akteuren, die KI-Technologien erforschen, entwickeln und anbieten, haben weitere Institutionen und Organisationen einen großen Einfluss darauf, die Nutzung KI-gestützter Assistenztechnologien durch Menschen mit Behinderungen auf dem Arbeitsmarkt zu ermöglichen. Feichtenbeiner & Beudt (2022) beschreiben die relevanten Akteur*innen und deren Einflussmöglichkeiten in einem Strukturmodell. Es sind Rehabilitationseinrichtungen und vor allem Arbeitgeber, die KI-Systeme einführen und einsetzen müssen oder zumindest deren Nutzung durch Menschen mit Behinderungen ermöglichen sollten. KI-gestützte Assistenztechnologien können dabei als sogenannte technische Arbeitshilfen ausgestaltet sein, die von Organisationen erworben, angepasst und eingesetzt werden (z. B. intelligente Werkbänke), oder als individuelle Hilfsmittel, die Menschen mit Behinderungen erwerben und in verschiedenen Lern- und Arbeitsorten einsetzen können (z. B. Apps zum Vorlesen von Texten).

Der Einsatz von KI-Technologien in Organisationen kann sehr voraussetzungsvoll sein und erfordert eine Reihe organisationaler Prozesse im Bereich digitaler Transformation, u. a. zur Identifikation und Bewertung geeigneter KI-Technologien und zu deren partizipativer Einführung (s. Organisationsmodell in Feichtenbeiner & Beudt, 2022). Außerdem sind betriebliche Richtlinien und Prozesse datenschutzkonform und innovationsfreundlich zu gestalten und technische Grundlagen (u. a. ein gutes Datenmanagement) zu schaffen. Insgesamt müssen Organisationen hierfür u. a. personelle Ressourcen und Stellen aufbauen und in der Aufbauorganisation mit Verantwortlichkeiten verankern, Kontakte und Netzwerke unter anderem mit KI-Forschenden und -Anbietenden knüpfen und ausbauen sowie KI-Kompetenzen bei Fach- und Führungskräften aufbauen (s. auch Kap. 3, Kompetenzrahmen). Innovationsprojekte, bei denen KI-Technologien in der Organisation erprobt werden, können ein Katalysator für die digitale Transformation und den Kompetenzaufbau in Organisationen sein (ebd.).

Die benötigten Kompetenzen sind dabei sehr vielfältig. Kompetenzanforderungen beziehen sich zum einen auf Digitalisierung und KI im engeren Sinne, wobei zwischen allgemeinen digitalen und KI-Kompetenzen und spezifischen Kompetenzen bei der Nutzung einzelner KI-Technologien zu unterscheiden ist (Feichtenbeiner & Beudt, 2021). Allgemeine digitale und KI-Kompetenzen sind unter anderem deshalb von Bedeutung, da KI ein dynamisches Technologiefeld ist, neue KI-Technologien in hoher Geschwindigkeit entwickelt und angeboten werden und auch bestehende Assistenztechnologien mithilfe von KI-Funktionen weiterentwickelt werden. Diese Unterscheidung sollte dann auch bei der Kompetenzentwicklung berücksichtigt werden und sich unter anderem in unterschiedlichen Lernzielen, -inhalten und -methoden zeigen. Zum anderen ergeben sich weitere Kompetenzanforderungen aus den oben beschriebenen Prozessen, die für die erfolgreiche Einführung und den Einsatz von KI-Technologien in Organisationen und in den damit verbundenen Prozessen digitaler Transformation benötigt werden. Da der Einsatz von KI-Technologien die Stellen in der Organisation in unterschiedlicher Weise betrifft, unterscheiden sich auch die Kompetenzanforderungen zwischen den Prozessbeteiligten (z. B. Betriebsrat, Schwerbehindertenvertretung, Datenschutzbeauftragte, Fachkräfte, Führungskräfte; ebd.). Aus diesem Grund müssen deren Kompetenzanforderungen analysiert (Link & Hamann, 2019) und Weiterbildungsziele definiert werden (Stowasser & Suchy, 2020). Kompetenzen von Projektmanager*innen für Digitalisierung und KI und deren Entwicklung werden für Unternehmen besonders bedeutsam sein, da diese systematisch Einblicke und Zugang zu KI-Technologien ermöglichen und sie deren Einführung im Unternehmen verantworten. Im Bereich der beruflichen Rehabilitation sind zudem die Kompetenzen der Fachkräfte entscheidend, da sie die ersten Ansprechpartner*innen für Menschen mit Behinderungen bei der Anleitung und Unterstützung hinsichtlich des KI-Einsatzes sind.

Darüber hinaus sind Beratungsinstitutionen wie die technischen Beratungsdienste der Rehabilitationsträger wichtige Akteure für den Einsatz von KI-Technologien bei Arbeitgebern. Denn Letztere besitzen oftmals noch nicht den notwendigen digitalen Reifegrad, um den KI-Einsatz mit eigenen Ressourcen und Kompetenzen zu realisieren. Spezialisierte Beratungsinstitutionen können externe Kompetenzen und Ressourcen für Arbeitgeber zu KI-gestützten Assistenzsystemen bereitstellen, zum Beispiel indem sie die Machbarkeit und Vertrauenswürdigkeit (s. Kap. 1, ethische Dimensionen) von KI-Technologien prüfen. Insbesondere aufgrund der hohen Komplexität und Dynamik des Forschungs- und Technologiefeldes KI stellen der KI-Kompetenzaufbau und das Wissen über Technologien und deren Anwendungsmöglichkeiten kontinuierliche Aufgaben und Herausforderungen dar. Nicht zuletzt sind auch die Rehabilitationsträger für die Finanzierung von KI-gestützten Assistenztechnologien wichtige Akteure. Sie kennen ebenfalls die Möglichkeiten von KI-Technologien für die berufliche Teilhabe von Menschen mit Behinderungen und müssen diese vor dem Hintergrund der Förderbedingungen bewerten.

5 Ausblick – Aufbau einer Infrastruktur zur Kompetenzförderung an der Schnittstelle KI und Inklusion in der Arbeitswelt

Die UN-Mitgliedsstaaten haben sich dazu verpflichtet, bei globalen Transformationsprozessen niemanden zurückzulassen, Armut zu bekämpfen, Diskriminierung und Exklusion zu beenden und existierende Ungleichheiten zu verringern (UN, 2015). Als Handlungsfelder für die Reduktion von Ungleichheiten in Bezug auf Menschen mit Behinderungen führen die SDGs insbesondere die Teilhabe an Bildung, menschenwürdige Arbeit und faire Entlohnung mit dem Ziel an, die soziale, wirtschaftliche und politische Inklusion zu fördern (Beudt, Feichtenbeiner, Blanc & Pinkwart, in press). Die gesamtgesellschaftlichen Umwälzungen durch KI sind bereits erkennbar. Arbeit, der ihr zugeschriebene Wert, ihre Organisation und Prozesse sowie Tätigkeitsprofile und damit verbundene Kompetenzanforderungen werden durch grundlegende Veränderungen gekennzeichnet sein (vgl. Engels, 2016; Nedelkoska & Quintini, 2018; Steil & Wrede, 2019; André & Bauer et al., 2021) – teils ist dies bereits der Fall.

Einerseits sind einige Anstrengungen zu unternehmen, damit für Menschen mit Behinderungen vor dem Hintergrund dieser Entwicklungen keine neuen Hürden für Bildung und Beschäftigung entstehen (z. B. aufgrund zunehmender Komplexität von Arbeitsprozessen, Diskriminierung durch KI-Technologien aufgrund unzureichender Trainingsdaten und fehlender Partizipation bei Technologiegestaltung und ‑entwicklung). Andererseits gibt es große Potenziale, ihre Bildungs- und berufliche Teilhabe mit Hilfe von KI-Technologien zu fördern. Vor dem Hintergrund des Fachkräftemangels sind Erst- und Wiedereingliederung von Menschen mit Behinderungen auf den allgemeinen Arbeitsmarkt zusätzlich bedeutsam (Beudt & Pinkwart, 2021). Der vorliegende Beitrag zeigt bereits einige Lücken in Forschung, Entwicklung und bedarfsgerechten Unterstützungsangeboten in diesem Zusammenhang auf, die zukünftig weiter bzw. verstärkt adressiert werden sollten.

Bedarfsgerechte Assistenztechnologien:

KI-gestützte Assistenzsysteme sollten auf individueller Ebene persönliche Bedarfe decken und einen deutlichen Mehrwert erzeugen. Es zeigte sich jedoch beispielsweise, dass für bestimmte Behinderungsarten bislang nur wenige solcher Technologien erforscht und entwickelt wurden und hier Handlungsbedarf besteht (s. Kap. 1). Zudem müssen bei der Technologiegestaltung und -entwicklung verstärkt inklusive Designansätze einschließlich Partizipation von Menschen mit Behinderungen Anwendung finden, damit KI-Technologien insgesamt für alle Personen zugänglicher und barrierefreier nutzbar werden (s. Kap. 4). Ebenfalls sind Ansätze für einen verbesserten Zugang zu den erforderlichen, hochwertigen Trainingsdaten zu entwickeln: insbesondere bei rein datengetriebenen KI-Verfahren ist die Verfügbarkeit möglichst repräsentativer Trainingsdaten essentiell, da hiervon die Qualität der Analyse und der Unterstützungsfunktion abhängt und Lernende mit Behinderungen sind in den Datensätzen bisher unterrepräsentiert (Pinkwart & Beudt, 2020; s. Kap. 2).

Kompetenzanforderungen und -förderung:

Der zunehmende Einzug von KI im Bildungswesen und der Arbeitswelt erfordert die Betrachtung neuer Kompetenzen, die notwendig sind für

  1. das gemeinsame Lernen (über und) mit KI in Schule, Hochschule sowie beruflicher Aus- und Weiterbildung,
  2. die dortige Vorbereitung auf eine sich verändernde Arbeitswelt und ihre Anforderungen sowie
  3. den Umgang berufstätiger Personen mit sich ändernden Arbeitskontexten und neuer Arbeitsteilung zwischen Mensch und KI.

In Hinblick auf Menschen mit Behinderungen besteht einerseits weiterer Forschungsbedarf in Hinsicht auf digitale und KI-Kompetenzen, um einen selbstbestimmten und informierten Umgang mit digitalen Medien und KI durch bedarfsgerechte Angebote zu fördern (s. Kap. 2). In diesem Zusammenhang sind insbesondere in Bezug auf die Transparenzverpflichtungen des AIA zugängliche und bedarfsgerechte Angebote zu entwickeln, um KI erklärbar zu machen (s. Kap. 2). In diesem Beitrag konnte nicht auf den Forschungstand zu explainable AI eingegangen werden, jedoch besteht hier insbesondere hinsichtlich Erklärbarkeit von KI für die heterogene Gruppe Menschen mit Behinderungen deutlicher Forschungsbedarf.

Zudem sollten Menschen mit Behinderungen stärker bei der Entwicklung von entsprechenden Kompetenzrahmen und daraus abgeleiteten Curricula und Qualifizierungsangeboten berücksichtigt werden (s. Kap. 3). Für eine gelingende Einführung und langfristige Nutzung von KI-Technologien spielt zudem die Förderung von Kompetenzen weiterer Akteur*innen aus beruflicher Rehabilitation und in Unternehmen eine entscheidende Rolle (Kap.4). Es bedarf entsprechender Beratungs-, Informations- und Schulungsangebote zu KI-Technologien und mit deren Einsatz verbundener Potenziale und Herausforderungen. Ebenso wird es für (zukünftige sowie bereits im Berufsleben stehende) KI-Entwickelnde erforderlich sein, den Auf- und Ausbau von Kompetenzen im Bereich ethischer Fragestellungen im Zusammenhang mit KI und Inklusion zu fördern (s. Kap 2).

Praktische Erfahrungen im Umgang mit KI:

Auch wenn inzwischen aus der bisherigen Forschung erste Handlungsempfehlungen (z. B. in Bezug auf die Verfügbarkeit, Voraussetzungen und Rahmenbedingungen für eine erfolgreiche KI-Einführung und -Nutzung) für Entscheider*innen aus beruflicher Rehabilitation, Unternehmen sowie aus der Politik abgeleitet werden konnten, gilt es zukünftig diese zu konkretisieren und insbesondere weitere Hinweise für Operationalisierungen zu geben. Auf organisationaler Ebene ist für die erfolgreiche Einführung und den Einsatz der Technologien in Einrichtungen der beruflichen Rehabilitation und Unternehmen eine wichtige Voraussetzung, dass deren interne Stakeholder (z.B. Entscheider*innen, Betriebsräte, Schwerbehindertenvertretungen, Fachkräfte) die Möglichkeit erhalten, praktische Erfahrungen mit den Technologien und in Mensch-KI-Kollaborationen zu machen, um Potenziale und Herausforderungen fundiert bewerten zu können (Blanc et al., 2021; Feichtenbeiner & Beudt, 2022; s. Kap. 4). Zudem ist es erforderlich, in partizipativen (und teils co-kreativen) Prozessen gemeinsam mit Menschen mit Behinderungen und relevanten Stakeholdern weitere Good Practices zu sammeln und auf der Basis aktuelle und relevante Use Cases zu erarbeiten und auch verfügbar zu machen.

Aufbau eines Kompetenzzentrums zu KI und Inklusion in der Arbeitswelt:

In diesem Beitrag wird aufgezeigt, dass für eine inklusive Gestaltung und die erfolgreiche Anwendung von KI-Technologien für eine verbesserte berufliche Teilhabe von Menschen mit Behinderungen viele Akteure (v. a. KI-entwickelnde Unternehmen, Rehabilitationseinrichtungen, Arbeitgeber, Beratungsinstitutionen, Rehabilitationsträger) zusammenarbeiten und Kompetenzen aufbauen müssen. Zur Begleitung und zur Förderung wichtiger, mit dem Einsatz von KI assoziierter Kompetenzen von Menschen mit Behinderungen und von den genannten Akteuren wird bis 2027 im Rahmen des Projekts „KI-Kompass Inklusiv“ [33] ein entsprechendes Kompetenzzentrum aufgebaut. Im Projekt werden aktuelle Entwicklungen im Bereich KI-gestützter Assistenztechnologien in einem Technologie-Monitoring verfolgt und für Menschen mit Behinderungen und Akteur*innen aus den Bereichen KI, berufliche Rehabilitation und Arbeitsmarkt aufbereitet. In Praxislaboren werden bedeutende Fragen zur Erforschung, Entwicklung und Anwendung KI-gestützter Assistenztechnologien in praxisnahen Forschungssettings untersucht. Eine wichtige Leistung des Projekts stellen – basierend auf der Analyse der Bedarfe – zielgruppenspezifische Beratungs- und Kompetenzentwicklungsangebote dar, die Orientierung und Begleitung für Menschen mit Behinderungen und für wichtige Akteur*innen im dynamischen Technologiefeld KI bieten können. Zudem kann auf Erkenntnisse aus dem vorangegangenen Projekt KI.ASSIST zurückgegriffen werden – unter anderem zur Differenzierung von Angeboten in allgemeine Digital- und KI-Kompetenzen und technologiespezifische Kompetenzen und zur Zusammenarbeit mit Technologie-Anbietenden. Das Projekt wird durch Menschen mit Behinderungen in Form eines Begleitgremiums unterstützt, damit diese an Projektaktivitäten teilhaben und mitbestimmen können und die Reduzierung von Barrieren erreicht werden kann.

Der schnelle Fortschritt im Bereich KI und der zunehmende Einsatz von KI-Technologien hat weitreichenden Einfluss auf Bildungswesen und Arbeitswelt. Bei der Betrachtung von Gelingensbedingungen und Auswirkungen der KI-getriebenen Transformation sollten Menschen mit Behinderungen mehr Berücksichtigung finden. Die erfolgreiche Einführung und der langfristige Einsatz von KI-Systemen können sehr voraussetzungsvoll sein: Wichtige Bedingungen sind einerseits Kenntnis von, Zugang zu und Akzeptanz der KI-Technologien. Vor dem Hintergrund neuer Kompetenzanforderungen sind zudem Beratung und Kompetenzförderung Schlüsselfaktoren für die Gestaltung der Transformationsprozesse, auch hierfür werden personelle und zeitliche Ressourcen benötigt. Zudem sind grundlegende ethische Fragen zu diskutieren und rechtliche Rahmenbedingungen zu prüfen und ggf. anzupassen. Um diese Prozesse zu begleiten sind Angebote wie das vorgestellte Kompetenzzentrum unerlässlich, um u.a. KI-Forschende und -Entwickler*innen mit Handelnden aus Praxisfeldern zusammen zu bringen, zu vermitteln sowie den Wissenstransfer herzustellen und nachhaltig zu fördern. Die Anwendung von KI für eine verbesserte berufliche Teilhabe von Menschen mit Behinderungen wird aber auch wesentlich von Entwicklungen in den Bereichen KI, Inklusion und Kompetenzentwicklung (in Schule, Hochschule, beruflicher Aus- und Weiterbildung) abhängig sein.

 

Danksagung

Mein ganz herzlicher Dank gilt Lorenz Matthias Reichert, Rolf Feichtenbeiner und Dr. Berit Blanc für ihre Unterstützung und wertvollen Hinweise.

Volltext zum Download

Anmerkungen und Quellen

  1. 2010 weltweit ca. eine Milliarde Menschen mit Behinderungen (WHO, 2022). EU: 2022 ca. 101 Mio. Menschen über 16 Jahre mit einer Form der Behinderung (ca. 27 % der über 16-Jährigen), Deutschland: 2021 ca. 10,33 Mio. Menschen mit zumindest anerkannter Behinderung (ca. 12,4 % der Gesamtbevölkerung), davon 91,4 Prozent erworben (90 % durch allgemeine Krankheit, 1,4 % durch Unfall oder Berufskrankheit; Bundesagentur für Arbeit, 2022).
  2. International betrachtet war für Menschen mit Behinderungen 2022 die Wahrscheinlichkeit weniger als einem Grundschulabschluss zu erreichen etwa doppelt so hoch, ein höheres Bildungsniveau zu erreichen halb so hoch (Internationale Arbeitsorganisation [ILO]; spezifischere Daten in WHO, 2022). In der EU war 2020 die Schulabbrecherquote bei Menschen mit Behinderungen doppelt so hoch und es zeigte sich ein erschwerter Zugang zu allgemeiner und beruflicher Bildung: 29 % erreichen einen Hochschulabschluss im Vergleich zu 44 % der Menschen ohne Behinderung (European Commission, 2022).
  3. International betrachtet lag die Arbeitslosenquote von Menschen mit Behinderungen in vielen Ländern im Schnitt fast doppelt so hoch (im Vergleich zur Gesamtbevölkerung; WHO, 2022; ILO, 2022). In der EU waren 2020 in der jüngeren Altersgruppe (20 bis 26 Jahre) 17,7 % der Menschen mit Behinderungen arbeitslos (im Vergleich zu 8,6 % der EU-Gesamtbevölkerung). Deutschland erfasste 2021 10,8 % der Menschen mit Behinderungen als arbeitslos, im Vergleich zu 6,4 % der Gesamtbevölkerung (Bundesagentur für Arbeit, 2022; European Commission, 2022).
  4. Zum Beispiel Projekt Recupera REHA, Kirchner et al., 2016.
  5. Zum Beispiel Projekt AVASAG, Nunnari et al., 2021.
  6. Projekt AQUIAS (s. z. B. Kremer, Hermann & Henkel, 2018)
  7. Projekt PARTAS (s. z. B. Jost et al., 2022)
  8. Projekt KI.ASSIST, 2019-2022, gefördert durch Bundesministerium für Arbeit und Soziales aus dem Ausgleichsfonds (s. z. B. KI.ASSIST-Projekt, 2022)
  9. Aufgrund des Projektfokus‘ wurden ins Monitoring nur Technologien aufgenommen, die in den letzten 5 Jahren eingesetzt/erforscht und in deutscher Sprache angeboten wurden.
  10. Siehe Arbeiten der Datenethikkommission der Bundesregierung (Gutachten 2019) und der Enquête-Kommission KI des Deutschen Bundestags (Abschlussbericht 2020).
  11. 2020 listete das AI Ethics Guidelines Global Inventory bereits 167 Richtlinien und Rahmenwerke, vor allem von staatlichen und nichtstaatlichen Organisationen, Privatunternehmen und akademischen Einrichtungen, https://inventory.algorithmwatch.org/, letztes Update April 2020.
  12. Die Arbeitsgruppe zum Thema Ethik, KI & Menschen mit Behinderungen begleitete das Projekt KI.ASSIST (s. S.3) ein Jahr lang (Nov. 2020 – Nov. 2021).
  13. Siehe auch Forschung zu Explainable AI, auf die in diesem Beitrag nicht gesondert eingegangen werden kann.
  14. Seit 2009 in Deutschland in Kraft, dt. Übersetzung durch Büro des Beauftragten der Bundesregierung für die Belange von Menschen mit Behinderungen, 2018
  15. Vorarbeiten 2018 bis 2020 durch die Hochrangige Expertengruppe der Europäischen Kommission (AI HLEG, eine der vier zentralen Deliverables waren die Ethics Guidelines for Trustworthy AI, 2019, Übersicht: https://digital-strategy.ec.europa.eu/en/policies/expert-group-ai). Ihre Empfehlungen bildeten eine wichtige Grundlage für politische Initiativen (z. B. White Paper on AI, 2020) der Europäischen Kommission und die anschließende Entwicklung des AI Acts vom 1. Entwurf 2021 bis zur voraussichtlich finalen Verabschiedung 2024 (https://www.europarl.europa.eu/legislative-train/theme-a-europe-fit-for-the-digital-age/file-regulation-on-artificial-intelligence).
  16. Gesichtet wurde der letzte, im Januar 2024 zur Verfügung stehende Entwurf der Verordnung unter https://artificialintelligenceact.eu/wp-content/uploads/2024/01/AI-Act-FullText.pdf. Aus den EG können keine unmittelbaren Rechtsfolgen abgeleitet werden. Als Erläuterung und Kontextgeber können sie jedoch für die Auslegung der Artikel bedeutsam sein.
  17. Originalbezeichnung: AI regulatory sandboxes. Jeder Mitgliedsstaat wird nach Inkrafttreten des AIA gemäß Art. 53 verpflichtet, mindestens eine „AI sandbox“ (allein oder gemeinsam mit nationalen Behörden anderer Mitgliedsstaaten) einzurichten, die 24 Monate nach Inkrafttreten einsatzbereit ist.
  18. Seit Jahren wird die Bezeichnung „geistige Behinderung“ (die sich noch in der dt. Gesetzgebung und der dt. Übersetzung der UN-BRK findet) diskutiert. (Inter-)National finden sich u. a. mit „Menschen mit kognitiven Beeinträchtigungen“ oder „Menschen mit intellektuellen Beeinträchtigungen“ weitere Bezeichnungen. Anfang 2024 benannte der Bundesbeauftragte für die Belange von Menschen mit Behinderungen den Begriff „geistige Behinderung“ als nicht mehr zeitgemäß, forderte einen fachlich-interdisziplinären Diskurs mit entscheidender Einbeziehung von Expert*innen in eigener Sache und empfiehlt bis zur Findung eines Begriffs mit breitem Konsens die Verwendung „Menschen mit intellektuellen Beeinträchtigungen“.
  19. Wie an einigen anderen Stellen, sind auch in Art. 52 Ausnahmen zum Zwecke der Strafverfolgung aufgeführt.
  20. https://digital-strategy.ec.europa.eu/de/policies/europes-digital-decade
  21. OECD-Auswertung basierend auf Daten des European Quality of Life Survey (EQLS) für 23 europäische Länder im Jahr 2016
  22. Menschen mit Behinderungen führten etwa 2015 laut OECD-Erhebung in 21 europäischen Ländern häufiger monotone und sich wiederholende Aufgaben aus (häufiger Arbeitsplätze mit hohem Anteil an Routine), was überwiegend auf geringere Bildungsniveaus und höheres Alter zurückgeführt wurde (OECD, 2022)
  23. Veröffentlichung „AI competency frameworks“ für Lehrende und Lernende vsl. September 2024
  24. Wissen und Fähigkeiten in Bezug auf die Einschätzung, was KI-Systeme tun/ nicht tun (1), wie sie funktionieren (2), notwendiges Wissen, Fähigkeiten und Einstellungen für eine kompetente Interaktion mit KI-Systemen und Apps (z. B. für Informationssuche, unter Berücksichtigung von Privatsphäre- und Datenschutzthemen) (3), fundierte Betrachtung der damit verbundenen Herausforderungen und ethischen Fragestellungen (4), Wissen und Einstellungen, die sich auf menschliches Handeln und menschliche Kontrolle beziehen. Siehe Annex A2 des DigComp2.2 für eine vollständige Übersicht aller 73 Beispiele.
  25. Die betreffenden Kompetenzen sind: „Browsen, Suchen, Filtern von Daten, Informationen und digitalen Inhalten“ (1.1), „Interaktion [(2.1) sowie] Kollaboration mittels digitaler Technologien“ (2.2), „Netiquette“ (2.5), „Entwicklung [(3.1) sowie] Integration und Überarbeitung digitaler Inhalte“ (3.2) und „Identifizierung von Bedürfnissen und technologischen Antworten darauf“ (5.2).
  26. Aus einer offiziellen Übersetzung des JRC-Kompetenzrahmens https://joint-research-centre.ec.europa.eu/system/files/2018-09/digcompedu_leaflet_de_2018-01.pdf, Kompetenzbereich 5 im englischen Original: „Empowering Learners“
  27. Kurz erwähnt werden Lern- und intellektuelle Behinderung im Zusammenhang mit der Bewertung existierender kognitiver Tests bzw. neuropsychologischer Erhebungsinstrumente (OECD, 2021b). In einem Vergleich zwischen Mensch und KI hinsichtlich Sprachkompetenz wurde berichtet, dass zumindest Menschen mit schweren Behinderungen nicht Teil der Analyse waren (OECD, 2023).
  28. Die Entwicklung der Kompetenzrahmens AIComp ist ebenfalls noch nicht abgeschlossen.
  29. AIComp Dimensionen: 1 – Arbeiten und Gestalten mit KI und für KI, 2 – persönliche Fähigkeiten für KI-bezogene Handlungsräume entwickeln, 3 – privates oder professionelles soziales Umfeld mit und für KI gestalten
  30. Für eine Übersicht verschiedener Definitionen und Stärken von Menschen und Maschinen siehe Seufert & Meier, 2023.
  31. Desk Research Stand 11/2023
  32. Das Projekt „KI-Kompass Inklusiv – Kompetenzzentrum für KI-gestützte Assistenztechnologien und Inklusion in der Arbeitswelt“ (Laufzeit 5 Jahre) wird gefördert durch das BMAS aus den Mitteln des Ausgleichsfonds.
  33. André, E., Bauer, W., Aurich, J. C., Bullinger-Hoffmann, A., Heister, M., Huchler, N., Neuburger, R., Peissner, M [Matthias], Stich, A [Andrea] & Suchy, O. (2022). Kompetenzentwicklung für KI. Veränderungen, Bedarfe und Handlungsoptionen. Plattform Lernende Systeme, Ed.
  34. Apt, W., Bovenschulte, M., Priesack, K., Weiß, C. & Hartmann, E. (2018). Einsatz von digitalen Assistenzsystemen im Betrieb. Forschungsbericht im Auftrag Bundesministeriums für Arbeit und Soziales. Bundesministerium für Arbeit und Soziales. https://www.bmas.de/SharedDocs/Downloads/DE/Publikationen/Forschungsberichte/fb502-einsatz-von-digitalen-assistenzsystemen-im-betrieb.pdf
  35. Arslantas, T. K. & Gul, A. (2022). Digital literacy skills of university students with visual impairment: A mixed-methods analysis. Education and Information Technologies, 27(4), 5605–5625. https://doi.org/10.1007/s10639-021-10860-1
  36. Ascari, Rúbia E. O. Schultz, Pereira, R. & Silva, L. (2020). Computer Vision-based Methodology to Improve Interaction for People with Motor and Speech Impairment. ACM Transactions on Accessible Computing, 13(4), 1–33. https://doi.org/10.1145/3408300
  37. Baxter, A. & Reeves, L. M. (2023). Inclusion of Digital Literacy Skills in Transition Planning for Students With Intellectual Disabilities. Journal of Special Education Technology, 38(3), 384–391. https://doi.org/10.1177/01626434221120416
  38. Bayor, A. A., Brereton, M., Sitbon, L., Ploderer, B., Bircanin, F., Favre, B. & Koplick, S. (2021). Toward a Competency-based Approach to Co-designing Technologies with People with Intellectual Disability. ACM Transactions on Accessible Computing, 14(2), 1–33. https://doi.org/10.1145/3450355
  39. Beauftragter der Bundesregierung für die Belange von Menschen mit Behinderungen. (2018). UN-Behindertenrechtskonvention. https://www.institut-fuer-menschenrechte.de/fileadmin/Redaktion/PDF/DB_ Menschenrechtsschutz/CRPD/CRPD_Konvention_und_Fakultativprotokoll.pdf
  40. Beauftragter der Bundesregierung für die Belange von Menschen mit Behinderungen. (2024). Teilhabeempfehlungen für eine inklusivere Gesellschaft – auch für Menschen mit intellektuellen Beeinträchtigungen. https://www.behindertenbeauftragter.de/SharedDocs/Downloads/DE/AS/PublikationenErklaerungen/Teilhabeempfehlungen_2024.pdf
  41. Becker, M., Spöttl, G. & Windelband, L. (2021). Künstliche Intelligenz und Autonomie der Technologien in der gewerblich-technischen Berufsbildung. Zeitschrift für Berufs-und Wirtschaftspädagogik, 31, 31–54.
  42. Beudt, S., Blanc, B., Feichtenbeiner, R. & Kähler, M. (2020). Critical reflection of AI applications for persons with disabilities in vocational rehabilitation. In Proceedings of DELFI workshops 2020 (S. 136–146). Gesellschaft für Informatik e.V.z. https://doi.org/10.18420/delfi2020-ws-116
  43. Beudt, S., Feichtenbeiner, R., Blanc, B. & Pinkwart, N. (in press). Inklusion durch künstliche Intelligenz? Zur Rolle und Bedeutung KI-gestützter Assistenztechnologien für Menschen mit Behinderungen. In K. A. Gondlach, B. Brinkmann, M. Brinkmann & J. Plath (Hrsg.), SDG – Forschung, Konzepte, Lösungsansätze zur Nachhaltigkeit. Regenerative Zukünfte und künstliche Intelligenz: Band 2: PEOPLE. Springer Fachmedien Wiesbaden GmbH; Springer VS.
  44. Beudt, S. & Pinkwart, N. (2021). KI-Anwendungen in der beruflichen Rehabilitation – Inklusionspotenziale und Herausforderungen. In S. Seufert, J. Guggemos, D. Ifenthaler, H. Ertl & J. Seifried (Hrsg.), Zeitschrift für Berufs- und Wirtschaftspädagogik – Beihefte: Bd. 31. Künstliche Intelligenz in der beruflichen Bildung: Zukunft der Arbeit und Bildung mit intelligenten Maschinen?!. Franz Steiner Verlag.
  45. Blanc, B. & Beudt, S. (2022). Monitoring KI-gestützter Assistenztechnologien für Menschen mit Behinderungen. Stand der Entwicklungen und Trends. Ergebnisbericht des Projekts KI.ASSIST. Bundesverband Deutscher Berufsförderungswerke e. V. https://www.ki-assist.de/fileadmin/ki_assist/Medienkatalog/Blanc_2022_KI.ASSIST_Monitoring_final.pdf
  46. Blanc, B., Feichtenbeiner, R., Beudt, S. & Pinkwart, N. (2021). KI in der beruflichen Rehabilitation – Intelligente Assistenz für Menschen mit Behinderung. In I. Knappertsbusch & K. Gondlach (Hrsg.), Springer books. Arbeitswelt und KI 2030 (S. 401–410). Springer. https://doi.org/10.1007/978-3-658-35779-5
  47. Bundesagentur für Arbeit. (2022). Analyse Arbeitsmarkt für Menschen mit Behinderung (Jahreszahlen). Statistik der Bundesagentur für Arbeit,. https://statistik.arbeitsagentur.de/Statistikdaten/Detail/202212/analyse/analyse-arbeitsmarkt-schwerbehinderte/analyse-arbeitsmarkt-schwerbehinderte-d-0-202212-pdf
  48. Conley, Q., Scheufler, J., Persichini, G., Lowenthal, P. R. & Humphrey, M. L. (2018). Digital citizenship for all: Empowering young learners with disabilities to become digitally literate. Int. J. Digit. Lit. Digit. Competence, 9, 1–20. https://api.semanticscholar.org/CorpusID:67868615
  49. Datenethikkommission der Bundesregierung (Hrsg.). (2019). Gutachten der Datenethikkommission der Bundesregierung. https://www.bmi.bund.de/SharedDocs/downloads/DE/publikationen/themen/it-digitalpolitik/gutachten-datenethikkommission.pdf
  50. Dellermann, D., Ebel, P., Söllner, M. & Leimeister, J. M. (2019). Hybrid intelligence. Business & Information Systems Engineering, 61, 637–643.
  51. Deutscher Bundestag (Hrsg.). (2020). Bericht der Enquete-Kommission „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale“. Drucksache 19/23700. https://dserver.bundestag.de/btd/19/237/1923700.pdf
  52. Dobransky, K. & Hargittai, E. (2016). Unrealized potential: Exploring the digital disability divide. Poetics, 58, 18–28. https://doi.org/10.1016/j.poetic.2016.08.003
  53. Ehlers, U.‑D., Lindner, M., Sommer, S. & Rauch, E. (2023). AICOMP – future skills in a world increasingly shaped by AI. Ubiquity Proceedings. Vorab-Onlinepublikation. https://doi.org/10.5334/uproc.91
  54. Engels, D. (2016). Chancen und Risiken der Digitalisierung der Arbeitswelt für die Beschäftigung von Menschen mit Behinderung. Forschungsbericht / Bundesministerium für Arbeit und Soziales: FB467. Bundesministerium für Arbeit und Soziales. https://www.bmas.de/SharedDocs/Downloads/DE/Publikationen/Forschungsberichte/fb-467-digitalisierung-behinderung.pdf
  55. European Commission. (n.d.). Europe’s Digital Decade. https://digital-strategy.ec.europa.eu/en/policies/europes-digital-decade
  56. European Commission. (2020). Proposal for a Regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) and amending certain Union legislative acts. (Final compromise text, draft as of 26 January 2024). https://data.consilium.europa.eu/doc/document/ST-5662-2024-INIT/en/pdf
  57. European Commission. (2022). European comparative data on Europe 2020 and persons with disabilities: labour market, education, poverty and health analysis and trends. Publications Office. https://doi.org/10.2767/48279
  58. Feichtenbeiner, R. & Beudt, S. (2022). Transformation, KI und Inklusion. Gestaltungsansätze für die Entwicklung, Einführung und Anwendung KI-gestützter Assistenztechnologien in der be-ruflichen Rehabilitation und auf dem Arbeitsmarkt. Ergebnisbericht des Projekts KI.ASSIST. Bundesverband Deutscher Berufsförderungswerke e. V. https://www.ki-assist.de/fileadmin/ki_assist/Medienkatalog/Feichtenbeiner___Beudt_KI.ASSIST_Ergebnisbericht_Transformation.pdf
  59. Feichtenbeiner, R., Stähler, L. & Beudt, S. (2022). Ethik, KI und Menschen mit Behinderung. Ethische Leitlinien und methodische Ansätze für inklusive Künstliche Intelligenz. Ergebnisbericht des Projekts KI.ASSIST. Bundesverband Deutscher Berufsförderungswerke e. V. https://www.ki-assist.de/fileadmin/user_upload/Feichtenbeiner_Stähler_Beudt_2022_Ethik__KI___Menschen_Behinderung_Ergebnisbericht.pdf
  60. Freitas, M. P. de, Piai, V. A., Farias, R. H., Fernandes, A. M. R., Moraes Rossetto, A. G. de & Leithardt, V. R. Q. (2022). Artificial intelligence of things applied to assistive technology: A systematic literature review. Sensors, 22(21). https://doi.org/10.3390/s22218531
  61. Gupta, S., Jaiswal, A., Sukhai, M. & Wittich, W. (2023). Hearing disability and employment: a population-based analysis using the 2017 Canadian survey on disability. Disability and Rehabilitation, 45(11), 1836–1846. https://doi.org/10.1080/09638288.2022.2076938
  62. High-Level Expert Group on AI. (2019). Ethics guidelines for trustworthy AI. https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai
  63. ILO Global Business and Disability Network & Fundación ONCE. (2021). An inclusive digital economy for people with disabilities. https://www.ilo.org/wcmsp5/groups/public/—dgreports/—gender/documents/publication/wcms_769852.pdf
  64. ILO & OECD. (2022). Inclusion of persons with disabilities in the digital and green economy. https://www.ilo.org/wcmsp5/groups/public/—dgreports/—ddg_p/documents/publication/wcms_840306.pdf
  65. Johansson, S., Gulliksen, J. & Gustavsson, C. (2021). Disability digital divide: the use of the internet, smartphones, computers and tablets among people with disabilities in Sweden. Universal Access in the Information Society, 20(1), 105–120. https://doi.org/10.1007/s10209-020-00714-x
  66. Jost, M., Luxenburger, A., Knoch, S. & Alexandersson, J. (2022). PARTAS: A Personalizable Augmented Reality Based Task Adaption System for Workers with Cognitive Disabilities. In ICPS, Proceedings of the 15th International Conference on PErvasive Technologies Related to Assistive Environments (S. 159–168). Association for Computing Machinery. https://doi.org/10.1145/3529190.3529208
  67. Kamei-Hannan, C., Tuttle, M. J. & Songkhao, R. (2023). A Conceptual Framework for Digital Competence of Students With Low Vision and Blindness. Journal of Visual Impairment & Blindness, 117(1), 7–18. https://doi.org/10.1177/0145482X221149979
  68. Keeley, C. & Bernasconi, T. (2023). Digital participation and digital education for people with profound and multiple disabilities and complex communication needs. Frontiers in Communication, 8, 1229384. https://doi.org/10.3389/fcomm.2023.1229384
  69. KI.ASSIST-Projekt. (2022). KI-Technologien und berufliche Teilhabe von Menschen mit Behinderungen. Ergebnisse und Empfehlungen aus dem Projekt KI.ASSIST. Bundesverband Deutscher Berufsförderungswerke e. V. https://www.ki-assist.de/fileadmin/ki_assist/Medienkatalog/KI.ASSIST_2022_Ergebnissbroschüre.pdf
  70. Kirchner, E. A., Will, N., Simnofske, M., Vaca Benitez, L. M., Bongardt, B., Krell, M. M., Kumar, S., Mallwitz, M., Seeland, A., Tabie, M., Wöhrle, H., Yüksel, M., Heß, A., Buschfort, R. & Kirchner, F. (2016). Recupera-Reha: Exoskeleton Technology with Integrated Biosignal Analysis for Sensorimotor Rehabilitation. In 2. Transdisziplinäre Konferenz „Technische Unterstützungssysteme, die die Menschen wirklich wollen“ (S. 504–517). Elsevier.
  71. Kremer, D., Hermann, S. & Henkel, C. Mensch-Roboter-Kollaboration für Schwerbehinderte als Beitrag zur Inklusion in der Arbeitswelt. In A. C. Bullinger-Hoffmann (Hrsg.), innteract2018: Bd. 3, Innovation der Innovation – neu gedacht, neu gemacht. Verlag aw&I Wissenschaft und Praxis. https://doi.org/10.14464/awic.v3i0.284
  72. Link, M. & Hamann, K. (2019). Einsatz digitaler Assistenzsysteme in der Produktion. Zeitschrift für wirtschaftlichen Fabrikbetrieb, 114(10), 683–687. https://doi.org/10.3139/104.112161
  73. Long, D. & Magerko, B. (2020). What is AI Literacy? Competencies and Design Considerations. In R. Bernhaupt, F. Mueller, D. Verweij, J. Andres, J. McGrenere, A. Cockburn, I. Avellino, A. Goguey, P. Bjørn, S. Zhao, B. P. Samson & R. Kocielnik (Hrsg.), Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems (S. 1–16). ACM. https://doi.org/10.1145/3313831.3376727
  74. Nam, S.‑J. & Park, E.‑Y. (2017). The effects of the smart environment on the information divide experienced by people with disabilities. Disability and Health Journal, 10(2), 257–263. https://doi.org/10.1016/j.dhjo.2016.11.001
  75. Nedelkoska, L. & Quintini, G. (2024). Automation, skills use and training (OECD Social, Employment and Migration Working Papers Bd. 202). https://doi.org/10.1787/1815199X
  76. Nunnari, F., Bauerdiek, J., Bernhard, L., España-Bonet, C., Jäger, C., Unger, A., Waldow, K., Wecker, S., André, E., Busemann, S. & others (2021). AVASAG: A German sign language translation system for public services (short paper). In Proceedings of the 1st international workshop on automatic translation for signed and spoken languages (AT4SSL). Association for Machine Translation in the Americas. https://aclanthology.org/2021.mtsummit-at4ssl.5
  77. OECD. (2019). OECD Future of Education and Skills 2030 Concept Note: OECD Learning Compass 2030. https://www.oecd.org/education/2030-project/teaching-and-learning/learning/learning-compass-2030/OECD_Learning_Compass_2030_concept_note.pdf
  78. OECD. (2021a). Adapting Curriculum to Bridge Equity Gaps: Towards an Inclusive Curriculum. OECD Publishing. https://doi.org/10.1787/6b49e118-en
  79. OECD. (2021b). AI and the Future of Skills, Volume 1: Capabilities and Assessments. Educational Research and Innovation. OECD Publishing. https://doi.org/10.1787/5ee71f34-en
  80. OECD. (2022). Disability, Work and Inclusion: Mainstreaming in All Policies and Practices. OECD Publishing. https://doi.org/10.1787/1eaa5e9c-en
  81. OECD. (2023). AI and the Future of Skills, Volume 2: Methods for Evaluating AI Capabilities. Educational Research and Innovation. OECD Publishing. https://doi.org/10.1787/a9fe53cb-en
  82. Park, E.‑Y. (2022). Digital competence and internet use/behavior of persons with disabilities in PC and smart device use. Universal Access in the Information Society, 21(2), 477–489. https://doi.org/10.1007/s10209-020-00782-z
  83. Pinkwart, N. & Beudt, S. (2020). Künstliche Intelligenz als unterstützende Lerntechnologie. Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO. http://publica.fraunhofer.de/dokumente/N-624584.html
  84. Plos, O., Buisine, S., Aoussat, A., Mantelet, F. & Dumas, C. (2012). A Universalist strategy for the design of Assistive Technology. International Journal of Industrial Ergonomics, 42(6), 533–541. https://doi.org/10.1016/j.ergon.2012.09.003
  85. Redecker, C. (2017). European framework for the digital competence of educators: DigCompEdu. Punie, Y. (Ed.). Scientific and technical research series:: Bd. 28775. Publications Office of the European Union. https://doi.org/10.2760/178382
  86. Reyes-Cruz, G., Fischer, J. E. & Reeves, S. (2020). Reframing Disability as Competency: Unpacking Everyday Technology Practices of People with Visual Impairments. In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems (S. 1–13). ACM. https://doi.org/10.1145/3313831.3376767
  87. Robinson, L., Cotten, S. R., Schulz, J., Hale, T. M. & Williams, A. (Hrsg.). (2015). Studies in Media and Communications. Communication and Information Technologies Annual. Emerald Group Publishing Limited. https://doi.org/10.1108/simc
  88. Scanlan, M. (2022). Reassessing the disability divide: unequal access as the world is pushed online. Universal Access in the Information Society, 21(3), 725–735. https://doi.org/10.1007/s10209-021-00803-5
  89. Scheerder, A., van Deursen, A. & van Dijk, J. (2017). Determinants of Internet skills, uses and outcomes. A systematic review of the second-and third-level digital divide. Telematics and informatics, 34(8), 1607–1624. https://doi.org/10.1016/j.tele.2017.07.007
  90. Seufert, S. & Meier, C. (2023). Hybride intelligenz: Zusammenarbeit mit KI-Assistenzsystemen in wissensintensiven bereichen. HMD Praxis der Wirtschaftsinformatik, 60(6), 1194–1209. https://doi.org/10.1365/s40702-023-01012-9
  91. Spanakis, P., Wadman, R., Walker, L., Heron, P., Mathers, A., Baker, J., Johnston, G., Gilbody, S. & Peckham, E. (2022). Measuring the digital divide among people with severe mental ill health using the essential digital skills framework. Perspectives in Public Health, 175791392211063. https://doi.org/10.1177/17579139221106399
  92. Steil, J. & Wrede, S. (2019). Maschinelles Lernen und lernende Assistenzsysteme: Neue Tätigkeiten, Rollen und Anforderungen für Beschäftigte? Berufsbildung in Wissenschaft und Praxis(48), 14–18.
  93. Stowasser, S., Suchy, O., Huchler, N., Müller, N., Peissner, M [M.], Stich, A [A.], Vögel, H. J., Werne, J., Henkelmann, T., Schindler, T. & Scholz, M. (2020). Einführung von KI-Systemen in Unternehmen. Gestaltungsansätze für das Change- Management. Whitepaper aus der Plattform Lernende. https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/AG2_Whitepaper_Change_Management.pdf
  94. UNESCO. (2023). Draft AI competency frameworks for teachers and for school students. https://www.unesco.org/sites/default/files/medias/fichiers/2023/12/UNESCO-Draft-AI-competency-frameworks-for-teachers-and-school-students_0.pdf
  95. United Nations. (2015). Transforming our world: the 2030 Agenda for Sustainable Development. United Nations. https://sdgs.un.org/2030agenda
  96. United Nations‏‏‎‎ Department of Economic and Social Affairs. (2023). The Sustainable Development Goals Report 2023: Special Edition. United Nations. https://unstats.un.org/sdgs/report/2023/
  97. van Deursen, A. J. A. M. & Helsper, E. J. (2015). The Third-Level Digital Divide: Who Benefits Most from Being Online? In L. Robinson, S. R. Cotten, J. Schulz, T. M. Hale & A. Williams (Hrsg.), Studies in Media and Communications. Communication and Information Technologies Annual (Bd. 10, S. 29–52). Emerald Group Publishing Limited. https://doi.org/10.1108/S2050-206020150000010002
  98. Vuorikari, R., Kluzer, S. & Punie, Y. (2022). DigComp 2.2: The Digital Competence Framework for Citizens – With new examples of knowledge, skills and attitudes. Publications Office of the European Union. https://doi.org/10.2760/115376
  99. Wahlster, W. (9. September 2020). Mehr vom Menschen lernen. FAZ. https://www.wolfgang-wahlster.de/wp-content/uploads/WahlsterFAZ.pdf
  100. World Health Organization (Hrsg.). (2022). Global report on health equity for persons with disabilities. World Health Organization.

Zitationsvorschlag

Beudt, S. (2024). Künstliche Intelligenz und Inklusion in der Arbeitswelt – Leitlinien und Kompetenzen für die KI-gestützte Förderung beruflicher Teilhabe. Im Rahmen des Projektes Digitales Deutschland. Online verfügbar: https://digid.jff.de/ki-expertisen/inklusion