Beratungstelefon: 0521 - 442998

10.09.2025

Wenn Chatbots diskriminieren: Wie ein neues Tool Ableismus in KI sichtbar macht

Chatbots sind aus unserem Alltag kaum noch wegzudenken. Ob beim Kundenservice eines Stromanbieters, im Online-Shop oder auf den Seiten von Stadtverwaltungen – immer öfter übernehmen digitale Assistenten den ersten Kontakt mit Nutzer*innen. Diese Chatbots basieren meist auf sogenannten KI-Sprachmodellen, die mit großen Datenmengen trainiert wurden. Sie sollen dabei helfen, einfache Anliegen schnell, automatisiert und rund um die Uhr zu bearbeiten. Für viele Menschen ist das eine praktische Erleichterung. Doch was für die einen komfortabel ist, stellt für andere eine Barriere dar – insbesondere für Menschen mit Behinderung.

Viele Betroffene berichten von schlechten Erfahrungen mit Chatbots: Die Systeme verwenden unverständliche oder unpassende Sprache, lassen wichtige Informationen weg oder reagieren diskriminierend. Der Grund dafür liegt oft in der Art und Weise, wie diese Sprachmodelle entwickelt und trainiert werden. Sie übernehmen unreflektiert die Vorurteile und Verzerrungen, die in den Daten enthalten sind – und reproduzieren diese in der Kommunikation. Besonders problematisch ist, dass bislang kaum geprüft wird, ob Chatbots inklusiv und diskriminierungsfrei funktionieren. Die Bedürfnisse von Menschen mit Behinderung werden bei der Entwicklung oft nicht ausreichend berücksichtigt. Dadurch kann es passieren, dass Chatbots – bewusst oder unbewusst – ableistisch agieren, also Menschen aufgrund ihrer Behinderung benachteiligen oder ausschließen.

Um dieses Problem anzugehen, hat die Aktion Mensch gemeinsam mit der Hochschule Bielefeld ein neues Tool entwickelt: ABLE – kurz für “Ableism Bias Language Evaluation”. Dieses Werkzeug soll helfen, Diskriminierung durch KI sichtbar zu machen. Es untersucht, ob und wie Chatbots ableistische oder vorurteilsbehaftete Sprache verwenden, und macht so sprachliche Diskriminierung messbar. ABLE ist das erste Tool dieser Art im deutschsprachigen Raum und ein wichtiger Schritt hin zu mehr digitaler Gerechtigkeit.

Das Ziel von ABLE ist es, systematisch zu analysieren, in welchen Situationen Chatbots Menschen mit Behinderung benachteiligen, und aufzuzeigen, welche Risiken durch diskriminierende Sprache entstehen. Damit können Entwickler*innen frühzeitig erkennen, ob ihre Systeme problematische Inhalte ausgeben – und sie entsprechend verbessern. Gleichzeitig schafft das Tool ein neues Bewusstsein für das Thema Ableismus in der digitalen Kommunikation, das bislang oft übersehen wurde.

Denn eines ist klar: Digitale Barrierefreiheit hört nicht bei der Nutzeroberfläche auf. Auch die Sprache, mit der uns digitale Systeme begegnen, muss inklusiv, respektvoll und verständlich sein. Mit ABLE wollen Aktion Mensch und die Hochschule Bielefeld dazu beitragen, dass Chatbots nicht nur effizient, sondern auch fair und zugänglich für alle Menschen sind. Nur wenn wirklich alle mitgemeint sind, ist technologische Innovation ein Fortschritt.

Thema: Informationen | 10.09.2025 |

↑   Zum Seitenanfang   ↑