Gleichbehandlung Ataman warnt vor Diskriminierung durch KI-Entscheidungen
Hauptinhalt
30. August 2023, 14:51 Uhr
Wer bekommt die teure Therapie? Wer den begehrten Job? Wer den günstigen Zinssatz? Solche Entscheidungen werden zunehmend von Künstlicher Intelligenz gefällt. Ein Gutachten warnt von einer neuen Form der digitalen Diskriminierung.
- Künstliche Intelligenz kommt oft inzwischen zum Einsatz, wenn es ums Verteilen geht.
- In den USA kam es zu Fällen, in denen Frauen durch KI benachteiligt wurden.
- Antidiskriminierungsbeauftragte Ataman verlangt, KI-Betreiber in die Pflicht zu nehmen
Die Antidiskriminierungsbeauftragte des Bundes, Ferda Ataman, warnt vor einer neuen Form der Diskriminierung durch den Einsatz Künstlicher Intelligenz. Ataman sagte in Berlin, immer öfter übernähmen automatisierte Systeme Entscheidungen, die für Menschen im Alltag wichtig seien. Was auf den ersten Blick objektiv wirke, könne Vorurteile und Stereotype reproduzieren, weil die Aussagen auf Grundlage von pauschalen Gruppenmerkmalen getroffen würden.
Immer wenn es ums Verteilen geht
Ataman stellte dazu in Berlin ein Rechtsgutachten mit dem Titel "Automatisch benachteiligt" vor. Darin heißt es, der Einsatz von KI erfasse nahezu alle Bereiche des privaten und öffentlichen Lebens. Davon betroffen seien etwa medizinische Diagnostik und Therapie-Entscheidungen, Bewerbungsverfahren und Bankkredite – im Grunde alle Bereiche, wo es um die Verteilung knapper Ressourcen gehe. Das Allgemeine Gleichbehandlungsgesetz – kurz AGG – sei den digitalen Herausforderungen nur bedingt gewachsen.
KI benachteiligte systematisch Frauen
Als Beispiel für Diskriminierung durch KI wurde ein Fall in den USA genannt, wo Frauen bei Apple-Kreditkarten durch fehlerhaft programmierte Algorithmen systematisch benachteiligt wurden. Außerdem wies Ataman auf die Kindergeld-Affäre in den Niederlanden hin. Dort wurden 2021 mehr als 20.000 Menschen mit doppelter Staatsbürgerschaft aufgefordert, das Kindergeld zurückzuzahlen. Der Fall brachte die Regierung zum Sturz.
Ataman warnte, die Gefahren digitaler Diskriminierung dürften auf keinen Fall unterschätzt werden. Die Menschen müssten darauf vertrauen können, dass sie von KI nicht benachteiligt würden. Deshalb brauche es klare und nachvollziehbare Regeln.
KI-Betreiber in die Pflicht nehmen
Ataman forderte, das AGG auf KI-Systeme auszuweiten. Ihre Betreiber sollten zu Auskunft und Offenlegung verpflichtet werden. Darüber hinaus solle die Beweislastregel angepasst werden. Bislang müssten Betroffen vor Gericht Indizien einer Diskriminierung vorlegen, damit die Beweislasterleichterung des AGG greife. Die meisten wüssten aber nicht, wie KI funktioniere. Betreiber von KI-Systemen sollten deshalb vor Gericht die Beweislast tragen.
AFP/KNA (luz)
Dieses Thema im Programm: MDR AKTUELL | Das Nachrichtenradio | 30. August 2023 | 13:07 Uhr