Rassismus in der Technologie – wenn Künstliche Intelligenz diskriminiert

Viele Entscheidungen in unserem Alltag werden bereits von künstlicher Intelligenz (KI) getroffen, ob wir es merken oder nicht. Perfekt ist sie aber lange noch nicht. Fehler von KIs sind dabei nicht nur kleine Unannehmlichkeiten. Sie können zu Rassismus und anderen Formen von Diskriminierung führen und bringen schwerwiegende Probleme mit sich.

Quelle: Pixabay, Unsplash

***Triggerwarnung: Im Artikel wird auf rassistische Diskrimierung durch Künstliche Intelligenz eingegangen und in Form von Beispielen aufgeführt.***

Die Frage danach, was Künstliche Intelligenz (KI) bedeutet, lässt sich nicht so einfach beantworten. Auf der Suche nach einer Erklärung stellen sich tiefergehende Fragen. Was bedeutet überhaupt Intelligenz? Wie definieren wir Intelligenz in Beziehung zum Menschen, zur Umwelt und zur Technik? Auch wenn kein Anspruch auf tatsächliche Intelligenz besteht, ist das Konzept von KI schwer zu erfassen. Eine mögliche Definition besagt, dass KI darin besteht, dass Computer Tätigkeiten übernehmen, in denen momentan Menschen noch besser sind. Dazu gehört unter anderem die Fähigkeit zu lernen.

Man kann zwischen verschiedenen Ansätzen sowie Mischformen der KI unterscheiden. Um die Thematik rund um rassistische KI zu verstehen, ist aber vor allem der Ansatz des Konnektionismus zentral. Dieser konzentriert sich darauf, künstliche neuronale Netze zu programmieren. Was künstliche neuronale Netzen dabei auszeichnet, ist ihre Lernfähigkeit, welche als „Machine Learning“ bezeichnet wird.

Grundlegend für den Lernprozess von neuronalen Netzen ist die Mustererkennung. Die Daten mit denen die KI trainiert wird, enthalten bereits die gewünschten Ergebnisse. Die KI erkennt dadurch Muster in den Merkmalen und Zusammenhänge zu bestimmten Ergebnissen. Im Einsatz sucht die KI nach ähnlichen Mustern und gibt dann die Ergebnisse aus, die die erlernten Zusammenhänge widerspiegeln.

Technisch wird das durch die Verbindungen zwischen den Neuronen ermöglicht. Durch unterschiedliche Gewichtungen aktivieren sich Neuronen gegenseitig unterschiedlich stark. Dadurch entstehen Aktivierungsmuster, die die gelernten Zusammenhänge widerspiegeln. Neuronale Netze passen diese Gewichtung selbständig an und lernen so, was große Vorteile sowie zahlreiche Anwendungsmöglichkeiten mit sich bringt. Mustererkennung ist aber nicht durchweg positiv, sondern bringt Probleme wie Vorurteilsbehaftung mit sich.

Vorurteilsbehaftung und Rassismus von KI

Vorurteilsbehaftung bei KIs bedeutet: Die Muster, die die KI erkennt und für ihre Entscheidungen anwendet, können diskriminierend sein. Das kann zustande kommen, weil Muster durch unzureichende Daten fehlerhaft erlernt werden oder weil gesellschaftliche Vorurteile, die in den Trainingsdaten enthalten sind, von der KI reproduziert werden. Dadurch werden marginalisierte Gruppen in Entscheidungen, die mithilfe von KI getroffen werden, benachteiligt. Sehr deutlich wird das auch beim Thema Rassismus durch KI. Wie Rassismus von KI aufrechterhalten oder sogar verstärkt wird und welche Folgen das für Betroffene hat, lässt sich an zahlreichen Beispielen sehen.

So zeigen zum Beispiel Suchmaschinen in Verbindung mit schwarzen Frauen überwiegend pornografische und stereotypische Ergebnisse. Auch Texterstellungsalgorithmen geben rassistische Aussagen und stereotypische Rollenvorstellungen von sich und assoziieren schwarze Personen überwiegend mit negativen Eigenschaften. Spracherkennungssysteme wie Siri und Alexa verstehen Akzente und Dialekte schlechter und diskriminieren so nach ethnischer Herkunft. Afro-Amerikaner*innen werden beispielsweise weniger gut verstanden als weiße Personen.

Rassismus von KI kann für die Betroffenen aber noch viel schwerwiegendere Folgen haben. Dabei wird einem das Ausmaß der Problematik bewusst, wenn man alltägliche Situationen betrachtet. KI wird beispielsweise verwendet, um zu bestimmen, wem welche Job- und Wohnungsangebote angezeigt werden, welche Bewerbungen für einen Beruf ausgewählt und angenommen werden und wer kreditwürdig ist oder nicht. In allen diesen Anwendungen werden People of Colour (POC) benachteiligt und rassistische Vorurteile von den KIs reproduziert. POC erhalten weniger und sogar schlechtere Angebote und haben geringere Chancen für Jobs oder Kredite angenommen zu werden. Auch in der Medizin haben Algorithmen in den USA dazu geführt, dass schwarze Personen häufiger als weiße mangelhafte Empfehlungen bekommen haben und nicht so oft an Experten weitergeleitet wurden, wie weiße Personen mit einem ähnlichen Gesundheitszustand.

KI im Rechtssystem hat schwere Folgen

Große Probleme bestehen auch in der Gesichtserkennung. Dies wurde Teil der öffentlichen Diskussion als eine KI ein verpixeltes Bild von Barack Obama rekonstruierte und danach anstatt des ehemaligen Präsidenten, eine weiße Person zu sehen war. Fachleuten ist die Ungenauigkeit der Gesichtserkennungsalgorithmen bekannt. Die Google Fotos App hat Probleme mit rassistischer Gesichtserkennung, so wurden schwarze Personen in manchen Fällen nicht richtig erkannt und als Tiere kategorisiert.

Fehlerhafte Gesichtserkennung kann aber auch strafrechtliche Folgen haben. Die Polizei verwendet Gesichtserkennung bei ihren Ermittlungen. Dabei gibt es einige bekannte Fälle in denen schwarze Personen fälschlicherweise von Gesichtserkennungsprogrammen als gesuchte Kriminelle erkannt und verhaftet wurden. Das ist ein besonders großes Problem, da schwarze Personen am häufigsten von diesen KIs angezielt werden, diese aber bei schwarzen Personen auch die meisten Fehler machen.

Die Polizei und auch Gefängnisse setzen noch zahlreiche andere KIs ein. Anwendungen zur vorausschauenden Polizeiarbeit (Predictive Policing) sind dabei besonders umstritten. Predictive Policing soll eigentlich dazu dienen Verbrechen zu vermeiden. Aufgrund der hohen Inhaftierungszahlen in den USA werden sie dort sehr häufig angewendet. Ein Beispiel bietet eine KI, die das Risiko einschätzen soll, ob eine Person zum*r Wiederholungstäter*in wird. Der Score, der von der KI ausgegeben wird, ist mitbestimmend für den Gerichtsspruch, das Strafausmaß, die Behandlung der Personen vor der Gerichtsverhandlung und die Rehabilitierung. Eine Untersuchung von ProPublica, einem Non-Profit-Newsroom für investigativen Journalismus, zeigt dabei, dass weiße Personen oft fälschlicherweise einen niedrigen Score erhalten, während schwarze Personen häufig fälschlicherweise verdächtigt werden und signifikant höhere Scores erhalten als weiße Personen. Verschiedene Bürgerrechtsorganisationen lehnen die Anwendung dieser KI ab und setzen sich gegen sie ein.

Rassistische Programme?

KIs haben kein Bewusstsein, sie können nicht denken oder eine Meinung haben. Sie sind Programme, die keine Verantwortung übernehmen können. Wie entsteht trotzdem die systematische Vorurteilsbehaftung der Technologie?

KI entsteht nicht aus dem Nichts. Hinter der Erforschung und Entwicklung stehen Menschen, die Verantwortung für ihre Programme übernehmen können und müssen. KI-Entwicklerin Kriti Sharma kritisierte in einem TED-Talk, dass die cleversten Köpfe KI-Technologie entwickelten und dies auf beliebige Art und Weise tun könnten. KI-Entwickler*innen sehen ihre Programmierarbeit als objektiven Prozess an.  Selbst wenn Fehler nicht intentional sind, leiden die betroffenen Gruppen unter den negativen Folgen der Ignoranz und den unterbewussten Vorurteilen der Programmierer*innen. Dazu kommt, dass POC selbst im Bereich der Informatik stark unterrepräsentiert sind. Bereits durch das Bildungssystem werden POC weniger Bildungs- und Aufstiegschancen geboten. Durch sehr geringe Rekrutierungsraten und Finanzierungen werden POC in der Informatik viele Möglichkeiten verwehrt. Außerdem machen leider viele POC, die in der Informatik arbeiten, schmerzlich die Erfahrung, dass sie nur selten mit offenen Armen empfangen werden.

Wenn weiße Personen also Technologien implementieren, die die Anwendung bei POC und mögliche negative Folgen für sie nicht berücksichtigen, bleibt das meistens unhinterfragt. Dass die Technologien „intelligent“ sind, ist dabei nicht das Problem und rassistische Technik ist keine Neuheit. Blickt man in der Geschichte ein paar Jahrzehnte zurück, so sind ähnliche Probleme schon bei der Entwicklung des Farbfilmes erkennbar. Diese waren anfangs nur für helle Hauttöne optimiert. Bei der Entwicklung der Filme wurden Chemikalien für verschiedene dunklere Hauttöne gar nicht verwendet, was in der Darstellung dieser zu weniger Nuancen in den Farben und unzureichender Qualität führte.

Auch aktuell zeigen sich diese Probleme. Fitness Tracker, wie die von Fitbit und Samsung verwenden beispielsweise zur Messung der Herzrate ausschließlich grünes Licht. Es erkennt größeren Blutmengen zwischen Herzschlägen. Dieses Licht wird aber stärker von dunklen Hauttönen absorbiert und führt bei diesen zu schlechteren Ergebnissen. Das akkuratere Infrarotlicht wird aus Kostengründen kaum verwendet. POC beeinflusst dies nicht nur im Alltag. In medizinischen Studien sind Fitness Tracker auch ein beliebtes Hilfsmittel. Ein Problem, welches wieder in Rassismus endet.

Rassistische Entscheidungen von KI können aber nicht nur dadurch auftreten, wie sie programmiert, sondern auch dadurch, wie sie trainiert wurden. Oftmals sind POC in den Trainingsdaten unverhältnismäßig repräsentiert. Gesichts- und Spracherkennungssysteme verwenden überwiegend Daten von weißen Personen. So können die KIs nur diese Muster erlernen und erkennen POC später nicht richtig. In Trainingsdaten von Predictive Policing-Algorithmen sind wiederrum vor allem schwarze Personen als Wiederholungstäter*innen stark überrepräsentiert.

Struktureller Rassismus in der KI

Über- und Unterrepräsentationen sind dabei nicht die einzigen Probleme in Trainingsdaten. Problematisch ist es auch, wenn zum Training der KI bestehende Falldaten verwendet werden, die unabhängig von ihrer Verteilung strukturellen Rassismus enthalten, den die KI dann erlernt. Bestimmte Entscheidungsmuster können dabei nicht nur reproduziert, sondern nachweislich auch verstärkt werden. Es besteht bei der Verwendung der KI die Annahme, dass beispielsweise bestimmte Muster in den Datenprofilen von Wiederholungstäter*innen tatsächlich mit einem höheren Risiko einhergehen. Aber können Predictive Policing-Algorithmen wirklich Verbrechen vorhersehen? Viel eher sagen sie wohl rassistische Polizeipraktiken voraus.

Rassifizierung selbst ist meist zwar kein Merkmal, dennoch werden zur Bestimmung von den Risiko Scores, Merkmale verwendet, die mit dieser korrelieren. Diese Zusammenhänge haben oft rassistische Ursprünge. Auch bei Algorithmen zu Job- und Wohnungsangeboten, Anstellungen und Kreditvergaben werden solche Merkmale verwendet. POC können dadurch von KI benachteiligt werden, weil Personen mit ähnlichen Merkmalen, aufgrund von rassistischen Traditionen in den jeweiligen Institutionen, in den Trainingsdaten benachteiligt wurden. Ergebnisse von medizinischen Algorithmen spiegeln strukturellen Rassismus wider, indem sie den Gesundheitsstand an Ausgaben für Gesundheitsversorgung festmachen. Aufgrund des erschwerten Zugangs zum Gesundheitswesen für schwarze Personen geben diese aber allgemein signifikant weniger für Gesundheitsversorgung aus. Auch rassistische Traditionen in der Fotografie führen zu weniger hochwertigen Fotos von schwarzen Personen, welche das Training von Gesichtserkennungsprogrammen beeinflusst. Da textgenerierende KIs auch an Web-Inhalten trainiert werden, lernen sie von Rassismus im Internet. KIs sind nur weitere Werkzeug in rassistischen Gesellschaftssystemen, die seit Jahrzehnten oder Jahrhunderten schon bestehen.

KI als solche sind nicht rassistisch. Die viel wichtigeren Fragen sind da doch: Wieso werden Vorurteilsbehaftung von KI und ihre Folgen von so vielen ignoriert? Wieso übernehmen Forschende keine Verantwortung? Wieso werden Sicherheit von und Nutzen für POC nicht berücksichtigt? Und was lässt sich dagegen tun?

Auf der Suche nach Lösungen 

Dem Rassismus in KIs liegen zahlreiche strukturelle Probleme zugrunde. Diese Probleme sind essenziell in der Diskussion über Rassismus und sie zu lösen ist, nicht nur für KI, grundlegend auf dem Weg zu einer anti-rassistischen Gesellschaft.

Schaut man konkret auf KI-Entwicklung und -Einsatz ist ein großes Problem, dass Fehler von KI oft übersehen oder nicht ernst genommen werden. Das macht es schwieriger gegen sie vorzugehen. KI wird als objektiv gesehen. Betroffene, aber auch Unternehmen und Institutionen, die KI einsetzen, wissen oft nicht, wie KIs funktionieren und dass sie von strukturellen Problemen beeinflusst werden. Außerdem besteht Intransparenz auch beim Einsatz von KI. Personen erfahren selten, wenn Entscheidungen über sie mit KI getroffen werden, man spricht auch von der Black Box der KI.

Regulierungen zur generellen Anwendung und Offenlegung, sowie spezielle Antidiskriminierungsgesetze für KI-Entwicklung und deren Einsatz sind nötig. Richtlinien solcher Art empfiehlt unter anderem die Datenethikkommission der Bundesregierung. Faire Trainingsdatensets sind dafür auch wichtig. Gesichts- und Spracherkennung sollten auch auf Beispiele von POC trainiert werden. Da es schwer ist nachzuvollziehen welche Zusammenhänge KIs für Entscheidungen heranziehen, sollten sie in der Trainingsphase gründlich und von unabhängigen Parteien auf Vorurteilsbehaftung geprüft werden. Bislang ist dies nur vereinzelt der Fall.

Veränderung ist unabdingbar

In der Entwicklung von KI ist neben angemessenen Trainingsdaten auch nötig, dass Entwickler*innen sich dieser Probleme bewusst sind. Folgen und Auswirkungen auf POC sollten von ihnen berücksichtigt werden, sowie ein Verantwortungsbewusstsein für ihre Programme geschaffen werden. Ein nächster Schritt wäre POC bessere Aufnahme- und Finanzierungschancen in der Informatik zu gewährleisten. Ihre Perspektiven, Erfahrungen und Expertise sind wichtig dafür, Vorurteilsbehaftung in KI abzubauen und führen zu besseren Ergebnissen. Anschaulich gezeigt wird dies, wenn man Gesichtserkennungs-KI betrachtet, die in Asien entwickelt wurden. Sie sind wesentlich besser darin, asiatische Gesichter zu erkennen. Fernab von den behandelten Problemen sind mehr Möglichkeiten und ein besseres Umfeld für POC in der Informatik in jedem Fall wünschenswert.

Grundlegend für die Lösungsansätze ist die Frage, wozu wir KI einsetzen wollen. Wenn KI Menschen helfen soll, dann muss sie allen helfen und dafür sind Investitionen, Regulierungen und Änderungen unabdingbar.

Mehr zum Thema: Jordan Harrod spricht anlässlich von Juneteenth des vergangenen Jahres darüber wie KI strukturellen Rassismus aufrechterhält. Jordan Harrod ist Doktorandin an der Harvard University und am MIT und befasst sich mit KI. Sie erforscht beispielsweise Brain-Computer-Interfaces und Machine Learning in der Medizin.


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.