TechTalk

Vorurteile vorprogrammiert? Wie künstliche Intelligenz diskriminierend wird

TechTalk

Vorurteile vorprogrammiert? Wie künstliche Intelligenz diskriminierend wird

Immer mehr Bereiche unseres Lebens werden von künstlicher Intelligenz bestimmt. Mitunter sind diese Entscheidungen aber von Vorurteilen geprägt, die für uns selbst nicht sichtbar sind. Von Fehlern in der Strafverfolgung oder dem Ausschluss in einem Bewerbungsprozess, kann diese vorgespielte Neutralität fatale Folgen für jede*n von uns haben.

Wie funktioniert eine KI?

Eine künstliche Intelligenz ist ein digitales System, das Algorithmen nutzt, die entweder von Menschen geschrieben oder von der KI komplett selbst entwickelt wurden. Damit diese Systeme lernen können, ist es Informatiker*innen gelungen, die Vorgänge in unserem Gehirn zu simulieren: Milliarden von Nervenzellen verarbeiten ständig alles Erlebte und verknüpfen sich neu. Bei der KI werden neuronale Netze erstellt, die mit Daten „gefüttert“ werden und dadurch selbst ihren Algorithmus verbessern. Eine genauere Erklärung findet ihr hier.

Ein beliebter Einsatzzweck hierfür ist die Bilderkennung, bei der Systeme mithilfe großer Datensätze trainiert werden, um zum Beispiel Hunde und Katzen voneinander zu unterscheiden.

Abbildung 1: Neuronales Netz

Rassismus bei KI

Wenn aber beispielsweise in den Datensätzen mit denen ein Algorithmus zur Gesichtserkennung trainiert wird, nur weiße Menschen enthalten sind, lernt die KI auch keine anderen Ethnien kennen. Somit fällt es ihr dann schwerer, Personen mit anderen Hautfarben zu erfassen. Das kann zum Beispiel dazu führen, dass Schwarze Menschen daran scheitern, sich bei ihrer Bank mit einem Passfoto zu identifizieren.

Wie Kenza Ait Si Abbou Lyadini, Ingenieurin bei der Deutschen Telekom, in einem TED Talk erklärte, ist der Hauptgrund für dieses Problem, dass die Tech-Branche immer noch als Domäne für weiße Männer gilt. Nur 12% der Entwickler*innen von KI sind weiblich und nur 4% stammen aus anderen Kulturen. Dadurch werden Algorithmen hauptsächlich von weißen Männern entwickelt, gefüttert und getestet, weshalb Fehler dieser Art oft nicht auffallen.

Auch Joy Buolamwini, Master-Stundentin am MIT, stieß auf dieses Problem. Als sie an einem Projekt arbeitete, das Gesichtserkennung nutzen sollte, konnte sie dieses Programm aufgrund ihrer Hautfarbe nicht verwenden. Erst als sie eine weiße Maske aufsetzte, konnte das System erfassen, dass ein Mensch vor der Kamera saß. Mittlerweile sagt sie algorithmischen Vorurteilen den Kampf an und klärt darüber auf, wie gegen dieses Problem vorgegangen werden kann.

Filmempfehlung

Wer sich näher mit dem Thema beschäftigen möchte, kann sich auf Netflix die Dokumentation „Coded Bias“ anschauen. Dort werden sowohl die Erlebnisse von Joy Buolamwini als auch von anderen Informatiker*innen im Bezug auf Vorurteile bei künstlicher Intelligenz behandelt.

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube. Durch Anklicken des Buttons „Video laden“ stellen Sie eine Verbindung zu youTube her.
Mehr erfahren

Video laden

Mehr Beispiele

Beim ersten Schönheitswettbewerb der von einer KI entschieden wurde, nahmen 2016 über 6000 Menschen aus rund 100 Ländern teil – trotzdem waren unter den 44 Gewinner*innen nur weiße Personen.

Nach einem Video mit dem Titel „White man calls cops on black men at marina“, welches die Newszeitung Daily Mail im Juni 2020 auf Facebook postete, erschien die Empfehlungsfrage der Plattform, ob die User*innen „weiterhin Videos von Primaten sehen möchten“. Die Social Media Plattform entschuldigte sich für diesen Fehler und deaktivierte die entsprechende Empfehlungssoftware.

Künstliche Intelligenz kommt aber auch immer häufiger in der Strafverfolgung zum Einsatz. Vor allem in den USA wird sie immer häufiger zum Werkzeug der Verbrechensbekämpfung. So auch im Fall eines Diebstahl auf eine Filiale der Luxusboutique „Shinola“ in Detroit, bei dem fünf Uhren gestohlen wurden: Verschwommene Aufnahmen der Videoüberwachung zeigten einen Schwarzen Mann, den die Gesichtserkennung als den Familienvater Robert Julian-Borchak Williams identifizierte. Dieser hatte für die Tatzeit zwar ein Alibi, wurde aber trotzdem vor den Augen seiner Töchter und Ehefrau festgenommen und anschließend für dreißig Stunden inhaftiert. Das Verfahren wurde aufgrund mangelnder Beweislage eingestellt.

Auch in Deutschland gab es Fälle von Diskriminierung durch KI-Software. Ein Artikel des ZDFs erzählt die Geschichte von Oliver A. und seiner Freundin, die eine Wohnung in Köln suchten. Obwohl die beiden eine schöne Wohnung fanden und durchaus bezahlen konnten, lehnte der Vermieter sie ab. Der Grund war eine KI gesteuerte Software, die die Kreditwürdigkeit der beiden einstufen sollte. Da der Nachname von Oliver A. arabisch klang, wurde er als Migrant eingestuft und bekam eine schlechtere Kreditnote.

Fact: Sexismus in automatisierter Bewerbungsauswahl

Eigentlich sollen Algorithmen im Personalwesen bewirken, dass Bewerber*innen fairer beurteilt werden, um so mehr Vielfältigkeit in das Unternehmen zu bringen. Dass dies nicht immer funktioniert, bekam Amazon zu spüren. Die KI, die mit den Daten von bereits eingestellten Mitarbeitenden gefüttert wurde, hielt „männlich“ für ein positives Einstellungskriterium und sortierte so Frauen aus.

Verbildlichung von KI in den Medien

Expert*innen der Universität Cambridge stellten fest, dass künstliche Intelligenz in den allermeisten Fällen als weiß verbildlicht wird. Selten haben Roboter oder Androiden eine andere Ethnie, egal ob in Filmen wie Terminator oder Metropolis, in Serien oder in Stockfotos, wie der Darstellung rechts. Dies sei ein Spiegelbild von einem jahrhundertelangen Vorurteil, das Intelligenz und Macht mit weißen Menschen aus Europa verbindet.

Die Forscher*innen warnten außerdem davor, dass auch künftig nicht-weiße Menschen von der Entwicklung von KI ausgeschlossen werden und so weiterhin veraltete Denkmuster eingebaut werden würden.

Abbildung 2: Verbildlichung von KI

Lösungsansätze

Der Clou sind die Menschen, die mit diesen Technologien umgehen, das heißt wir alle. Denn im Endeffekt geht es nicht nur um das was programmiert wird, sondern wie wir auch damit umgehen.

Lorena Jaume-Palasi
Ethik- und Technikforscherin aus Berlin

Ein erster Lösungsansatz ist die diversere Aufstellung von Teams in der Entwicklung künstlicher Intelligenzen. Diese können besser darauf achten, ob Daten rassistisch oder sexistisch geprägt sind und dem entgegensteuern. Eine generelle, bewusstere Auswahl von Datensätzen ist hierbei hilfreich.

Verschiedene Projekte versuchen auch dem aktuellen Trend entgegenzusteuern. So hat Joy Buolamwini die „Algorithmic Justice League“ gegründet, die Aufmerksamkeit für das Thema der Vorurteile bei KI schaffen möchte. Auch in Deutschland setzt sich die gemeinnützige Organisation „AlgorithmWatch“ mit ihrem Projekt unding.de für mehr Gerechtigkeit bei automatisierten Fehlentscheidungen ein. Auch das von der Volkswagenstiftung unterstützte, interdisziplinäre Projekt „BIAS“ analysiert die Probleme, die die Diskriminierung durch KI mit sich bringt, und entwickelt Konzepte zur Bewältigung dieser.

Immer mehr Konzerne wie Microsoft oder Google besitzen mittlerweile ein KI-Ethikteam, das sich um gerechte Interessenvertretung kümmert. Das Thema hat außerdem seinen Weg in die Politik gefunden, die darüber diskutiert, wie viel künstlicher Intelligenz überlassen werden darf und wo der Mensch eingreifen muss.

Fazit

Abschließend ist zu sagen, dass keine künstliche Intelligenz von sich selbst aus diskriminierend agieren würde, der Mensch selbst ist also ihre Schwachstelle. Sie bekommt diese Benachteiligung beigebracht, lernt von den Daten die wir ihr geben und stellt so ein Abbild unserer Gesellschaft dar, dass sich unter dem Deckmantel der Neutralität versteckt. Um also die KI zu verbessern, muss zunächst eine Änderung in unserem Denken bewirkt werden. Zudem gibt es auch noch keine entsprechenden Gleichstellungsbeauftragten oder Antidiskriminierungsgesetze, die auch noch gegen das Thema vorgehen könnten.

Wenn du etwas zum Thema Deepfakes lesen möchte, schau dir doch diesen Artikel an. Auch hier ist das Thema Diskriminierung ein Problem, vor allem da diese Technologie häufig gegen Frauen eingesetzt wird, um diese zu diskreditieren.