The Doppler Quarterly (DEUTSCHE) Sommer 2017 | Page 70
00110101010110101011001101010101100101
011001101010101101010110011010100101
01100110101010110010101100110101010
110101011001101010101101010110011010101011
0010101100110101010110101011
0011010101011010101100110101010110010101
1001101010101101010110011010101011
01010110011010101011001010110011010101011010
1011001101010010101100110101010110
010101100110101010110101011001101010101101010110
01101010101100101011001101010
10110101011001101010101100101011001101010
10110010101100110101010110101011001
101010101101010110011010101011001010110
0110101010110101011001101010010101
1001101010101100101011001101010101101010110
011010101011010101100110101010110
0101011001101010
101101010110011010101011010
10110011010101011001010110011010101011010
10110011010101011010101100110101010
1100101011001101010101101010110
10101110110101001010110011010101011001
0110011010101011010101100110101010110101
Wie Roboter implizierte Voreingenom-
menheit lernen
Vor Kurzem haben Caliskan und Kollegen eine Arbeit
in Science veröffentlicht, in der festgestellt wurde,
dass ein Computer, der sich selbst Englisch lehrt, vor-
eingenommen gegenüber schwarzen Amerikanern
und Frauen wird.
Im Grunde genommen benutzten sie ein allgemeines
ML-Programm, um das Internet zu durchforsten, 840
Milliarden Wörter zu betrachten und sich selbst die
Definition dieser Wörter beizubringen. Dies erreicht
das Programm, indem es danach sucht, wie oft
bestimmte Wörter im selben Satz vorkommen. Zum
Beispiel das Wort „Flasche“. Der Computer beginnt
die Bedeutung des Wortes zu verstehen, indem er
feststellt, dass es häufiger neben dem Wort „Behäl-
ter“ vorkommt, und auch in der Nähe von Wörtern,
die Flüssigkeiten wie „Wasser“ oder „Milch“
bezeichnen.
Diese Idee, Robotern Englisch beizubringen, stammt
tatsächlich aus der Kognitionswissenschaft und
ihrem Verständnis davon, wie Kinder Sprache lernen.
68 | THE DOPPLER | SOMMER 2017
Wie häufig zwei Wörter zusammen erscheinen, ist
der erste Hinweis, den wir bekommen, um ihre
Bedeutung zu entschlüsseln.
Sobald der Computer sein Vokabular aufgebaut hatte,
lies Caliskan es eine Version des impliziten Assoziati-
onstests durchlaufen.
Beim Menschen soll der IAT subtile Vorurteile im
Gehirn aufdecken, indem er feststellt, wie lange Men-
schen für die Assoziation von Wörtern benötigen. So
könnte eine Person schnell die Wörter „männlich“
und „Ingenieur“ miteinander verbinden. Wenn aber
eine Person länger für die Assoziation der Begriffe
„Frau“ und „Ingenieur“ benötigt, ist dies ein Beleg
dafür, dass für diese Person diese beiden Begriffe
nicht eng miteinander verbunden sind, was wiede-
rum Voreingenommenheit impliziert. Es gibt einige
Zuverlässigkeitsprobleme mit dem IAT beim
Menschen.
Anstatt auf die Verzögerungszeit zu schauen, unter-
suchte Caliskan, wie eng der Computer zwei Begriffe
miteinander in Verbindung bringt. Sie fand heraus,
dass afroamerikanische Namen im Programm weni-
ger häufig mit dem Wort „angenehm“ assoziiert wur-
den als weiße Namen. Und weibliche Namen eher mit
Begriffen, die sich auf Familien beziehen, assoziiert