The Doppler Quarterly (DEUTSCHE) Sommer 2017 | Page 70

00110101010110101011001101010101100101 011001101010101101010110011010100101 01100110101010110010101100110101010 110101011001101010101101010110011010101011 0010101100110101010110101011 0011010101011010101100110101010110010101 1001101010101101010110011010101011 01010110011010101011001010110011010101011010 1011001101010010101100110101010110 010101100110101010110101011001101010101101010110 01101010101100101011001101010 10110101011001101010101100101011001101010 10110010101100110101010110101011001 101010101101010110011010101011001010110 0110101010110101011001101010010101 1001101010101100101011001101010101101010110 011010101011010101100110101010110 0101011001101010 101101010110011010101011010 10110011010101011001010110011010101011010 10110011010101011010101100110101010 1100101011001101010101101010110 10101110110101001010110011010101011001 0110011010101011010101100110101010110101 Wie Roboter implizierte Voreingenom- menheit lernen Vor Kurzem haben Caliskan und Kollegen eine Arbeit in Science veröffentlicht, in der festgestellt wurde, dass ein Computer, der sich selbst Englisch lehrt, vor- eingenommen gegenüber schwarzen Amerikanern und Frauen wird. Im Grunde genommen benutzten sie ein allgemeines ML-Programm, um das Internet zu durchforsten, 840 Milliarden Wörter zu betrachten und sich selbst die Definition dieser Wörter beizubringen. Dies erreicht das Programm, indem es danach sucht, wie oft bestimmte Wörter im selben Satz vorkommen. Zum Beispiel das Wort „Flasche“. Der Computer beginnt die Bedeutung des Wortes zu verstehen, indem er feststellt, dass es häufiger neben dem Wort „Behäl- ter“ vorkommt, und auch in der Nähe von Wörtern, die Flüssigkeiten wie „Wasser“ oder „Milch“ bezeichnen. Diese Idee, Robotern Englisch beizubringen, stammt tatsächlich aus der Kognitionswissenschaft und ihrem Verständnis davon, wie Kinder Sprache lernen. 68 | THE DOPPLER | SOMMER 2017 Wie häufig zwei Wörter zusammen erscheinen, ist der erste Hinweis, den wir bekommen, um ihre Bedeutung zu entschlüsseln. Sobald der Computer sein Vokabular aufgebaut hatte, lies Caliskan es eine Version des impliziten Assoziati- onstests durchlaufen. Beim Menschen soll der IAT subtile Vorurteile im Gehirn aufdecken, indem er feststellt, wie lange Men- schen für die Assoziation von Wörtern benötigen. So könnte eine Person schnell die Wörter „männlich“ und „Ingenieur“ miteinander verbinden. Wenn aber eine Person länger für die Assoziation der Begriffe „Frau“ und „Ingenieur“ benötigt, ist dies ein Beleg dafür, dass für diese Person diese beiden Begriffe nicht eng miteinander verbunden sind, was wiede- rum Voreingenommenheit impliziert. Es gibt einige Zuverlässigkeitsprobleme mit dem IAT beim Menschen. Anstatt auf die Verzögerungszeit zu schauen, unter- suchte Caliskan, wie eng der Computer zwei Begriffe miteinander in Verbindung bringt. Sie fand heraus, dass afroamerikanische Namen im Programm weni- ger häufig mit dem Wort „angenehm“ assoziiert wur- den als weiße Namen. Und weibliche Namen eher mit Begriffen, die sich auf Familien beziehen, assoziiert