The Doppler Quarterly (DEUTSCHE) Sommer 2017 - Page 71

wurden als männliche Namen. (In gewisser Weise könnte der IAT sich besser für Computerprogramme als für Menschen eignen, weil Menschen Fragen inkonsistent beantworten, während ein Computer jedes Mal die gleiche Antwort liefert.) Wie ein Kind baut auch ein Compu- ter seinen Wortschatz dadurch auf, wie oft Begriffe zusammen erscheinen. Im Internet sind afroamerikanische Namen eher von Wörtern umgeben, die Unannehmlichkeiten konno- tieren. Das liegt nicht daran, dass Afroamerikaner unangenehm sind. Grund dafür ist, dass Personen im Internet schreckliche Dinge sagen. Und dies hinter- lässt einen Eindruck bei unserer noch recht junge KI. Ein Problem, das auch unser Denken betrifft. Die Folgen der rassistischen, sexisti- schen KI Laut Caliskan verlassen sich Personalvermittler im Hinblick auf die Sichtung von Lebensläufen mehr und mehr auf ML-Programme. Werden diese nicht geprüft werden, so können die Programme Geschlechterste- reotypen erlernen und bei ihren Entscheidungen darauf reagieren. „Nehmen wir an, ein Mann bewirbt sich um eine Stelle als Krankenpfleger; wenn nur die Maschine ihre eigenen Entscheidungen trifft, könnte er für diese Position als weniger geeignet betrachtet wer- den“, so Caliskan. „Das könnte auch einer Frau passie- ren, die sich um eine Stelle als Softwareentwickler oder Programmierer bewirbt. Fast all diese Pro- gramme basieren nicht auf Open Source und wir können nicht erkennen, was eigentlich genau pas- siert. Wir haben daher eine große Verantwortung, herauszufinden, ob sie unfair oder voreingenommen sind.“ Und das wird in Zukunft eine Herausforderung sein. Die KI hält bereits Einzug in das Gesundheitssystem und hilft Ärzten dabei, die richtige Behandlung für ihre Patienten zu finden. (Es gibt frühere Untersu- chungen darüber, ob dies dazu beitragen kann, psy- chische Gesundheitsprobleme vorherzusagen.) Könnte dies dann dazu führen, dass die KI weniger häufig die Operation von Frauen empfiehlt? Das ist etwas, auf das man achten sollte. Sind diese Programme also nutzlos? Zwangsläufig werden ML-Programme auf historische Muster stoßen, die rassistische oder geschlechtsspe- zifische Vorurteile widerspiegeln. Und es kann schwierig sein, die Grenze zwischen dem zu ziehen, was eine Voreingenommenheit ist und was nur eine Tatsache über die Welt ist. ML-Programme werden die Tatsache aufgreifen, dass die meisten Krankenschwester VfRFW vW666FRg&VVv&V6RvW&FVfW7G7FVVF72FRV7FV6WFW'&w&֖W&W":FƖ66B( v"66vV6Bf"F726RFW6Rf&ЧFVVFfW&V6FV( 6wB6Ɨ6FW2;fFPFR6gGv&RWGBW'7L;g&V6Ɨ6FVBF72W2V"66W&VG7f&V'VЦvVvV&VW72V66VFRFW6R&w&P&VWGV;76V7L:FFrg&vV( v'V&VP6FW6RW&vV&76S( VBFRW6v&VFW6W"&Цw&RVbf&VvVVVB,;fV6R;2Ч6VF,;&W"6FVV"FRFFVFR6RGW&6Цf'7FV7F&66Rf'W'FVRvFW'7VvV6Ɨ6,:GVBVF7266FR&W7B&7F6W2W &V:FgVrff'W'FVVFW"6FW W6&&VGVr&VfFV( 䆖W&l;"7BVvg&7FvW f'66Vw7l;"f&FW"WFW"6vVVB76vVW&f&FW&Ɩ6( 6wB6R&W"V֖FW7B6FVFRV66VFRFW6R&Цw&RV6WGV66FW6W"&&VR&WwW77@6VVB6BFfW6vVVF72V6WFW VvVvW"Vf&VvVVW2W&vV&2W'f"Ц'&vV2VV66W27Bv6FrfvVFW26BRfW&vW76VFRW&BvRFRvVBv"V&V6w&VgB6RGVVPG&VG2Vb6RvV96BvRFRvVB6V6FRF2W72FW"V66VG66VFV&W"V6vW7VFVG6FFVVFFVf'W'FVPW2FW"fW&vvVVB67BvR&VBF70g&VV6VFVW"W&W'BvW&FV2:FW"Vw'VBFl;"7BF72g&VV2&:G&R&WG&WWVw2ЧW'6VvVvW"V66VV66&VFR666FW"W&FV6R;W&␥4U"#rDRDU"c