The Doppler Quarterly (DEUTSCHE) Sommer 2017 | Page 71

wurden als männliche Namen . ( In gewisser Weise könnte der IAT sich besser für Computerprogramme als für Menschen eignen , weil Menschen Fragen inkonsistent beantworten , während ein Computer jedes Mal die gleiche Antwort liefert .)
Wie ein Kind baut auch ein Computer seinen Wortschatz dadurch auf , wie oft Begriffe zusammen erscheinen .
Im Internet sind afroamerikanische Namen eher von Wörtern umgeben , die Unannehmlichkeiten konnotieren . Das liegt nicht daran , dass Afroamerikaner unangenehm sind . Grund dafür ist , dass Personen im Internet schreckliche Dinge sagen . Und dies hinterlässt einen Eindruck bei unserer noch recht junge KI .
Ein Problem , das auch unser Denken betrifft .
Die Folgen der rassistischen , sexistischen KI
Laut Caliskan verlassen sich Personalvermittler im Hinblick auf die Sichtung von Lebensläufen mehr und mehr auf ML-Programme . Werden diese nicht geprüft werden , so können die Programme Geschlechterstereotypen erlernen und bei ihren Entscheidungen darauf reagieren .
„ Nehmen wir an , ein Mann bewirbt sich um eine Stelle als Krankenpfleger ; wenn nur die Maschine ihre eigenen Entscheidungen trifft , könnte er für diese Position als weniger geeignet betrachtet werden “, so Caliskan . „ Das könnte auch einer Frau passieren , die sich um eine Stelle als Softwareentwickler oder Programmierer bewirbt . Fast all diese Programme basieren nicht auf Open Source und wir können nicht erkennen , was eigentlich genau passiert . Wir haben daher eine große Verantwortung , herauszufinden , ob sie unfair oder voreingenommen sind .“
Und das wird in Zukunft eine Herausforderung sein . Die KI hält bereits Einzug in das Gesundheitssystem und hilft Ärzten dabei , die richtige Behandlung für ihre Patienten zu finden . ( Es gibt frühere Untersuchungen darüber , ob dies dazu beitragen kann , psychische Gesundheitsprobleme vorherzusagen .)
Aber auch Gesundheitsdaten enthalten Vorurteile aus der Vergangenheit . So ist lange bekannt , dass Frauen seltener operiert werden als Männer . ( Ein Grund dafür ist , dass Frauen als primäre Betreuungspersonen weniger Menschen um sich haben , die sich nach der Operation um sie kümmern .)
Könnte dies dann dazu führen , dass die KI weniger häufig die Operation von Frauen empfiehlt ? Das ist etwas , auf das man achten sollte .
Sind diese Programme also nutzlos ?
Zwangsläufig werden ML-Programme auf historische Muster stoßen , die rassistische oder geschlechtsspezifische Vorurteile widerspiegeln . Und es kann schwierig sein , die Grenze zwischen dem zu ziehen , was eine Voreingenommenheit ist und was nur eine Tatsache über die Welt ist .
ML-Programme werden die Tatsache aufgreifen , dass die meisten Krankenschwestern im Laufe der Geschichte Frauen waren . Sie werden feststellen , dass die meisten Computerprogrammierer männlich sind . „ Wir schlagen nicht vor , dass Sie diese Informationen entfernen sollten “, sagt Caliskan . Dies könnte die Software komplett zerstören .
Caliskan denkt , dass es mehr Sicherheitsvorkehrungen geben muss . Menschen , die diese Programme benutzen , müssen ständig fragen : „ Warum bekomme ich diese Ergebnisse ?“. Und die Ausgaben dieser Programme auf Voreingenommenheit prüfen . Sie müssen darüber nachdenken , ob die Daten , die sie durchforsten , historische Vorurteile widerspiegeln . Caliskan räumt ein , dass sich die Best Practices zur Bekämpfung von Vorurteilen in der KI noch in der Ausarbeitung befinden . „ Hierfür ist ein langfristiger Forschungsplan für Informatiker , Ethiker , Soziologen und Psychologen erforderlich “, sagt sie .
Aber zumindest sollten die Menschen , die diese Programme einsetzen , sich dieser Probleme bewusst sein und nicht davon ausgehen , dass ein Computer ein weniger unvoreingenommenes Ergebnis hervorbringen kann als ein Mensch .
Es ist wichtig , Folgendes nicht zu vergessen : Die KI lernt , wie die Welt war . Ebenso greift sie aktuelle Trends auf . Sie weiß nicht , wie die Welt sein sollte . Das muss der Mensch entscheiden .
SOMMER 2017 | THE DOPPLER | 69