The Doppler Quarterly (DEUTSCHE) Sommer 2017 | Page 69
Öffnen Sie die Foto-App auf Ihrem Mobiltelefon,
geben Sie „Hund“ als Suche ein und es werden Ihnen
alle Bilder von Hunden angezeigt. Das war kein Kin-
derspiel. Aber Ihr Telefon weiß, wie ein Hund
aussieht.
Dieses und andere moderne Wunder sind das Ergeb-
nis maschinellen Lernens. Es sind Programme, die
Millionen von Daten durchforsten und Korrelationen
und Vorhersagen über die Welt machen. Und sie üben
einen immensen Reiz aus. Diese Maschinen können
alte, konkrete Daten nutzen und darauf basierend
Entscheidungen fällen, die manchmal genauer als die
von Menschen sind.
Aber maschinelles Lernen hat auch eine dunkle Seite.
„Viele Leute glauben, dass Maschinen unvoreinge-
nommen und neutral sind“, so Aylin Caliskan, Infor-
matiker der Princeton University. „Aber Maschinen
lernen anhand menschlicher Daten. Und Menschen
sind voreingenommen.“
Ähnlich wie ein Kind von seinen Eltern, lernen Com-
puter rassistisch, sexistisch und voreingenommen zu
sein – und zwar von ihren Erschaffern.
Wir denken, dass künstliche Intelligenz
unparteiisch ist. Sie ist es oftmals nicht.
Fast alle neuen Verbrauchertechnologien nutzen in
irgendeiner Weise maschinelles Lernen. Wie Google
Translate: Kein Mensch wies die Software an zu ler-
nen, wie man vom Griechischen ins Französische und
dann ins Englische übersetzt. Sie durchkämmte ein-
fach unzählige Texte und lernte es selbstständig. In
anderen Fällen machen ML-Programme Vorhersagen
darüber, welche Lebensläufe wahrscheinlich erfolg-
reiche Bewerber ergeben oder wie ein Patient auf ein
bestimmtes Medikament reagiert.
Beim maschinellen Lernen handelt es sich um ein
Programm, das Milliarden von Datenpunkten durch-
sucht, um Probleme zu lösen (wie z. B. „identifiziere
das Tier auf dem Foto“), jedoch ist nicht immer klar,
wie es das Problem gelöst hat. Und es wird immer
klarer, dass diese Programme Vorurteile und Stereo-
typen entwickeln können, ohne dass wir es über-
haupt bemerken.
Im vergangenen Mai veröffentlichte ProPublica eine
Untersuchung über ein ML-Programm, das von
Gerichten zur Vorhersage verwendet wird, wer nach
einer gezielten Verwarnung wahrscheinlich ein wei-
teres Verbrechen begehen wird. Die Reporter stellten
fest, dass die Software schwarze Menschen mit einem
höheren Risiko einstufte als weiße.
„Auswertungen wie diese – auch als Risikobewertun-
gen bekannt – werden in den Gerichtssälen im gan-
zen Land immer häufiger eingesetzt“, erklärt ProPu-
blica. „Sie dienen dazu, Entscheidungen darüber zu
treffen, wer in jeder Phase des Strafrechtssystems
freigelassen werden kann, von der Festsetzung einer
Kaution ... bis zu noch grundlegenderen Entschei-
dungen über die Freiheit der Angeklagten.“
Das Programm hat anhand von Daten realer Haft-
strafen gelernt, wer am ehesten im Gefängnis landen
wird. Und historisch gesehen war das Strafrechtssys-
tem in der realen Welt gegenüber schwarzen Ameri-
kanern unfair.
Diese Geschichte offenbart eine grundlegende Ironie
des maschinellen Lernens. Die Attraktivität dieser
Systeme ist, dass sie unparteiische Entscheidungen
treffen können, die frei von menschlichen Vorurteilen
sind. „Wenn Computer genau vorhersagen könnten,
welche Angeklagten wahrscheinlich neue Verbre-
chen begehen, könnte das Strafrechtssystem fairer
und selektiver dahingehend sein, wer und wie lange
inhaftiert wird“, schrieb ProPublica.
Was aber stattdessen passierte, war, dass Programme
des maschinellen Lernens unsere Vorurteile in gro-
ßem Umfang verfestigt haben. Es war kein Richter,
der gegen Afroamerikaner voreingenommen war, es
war ein Roboter.
Es sind Geschichten, wie die von ProPublica veröf-
fentlichten, die Caliskan dazu brachten, dieses Prob-
lem zu untersuchen. Als Informatikerin, die in der
Regel auch die einzige Frau in ihren Kursen an der
Universität war, ist sie sensibel für dieses Thema.
Caliskan hat bemerkt, dass sich die Voreingenom-
menheit auf oft subtile Weise in das maschinelle Ler-
nen eingeschlichen hat – zum Beispiel in Google
Translate.
Türkisch, eine ihrer M uttersprachen, hat zum Bei-
spiel keine geschlechtlichen Pronomen. Wenn sie
aber Google Translate für Türkisch verwendet, endet
die Übersetzung „immer mit ‚er ist Arzt‘ in einer
geschlechterspezifischen Sprache.“ Dabei ließ der
türkische Ausgangssatz nicht erkennen, ob es sich
um eine Frau oder einen Mann handelte. Der Compu-
ter nahm einfach an, dass es sich bei einem Arzt um
einen Mann handelt.
SOMMER 2017 | THE DOPPLER | 67