The Doppler Quarterly (FRANÇAIS) Été 2017 | Page 71
programmes que sur des êtres humains, dans la mesure
où nous n’avons pas vraiment de cohérence dans nos
réponses alors qu’un ordinateur renverra précisément la
même à chaque fois).
Comme un enfant, un ordinateur construit
son vocabulaire en repérant les termes qui
apparaissent souvent à proximité les uns
des autres.
Sur internet, les noms afro-américains sont plus souvent
associés à des termes qui dégagent un côté désagréable.
Ce n’est pas un refl et de la réalité des Afro-Américains.
Cela ne traduit que le fait que les gens disent des choses
horribles sur internet. Notre jeune IA en ressort toute
impressionnée.
Et c’est tout à fait aussi problématique que ça en a l’air.
Les conséquences d’une IA raciste et
sexiste
Selon Caliskan, de plus en plus de recruteurs s’appuient
sur des programmes d’apprentissage automatique pour
effectuer un examen préliminaire des CV. Laissés sans
surveillance, ces programmes peuvent apprendre et
appliquer des stéréotypes de genre dans leur prise de
décision.
« Imaginons qu’un homme postule à un poste d’infi rm-
ier : si la machine prend ses décisions toute seule, elle
peut considérer que ce candidat est moins compétent
pour ce poste. Une femme qui postulerait pour un poste
de développeur de logiciels ou de programmeur pourrait
se trouver dans la même situation. Il n’existe presque pas
de programmes de ce type en open source, et nous ne
sommes donc pas en mesure de comprendre exacte-
ment ce qui se passe. Nous avons donc la lourde respons-
abilité d’essayer de découvrir s’ils font preuve de partial-
ité ou de préjugés. »
Voilà un défi pour l’avenir. L’IA est déjà en train de se
frayer un chemin dans le système de santé, aidant les
médecins à trouver le meilleur traitement pour leurs
patients. (Des recherches préliminaires tentent de
déterminer si elle peut prédire les crises de santé
mentale).
L’IA pourrait-elle recommander un pourcentage
inférieur d’intervention pour les femmes ? C’est un point
à surveiller.
Ces programmes sont-ils donc inutiles|?
Il est inévitable que les programmes d’apprentissage
automatique rencontrent des motifs historiques qui
traduisent des préjugés racistes ou sexistes. De plus, il
est diffi cile de déterminer ce qui constitue un préjugé et
ce qui n’est qu’une réalité du terrain.
Les programmes d’apprentissage automatique vont par
exemple repérer le fait qu’au cours de l’histoire, la plupart
des infi rmiers ont été des infi rmières. Ils vont se rendre
compte que la plupart des programmeurs informatiques
sont des hommes. « Nous ne suggérons pas de sup-
primer ces informations » dit Caliskan. Cela pourrait en
effet complètement détruire le logiciel.
Caliskan pense cependant que plus de garde-fous
devraient être mis en place. Les êtres humains qui utilis-
ent ces programmes doivent constamment se demander
d’où viennent les résultats et vérifi er que la sortie des
programmes est exempte de préjugés. Ils doivent bien
réfl échir pour déterminer si les données étudiées
refl ètent des préjugés historiques ou non. Caliskan
reconnaît que les règles de bonnes pratiques pour élim-
iner les préjugés dans l’IA ne sont pas encore au point.
« Il faut un programme de recherche à long terme pour
les chercheurs en informatique, en éthique, en sociolo-
gie, et les psychologues », dit-elle.
Toutefois, les utilisateurs de ces programmes doivent au
moins être conscients de ces problèmes, et ne pas tenir
pour acquis qu’un ordinateur produit forcément un
résultat plus impartial qu’un être humain.
Et par-dessus tout, il est important de garder en tête que
l’IA apprend de l’état passé du monde. Elle examine les
tendances du statu quo. Elle ne sait pas comment le
monde devrait être. Ça, c’est à l’humanité de le décider.
Mais les données de santé sont également riches de biais
historiques. Nous savons depuis bien longtemps que les
femmes subissent proportionnellement moins d’inter-
ventions chirurgicales que les hommes. (L’une des rai-
sons à cela est que les femmes sont plus souvent des
aidantes, et qu’elles sont moins entourées à la suite d’une
intervention).
ÉTÉ 2017 | THE DOPPLER | 69