The Doppler Quarterly (日本語) 夏 2017 - Page 69

スマートフォンで写真アプリケーションを開いて「犬」 を検索す ると、保存してあるすべての犬の写真が表示されます。これは かつて至難の業でしたが、今では犬が「どのようなもの」 である これについて、 ProPublicaは次のように説明しています。 「リス クアセスメントとして知られるこのようなスコアは、全国の法廷 で一般的になりつつあります。これらのスコアは、保釈金の額 のかをスマートフォンが認識しています。 の決定から被告人の釈放に関するより基本的な決定に至るま このような今日の驚異は、機械学習によってもたらされていま の決定事項を知らせるために使用されています。」 す。数百万個のデータをくまなく調べて関連付けを行い、世界 の状況を予測するプログラムである 機械学習の魅力は計り知 れず、これに対応したマシンでは、信頼性の高いコールドデー タを使用して、場合によっては人間より正確に判断を下すことが で、刑事司法制度のすべての段階で釈放可能な人物について このプログラムは、実際の有期刑に関するデータから収監され る可能性が最も高い人物についての情報を取得していました が、現実の刑事司法制度は、歴史的に見てアフリカ系アメリカ できます。 人に対して不公正なものでした。 ただし、機械学習には負の側面もあり、プリンストン大学のコ この事例は機械学習についての深い皮肉を明らかにしていま ンピューターサイエンティストである Aylin Caliskan 氏は、次 のように述べています。 「多くの人は、マシンが偏見を持つこと はないと思っています。しかし、マシンには人間のデータが組 み込まれており、人間は偏見を持っています。」 またコンピューターは、その創造主から人種差別的になった り、性差別的になったり、子供がするのと同じように偏見を 持ったりする方法を学ぶと同氏は説明しています。 私たちは人工知能が公正なものであると 思っているが、そうした考えは多くの場合に 間違っている 新しいコンシューマーテクノロジーは、そのほぼすべてが何ら かの形で機械学習を使用しており、たとえば Google 翻訳で は、人がソフトウェアにギリシャ語からフランス語、そしてフラ ンス語から英語に翻訳する方法を指示することは一切なく、ソ フトウェアが無数のテキストをくまなく調べて自ら学習していま す。また別のケースでは、履歴書からどの応募者が成功を収め る可能性が高いのかといったことや、患者が特定の薬にどのよ うに反応するのかといったことを機械学習プログラムで予測し ています。 機械学習は、数十億ものデータポイントを取捨選択して ( 「写 真の中から動物を識別せよ」といった ) 問題を解くプログラム ですが、常にその方法を明らかにするわけではありません。そ してこれらのプログラムは、私たちが気付かないうちに偏見や 固定観念を持つようになる場合があることが次第に明らかに なりつつあります。 ProPublica は昨年の 5 月、裁判所が体系的に調書を取った 後に別の罪を犯す可能性が高い人物を予測するのに使用して いる機械学習プログラムの調査結果を公表しましたが、この調 査報告書の作成者は、ソフトウェアで白人より黒人の方が罪を 犯すリスクが高いと評価されていることに気付きました。 す。これらのシステムの魅力は、人間のような偏見を持たずに 公正な決定を下せる点にあり、 ProPublica は、 「コンピュー ターが新たな罪を犯す可能性が高い被告人を正確に予測でき たら、刑事司法制度は、収監する人物とその期間に関してより 公正かつ選択的なものになる可能性がある」 と述べています。 しかし実際には、機械学習プログラムが幅広く人間の偏見を 受け継いだため、アフリカ系アメリカ人に偏見を持つ裁判官が ロボットに変わっただけでした。 Caliskan 氏は、 ProPublica の調査結果のような事例を見てこ の問題を研究するようになりましたが、大学院のクラスでいつ も決まって唯一の女性だった同氏は、女性コンピューターサイ エンティストとしてこのテーマに敏感になっています。 同氏は、たとえば Googl e 翻訳で、多くの場合にそれとなく機 械学習に偏見が入り込むのを見てきました。 同氏の母国語の 1 つであるトルコ語には、性別を表す代名詞 はありませんが、同氏が Google 翻訳にトルコ語のフレーズを 入れると、 「結局最後には性別を区別した言葉で『彼は医師で す』と翻訳されます。」 このように、トルコ語の文では医師が男 性であるのか女性であるのかを示していなかったにもかかわら ず、コンピューターは、医師について話しているのであれば、そ れは男性であると仮定していたのです。 ロボットはいかにして暗黙の偏見を持つよ うになるのか Caliskan 氏とその仲間は最近、コンピューターが自ら英語を 学習すると、アフリカ系アメリカ人と女性に偏見を持つようにな ることがわかったという研究論文を Science 誌で発表しました。 これらのコンピューターは基本的に、インターネットにアクセス して 8,400 億個の単語を調べ、それらの定義を自ら学習する ために一般的な機械学習プログラムを使用していました。この 2017 年夏号 | THE DOPPLER | 67