人種的偏見と闘うAIの新分野が求められている

人種間の不平等に関する抗議活動が拡大してから、IBMは警察権行使の際の人種的平等を推進するため、顔認識技術の提供を中止すると発表した。  Amazon(アマゾン)はRekognitionソフトウェアの警察への提供を1年間停止し、「顔認識技術の倫理的使用に関するルールを定める強力な内規を導入した」。

だが内規の変更以上のものが必要だ。人工知能(AI)業界全体がコンピューターサイエンスの研究所を超えて成熟し、コミュニティ全体を受け入れる包容力が必要とされている。

偏見を広く排除しながら社会で機能する素晴らしいAIを開発することは可能だ。だが、現在のようにAIがコンピューターサイエンス(CS)やコンピューターエンジニアリング(CE)の単なる一分野にとどまるなら、それは実現できない。人間の振る舞いの複雑さを考慮してAIという学問分野を形成する必要がある。コンピューターサイエンスが支配するAIからコンピューターサイエンスによって何かが実現するAIに移行しなければならない。AIに伴う問題は研究所で発生するわけではない。科学者がテクノロジーを現実世界に移すときに発生するのだ。CSラボのトレーニングデータには多くの場合、あなたや私が住む世界の文脈と複雑さが欠けている。この欠陥が偏見を永続させる。

AIを利用したアルゴリズムは有色人種や女性に不利なバイアスを示すことがわかっている。たとえば2014年にAmazonは、ヘッドハンティングを自動化するために開発したAIアルゴリズムが(Slate記事)が女性の候補者に不利なバイアスがかかるような学習をすることを発見した。MIT(マサチューセッツ工科大学)の研究者らは2019年1月、顔認識ソフトウェアの方が色素が暗い人を識別する精度が低いと報告した。最近では、昨年末に米国立標準技術研究所(NIST)が実施した調査(NISTリポート)で、研究者らは約200の顔認識アルゴリズムに人種的バイアスの証拠を発見した。

AIの間違いに数え切れないほどの例があるにもかかわらず、熱意は続いている。IBMとAmazonの発表が多くの肯定的な報道を生み出した理由はそれだ。2015~2019年にかけて、世界における人工知能の利用量は270%増加(Venture Beat記事)し、市場は2025年までに1186億ドル(約1兆3000億円)の収益を生み出すと予想(OMDIA記事)されている。米国人の90%近くがすでにAI製品を日常生活で使用している(Gallup記事)、多くの場合それとは気づかずに。

AI開発は技術的な課題だが、AIを使用するには、社会科学、法律、政治などのソフトウェア開発以外の重要な学問分野の知識体系が必要となることを認めなければならない。だが、AIの利用がますますユビキタスになっているにもかかわらず、研究対象としてのAIはCSおよびCEの分野にまだ集中している。たとえば、ノースカロライナ州立大学では、アルゴリズムとAIはCSプログラムで教えられている。MITはCSとCEの両方でAIの研究を行っている。AIは人文科学プログラム、人種およびジェンダー研究のカリキュラム、ビジネススクールに取り入れなければならない。政治学科でAIのコースを開発しよう。筆者はジョージタウン大学のプログラムで、セキュリティ研究の学生にAIと機械学習の概念を教えている。これが普通のことになる必要がある。

AIの専門化に対し包括的にアプローチしなければ、我々はほぼ確実に今日存在する偏見と差別的慣行を永続させることになる。より低いコストで差別するようになるだけなのかもしれない。テクノロジーの高邁な目標を達成するのではなく。ニューラルネットワークの開発とテクノロジーが適用される社会的文脈の両方を理解することを目的としたAIの分野を意識的に確立する必要がある。

コンピュータエンジニアリングで学生はプログラミングとコンピュータの基礎を学ぶ。コンピュータサイエンスでは、アルゴリズム学習の基礎を含む計算理論とプログラム理論を研究する。これらはAI研究の強固な基盤だが、あくまで一部分として考えるべきだ。そうした基礎はAIの理解に必要だが、それだけでは十分ではない。

AIの普及によって快適な社会が実現するなら、AmazonやIBMなどのハイテク企業、そして数え切れないほどの他の企業はイノベーションを広めることはできる。それにはAIという専門分野全体がCSの研究所を飛び出す必要がある。心理学、社会学、人類学、神経科学(The Conversation記事)などの分野で働く人々が必要だ。人間の行動パターンとデータ生成プロセスのバイアスを理解することが求められる。筆者は行動科学のバックグラウンドがなければ、人身売買、マネーロンダリング、その他の不正行為を特定するソフトウェアを開発することはできなかった。

機械学習プロセスを責任を持って管理することは、もはや進歩のステップとして望ましいものではなく、必要なものだ。人間がもつ偏見の危険性と未来の機械が誤って偏見を再生産してしまう可能性を理解しなければならない。社会科学と人文科学が鍵となる。これを成し遂げるには、すべての学問分野を包括するAIの新しいフィールドを立ち上げる必要がある。

【編集部注】Gary M. Shiffman(ゲーリー・M・シフマン)博士は、「暴力の経済学:行動科学は犯罪、反乱、テロリズムに対する我々の見方を変え得るか」(邦訳未刊)の著者。同氏はジョージタウン大学で経済科学と国家安全保障を教えている。Giant Oak Search Technologyを作ったGiant Oakの創業者兼CEOでもある。

画像クレジット:Henrik Sorensen / Getty Images

[原文へ]

(翻訳:Mizoguchi

投稿者:

TechCrunch Japan

TechCrunchは2005年にシリコンバレーでスタートし、スタートアップ企業の紹介やインターネットの新しいプロダクトのレビュー、そして業界の重要なニュースを扱うテクノロジーメディアとして成長してきました。現在、米国を始め、欧州、アジア地域のテクノロジー業界の話題をカバーしています。そして、米国では2010年9月に世界的なオンラインメディア企業のAOLの傘下となりその運営が続けられています。 日本では2006年6月から翻訳版となるTechCrunch Japanが産声を上げてスタートしています。その後、日本でのオリジナル記事の投稿やイベントなどを開催しています。なお、TechCrunch Japanも2011年4月1日より米国と同様に米AOLの日本法人AOLオンライン・ジャパンにより運営されています。