あなたがNetflixで“Unbreakable Kimmy Schmidt”を見終わったあと、Netflixが“Everything Sucks”を見るよう薦(すす)めたら、それはアルゴリズムが、この人が次に見るべきものはこれだ、と決めているのだ。Googleが、ある検索結果を別のよりも先に見せたら、アルゴリズムが、そっちのページの方が重要、と決めているのだ。そして、警察が顔認識を使って違う人を容疑者と認めたら、それはアルゴリズムが間違いを犯した例のひとつだ。
アルゴリズムはルールの集合で、コンピューターはそれらに従って問題を解いたり、取るべきアクションを決めたりする。ルールに従ってコンピューターは、私が受け取る情報のタイプや、私について人びとが知る情報、私に見せるべき求職情報、クレジットカードの承認、さらに未来には、運転手のいない車が歩行者の私に気づくか気づかないかを決める。アルゴリズムは日増しに、私たちの生活の重要な部分になりつつある。
しかしアルゴリズムには、その基本的な部分や、さまざまな利用の部分に、本質的な問題がある。それは、それらの機械による決定に含まれる人間的な偏りだ。
では、たとえば保釈か拘束かという人生の大事件を決めるアルゴリズムが公平であるためには、何をどうすべきか? そもそも、公平とはどういう意味なのか?
今度のTechCrunch Disrupt San Franciscoでは、KairosのファウンダーでCEOのBrian Brackeenと、Human Rights Data Analysis Group(人権データ分析グループ)のKristian LumとPatrick Ballをお招きして、私の司会でこの問題を掘り下げる。
Disrupt SFはサンフランシスコのMoscone Center Westで9月5日から7日まで行われる。すべての議題はここにある。チケットの購入はここで。
〔ここで紹介されているアルゴリズミック・バイアスに関するパネルは、現地英文記事が載り次第、翻訳します。参考: Wikipedia記事(英文)〕