テック企業大手のサービスのアルゴリズムによる偏向を防ぐ法案を民主党が提出

民主党の議員たちが、巨大テクノロジー企業の表面下に潜んでいるアルゴリズムによる偏向(algorithmic biases、アルゴリズミックバイアス)を抑止する法案を提出した。そのAlgorithmic Accountability Act(アルゴリズム説明責任法)と呼ばれる法案は、民主党上院議員のRon Wyden氏(オレゴン州)とCory Booker氏(ニュージャージー州)が提出し、下院では民主党下院議員Yvette Clarke氏(ニューヨーク州)が提出者となる。

この法案は時宜を得ている。先月だけでも、Facebookは求人広告における差別的扱いで集団訴訟を示談に持ち込み、また住宅都市開発省からは住宅広告のターゲティングツールで同様の民事訴訟を提起された。この法案は年商5000万ドル以上の企業をが対象だが、100万以上のユーザーのデータを保持している企業はほとんどすべて、この要件に当てはまるだろう。

関連記事: 米住宅省が住宅広告におけるFacebookの広告ターゲティングを差別として告訴

米国時間4月9日、上院で提出されたダークパターンデザインを禁ずる法案(用語解説)と同じく、このアルゴリズム説明責任法(PDF)も監督省庁は連邦取引委員会(Federal Trade Commission、FTC)になる。そして法案によるとFTCは企業に、自分たちのアルゴリズムによる意思決定システムに対する「インパクト評価」を命じることができる。その評価は、自動化システムの中にある「正確性、公平性、偏り、差別、プライバシー、そしてセキュリティ」に関するありうる結果を査定し、問題が見つかった場合は修正を要求される。

法案に関する声明の中でBooker氏は、ユーザーに買う機会のない家や、就く機会のない仕事や、その存在を知ることのできない金融サービス等を提供する、テクノロジーの差別的実践を非難した。

Booker氏はこう言っている。「この法律は企業に、自分たちのツールの正確さや公平さ、偏り、そして差別を頻繁に評価することを要求する」。

大手テクノロジー企業の偏向は今やホットな話題だが、この問題に対する政党のアプローチはかなり違った角度からも行われている。米国時間4月10日、たまたま上院の司法小委員会が上院議員Ted Cruz氏を座長とするヒアリングを行った。Cruz氏は、FacebookやTwitterが右寄りのユーザーを冷遇しているとする、根拠のない主張を繰り返す共和党員たちのリーダー格の人物だ。

一方民主党の議員たちは、アルゴリズムによる偏向のプラットホーム以外の問題にも関心があるようだ。

Clarke下院議員はこう言っている。「大企業が彼らの自動化システムの意図せざる影響に背を向けないようにするアルゴリズム説明責任法は、21世紀のテクノロジーが確実に、疎外ではなく力づけのツールになるよう導く。そしてまた、すべての消費者のセキュリティとプライバシーを強化する」。

関連記事: ‘Hateful comments’ result in YouTube disabling chat during a live-streamed hearing on hate(ヘイトをめぐる公聴会にヘイトコメントが殺到、未訳)

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

ロボットも人間のように偏見を持つ、防ぎ方も人間集団と同じ

カーディフ大学とMITの研究者たちによる、おもしろい研究によれば、複数のロボットが一緒に仕事をするとき、偏見が生じることがある。チームワークをシミュレーションするロボットたちが、他のチームのロボットに対する偏見を表現した。研究者たちによると、“自動機械のグループが、お互いの振る舞いを単純に認識し、コピーし、学習することによって偏見が現れる”。

その理論をテストするために、研究者たちは、シミュレーターの中で簡単なゲームをした。そのゲームでは、評判や寄付の戦略に基づいて、外部の集団や、ロボットの個人的グループに寄付を行なう。そして、内部への寄付と外部への寄付を比較して、偏見のレベルを調べる。そのシミュレーションを動かすと、徐々に、外部に対する偏見が増えていった。

研究者たちは、シミュレーターの中で偏見を成長させることが、容易であることに気づいた。だからそれは、ロボットだけによる何かの自動運転をするときは、注意しなければならない問題だ。

カーディフ大学のRoger Whitaker教授は、こう述べている: “われわれのシミュレーションは、偏見が自然の強い力であり、それは進化して、容易に、仮想ポピュレーションの中で報奨により強化される。そしてそれにより、他者との幅広い接続性が損なわれる。偏見のあるグループから守ろうとして別のグループが、意図せずして偏見的になることもある。その結果、その仮想ポピュレーションに分裂が生ずる。偏見のそのような拡散は、逆転が困難である。差別を認識して他をコピーできる自動機械が、将来的に、人間の中に見受けられるような偏見的な現象に影響されてしまうことも、ありえる”。

おもしろいことに、“ひとつのポピュレーションの中に、はっきりとした違いのあるサブポピュレーションが多ければ多いほど”、偏見は減少する。これは、人間の偏見に関しても考えるべき、重要なポイントだ。

“サブポピュレーションの数がとても多ければ、偏見のないグループが共同して、搾取もいじめもされずに協力しあえる。これはまた、マイノリティーとしてのステータスを弱め、偏見の影響を受けにくくする。しかしながらこれは、成員が、自分たちのグループの外部との対話に向かう、より高い気質を持っている情況を必要とする”、とWhitaker教授は述べている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Facebook、広告ターゲティングで有色人種を除外する機能を一時停止へ

Facebookは、広告主がターゲティングの対象から「多文化的つながり」に関心のあるグループを除外できる運用方法とポリシーに関して非難の的になっている。このほど、非営利報道機関、ProPublicaの捜査と連邦議会黒人幹部会(CBC)からの圧力を受け、Facebookは同社の広告ポリシーを精査することを約束した。COO Sheryl Sandbergが、CBC議長のCedric Richmondに宛てたレターに書いた。

広告主にターゲティングツールを差別的に利用させない方法が見つかるまで、同社は多文化交流グループを除外するオプションを一時的に無効にする。SandbergのCBC宛レターによると、多文化交流グループは「Facebookでの行動からみて、アフリカ系アメリカ人、ラテン系アメリカ人、あるいはアジア系アメリカ人コミュニティーに関連する広告に興味をもつ可能性が示唆される人たちから成っている」。

多文化マーケティングは広告業界では一般的だとSandbergは書いている。「この種のマーケティングには数多くの正当な利用場面がある」と彼女は言っているが、広告主がFacebookを使って、住宅、雇用、融資などの分野で差別することも懸念されている。

「オンライン広告主が住宅などの広告ターゲティングで「人種的つながり」を選択することを許しているFacebookは、差別的な住宅慣行に加担している」と CBCのメンバーらが昨年語った

Facebookは、LGBTQコミュニティーや障害者など、その他の「慎重に扱うべき分類」についても、広告主が除外ターゲティングにどう利用しているかを調査すると言っている

[原文へ]

(翻訳:Nob Takahashi / facebook