ロボットも人間のように偏見を持つ、防ぎ方も人間集団と同じ

カーディフ大学とMITの研究者たちによる、おもしろい研究によれば、複数のロボットが一緒に仕事をするとき、偏見が生じることがある。チームワークをシミュレーションするロボットたちが、他のチームのロボットに対する偏見を表現した。研究者たちによると、“自動機械のグループが、お互いの振る舞いを単純に認識し、コピーし、学習することによって偏見が現れる”。

その理論をテストするために、研究者たちは、シミュレーターの中で簡単なゲームをした。そのゲームでは、評判や寄付の戦略に基づいて、外部の集団や、ロボットの個人的グループに寄付を行なう。そして、内部への寄付と外部への寄付を比較して、偏見のレベルを調べる。そのシミュレーションを動かすと、徐々に、外部に対する偏見が増えていった。

研究者たちは、シミュレーターの中で偏見を成長させることが、容易であることに気づいた。だからそれは、ロボットだけによる何かの自動運転をするときは、注意しなければならない問題だ。

カーディフ大学のRoger Whitaker教授は、こう述べている: “われわれのシミュレーションは、偏見が自然の強い力であり、それは進化して、容易に、仮想ポピュレーションの中で報奨により強化される。そしてそれにより、他者との幅広い接続性が損なわれる。偏見のあるグループから守ろうとして別のグループが、意図せずして偏見的になることもある。その結果、その仮想ポピュレーションに分裂が生ずる。偏見のそのような拡散は、逆転が困難である。差別を認識して他をコピーできる自動機械が、将来的に、人間の中に見受けられるような偏見的な現象に影響されてしまうことも、ありえる”。

おもしろいことに、“ひとつのポピュレーションの中に、はっきりとした違いのあるサブポピュレーションが多ければ多いほど”、偏見は減少する。これは、人間の偏見に関しても考えるべき、重要なポイントだ。

“サブポピュレーションの数がとても多ければ、偏見のないグループが共同して、搾取もいじめもされずに協力しあえる。これはまた、マイノリティーとしてのステータスを弱め、偏見の影響を受けにくくする。しかしながらこれは、成員が、自分たちのグループの外部との対話に向かう、より高い気質を持っている情況を必要とする”、とWhitaker教授は述べている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa