AIに関する研究でジェフリー・ヒントン氏、ヤン・ルカン氏とともに栄えあるチューリング賞を先月受賞したヨシュア・ベンジオ氏は、このテクノロジーが密室に隠されることを恐れている。Natureのインタビューで同氏は彼の懸念を説明したが、悲観論者と思われなように気を遣っていた。
モントリオール学習アルゴリズム研究所(MILA)教授のベンジオ氏にとって最大の心配は、必ずしも悪夢のシナリオというわけではなく、管理されない人たちによってAIが研究されていることに対してだ。
「大きな心配事のほとんどが、白日下でないところで起きている」と彼は言う。「軍の研究所や秘密組織、政府や警察にサービスを提供している民間企業で起きている」。
たしかにそれは我々も見てきたことだ。どの主要IT企業も、無害なものから明らかに戦争目的のものまで、何らかのかたちで政府や軍に成果を提供したりそれを想定している。「殺人ドローンは重大な心配事だ」とベンジオ氏は強く言い放った。そこで研究されているAIは多くの命を救ったり生活を改善するかもしれない。しかし、その研究が白日の下で行われていなければ、我々はどうやってそれを知ることができるのか?
善意で発明されたモデルやアイデアでさえ、悪人に利用されるかもしれないと彼は言う。「悪用の危険性、特に独裁政権によるものは、極めて現実的だ。事実上AIは、支配者がその権力を維持、拡大するために使うことのできる道具だ」。だから、1つの組織や政府が倫理的利用を約束したり、ベストプラクティスを実践するだけでは不十分だ。次の組織(あるいは同じ組織の次のリーダー)は、そうしないかもしれない。
彼が信じる解決策は、オープンで組織化された議論と、国際的に制定された強力でわかりやすい規制だ。
「自主規制は機能しない。自主納税制度がうまくいくと思うか?いかないだろう」と彼は言った。「倫理ガイドラインを遵守する企業は、守らない相手より不利を被る。これは車の運転に似ている。左側であろうと右側であろうと、全員が同じ向きに走らなくてはならない。そうしないと問題が起きる」。
手はじめに、彼は研究者らに責任あるAI開発のためのモントリオール宣言を読み署名することを推奨している。これは自立性、プライバシー、ダイバシティーを尊重する原則集だ。
こうした懸念がありながらも、ベンジオ氏はAI技術の未来に楽観的だ(そうでなければ、ここまで深く長期に渡ってAIに関わり続けることはとても想像できない)。インタビューの他の部分も同様に興味深く、AI分野が直面するさまざまな課題について、単刀直入で現実的だが楽天的に展望している。全文はこちらで読める。
[原文へ]
(翻訳:Nob Takahashi / facebook )