ぼくがあなたにリンゴを手渡したら、あなたは自分の経験から、それが運転できるものではない、とわかるだろう。そして、それが採れた木で織物を織れないことや、その種(たね)でテニスはできないことも、わかるだろう。人間なら、それがナンセンスだと分かるが、でもAIには、現実世界で何年も過ごしたという優位性がない。だから、何で何ができる・できないという知識もない。彼らに常識を持たせることも、できないのだろうか。
ブリガムヤング大学の研究者たちは、現実世界と対話する未来のアンドロイドやAI製品が、身の回りのいろんなものが、それぞれ何であり、何をするものかわかっているようにしたい、と考えた。
その研究のペーパーを書いた研究者の一人Ben Murdochは、ニュースリリースの中でこう述べている: “機械学習の研究者がロボットや人工知能のエージェントを、乱雑な環境に放置したら、ありとあらゆるクレージーなことをするだろう。いろんな物に対する、それで何ができるのか、という常識が完全に欠けているので、ロボットはテーブルを食べようとして何千時間も努力するだろう”。
そんな極端な例が頻繁に起きるわけではないけれども、話の主旨はそういうことだ。必要なものは、いろんな物と、それらと結びついている一般的なアクション〔ボール→投げる〕や属性〔レモン→黄色い〕を列挙したデータベースだ。それがあればロボットは、ダンベルが持ち上げる物であり、押す物ではないこと、重くて軽くないことを知るだろう。ロボットにそれを持ってくることや動かすことを命じたら、そのデータベースを参照して自分の行動を決める。
そんなデータベースや、少なくともプロトタイプを作るためには、まず手作業でデータを集めて整理しなければならない。…実際にそれをやると、途方もない時間がかかるだろう。そこで研究者たちは英語版のWikipediaのコーパスをコンピューターに食べさせ、何百万もの語彙をそれらのコンテキスト(文脈)と共に咀嚼(そしゃく)させた。そうすると簡単な数学的処理とクェリによって、リンゴは一般的に噛むものであり、椅子は座るものであり、木は登ったり揺すったりするものである、とわかるようになる。
AIがこれらのオブジェクトを対話的に操作しなければならないときには、これが上出来のカンニングペーパーになる。また、誰かがそれに対して/関してやってることや、話してることを、理解できるようになる。研究者たちはこのシステムを、テキストだけの短いアドベンチャーゲームで試してみた。カンニングペーパーあり、の方が、断然好成績だった。
常識は、最初に取り組むべき課題だ。ロボットを作るたびに、いろんなオブジェクトについて、して良いことといけないことを毎回教えるなんて、たいへんだからね。
チームはこの研究をInternational Joint Conference on Artificial Intelligenceで発表した。