複雑系の因果関係に関するもっとも有名な説明として、一匹の蝶が羽ばたくと、地球の裏側で台風が発生する、というものがある。その説明は思考を刺激してくれるかもしれないが、結局のところ役に立つことはない。われわれが本当に必要としているのは、1つの台風に注目したとき、それを引き起こした蝶がどれなのかを突き止めること。そして、できればその前に、その蝶が飛び立とうとするのを防ぐことだ。DARPA(米国防総省国防高等研究事業局)は、AIによってまさにそれが可能になるはずだと考えている。
この研究機関の新しいプログラムは、毎日のように発生する無数のできごとや、メディアの記事をふるいにかけて、それらの中に含まれる関連性の糸口、あるいはストーリーを識別できる機械学習システムを作ることを目指している。それはKAIROS(Knowledge-directed Artificial Intelligence Reasoning Over Schemas=スキーマによって推論する知識指向の人工知能)と呼ばれている。
ここで言う「スキーマ」は、非常にはっきりした意味を持っている。人間が自分の周囲の世界を理解する際に使う基本的なプロセス、という考え方だ。それによって人間は、関連するできごとを小さなストーリーにまとめている。たとえば、店で何かを買う場合を考えてみよう。通常は、まず店に入ってモノを選び、それをレジに持っていく。すると店員がそれをスキャンして、あなたはお金を払う。その後で店を出るのだ。この「何かを買う」というプロセスは、誰にでも分かるスキーマだろう。もちろんその中には別のスキーマ(製品を選ぶ、お金を払う)を含むことができるし、それがまた別のスキーマ(贈り物を送る、家で料理を作る)に含まれることもある。
こうしたことは、われわれの頭の中で想像するのは簡単だが、コンピュータシステムが理解できるよう、明確に定義することは驚くほど難しい。人間にとっては、長い間慣れ親しんできたことであっても、自明のこととは限らないし、法則に従っているわけでもない。重力加速度によってりんごが木から落ちるのとはわけが違うのだ。
しかも、データが多ければ多いほど、定義するのは難しくなる。何かを買う、というのはまだ簡単な方だ。冷戦や弱気市場を認識するスキーマは、どのように作り出せばよいのだろうか? それこそが、DARPAが研究したいところなのだ。
関連記事:この利口なAIは課せられたタスクをやり遂げるずるい方法を人の目から隠した
「山のような情報、そしてその中に含まれる静的な要素の中から関連性を発見するプロセスには、時間的な情報とイベントのパターンが必要となります。現在利用可能なツールやシステムでは、そうしたことを大規模に実行するのは難しいのです」と、DARPAのプログラムマネージャ、Boyan Onyshkevychは、ニュースリリースで述べている。
同機関によれば、KAIROSは、「一見何の関係もないように見えるできごとやデータを認識して相互関係を導き出し、われわれを取り囲む世界に関する幅広いストーリーを作り、伝えることの可能な、半自動のシステムを開発することを目指している」ということだ。
どうやって? 彼らには漠然としたアイデアはあるのだが、専門知識を求めているところだ。問題は、そうしたスキーマは、今のところ人間が労力をかけて定義し、検証する必要があるということ。それなら、最初から人間が情報を調べたほうがマシということになりかねない。そこで、KAIROSプログラムは、それ自身を教化するAIも組み込もうとしている。
初期のシステムは、大量のデータを取り込んで、基本スキーマのライブラリを構築することに限定される。本を読んだり、ニュース記事を追ったりすることによって、上で述べたような、候補となるスキーマの長大なリストを作成できるはずだ。さらにそれによって、愛、人種差別、所得格差など、AIによって扱うことが難しい問題に対するより広範囲でつかみどころのないスキーマに関するヒントを得ることができるかもしれない。また、その他の問題が、それらとどう関わってくるか、あるいは異なるスキーマ同士の関連性についても得るものがありそうだ。
その後で、複雑な現実世界のデータを調べ、作成したスキーマに基づいて、イベントやストーリーを抽出することができるようになる。
軍事および防衛面への応用は、非常に明らかだ。たとえば、すべてのニュースやソーシャルメディアの投稿を取り込んで、銀行の取り付け騒ぎ、クーデター、あるいは衰退傾向にあった派閥の再興などの発生の可能性を管理者に通知するようなシステムが考えられる。諜報活動員は、今現在もこのようなタスクに全力を尽くしている。人間が関わることは、ほぼ間違いなく避けられないだろうが、「複数のソースから備蓄が報告されています。化学兵器による攻撃の記事が広くシェアされ、テロリストによる攻撃の可能性が指摘できます」などと報告してくれるコンピュータのコンパニオンがいれば、歓迎されるだろう。
もちろん、現時点ではそうしたことはすべて純粋に理論的なものだが、だからこそDARPAが研究しているわけだ。その機関の存在意義は、理論を実用化することにあるのだから。もし失敗したら、少なくともそれが不可能であると証明しなければならない。とはいえ、現在のAIシステムのほとんどが、非常に単純なものであることを考えれば、彼らが創ろうとしているような洗練されたシステムは、想像するだけでも難しい。まだ道のりが長いことは間違いない。
画像クレジット:agsandrew/Shutterstock
[原文へ]
(翻訳:Fumihiko Shibata)