いつの日か、GoogleはWebページの正確性を元に、順位付けを行うようになるのだろうか?Googleが発表した報告書が、その可能性を指し示している。
しばし目を閉じ、新しい世界を想像してほしい。Webページが獲得したリンク、つまりは人気度のみで順位付けされるのではなく、記載している情報の正確性も順位付けの判断材料になる、という世界だ。そうした世界がやってくるのは、もしかしたら、それほど遠くはない未来かもしれない。
New Scientistが報じたところによると、GoogleのリサーチチームがKnowledge-Based Trust (KBT)という考えを説明した文章を発表したとのことだ。KBTはWebページの品質を決定する新たな手法であり、Webページの情報がどれだけ正確かを基準にしている。
Webソースの品質の決定は、ハイパーリンクの構造などの、外部からのシグナルによって判断されてきた。我々は今回、内部からのシグナルを用いた、Webソースの品質の決定に関する新しい試みを提示したい。つまりは、Webソースによって提供される情報が、事実として正確であるかを基準にするのだ。これにより、不正確な事実の記載が少ないソースほど、信頼に値するWebソースと判断されることになる。
上記の記述に続き、Webページに記載されている事実と、ナレッジベース(ナレッジグラフやナレッジバレット)に蓄積された事実を比較する、事実の抽出プロセスについての説明をしている。また、より正確に事実を記載しているWebページヘ”恩恵”を与える方法についても言及している。十分な事実を記載していないページがある場合は、同一のサイトの別ページから信頼性を判断するようだ。
Googleは数年間に渡り、よく知られた事実を集め、巨大なデータベースを構築し続けており、2012年にナレッジグラフを導入している。ナレッジグラフは検索結果の右側に表示され、検索語に対しての情報を記載している。その対象は、人々、場所、エンティティを含む。
報告書の著者によると、KBTの初期のテストは、非常に明るい未来を示すものだったと発言している。また、”我々は、WEb上から28億のトリプル(下記参照)を抽出し、1億2千万のWebページと560万のWebサイトの信頼性を正しく評価することができた”と発言している。
注:上記の”トリプル(triples)”とは報告書で使われている言葉で、Webページで発見され、抽出された、事実性を図る要素を意味している。
このKBTというコンセプトは、インターネット全体に影響するコンセプトとなる必要はない。なぜなら、事実を共有するために作成されていないWebページや、ナレッジグラフのデータベースに存在しないエンティティを取り扱っているWebページなどもあるからである。
こうしたことも踏まえ、著者はこの信頼性を測定する方法を、”Webサイトの品質を判断するためのさらなるシグナルの提供”としており、”ページランクなどの既存のシグナルとの併用”として用いることができるとしている。つまりは、既存のシグナルに取って代わる必要はないとのことだ。
この記事は、Search Engine Landに掲載された「Google Researchers Introduce System To Rank Web Pages On Facts, Not Links」を翻訳した内容です。