Google、スマホ対応サイトをモバイル検索結果で優遇するアルゴリズム変更を発表、4月21日から適用

Googleは、スマートフォン利用に最適化されたサイトが「モバイルでの」検索結果で優遇されやすくなるように変更すると発表しました。この変更は2015年4月21日より実施されます。

2015年、確実に成果を出すためのSEOの方程式

土居です。この記事では僕がSEOに携わるときにほぼ例外なく考えているイメージを可視化してお伝えします(脳内整理も兼ねて)。初心者の方は全体観を把握するために、実務者の方は思考の整理に、それぞれ一助になれば幸いです。

スマートフォン時代にGoogle検索は不要?よりコンパクト化される情報サイズと、これからの検索の課題

土居です。僕の最近の情報収集源として大活躍のNewsPicksさんで話題になっていたテーマについて書いてみようかなと。あんまり検索に関わる人たちの目には触れていなかったみたいですが。

スマホ時代はGoogle検索が激減する:「コンテンツの面白さ」だけが評価される時代に!

誤解なきようにお伝えしますと全体の傾向としての話や記事の大半については同意できることもありますので反論・否定といった意図ではなく、個人的な見解とポジショントークをふんだんに交えつつ、引用させて頂きながら補足解説を出来ればなといった意図です。

スマホでは検索されない?

パソコンを利用して仕事をする人が多いでしょうから実感は薄いかもしれませんが、移動中や自宅などでスマホを利用している時にGoogle検索(いわゆるググる)を利用することは少なくないでしょうか?

色々なサイトの流入を見ていまると感じることが出来ると思いますが、スマホの検索母数自体は減ってはいない、まだ増えているようにも思います、これはスマホ自体の普及が進んでいることに起因すると考えれば自然でしょう。
(※これ、日本とかグローバルでの検索数推移の公式データってなかったでしたっけ汗)

一方でPCの検索は既に頭打ちから微減、これも時代の流れとして必然でしょう。

全体的には検索は徐々に上限値に漸近しつつも数年は増加傾向と思います(ユーザーの母数自体が増えてますからね)。

スマホの場合はアプリが中心になりますので検索する(ググる)ことが減ります。

検索の絶対数というよりも「ネット閲覧行動全体に対する検索行動の割合」は微減傾向が進むでしょう、という観点では同意ですが、絶対数はまだまだ微増傾向でしょうね。つまり「ネット閲覧行動全体におけるGoogleへの依存度が”割合として”下がっている」というのが正しい表現でしょうね。途端につまんない主張になりますけど。

ユーザーが情報を受け取る手段が多様化しているのは確実ですが、こちらから情報を取得する、という方法についてはGoogleは依然として健在、今のところ完全な代替手段は出てきていない状態ではあると思います。

Googleとしては直近でスマホでの検索頻度をあげるためには音声検索の普及は必須の取り組みとも言えそうです。音声検索に対応できるよう”会話型の検索クエリ”への対応強化(昨年秋の”ハミングバード”とかはそれですね)も行っているのですが、音声検索の普及はまだまだ追い付いていないため、そこまでのインパクトは今のところ見えていないように思います。

閲覧デバイスの変化

スマートフォン…77%、タブレット…6%、パソコン…17%、つまり「パソコン以外が83%」になり、今後この流れはもっと加速するでしょう。ちなみに当サイトの「検索流入」はGoogle、Yahoo!合わせて約40%ですが、読者にスマホ利用者が圧倒的に多いことを考えると、占める割合としては「まだ多い方」です。

こちらは記事で指摘されている通り、全体として確実にスマホに流れています。ただしビジネス向けの商用サイトなど特殊なケースではこんな感じ(下図)で未だに大半がデスクトップだったりもします。

デスクトップ77%、モバイル21%、タブレット2%を示すGoogleアナリティクスのデータ

「(自然)検索流入は結果として得られる」ものと考える

検索流入は「結果として得られるもの」ぐらいに考え、SEOにかけていた時間、費用、思考を向けるべき先は一点だけです。

こちらも半分くらいは同意です。これは「検索エンジンを根拠にサイトを運営しない」という前回の記事で書いたことにも通じます。

ただしビジネスのジャンルによっては検索が圧倒的優位なジャンルが多々ありまして。情報特性によっては情報設計やプロモーション戦略の中でSEO要件を優先しないと大変な目に合いますというのは補足しておきます。

ストックされ、後に検索され得る情報でしたら、是非その辺りも考慮して検索しやすい状態にしておくことは、後に検索して情報を探されているユーザーにとっても、もちろんサイト運営者にとっても有益なことと思います。

この辺りは特に一般的な内容として語る内容ではないかもしれません。ネット時代に時代遅れだとはずっと言われつつも、実際にはテレアポや訪問販売という営業手法が未だ有効な業態だってあるわけですしね。

(3~4年前は「これからは検索じゃなくてソーシャルだ」ってみなさん騒いでましたが、蓋を明けてみるとソーシャルメディアを上手に活用してグロースできたというサイトのほうが逆に珍しいのではないでしょうか。)

人を呼べるコンテンツが重要

まとめ:今後は「人を呼びこめる面白いコンテンツを作れるか?」の勝負となり、メディア格差が生まれる

検索を考慮するにせよ考慮しないにせよ、コンテンツ提供側としてはこれはもう”単なる前提”でしかありません。

それを前提として、その情報はどういう人にどういう形でリーチするべきか、或いは探されるべきか、という点を主軸に考えるべきです。それがもし継続的に検索されるタイプの情報なのであれば、その導線を作っておくことビジネス上必須の課題になるでしょう。

PVが多くても検索流入が多ければ、もっとおもしろい独自のコンテンツを考えるべき

全ての情報がフロー情報として流れていくわけではありませんし受動的に発見されるコンテンツなのか能動的に探索されるコンテンツなのかの違いで優先すべきチャネルは大きく変わります。面白い面白くないだけの価値観で判断すべき問題ではありません。

どちらにせよ情報過多の時代、それでも敢えて閲覧される価値のないコンテンツはいずれインターネットの中から淘汰され埋もれていくのは間違いありません。もちろん検索結果においても同じことが言える流れになってきています。

「検索流入は結果として得られるもの」のスタンスで、全リソースをコンテンツの質に向けるべき

質を高める工夫をするはもちろんですが、コンテンツの質を高めることだけではなく、そのコンテンツをプロモーションしていくこと、どちらも重要です。良い製品があれば売れるはずです、はマーケティングとはいえません。

コンパクト化される情報サイズ

さて、ここからはこの記事独自の話として。閲覧デバイスがスマホに寄ってきている中で、今後はスマホ向けに最適化されたコンテンツが更に多く作られる時代になるのも間違いありません。

コンパクト化される情報サイズ

一つの大きな課題として、情報がPC向けに作られてPCで閲覧されるという時代が終わり、モバイル端末向けの情報サイズを前提に設計をされるコンテンツの割合が急増している時代です。この流れはもう止まらないでしょう。

例えば、冒頭で紹介したようなNewsPicksの連載記事を見ていても、確実に情報サイズはスマートデバイス向けに最適化されている用に思えます。「あっさりしすぎて物足りない」というコメントもちらほら見かけますし。

PCで3000文字の記事を読むのはさほど苦痛ではなくても、移動中にスマホで3000文字ガッツリ読みたいという人はそんなにいないのではないでしょうか。

スマホ閲覧におけるUXと検索エンジン最適化のバランス

Googleが依然としてデスクトップ向けコンテンツをもとにインデックス(検索対象のデータベース)を形成していることはご存知の方もいらっしゃると思いますが、「より信頼できる、有益な情報を提示する」という観点からすれば、多くのクエリではやはり重厚長大なコンテンツが検索結果において未だ優位です。

しかしコンパクトでスピーディな情報収集を求めているスマートフォンユーザーにとってそうした重厚長大なコンテンツは時に検索体験を損ねる要因にもなるでしょうし、このあたりはサイト運営者にとってはもちろん、Googleにとっても課題になってくるのではないかなと感じています。

生産されるコンテンツと、発見されるコンテンツが不釣り合いに成り得るからです。

今のところスマートフォン向けに最適化されたコンテンツを限定したインデックスは存在していませんしその予定があるとも思えませんが、このあたりのバランスは確かに悩ましいところですね。

少なくともコンテンツ提供者側が検索流入をある程度考慮されるのであれば、コンテンツの情報量や品質は保ちつつも、スマートデバイス向けには「コンパクトな見せ方をする」などの工夫をする必要があります。

総じて

なんか結論のない記事で申し訳ありませんが、どちらにせよ多様なデバイス、多様なチャネルでコンテンツが発見される時代になっているということは、少なくとも「検索にヒットしなければ世界に存在しないのと同じです」みたいな10年前のような時代と比べて情報発信側としては歓迎すべきなのは確かですよね。

しかし、マルチチャネル・マルチデバイスを前提とすればコンテンツを作る際にもそれぞれへの最適化を考慮しないといけないわけですし、SEOに関わる人が対応していかないといけないこともどんどん増えてしまいますね。

個人的に最近思うこととしては、アルゴリズムの変更とかそういう話は、日常的な実務においてはもちろん大きな影響ある場合もありますけど、PC→スマホ、Web→アプリ、検索→??みたいな大きな環境の変化という中で考えると結構スモールな話だなと感じることはありますね。

検索の未来としては、「わざわざ検索しなくても情報が受け取れる検索サービス」みたいな感じでしょうか??人工知能なんかも力を入れていますし。そういう時代の”SEO”は更に楽しそうです。

「クロールバジェット」という言葉について

何やら「クロールバジェット」という言葉が最近お客様の一般的に使われているのを聞くということで先週くらいに社内でちょいちょい話題になっていました。

クロールバジェット(Crawl Budget)って何ですか

簡単に言うと、「このサイトは1日あたりこれくらいクロールしますよ」という上限値(Budget)をPageRankなどの指標を元にGoogleが割り当てており、このバジェットが低いとサイトが十分にクロールされません、みたいな雰囲気で使われる言葉です。

耳慣れない方には耳慣れないと思います。かくいう自分も業務上使ったことはないですしそんなに話題になることもありません。たまに海外のフォーラムなどで話題になっていることはありますね。

で、そもそもGoogleの公式で出ている言葉でしたっけと思って英語圏の公式サイト巡ってみましたが現時点ではGoogleの公式情報では確認できていません。Googleの技術的な用語というよりも便利な造語という捉え方をした方が良いかもしれません。

諸情報によると以前行われたWeb系のイベントでGoogleの方が「(クロールバジェットという概念は)Googleには存在しない」と発言もされていたようでして。ということで、まあ言葉としてはなかなか曖昧なものとして捉えておいて良いのかなと考えています。

で、言葉の説明についてはそれくらいにしまして、ここから本題。

あろうがなかろうが、考え方としては重要

仮にクロールバジェットなるものが存在するとした場合、単純に考慮すべきポイントは以下です。

・より多くのクロールバジェットを確保するためには多くのリンク(=高いPageRankやAuthority)を得ていることが重要
・クロールリソースは無限ではないので、無駄遣いさせない工夫が必要

そしてこれはクロールバジェットなるものがあろうとなかろうと、とても大きなサイトを運営している方にとっては非常に重要なSEOの要素だと認識しています。

クロール絶対量を増やしてサイトを十分にクロールさせる

ページがクロールされるのはクローラーがリンクを辿る中でURLを発見できるからであり、ほとんどリンクを得られていないページと多くのサイトからリンクをされているページでは後者の方がクロール対象になる確率は高くなります。

全体のクロールリソースが一定だとすれば、クロール対象になる確率が高い(=クロール中にリンクURLが発見される機会が多い)ということはクロールされる絶対量が増えるということです。

つまりクロールの絶対量を増やすのであれば、より多くのリンクを獲得することがそれに直結すると考えて良いでしょう。これはクロールバジェットの考え方と相反することはありませんね。

注意:SEOにおいてリンクを軽視する傾向はダメ

話題がそれるので別途まとめようと思いますが、コンテンツ重視の流れになってきているなか、逆にリンクが軽視されつつあるように思います。これは全くもってダメな流れと思います。

誤解を恐れずに言いますと、今のGoogleはまだまだ“Link is King”を否定できない検索結果です。すなわち今のSEOにおける最重要業務の一つは以前と変わらずリンクを獲得することと断言して良いと思っています。

変わってきているのは、そのプロセスとして人工的な簡易サイトからリンクをもらって順位を上げるような旧来の施策がGoogleには淘汰されつつあり、その分なおさらコンテンツやプロモーションによってリンクを構築していくことが重要になっている、という話です。

リソースを無駄遣いさせないための工夫

仮にクロールリソースが有限だとした場合、全てのURLが確実にクロールされる保証はありません。従って、不要なページにリソースが割かれないよう、重要なページのクロールに集中させる工夫が必要です。

それは例えば無駄な重複コンテンツを発生させない仕組み、理論上URLが無限に生成される仕組みが存在するのであれば運営側でのコントロール、(本当に)クロール不要なコンテンツへのrobots.txtなどの制御、などです。

少なくとも、例えば全くリンクも得られていなくてクロールされる絶対量が十分でないのに、本来クロール不要なコンテンツばかりクローラーがたどっているといった状態は避けるべきでしょう。

注意:不適切なクロール制御は単なる逆効果

クロールを制御することはコンテンツの認識に大きく影響する施策です。テクニカルな意図でrobots.txtを乱用するとかnofollow埋め込みまくるなどは基本的にはほとんどのサイトで考えなくて良いはずです。

あくまでも「クロール不要なURL」とか「制御しきれないほどの大量の重複コンテンツや空ページ量産」などへの制御を場合によっては検討する、レベルで十分と思います。

単純な絶対量(Budget)の割り当て、というよりもクロールされる確率と優先度の問題かなと思いますがどうなんでしょうか

見出しの通りなのですが。絶対量ではなくて「URLが見つけられてクロールされる機会の多さ」「クロールされる優先度」なのかなと。優先度は、「重要な情報どうか」だけではなく「クロールに支障がないか」などによっても決められるんではないかと感じています。

  • 獲得しているリンクが多ければ、その分クロールされやすくなります。
  • どちらにせよサイトが無限にクロールされることはありませんのでリソースは有限です。
  • 有限なリソースなら、より効率よく重要なページがクロールされる工夫をしましょう

ということに加えて、例えばサーバーサイドでエラーが頻発するとか待機時間が鬼のように長い、みたいなことがあればそれは有限なリソースを食いつぶすことにも繋がりますので、そうしたサイトは必然的にクロールの優先度を下げられると考えて良いと思っています(これは体感でめっちゃ感じるところ)。

個人的にはこの(特にサーバサイドの)速度改善もクロール優先度を上げるために必要な施策と思っております。特に新規のサイトでコンテンツ量は多いけどリンクは集まってないし速度も遅い、みたいなサイトだと本当にSEOは全く機能しないなという印象です。

なんだかとりとめないですがここまでまとめますと、

  • 多くのリンクを集める
  • クロール負荷をかけないよう速度改善する
  • クロールを制御する(その必要があれば)

大きなサイトで重要なページのクロール絶対量を増やすために特に重要なポイントはこの3点でしょうか、と思っています。なんだか当たり前な感じになりましたけども。

以上です。ちょっとライトな話題ですが社内用メモとして書いておきました。(この辺り実務レベルでしっかり語れる方で補足頂けるようでしたら是非ご遠慮なくお願いします)

【お騒がせ?】Google大変動!ペンギン3.0来たか!? → 「ちょっと待て、そんなに動いてないじゃん」

先の8月22日(金)の深夜から週末にかけて、Googleの大規模な順位変動(?)が話題になっておりました。SEO関係者以外でもそれなりに話題になっていたようでしたので、今の時点で可能な範囲で経緯や状況をお伝えします。

8月23日(土)未明:最大級と言える検索結果の変動が話題に

ディーボさんが運営するnamaz.jpという変動記録ツールにおいて大変動を表す数値が出ている、として関係者の間でワイワイ騒がれておりました。

大変動という文字。週末から本日にかけて、日常よりも大幅な変動があることを示すグラフ。

細かい解説は省きますが、下段の変動グラフが高い値を示していれば「変動が大きい」という意味を持ちます。

その他でも、晴錬雨読さんが公開している順位変動ウォッチャーにおいても、通常時よりも遥かに大規模な順位入替えが発生していることが記録されています。

晴錬雨読の異常値ウォッチャでは、22日23時以降に継続的に異常値を示す赤文字が羅列されている

実際に検索結果を確認してみると、確かに今まで見ていたものとは明らかに違う検索結果が返されていました。SEOに関わる仕事をされている方は、これはただごとではない、と多くの人が感じたことと思います。

しかし、検索結果を見ていても、「気持ち悪い」というか明らかにバグとか不具合なんじゃないですかと言いたくなるような結果であったことも印象としてはありました。

騒いでいたのは実は日本だけ?

さて、ここで、海外のGoogle検索結果変動を示すツールMOZCASTの変動データを見てみます。

mozcastにおいては、22日~23日にかけての変動幅は決して高くないことがグラフから伺える
※棒グラフでは最後の2列が22日~23日の変動を示しています。

米国時刻では日本で「大変動」が発生していたのは22日午前~23日午後くらいだと思いますが、両日とも「やや不安定」くらいのレベルで、日常の変動の幅を大きく超えるものではありませんね。

先ほどのnamazとの比較をしてみますと、8月13日~14日にかけて、通常時よりもやや大きめの変動が確認されていることは一致していますが、先週末の異常と思える変動についてはMOZCASTでは記録されていません

かなり大規模な変動であったため、やんわりと予告されていた「ペンギンアップデート3.0」が導入されたのかという話も出ておりました。

しかし、ペンギンのようなアップデート(”言語”などのローカルな要因に左右されにくいアップデート)はこれまでも世界共通で実施され、日本でのみ大きな変動が発生することはあまり考えにくいと言えます。

ですので今のところ、「ペンギンじゃないと思います」と一旦結論付けておきます。(まだ分からないですけどね)

実際に、検索結果はどのように動いたか(8/25時点)

計測対象キーワードのうち10000キーワードをサンプルとしてランダム抽出、集計しました。分析というにはほど遠い代物ですがおおよその動向をつかむには問題ないと思います。

「前日対比」での集計結果

各日の「前日対比」のランキングの変動幅(絶対値)の平均を見てみます。やはり平時(変動前)の変動幅に比べて大きく動いているように見えます。

前日対比データでは、確かに週末以降に平時の数倍規模の変動があったことがわかる

同じく、ランキングの入れ替わり率(掲載されていたポジションから大きく入れ替わったキーワードの率)はこちらです。全体の約15~20%のキーワードで、検索結果上のポジションが連日大きく入れ替わっていることがわかります。

前日対比で、ランキング分布における入替えが20%程度のキーワードで発生している

同じく、検索結果に表示されていたURLの変更率について(もともとTOPページだったのに下層ページが表示された、などのキーワードの率)も調べてみました。

前日対比の検索結果表示URLの変化率。21から22にかけても比較的高い水準だったのでわかりにくいが、それでも15%ほどのキーワードで表示URLが変化していることも分かる
※ちょっとこれはわかりづらいデータでしたね。。

何にせよ、各種ツールが提示しているような大きな変動があったことは間違いないように思えます。しかし、これはあくまでも「前日からどれくらい動いたか」の集計ですので、ちょっと異なる集計として「(変動前の)22日(金)と比較して」でも行ってみました。

「大変動前(22日)対比」での集計結果

変動前と比較したランキングの変動幅(絶対値)の平均を見てみます。金曜日対比では、平均値で「1.3位程度」しか変動していないですね。

22日規準では、本日のランキングはほとんど変更なし、という状態。平時よりもやや不安定な動き、というレベル。

同じく、ランキングの入れ替わり率はこちら。こちらも、金曜日対比では全キーワードのうち「3%程度」しか入れ替わりが発生していないことがわかります。

22日対比では、25日はランキングはほとんど入れ替わっていないことが分かる

同じく、検索結果に表示されていたURLの変更率はこちら。表示されているURLも、金曜日対比ではほとんど変化ありません。

22日対比の表示URL変化率。25日時点では、金曜日とほぼ変化なしの状態。

つまり、土日は激しく変動していたが、本日時点では変動前の状態と大差ない検索結果に戻っていることがここから伺えます。

結論:「日常の変動に比べ、やや動きが大きかったかも」程度?

今回の変動は何だったのでしょうね。今のところGoogle関係者から正式な情報は出ておりませんが、何かのテストを行っていたのか、マイナーアップデートかデータリフレッシュの際に変な不具合が混入したのか、ちょっと不明です。

ただ体感として、「あれ、大きく動いたのに今日になったら戻ってる」というのは皆さん感じられているところかなとも思います。

もちろん何か大きな変更の予兆なのかもしれませんのでしばらく様子見は必要と思いますが、「今回の変動を機に具体的なアクションを起こす」根拠はちょっと今のところ見えてこない状況です。

最後に:世間の皆さんの反応

個人的には、こうしたニュースが出た際に、検索結果がどう動くか、ということももちろんなのですが、一般の(=SEO関係者以外の)方々の反応も同様にウォッチの対象としています。

最近NewsPicksというサービスを使っており、普段あまりSEOなどの話題は出ないのですが、週末にはこの変動の話題がピックアップされていました。

  • Googleに依存するビジネスは危険。きちんと流入のポートフォリオを組まないと。
  • こういう変動に振り回されるのが分かってるんだから、最初からSEOなんて無駄。
  • もう時代はコンテンツの時代。良い記事を書くことだけ考えれば良い。
  • SEOなんてもう不要な技術。そこにコストかけるのは無駄。

などなど、色んなことを言われているわけですね。もちろん皆さんSEOについて專門で仕事をされているわけではないし、日常的に何百とかのWebサイトを見ているわけでもありませんので仕方ないですけれども。

ということで、次回はこうした方向けにSEOの事情を少しは理解して頂けるよう、何かしらの形で自分の解説をまとめて書いてみようかと思います。

『HTTPSをSEOで優遇』 SSL化を推奨するアルゴリズム導入をGoogleが公式発表

昨日、SEOやWeb周りの方々が少しざわめいておりました。話題となっているのがこちらです。

Google ウェブマスター向け公式ブログ: HTTPS をランキング シグナルに使用します

本件につきましてはきっと多くの方からお問い合わせを頂くことが増えるでしょう、ということが明確ですので、あらかじめ記事にまとめさせて頂く次第でございます。

Q: まず、これは一体何の話ですか?

概要としては、SSL化されたWebサイトをSEOの評価として優遇します(=HTTPSであることが、SEO上のプラスになります)、といったものです。

こうした方針を検討している、という旨をGoogleが初めて発表したのが2014年の初頭に行われたイベントにおいてでした。( 参考:Google、安全なSSL導入サイトの検索順位を優遇したい? 実現は難しそうだが・・・ SMX West 2014 )

関係者の間では、当時から変わらず導入の賛否は分かれているように見えます。どちらかというとサイト全体へのSSL対応についても慎重派がマジョリティな印象です

Q: 影響度はどれくらいあるのですか?

冒頭のGoogleの公式記事をそのまま拝借しますが、

全体的に見ると、このシグナルは良質なコンテンツであるといった、その他のシグナルほどウェイトは大きくありません。HTTPS は、優れたユーザー エクスペリエンスを生み出す多くの要素のうちの 1 つです。

 
ということですのでそこまで大げさなものではなく、実際に公式にも検索の全体のうち1%未満にしか影響しません、と言っていますので、数字だけ見れば、決して日常的な変動に比べて「とても大きな変動」という規模ではありません。ですが、

これから長い期間をかけて強化していきます。

 
とあるように、これからどの程度この流れが加速していくかについては不明です。今すぐに導入せずとも、いずれどこかのタイミングで検討するかもしれない、ということは頭の片隅に置いておいて良いでしょう。

Q: この件について、何か懸念事項はありますか?

例えば、規模にもよりますが導入コストはもちろんですが、SEO的な課題では、URLが変更する問題(全て正しくHTTPSに評価を引き継げるか?とか正規化処理ミスは発生しないか?など)が一般的な問題でしょう。そのほかにも、関係者の皆さんの意見として色々あがっておりまして、

とか、同じくリファラー関連の話では

などの懸念も早速上がっていたり。direct増えるというのは確かに解析を専門としている人にとっては結構厄介な話でしょうね。また、

とか、同じような切り口で

とかっていう、無責任な提案も増えそうで(しかもそのとおりになってしまう事案が本当に多そうで)怖いなというのも思います。更に、

これはもう過去にもありましたし本当に色々想像に難くないのですが、「Googleも公認、SEOに絶大な効果」的な宣伝文句でSSL証明書が販売されるということが絶対にあるでしょうね。

結果としてセキュアなWebサイトが増えるというのは悪いことではないのかもしれませんが、きちんとした意味や背景を理解した上で導入するのと、間違った認識で導入するのではやはり意味は違うかなと思います。

Q: なぜGoogleがSSL化されたHTTPSを優遇するのですか?

基本的に、Googleは「ユーザーがより良質なコンテンツに到達できるように」を基本として検索アルゴリズムを改良しています。

しかし、HTTPSであるかどうかはコンテンツの内容そのものの改善ではなく、通信環境の問題です。少なくとも大部分のユーザーが普段から求めていることではないでしょう。

では、これをなぜGoogleがSSL化を大々的に推奨し、ランキングにまで反映させるのか?というのは実際僕もそんなに腑に落ちていないこともありました。が、

と言えば確かにそれなりに納得できますね。また、

サイト運営会社はグーグルの検索結果で上位に入りたいと考えている。このため、グーグルは検索アルゴリズムで開発者の慣行を促進したり阻止したりできる。例えば、読み込みの遅いサイトは検索結果で不利な扱いを受ける一方、質の高いサイトは上位に表示される。

( 引用元:グーグル、検索結果で暗号化サイトを優遇 「HTTPS」増加を期待 )

 
とあるように、インターネット全体をSSL化の動きに促進するのであれば、Googleが自らのランキングアルゴリズムへの反映というのはサイト管理者の大きなモチベーションになりうる、という理屈も理解できます。

Q: この動きに対して、どう対応するべきですか?

SSL化することで検索結果においてどれだけ優位になるのか?が不明確なこと(少なくとも今は微小)、その中でコストやリスクを負うことになるというのはあまり手放しで推奨しにくいものです。

個人的な見解としては、皆さんがこぞって「SEOの目的で」ワサワサと導入する必要はないんじゃないでしょうかとは思っています。

ですので僕からは現時点では積極提案することはありませんが、いやいや、でもせっかくだからこれを期にSSL化しようよ!という意向であればそれはGoogleも本意でしょうし早速導入されて良いと思います。ただしURL引き継ぎの処理などに漏れのないよう、慎重に進められることをお勧めします。

読み返してみたら引用だらけですみません。また追加情報などございましたら追記いたします。

※8/8追記

こちらにより具体的なQ&Aが紹介されています。
HTTPからHTTPSへの移行で出てきた質問に回答 | 海外SEO情報ブログ

UIやユーザビリティという問題とSEOは「別物」として切り離して考える

SEOの文脈で「検索エンジンではなく、ユーザー視点でサイトを作りましょう」ということがよく言われます。SEOの観点から話をするにあたり、果たして本当にそれで良いのでしょうか。

Googleが特に重視したいこと

もし、「ユーザー重視」がユーザーの検索体験の向上、であったり、ユーザーが検索に求める価値ある情報をコンテンツとして提供する、という意味でユーザーの視点を重視するべきという話であれば、そうした観点での改善は概ねSEOの改善につながりますので正解です。

しかし、同じようにユーザー視点でのサイト改善施策として括られる「ユーザビリティやUIの改善」などの施策が直接SEOに貢献するかといえばそれは決してそうとは言い切れません。少なくとも現時点では、これらはひとまずSEOとは別の改善施策として考えておく必要があります。

Googleが重視するのはあくまでユーザーが発見できる情報の質であり、また到達したサイトの仕様によりユーザーの検索体験を著しく損ねないことです。

言いかえれば、素晴らしいUIではなく、検索者にとって価値ある情報を検索結果で提示したい、その結果として、ユーザーの検索体験をより良いものにしたい、ということです。

UIやユーザビリティの改善≠SEOの改善

例えば、ユーザーテストを繰り返し実施したりアクセス解析をもとに課題を抽出して、よりユーザーがサイト内で迷わず目的を達成しやすいように変更する、ということは多くのWebサイトの改善施策として有効です。

では、そこで挙げられた改善項目はSEOにとってプラスになる改善なのか?といえば、必ずしもそうではありません。UIとかユーザビリティを重視してサイトを改善すれば自ずとSEOがよくなるほど今のGoogleは都合良くなってくれてはいません

従って、逆にSEOを少し妥協してでも全体の転換率を高めるかどうか、などの判断を求められる場合も多いでしょう。

例えば下図のように、自然検索流入が20%減少しても全体のコンバージョンが10%向上して総合的なROIが改善するのであればそちらを選択すべきですね、とかそういう世界です。

検索トラフィックが減ったとしても、広告やソーシャルメディア経由の流入をはじめ全体の目標達成率が改善し、結果として目標達成数が改善することはあり得る。

※さすがにここまで都合良く数字が動くわけではないにせよ、言いたいことのイメージとして。

ユーザビリティの改善がSEOの改善に繋がるケースも多くある

もちろんユーザビリティやUIの最適化を行うことで、それがSEOの改善に直結することは少なくありません。例えば、

  • ユーザーに不適切な転送設定がある
  • 実質的なコンテンツを持たず広告への橋渡ししかしていない
  • 広告表示量がページの情報量に対して異常に多い
  • ファーストビューの表示が著しく遅い
  • そのページのメインとなる情報の起点がファーストビューに存在しない

などの問題は、ユーザーの検索体験を大きく損ねる要因になるでしょう。ユーザビリティ上の問題だけではなく、検索順位に直接的に悪影響を与える可能性が高いため、SEOの観点でも改善すべきポイントと言えます。

また、これとは別に、検索者や彼らの検索行動を考慮した情報設計のもとでナビゲーションを変更するなどの施策でしたら、それは多くの場合にSEOに直結する改善施策になります。

SEOを考慮する上では、検索エンジンの制約が前提にある

しかし、今の検索結果で露出を高めるための最適化を行うということは、今の検索エンジンの性能などといった制限を考慮する必要があります。今のGoogleは昔に比べ進化したとは言え、人間と同様の情報処理が行えるわけではありません。

ですので、SEOという制約の中でサイトを考えるときには、やはりクローラビリティやインデクサビリティ、アクセシビリティなどへの考慮がまだまだ必要です。

具体的には、例えば大半のユーザーにとってはサイト利用上で不要かもしれない文章を用意したり、同様に不要なリンクナビゲーションを用意することがSEO上の改善に繋がる場合もあるのです。

モバイルファーストで作られたサービスのSEOの課題

こうした課題は、特にモバイルファーストで発進したWebサービスにおいては顕著に現れます。スマートフォン向けサービスにおけるサービス設計やUI設計においてSEO要件が優先的に考慮されるケースはまずありません。

文字情報やナビゲーションも、スマホUIを重視するのであれば操作性やコンテンツの視認性を考慮して「不要な情報をできるだけ削る」というステップを踏むのが一般的でしょう。

その要件を基準にサイトを作れば、必然的に検索エンジンがインデックスできる情報量や、クロールできるURLについても制限されることになります。

最近ではよく「スマホ版のコンテンツをとりあえずそのままデスクトップ版に拡張しました」というサイトを見ることがありますが、上記のような理由でSEOには不利になります。

スマートフォン端末を優先した情報設計を行うサイトが増えても、Googleのインデックスは依然としてデスクトップを前提として形成されているという実情が、このギャップを更に広げている気がしなくもありません。そしてそれは検索者の都合を考慮すれば自然なスタンスだと思います。

これはインターネットにおける情報探索行動が年々スマートフォンに移行していく中で、モバイルファーストで作られたWebサービスの普及が進むにつれよりいっそう顕著な課題となるでしょう。

どこまでSEOを重視するか

サービスの内容によっては、上手にUIやユーザビリティとの妥協点を見つけ、デスクトップ版とスマホ版、アプリ版などでUIとSEO要件のバランスのとれた設計をすることが可能と思いますが、そうではないケースも多々あります。

では、そういうケースではSEOに取り組む必要がないのか?といえば決してそうではありません。

そのあたりの線引きは、「この情報は(ユーザー視点で見た時に)検索結果に載るべきか?載る必要はないか?」で考えるべきです。テキスト情報があるか、ないか、とかそういう事実だけで判断するべきではありません。

検索結果に載るべき情報(=他にない付加価値を持っている情報)なのであれば、コストの許容する限り&サービスを損ねない要件においてSEOを考慮するべきと思います。

「テキスト情報が少なすぎてこれでは何とも、、」などのことも勿論あるでしょうが、それでも保持しているデータと情報そのものの性質を元に、持っている情報をページの情報やリンクナビゲーションにどのように反映させるかを考えるだけでも、改善させることはできると思います。

まとめ

いろいろなSEO系の記事のコメント欄を見て、「SEOじゃなくてユーザー視点でサイトを作ることだけ考えれば良いのに」的なコメントもちょくちょく見かけますが、検索エンジンという特殊なプラットフォームの制限を無視することは今の段階ではオススメできません。

SEO要件を考慮せずあえて無視する、が功を奏することもあるでしょうが、ある程度の知識と判断材料なしにその判断をするのであれば、それは単に検索流入を放棄することになりかねませんので、注意してください。

お知らせ

しきりにSEOの話をしてきましたが、最近、サイト改善ソリューションとしてユーザビリティ改善に特化したサイト改善サービスの強化にも力を入れています(実はユーザーテストルームなんていう専用部屋とかアイトラッキングシステムなんてものもオフィスに存在していたりします)。

その流れで、そちら系のテーマでの話題での勉強会なども行いますので、SEOだけではなくこういうところでも皆さまの支援を出来ればと思います。SEOの会社としては珍しい方向性かもしれませんが、この人たち珍しいなと思って是非お越しください。

詳細:【初心者向け】サイトパフォーマンス向上の為のユーザビリティ改善セミナー
※残席少ししかないみたいなのでお早めにお願いします。

知っておいて損はない!Googleの検索エンジンに関する「特許」まとめ

以前に検索エンジンとSEOの歴史について書いてくれた大学生の佐々木くんに、次のテーマで「Googleの検索に関する特許」についてまとめてもらいました。

Googleの特許は「何がしたいの?」を理解する手がかりに

Googleの特許を知る事はSEOを考える上でとても重要な事です。何故ならSEOを実施するにあたって、検索エンジンとしてのGoogleの考えや方針は必ず理解しておく必要があり、Googleが持っている特許の内容は、その考えや背景を読み取るための材料になるからです。

この記事ではGoogleの特許の中から検索エンジンに関する特許を一部ピックアップし、紹介します。

※年代は申請日で記載しています。
※発明者もしくは譲受人がGoogle Inc.になっている特許を記載しています。
※ここに挙げられていないものも含め、特許を取得していることと、それがランキングに反映されていることは別問題です(特許はとったが使っていない、があり得るということ)。

PatFT:認定された特許

※PatFTとは公式に認定されている特許を指します。
 

リンクされたデータベース内におけるノードのランキングに関する方法

(1998年1月 特許番号:6285999)
検索技術に関わる特許の中で最も有名かもしれません。いわゆる”PageRank”のアルゴリズムに関する特許です。特許権の所有者はスタンフォード大学ですが、Googleが独占で使用する権利を持っています。

※参考1:ページランク(wikipedia)
※参考2:SEOの最重要特許ベスト10 その1 ページランクとは?

 

検索エンジンの音声インターフェース

(2001年2月 特許番号:7027987)
音声による検索システムに関する特許です。以下の参考URLをご覧いただくとわかりますが、現在少しずつ普及してきている音声検索について、今から10年以上も前から、それが使われるシーンを想像されていたわけですね。

ちなみに「特許の一部は製品化・サービス化するが、そうでないものもある」というのはこの記事の最後にも書かれています。

※参考:米Google、検索エンジンの音声インターフェースに関する米国特許を取得

 

曖昧な検索クエリに対して検索結果を提供する為に修飾されたインデックスを使用する方法及び装置

(2003年3月 特許番号:6529903)
ユーザーが検索する時にサイトの管理者が想定した具体的なキーワードを打ちこまず”曖昧な言葉”での検索をしてしまった場合を想定した施策に関する特許です。

※参考:「Google」の知的財産戦略

 

ユーザーの行動や特徴のデータに基づいた文章のランキング

(2004年7月 特許番号:7716225)
いわゆる”リーズナブルサーファーモデル”の特許です。全てのリンクを均等に扱うのではなく、データや特徴に基づきリンクに妥当な重み付けをして扱う、という考え方です。

※参考:GOOGLE’S REASONABLE SURFER: HOW THE VALUE OF A LINK MAY DIFFER BASED UPON LINK AND DOCUMENT FEATURES AND USER DATA

 

ソーシャルネットワーク内の関連メンバーを評価する為の方法とシステム

(2004年8月 特許番号:8010459)
SNSでの友人のクールさ、セクシーさ、信頼度などによって評価が出来るシステム、といった少し変わった特許です。

参考:知人の「セクシーさ」を評価:Googleが特許出願

 

カメラ付き携帯電話用の画像ベースの検索エンジン

(2005年5月 特許番号:7565139)
“画像での検索”に関するシステムの特許で、内蔵カメラ付きケータイの普及が背景にあります。携帯電話で撮影した画像そのものを検索に利用するための技術です。
 

フレーズベースの情報検索システム内のスパムドキュメントを検出する

(2006年6月 特許番号:7603345)
文書内の関連フレーズの数に基づいてスパム文書を特定するシステムに関する、とする特許。スパム文書にありがちな「キーワードの集合体」のような文書のパターンを検出し、スパム文書と非スパム文書を識別します。

参考:http://www.seobythesea.com/2006/12/phrase-based-information-retrieval-and-spam-detection/

 

コンテンツに基づいた広告サービスの提供

(2006年7月 特許番号:7734624)
サイトの内容に近いジャンルの広告を表示する技術の特許です。コンテンツを閲覧しているユーザーに関連性の高い広告を表示することで、より高い広告効果を実現することができます。
 

強化された検索結果

(2006年1月 特許番号:7624101)
電話番号または住所を含んだクエリ検索に応じる事と、クエリに関連のある住所のリンクを示す事が出来るといった検索機能の強化に関する特許です。この特許にはWebの膨大な情報量に対して、ユーザー(特に新規でWeb検索に不慣れなユーザー)が求めている情報を探す為に労力を使ってしまう可能性が高いという背景があります。
 

電子メール環境内でのメッセージランキング

(2008年9月 特許番号:8095612)
自分の受信メールの内容を検索結果にランク付けして反映する方法に関する特許です。以下の記事で詳細に紹介されていますが、ウェブページとは異なり、メールならではのシグナルにもとづいてランク付けされます。

※参考:Googleの新特許「メールランク」であなたのメールが格付けされる?

 

AppFT:出願した特許

※公式に認定されていないが、公開されている特許を指します。

MapReduce内のフレームワークデータの処理

(2011年4月 特許番号:20120254193)
MapRuduceというGoogleのサーバー処理に用いられている分散処理アルゴリズムで、「処理速度の向上→検索結果反映までの時間短縮」の技術に関する特許です。

※参考:GoogleのMapReduceアルゴリズムをJavaで理解する

 

ポリシーに違反してるかをチェックするシステム

(2012年8月 特許番号:20130110748)
過去の”問題あり”なデータと比較して、ポリシーや法律に抵触するような悪意のある書き込みを事前に防止出来るようにする技術ですが、以下の記事にもあるように「道徳的な判断をGoogleが行う」というところに賛否が分かれそうな技術とも言えます。こちらも製品化されるとは限らないとのこと。

※参考:Google、「検閲システム」の特許を導入

 

ソーシャルネットワークオブジェクトランキング

(2013年10月 特許番号:20140108428)
ブログやコミュニティなどのソーシャルネットワーク内のコンテンツのランク付けには、一般的なウェブページとは異なるシグナルも利用するべきだ、といった主旨の特許です。例えば友達やファンの数、プロフィールの閲覧数、投稿へのコメント数、最新の話題かどうか、などです。

※参考:HINTS OF HOW GOOGLE MAY RANK SOCIAL NETWORKS?

補足:特許の探し方

Googleの特許は登録までしている特許(PatFT)も公開までしかしていない特許(AppFT)もすべて米国特許庁データベースで検索する事が出来ます。
特許番号や譲受人、発明者など様々な条件で検索する事が出来ます。

america_patents_engine

しかし、こちらの検索ページはそんなに見やすい訳ではないので私はGoogleの特許検索エンジンをオススメします。

google_patent_engine

一番の違いは、実際に特許の概要が説明してあるページにアクセスして自動翻訳をした時です。米国のデータベースだと活字がひたすら並んでいて見づらいですが、Googleの方だと項目が分かれていて見やすいです。

america_trans
▲米国データベースの説明内容を翻訳したらこうなる

google_trans
▲Googleだとこんなに見やすい

出典

まとめ

検索技術に関する様々なテーマからピックアップして、ごく一部を紹介させて頂きました。これらの特許内容はGoogleがこれからの検索エンジンをどうしていきたいのかを知る材料になり、ひいてはSEOをどのように考えていけばいいのかを知る材料になります。

こうした技術を読むにあたり、「どういう技術なのか」はもちろん大切ですが、「こび技術が開発された背景はなにか」「何が実現できるのか」「利用者にどういう利点があるのか」などを考えてみると、テクニカルな解釈ではなく、Googleが本質的に目指す方向性などを理解するのに役立つと思います。

しかし、前述の通りGoogleが特許を取得していてもその特許内容を検索エンジンに全て反映させているという訳ではないので注意して下さい。

参考:特許取得=Googleの検索アルゴリズムに組み込まれている訳ではない

ヴォラーレ株式会社 佐々木

最近のGoogleの変動はペイデイローンアップデート2.0とパンダアップデート4.0の2本立てが原因??その内容と対策

先週末くらいから、確かに検索結果で不安定な動きが見られ、SEO関係者の「Google動いてる…?」的なツイートもその時期から多く見られました。

そんな中、先日GoogleのMatt Cutts氏がこのようなツイートをしていました。

“Googleは本日パンダ・アップデート4.0を実施しましたよ(5/21)”

 

“先週末、Googleは”とってもスパミーな検索クエリ”に向けたアップデートを実施しましたよ(5/21)”

 

このことから、”パンダ・アップデート4.0″と”ペイデイローン・アップデート2.0″という比較的規模の大きな変更が、先週末~今週末にかけてほぼ同時期に実施されていたことが分かりました。

パンダはまだしも、ペイデイローンについては、「ぺイデイローン?何それ?言いにくい!ダサい!」と思われる方や、「それって1996年に公開された、突如現れたUFOに地球が襲撃される系のウィル・スミス主演の映画のタイトル?」などと思われる方も相当数いると思われます。

既にクライアント様からも次々と質問をされていますので、解説を入れておきます。

「この変更に伴いどんな対策をすべき?」について

具体的なアルゴリズム解説は後にして最初に結論を言っておきますと、これらの変更は「大半のサイト運営者にとってはさほど影響のない話」であって、更にちょっと乱暴に言えば、今回は仮に影響があったとしても、基本的なSEOの取り組み方針としてやるべきことは特に変わらないです。

それはつまり、ユーザーが欲しがる情報を用意しておきましょうとか、薄いコンテンツを減らして中身の詰まったサイトにしましょうとか、不正なリンクを取り除いて正当なリンクを集めましょうとか、スパム的なことをするのはダメです、とか技術的に問題が発生しそうな実装があるのであれば最適化しましょう、というようないつも言われていることになるのですね。

変更に伴うランキングの調整の方法を探すのではなく、変更の背景や意図を理解し、SEOの取り組みに反映させる

パンダ、ペンギン、今回の”ペイデイローン”にしても然り、こういう比較的大き目の変更があったとして、それに都度「今回はこう!」「次はこう!」「そんでもって次は、、こう!」みたいな感じで何かを対応していくというスタンスは、正直いえばなかなか不毛な場合も多いです。

何故ならば、Googleが定期的に行う”変更”の大半は技術的な刷新や変更、あるいは追加であって、「検索サービスとしての方向転換」では決してないのですよね。つまり基本的にはどういう検索結果にしたいかという方向はだいたい固まっていて変わらなくて、それを実現するために、次々に新しい技術や仕組みを取り入れているというようなイメージです。

それにもう一つ理由を言うのであれば、あからさまな問題点とあからさまなタイミングの一致がある場合を除き、最近では原因を特定することももちろん難しい場合が大半です。

アルゴリズムの変更はいちいち公表されるものではそもそもありませんし、日常的に様々な変更を加えられ、かつ以前のアルゴリズムよりもかなり多面的な評価がされているということも考慮すると、ほとんどの場合は「考えても分からないものを考える前に、目の前に山積みになっている課題を一つ一つクリアしていきましょう」ということになるわけです。

もちろん、内容によっては「やるべきこと、考えるべきことが変わる(≒増える)」場合ももちろんあります。ですが本質的に大事なのは、「この変更を経て、今ランクを調整するためにどういう対応をすべきか」ではなく、「この変更はなぜ行われたのか、そしてその上で、自分たちがやることを追加、変更する必要はあるか」という考え方が良いのではないかなと思います。

※参考:Googleがアルゴリズムを変更する目的とSEOの役割

そういう意味では、今回はなにか大きく慌てるようなことがあるかというと、まだ不明な点もありますが、基本的には従来の仕組みの延長線上で行われている変更ですので、特にないかなと(ただしもちろんこういう不安定な時は自サイトや競合他社のランキングの観測はきちんとやっておきましょう)。

ということで、ここから先は各々についてまとめていきます(主に初心者向けに書きますのでそこまで厳密な解説はしません)。

ペイデイローン・アップデート

ペイデイローン(Payday Loan)とは、「次回振り込まれる給料を担保にした少額のローン(貸金)」のことみたいです。確かに日本だと馴染みはないですね。

アルゴリズムとの関連性の文脈としては、なんのこっちゃ良く分かりません。

ペイデイローン・アップデートの内容

ローンとSEOと何の関係があるの?と言えば、「こういう系のキーワードは(上位表示されると売上に直結しやすいため)スパムに汚染されやすい」という特徴があります。これは日本でも同じことが言えますね。

その「不正に順位操作されたサイトで検索結果がいっぱいになってしまいがちな残念な検索キーワード」の代表例として”ペイデイローン”という言葉が使われ、一般的なこのアップデートの呼称となっているわけです(Google公式の名称ではなく、通称。)。

このアップデートは、そういう残念なことになっている検索結果をきれいにしますよ(スパムをやってるサイトを排除しますよ)、という意図の更新です。

ペイデイローン・アップデートの対策は?

このアップデートの趣旨として、繰り返しになりますが「一部のスパムに汚染されまくったキーワード」を対象に、そうしたスパムサイトを排除するようなアップデートです。

例えば、日本国内で言えばギャンブル系キーワード、アダルト系キーワード、金融系キーワードなどは全体的にそういう傾向が昔から根強いですね。もちろんジャンルどうこうではなく、あくまで「スパムされやすい検索キーワード全般」ということなのですが。

どのキーワードが、とはもちろん明言されていません。ただし一般的に「激戦」と言われていたキーワードではガラッと検索結果が変わりました(変なサイトがゴッソリいなくなったり)。

ということで、これを気にする必要がある可能性がある人は、

  • 検索結果上位がスパムサイトで埋まってしまうようなテーマのサイトを運営していて、
  • 自身もスパムな手法を使ってSEOを行っていて、
  • ここ最近になって急激に順位が下落したように見える

のようなごく一部の方であって、ほとんどの方は影響のないアップデートと言えます。

※ここでいうスパム、はリンク購入に限らず、順位操作系のスパム全般を指しています。

ペイデイローン・アップデートまとめ

特定の手法や状態に対して評価を下げる、というよりも一部の特定のキーワードでの検索結果を、その中でスパムな手法を使って順位操作しようとしているサイトを排除することによってキレイにする、というような主旨のアルゴリズムであるとご理解下さい。

したがって、ほとんどのWeb担当者の方には影響ないものと思います。

パンダ・アップデート

もう英語圏で最初に導入されてから3年以上もたつのですね。SEO担当者の方であればほとんど全員が知っている内容なのでしょうが、最近はいちいちアップデートの公表もされなくなっていたので、耳慣れない方のために改めて解説を入れておきます。

パンダ・アップデートの内容

色々調べれば出てくると思いますので、ものすごくざっくりとした解説をしておきます。

  • 低品質なコンテンツが上位に出てきにくくするために実施されています。
  • 低品質とは例えば、単純に中身がスカスカだったり、
  • どこにでも書いてあるような薄っぺらいことしか書いてなかったり、
  • 他のサイトと共通のコンテンツしか載せてなかったり(独自性がない)、
  • 全体的に信頼できなさそうなサイトだったりが該当して、
  • 全体的にそういうコンテンツを多く抱えているサイトが検索にヒットしにくくなります

ざっくり言えばこういう感じです。こういうアルゴリズムを考慮した上で何をすべきかという点については、めちゃくちゃイメージで言えば、薄っぺらーく広がったサイトよりも、筋肉質で密度の濃いサイトを目指しましょう、というようなイメージです。

※具体的な対策はこちらの記事を:Google パンダアップデート 業界・タイプ別 傾向と対策

パンダ・アップデート4.0の特徴

まず、”4.0″とか”2.0″とかってというのは、アルゴリズムのアップデートのバージョンの話です(同じアルゴリズムの中でも、仕組み自体が刷新されたり、その仕組みの中で処理されるデータが更新されたりされます)。

パンダ・アップデート4.0では、以前(下のツイート参照)から言われていた“Next generation Panda(次世代パンダアップデート)”なのか?というのが少し関係者の中での関心事項になっています。まだ公式なアナウンスはありません。

“GoogleのMatt Cutts氏は(SMX Westというイベント内で)、新しいパンダアップデートは、小規模な事業者(サイト)にポジティブな影響を与えるだろう、と話していた(2014/03/14)”

 

まだ、これが具体的にどういう仕組みなのかは詳しくは分かっていないのと、今回のアップデートがこれにあたるのか?というのは何とも言えない状況ではあります(個人的には、おそらく今回で実装されたかなという気がしていますが)。

小規模なサイトが優遇される、というよりも、コンテンツ規模の大きなサイトを優遇せず、小規模サイトも大規模サイトも公平に評価できるようにする(規模の大きなサイトが、規模が大きいというだけで相対的に優遇されないようにする)的な文脈なのかな?と思うのですがどうなんでしょうか。公式なアナウンスを待ちます。

そしてまた先ほどと同じ議論なのですが、だからこの変更に際して何かを変える必要があるかといえば、特に大きなものは思いつかないです。規模が大きいから、という理由だけで恩恵を受けていたサイトがあって、こういう変更によりランクが落とされたとしたのであれば、もう少し、一つ一つのコンテンツに磨きをかけていく必要がありますね、という具合でしょう。

以上となります。ちょっと長くなってしまいましたがお伝えしたいところは中盤で書いてしまいましたのでこのあたりで。

ヴォラーレ株式会社 土居

国内の検索エンジンとSEOの歴史を振り返る

地方で大学生活を送っているうちの内定者の佐々木君(平成生まれ)に、お勉強がてらインターネット黎明期の検索エンジン事情などについて色々調べてまとめてもらいました。

今や人々のライフスタイルの一部として当たり前となっている検索エンジンですが、今回は少し振り返ってその歴史やSEOの移り変わりについてまとめました。

SEOと日本の検索エンジン

SEOとは「Search Engine Optimization:検索エンジン最適化」ですので、検索エンジンの仕組みの変化に伴い、最適化の方法も変化します。

例えば、以下の大手の検索エンジン(Google、Yahoo!JAPAN、MSNjapan(Bing)、goo)に対して、シークレットモードで「SEO」と検索してみると、

SEO(google)
図1.Googleによる「SEO」の検索結果

SEO(yahoo)
図2.Yahoo!JAPANによる「SEO」の検索結果

SEO(Bing)
図3.Bingによる「SEO」の検索結果

SEO(goo)
図4.gooによる「SEO」の検索結果

見づらいと思いますがGoogle、Yahoo!JAPAN、gooの検索結果がほぼ同じ結果となっています。これは、Yahoo!JAPANとgooの裏側でGoogleの検索システムが動いているためです。つまり、現在はBingなどを除き、ほとんどの日本国内の検索はGoogleのシステムによって処理されているのです(BingはMicroSoftの自社開発の検索エンジンです)。

しかし、インターネット黎明期と言われていた2000年前後などでは、今とは全く状況が違いました。ここからはその歴史について振り返っていこうと思います。

検索エンジンの歴史

主な検索エンジンの登場年表

表1. 1990年代の検索エンジンの歴史
1990年代の検索エンジン年表

この年代はあれやあれやと新しい検索エンジンが登場しています。(オレンジで記載しているのが相当)そんな中、Yahoo!JAPANの登場によって日本国内はそれ一色でした。僕が初めて見たOSはWindows98で当時保育園の年長でしたが、トップページはYahoo!JAPANしか見た覚えがありません。

編集者注:↑衝撃

2000年に差し掛かってくると検索エンジンに初めから他社のものを採用したポータルサイトが出現してきます。(緑で記載しているのが相当)
では次に2000年以降はというと、、

表2. 2000年以降の検索エンジンの歴史
2000年代の検索エンジンの歴史

2000~2005年あたりで買収が盛んになってきます(青で記載しているのが相当)。2001年のYahoo!JAPANがロボット型検索エンジンにGoogleを採用した事によってGoogleの知名度は上昇していきます。そして米Yahoo!が独自のロボット型検索エンジンを開発したのが2004年、Yahoo!JAPANがGoogleと提携するのが2010年です。当時からSEOに関わっていた方々からすると、この統合は非常に大きな変化であったと思います。

※出典

検索エンジンの群雄割拠からGoogleが首位を勝ち取るまで

1990年代年代後半は、Webサイトの爆発的な増加に伴い多くの検索エンジンが登場するまさに群雄割拠の時代でした。

Googleが出る以前は検索エンジンサービスを持つ会社のサイト又は、他の企業の検索エンジンを採用して立ち上げたサイトはポータルサイトとしてのサービスが主流で、そこには検索窓以外にも多くのコンテンツ(天気、メール、ニュース、広告など)を含む様になりました。

中でも、前述の通り日本においては1996年に登場した「Yahoo!JAPAN」が主流となります。

yahoo!1997
1997年のYahoo!JAPAN( 出典:Yahoo! JAPANのトップページザイン15年史 )

当時の検索エンジンは決して性能が良いとは言えませんでした。

人気のYahoo!JAPANはディレクトリ型検索エンジンを採用していた為、予め登録しておかないとそもそもサイトが表示すらされないし、検索してもユーザーの求めている情報とは異なったものを表示させています(これには最適化の手法に関する問題があるのですが、最適化については後述します)。

それでも当時はインターネットなんて馴染みが無かったのでトップ画面上に表示された豊富な情報量に感激し、「検索」はあくまでサブの機能でYahoo!JAPANも検索エンジンを重要視していない状況だった事もあり、「検索結果に悩まされる」という人は少数だったのではないかと予測出来ます。

そんな中、Googleがリリースしたサイトは検索窓のみ、広告も無しといった極めてシンプルなものでした。

google_1997
1998年に米Googleがリリースした検索サイトページ( 出典:Google.com 1997-2011)

え、なにこれ?って当時の人は思ったのではないでしょうか?GoogleのWebサイトを開いても何もコンテンツが無い、質素な検索窓のみです。コンテンツが満載だったポータルサイトの利用者からすると、何の面白味もないサービスだと感じた方も多かったのではないかと思います。

しかし、Googleの検索エンジンは

  • ユーザーの検索ニーズにより応えれる独自のロボット型検索エンジン技術
  • 価値のあるサイトか否かを指標付けするページランクの導入

という他の検索エンジンには無い価値により、次第に多くの人がGoogleの検索エンジンを好んで使う様になります。

そして2000年にはGoogle日本語版が上陸し、2001年にはYahoo!JAPANの検索エンジンに採用され、どんどん知名度を上げていきます。

google2000
2000年のGoogle検索サイトページ( 出典:Google.com 1997-2011)

しかし、Googleも検索エンジンを世に送り出した当初は殆ど収益性がありませんでした。そんな中、1998年に米Yahoo!が考え出した検索連動型広告を参考に2001年にリリースした「Google Adwords」が、多くのユーザーが使っているGoogleに広告を出稿する事への価値を高める効果を発揮し、ここからGoogleは多額の広告収入を得る様になります。

その他、Googleは

  • Google AdSense
  • Google drive
  • gmaiL
  • Googleカレンダー
  • Google Web Designer
  • Googleアナリティクス
  • Googleウェブマスターツール

こうした仕組みやツールを世に出しさらに多くの利用者を集め、急速にシェアを拡大してきました。その結果、日本だけでなく、実質現状としてはGoogleが世界の検索エンジン市場の大半を占めています。

最近ではGoogleの検索エンジンのアルゴリズムが変更されたという情報に対して多くのメディアや業者が敏感になっています。他の検索エンジンの内容が変わってもほとんどと言っていい程、問題視されていません。それだけSEOにとってもGoogleの変更は多大な影響を与えるということです。

Googleの近年の検索エンジンアルゴリズムの変更内容に関しては、以下のサイトが(英文ですが)見やすいので興味のある方はご覧下さい。
Google Algorithm Tiemline

Yahoo!JAPAN以前の検索エンジン

少し余談ですが、Yahoo!JAPANが日本に登場する前にも日本に検索エンジンは存在していました。

senrigan
出典:Google以前の検索エンジン

こちらは早稲田大学村岡研究室の学生であった田村健人さんが1994年11月に立ち上げた国内初のロボット型検索エンジン「千里眼」です。独特なデザインのアイコンが目に止まります。

この千里眼は検索の対象が.jpをドメインに持つWebサイトのみでした。Yahoo!JAPANを始めとするポータルサイトに需要を奪われて最終的に1999年にサービスは終了してしまいますが、千里眼にはサイトにリンクしているページ(=被リンク元)を表示させる機能がありました。

今でこそフリーソフトで被リンク元を調べる事も出来ますが、当時の検索エンジンで被リンク元を調べれるというのは画期的だったのではないでしょうか?

※出典

日本のSEOの歴史

1990年代後半(Google登場前)

さて本題となるSEOの歴史ですが、SEOという言葉そのものは検索エンジンがWebサイトを認識した瞬間から始まっています。

インターネットの世界が始まると、Webサイトの持ち主は自身のサイトに検索エンジンを通じてのアクセス数が増加した事により、オーガニック検索の価値を高く評価する様になりました。

1990年代後半になりWebサイトの数が爆発的に増加してからはより一層、どうしたら自分のWebサイトが検索エンジンにとって最適になるのかを考える様になります。そこに対して、Webサイトを上位表示させる為に必要な技術や知識が求められるようになり、それが現在でいうSEOということですね。

リリース当時のYahoo!JAPANはディレクトリ型検索エンジンが主流で、Yahoo!JAPANにサイトを登録する必要がありその審査は厳選されていた為、個人規模のサイトが検索結果に反映される事はあまり無かった様です。

1998年には検索エンジンにロボット型の「goo」を採用しますが、1990年代後半時点でのSEOの手法は

  • ページの中にキーワードがいくつ含まれているか
  • サイトのページ数はどのくらいあるのか
  • HTMLの最適化が出来ているのか

といった内容でした。alt属性にキーワードを盛り込んだり、隠しテキストとしてキーワードを盛り込んだり、(内容が薄い可能性が高い)Webページを大量生産したりといった施策が頻繁に行われます。今考えればただの内的スパムです。当時は、サイトのコンテンツを充実させるとかリンクを集める、などということがなくてもちょっとした小手先のテクニックで上位表示させられる時代だったということですね。

2000年〜2010年(Google登場後)

2000年になりGoogleの検索エンジン日本に上陸してその利便性が広く浸透する様になってからはGoogleの検索エンジン導入されているページランクの判定基準である被リンクが注目される様になり、

  • 外部リンクの数を増やす
  • 質の高いサイトからリンクを貰う

といった内容がSEOの施策として注目されます。今のようにブログやTwitterをはじめとするソーシャルメディアが普及していなかった当時は自然にリンクを集めることは今に比べ難易度が高く、リンクを自前で作る為にWebサイトを大量生産するには労力的に割に合わないことなども起因となり、リンク提供型のSEOサービスの需要が2000年代後半に向け徐々に高まることになります。

SEO会社の多くはこぞってクライアントのサイトにリンクを与えて上位表示させていました。内容が伴っていないサイトであってもお金さえ払えば上位表示出来る、SEO会社もリンクを張るためのサイトさえたくさん持っていればとりあえず仕事が出来る時代と言えました。

同様に、コンテンツの品質を評価する仕組みが未発達だったことから、ただページ数だけが多いようなサイトが検索結果で多く露出されているという状況でもありました。

Googleのページランクの導入により検索結果がだいぶ改善されたとは言え、今と比べればまだまだ検索結果は粗かったと言えます。

2010年以降

Yahoo!JAPANが2010年に検索エンジンにGoogleを採用した事でSEOは事実上Googleの検索エンジン最適化とほぼ同義になりました。

編集者注:ここでは書かれていませんがそれまではシェアから考えてもYahoo!検索エンジン(YST)のSEOが主流でしたね。Yahoo!とGoogleどちらの動向も追う必要があった(しかもどちらも全然不完全で意味わかんないことも多かった、TDPとかTDPとか、、)頃に比べるとかなり最適化難易度としては易しくなっているとも感じます。

また、2011年にGoogleが行ったパンダアップデートよって低品質なコンテンツが上位表示されにくくなりました。

同様に2012年のペンギンアップデートの導入や、によるガイドライン違反に対するペナルティ対応の強化などにより、それまでのようにリンク集め

以降、SEOの手法に関しては、もちろんHTMLの最適化や被リンクは必要ですがそれよりも、本質的にユーザーにとって価値のあるサイトを作れているのかどうか、という方向性に徐々に興味がシフトしていくようになりました。

まだまだユーザーの求める情報を完璧に提供出来ているとは決して言えない状況ですが今後、よりユーザーの求めるサイトが上位表示される世の中になる事は間違いありません。

※出典※

最後に

SEOの歴史はまだ約20年と浅いものですが、スピード感のあるWeb業界においてこれからのSEOに関する環境もさらに変化していきます。

この様な時代において新しい発見や知識を得るには「温故知新」という諺がある様に歴史を知る事も必要なのかもしれません。

ヴォラーレ株式会社 佐々木

被リンクから”オーサーランク”へ評価軸が変更、、って本当?? マット・カッツ氏の動画を解説してみる

先日公開されたマット・カッツ氏の動画が様々な憶測を呼びWeb界隈を賑わせつつ、なかなかカオスな感じになっておりましたので、話のネタとしてきちんと釣られておこうと思います。今回はコンサルティング部門のグループマネージャー實川がお届けします。

ここでマット・カッツ氏の「被リンクの重要性が薄れる」という発言が、被リンクによる評価が今後使われなくなり、その代わりに「オーサーランク」なるものが非常に重要なファクターになるのではないかといった解釈を誘発しているようです。

違います

まずはこの動画をきちんと和訳をしてくれている方がいらっしゃるので、こちらの訳を参照していただくと分かりやすいかと思います。

被リンクは死ぬのか?マット・カッツの話を和訳してみた

これをもとに、今回マット・カッツ氏が言っていることを噛み砕いてみると、

  • ユーザーに役立つページをより正確に見つけるため、自然言語を理解してそれを評価軸にできるよう今頑張っていますよ
  • もし自然言語をきっちり理解できるようになれば、被リンクにばかり頼らなくてもある程度正確な解釈ができるようになるので被リンクの重要性は相対的に薄れていきますよ
  • ただし、ページの基本的な評価のために被リンクの評価は役立つので今後も使っていきますよ

といった内容であると読めます。「オーサーランク」などという言葉はそもそも言及されていませんね。

元々検索エンジンは「ユーザーの求める情報を素早く適切に提供することでユーザーを増やし、広告手数料で収益を上げる」というビジネスモデルなので、検索ユーザーにいかに有益な情報を提供できるか、そしてユーザー数・ユーザーあたり利用頻度を上げていくことができるかというところが収益を上げるための重要なファクターになります。

この有益な情報を発見するためのシグナルとして、これまでは主にリンクがどのくらい集まっているか(=どのくらい他のサイトから支持を受けているのか)をベースにしたものでありました。

それが、実際にそのページにどういうことが書かれているんだろうか、それは信憑性のある内容なのか、などのことが今よりもっと的確に理解できるようにしたいんですよ、そのために、今よりももっと多角的な評価方法を取り入れていきたいんですよ、というお話ですね。

その中の要素として、ダニー・サリバン氏の例に上がっているように「誰が書いたの」という情報が理解できるようになればそれもコンテンツの信頼度を測る上での1つの重要なシグナルとして活用できますよね、ということです。

マット・カッツ氏が今回述べているのは以上のようなシンプルな内容なのですが、ちょっと界隈で「オーサーランク」の話題も上がっていたのでこちらについてちょっと解説します。

著者の権威性(オーサーランク)

上で書いたように今回マット・カッツ氏が話しているのは自然言語理解の技術が重要性を増してくるというところが趣旨なのですが、その発言の中で「専門家の書いた記事を読解しようとしている」旨の話があり、ここのところがオーサーランクの話を想起させているようです。

「オーサーランク」という言葉はGoogleが公式で発表しているものではなく、SEO関係者が慣習的に用いている言葉です。オーサーランクは、検索における評価づけをコンテンツ単位ではなくそのコンテンツの著者(Author)に対して行う試みのことで、特定分野において信頼できる著者を見つけることである程度安定的に良質な情報を提供できるようになるはずだ、という仮説に基づいています。

同じサッカーを習うのでも、町内会で大人気の近所のおじさんに教わるよりもサッカー日本代表の本田選手に教わったほうが良いに違いないですよね、ということで、沢山リンクを受けているだけで実際その分野には詳しくない人が書いた記事とその道の専門家が書いた記事であれば当然後者を信頼すべきだということを検索結果にも反映しようという試みですね。

この”人物の権威性”という要素は現在のところGoogleの検索結果のなかでもごくごく一部にのみ使用されていることが明らかになっているだけで、現状で大きな影響を及ぼすものではありませんが、取り組みとしては合理的であり、将来的にはもう少し影響力を持つであろうと予測されています。

参考:
Google、人物の権威性に基づいて検索順位を決定していることを明らかに Author Rank::SEM R
Author Rank (オーサーランク)はまだランキング要因になっていないが、使われている場面がある | 海外SEO情報ブログ

再度言っておくと今回のマット・カッツ氏の発言は「自然言語理解の上で専門家の書いた記事を理解することでどういった記述がその分野で価値のある情報なのかということを理解しやすくなる」という文脈で、オーサーランクが被リンクにとって代わります、ということではありません。

従って、(リンクはしませんが)

【速報】Google「被リンクからオーサーランクに移行する」SEO業者全滅か!?
href=”http://netgeek.biz/archives/11937

↑こういった誤った解釈を多分に含むような情報は本来あまり多くの人に見つけられるべき情報ではありませんが、今の時代こうした記事であっても被リンクを集めやすくなっているので被リンク評価だけでこうした記事であっても上位表示してしまいます(事実、5月15日現在「オーサーランク」で検索すれば上記記事がかなり上位に来てしまいます)。

この話題について調べた人がこのような記事に辿りついてしまって誤った情報を取り込んでしまうことは、ユーザーにとっては決して有益ではありませんね。(この話題に関わらず、被リンク販売のみを行ってきたSEO事業者のシノギが苦しくなってきているのは今に始まったことではありませんし、、)

しかしそれが現在のGoogleの評価であって、今後はもっと内容として信憑性があり確かな(本来の意味で有益な)情報が優先してユーザーの目に触れるようにトライしています、という主旨の話題なのです。

Googleの目的と今後のサイト評価の展望

上でも書いたように、検索エンジンはこのビジネスモデルであり続ける限り半永久的に「ユーザーの役に立つか否か」という価値基準でコンテンツを判断したいのです。

自然言語が理解できようができまいが、Googleとしてはその時点での技術に合わせて最適なアルゴリズムを充てていかなければなりません。

リンクよりも精度の高い評価基準が見つかればそちらを重視しようとするし、その他に信頼できる評価基準があるのであれば、それも積極的に取り入れていくでしょう。

このあたりの、評価の重要性の移り変わりについてはSEMリサーチさんの喩え話で

被リンクという評価手法から、何か別のものに移行する、置き換えられるという話ではありませんのでご注意ください。技術発達により、従来はできなかった評価方法を用いることが可能になれば、その他の評価方法の相対的な重要性は低下していくものです。例えば、ある大学の入学試験が英語(100点満点)、国語(100点満点)の2教科だったものが、英語+国語+数学+小論文(各100点満点)の4教科に変更されたら、国語と英語の相対的な重要性は低下しますよね、それと同じです。自然言語処理が進化し、(従来不可能だった)モノゴトの真の意味の理解が可能になれば、従来の評価指標は重要性が下がります。

と書かれていましたがこれが一番しっくりくるのではないかと思います。
引用元:[UPDATE] Google「バックリンクの重要性は薄れる」今後は著者オーソリティやコンテンツ分析へ::SEM R

基本的にはGoogleの本来の目的というところをしっかり押さえていれば検索技術の展開をどのようにしていくかというのはある程度正しく想像できるようになるため、あまり間違った解釈もしなくなると思います。迷ったら検索エンジンって何がしたいんだっけ?ということに立ち返っていただくのが良いと思います。

※こちらも参考に。

「SEOはGoogleとのイタチごっこ」というのは本当なの?

もちろん本当ではありません。ただし、これは全くの間違いですかと言えばそうではなく、何かものすごく偏った、というかごく一部の側面だけを切り出した視点からの表現と言えます。具体的には、

・SEOとは、Googleの意図と関係なくランキングを操作する手法である
・Googleは、そうした手法を駆逐するために日々アルゴリズム変更を実施している
・SEOとGoolgeは、そうした意味で対立関係にあるものである

こうした偏った観点でのSEOとGoogleの考え方である、と言って良いと思います。
実際には、そもそもSEOの意図はそういうところではありませんし、Googleの変更は不正な手法の排除だけでは決してありませんし(スパム対策は検索結果の品質改善の取り組みのうちの一部でしかない)、SEOとGoogleは本来は先ほどお伝えしたように補完関係にあるはずのものです。
もともと、ちょっとしたサイトのチューニングと、人為的にリンクを増やして上位表示する、ということがSEOとして普及してきていたので、そういう視点で見るのであれば、逆にこういう表現がシックリ来るのは間違いないと思いますが。

引用元:Googleがアルゴリズムを変更する目的とSEOの役割

ヴォラーレ株式会社 實川節朗

Googleがアルゴリズムを変更する目的とSEOの役割

ご存じの通り、Googleというシステムには日々様々な変更が加えられています。それに伴い、SEOを行う際に気をつけた方が良いこと、逆に気にしなくて良くなったこと、なども継続的に発生し、日々の情報収集と定期的な知識のアップデートが求められることは間違いありません。

しかし、そのようにGoogleに変更が加えられること、それに伴いSEOにも変更が必要になる場合があることなどから、「SEOはGoogleとのイタチごっこ」のような偏った理解をされている方や、逆に「SEOの時代は終わった、これから必要なのはSEOではない」などの極端な解釈をされている方が多いです。

出尽くした感の否めない話題ですが、改めてそのあたりについて整理しました。

改めて、検索エンジンについて理解する

Googleという検索サービスのビジネスについて、最近東証一部に上場されたファンコミュニケーションズの柳澤社長(@ankeiy)がこれ以上ないくらい端的に表現されていたので引用させて頂きます。

 

Googleは世界中の情報をクローラーというプログラムで収集し、検索して取り出しやすいようにインデックス(索引)化し、検索キーワードが送信された際にその言葉の意味や検索の意図を理解し、ランキングアルゴリズム(≒ランキング算出ロジック)に基づき検索結果に表示する順序を決めて、それを検索結果に表示します。

ここで表示された検索結果が検索ユーザーにとって都合の良いものであればあるほどツールとしての利用価値は高いと言えますし、利用ユーザー数の獲得や利用頻度の向上につながります。

一方で、GoogleはAdWordsという広告プラットフォームを広告主に公開し、検索キーワードと関連性の高い広告を検索結果に表示できる仕組みを持っています。この広告がクリックされた時点で、Googleには広告収益が発生します。

従って、シンプルに考えてしまえば、検索ツールの利用者数や利用頻度が増えれば、総合的に検索結果に広告が表示される回数や広告クリック数が増え、結果としてGoogleの収益も増える、と言えますね。

つまりGoogleが検索ツールとしての収益を高めるためには、まず基本的な取り組みとして検索ツールの利用価値を高める、つまり「検索した人が見たい情報にすぐに辿りつける検索ツール」にするような取り組みが継続的に必要になるのです。

今のGoogleは完璧なシステムではない

前の記事の中でも触れた内容なのですが、文脈的にこちらでも引用しておきます。

不完全というのはどういう根拠のもとで言っているかと言えば、

・検索する人が検索する言葉をある程度考えて打ちこまないとうまく欲しい情報に辿りつけないことが多い
・サイトが検索エンジンが理解できるように作られていないときちんとヒットしないことが多い
・ユーザーが本来求めていないような情報が上位に表示されることが多い

などの点からです。

ということですね。

つまり、適切な検索キーワードが上手く思いつかなかったり、見たいサイトが検索エンジンにとって読み取りにくい仕様で作られていたりすればユーザーは見たい情報に辿りつけませんし、また、未だに内容として間違いだらけの情報が上位に表示されていたりもするわけです。

Googleは何のために日々の変更を行っているのか?

Googleが今の時点で理想とは言えないのであれば、当然そのギャップを埋めていくために様々な改善を加えていく必要があります。いわゆる「アルゴリズム更新」なんていうのもこの一環です。変わるのはアルゴリズムだけではなく、先ほどの

世界中の情報をクローラーというプログラムで収集し、検索して取り出しやすいようにインデックス(索引)化し、検索キーワードが送信された際にその言葉の意味や検索の意図を理解し、ランキングアルゴリズム(≒ランキング算出ロジック)に基づき検索結果に表示する順序を決めて、それを検索結果に表示する

という、一連のプロセスを実行するための仕組み全般において様々な変更が日々加えられています。実際には、これに加えて、不正な手法でランキングを操作しているサイトを人為的なオペレーションのもとでランクを下げるなどのスパム対策(手動対応)も取られたりしています。

Googleはとにかく、検索ユーザーに対してより理想に近い検索結果を返すために出来ることは何でもやろうとする、ということです。イメージとしてはこんな感じでしょうか(今やってるセミナーの資料から抜粋)。

とにかくGoogleの実情と理想がまだまだかけ離れているのでそのギャップを埋めるためにGoogleは頑張っているんですよという図です

例えばですが、昨年に実施された「ハミングバード・アップデート」について、あまりこうした話題に不慣れな方々が「ハミングバードによってリンクやSEO会社の出る幕は終わった、よりコンテンツが重要視される時代に」と言うような主旨のエントリーが書かれているのをいくらか見かけました。

しかし実際にはハミングバードとは、リンク評価やコンテンツの評価などではなく、上図で言う「検索された言葉の意味や意図をより的確に把握するため」のアップデートです。

具体的には、フレーズや言葉ではなくて、(音声検索の普及などを見越して)「会話型の検索キーワード」を今までより適切に解釈して上手く処理できるようになりました、と言った趣旨の変更でした。

では、SEOの役割とは?

Googleが検索結果の改善のために様々な取り組みを行っている一方で、ではSEOという考え方はどのような役割を果たすべきなのか?と考えてみましょう。先ほどの図の延長で見ればこういうことでしょうか。やや無理やり感がありますが。

SEOとは、検索する人が打ちこむキーワードを想定してページに反映しておく、検索エンジンが正しく理解できるようにサイトを作る、検索エンジンがユーザーに提示したいような情報を用意し、それが正しく優先表示されるようにする、など検索エンジンの実情を理解し、それでもユーザーが検索を通じてサイトに辿りつける状態にしておく、そのために必要な取り組みのことです。

Googleが、自社システムの不完全な部分を埋めるための取り組みを行っているのに対して、SEOは、現状のシステムの性能、将来的な検索エンジンの向かう先を理解をした上で、多くの検索ユーザーが検索結果を通じてサイトに辿りつける、という状態を安定して作っておくために行われるものなのです。

その中で、直接的なビジネスへの貢献度が高い(≒売上に直結しやすい)一部の商用キーワードにおいては、そのポジション争いが熾烈となり、過剰な手法を用いてランキングを上げようとする対策が蔓延しており、それがいわゆるブラックハットSEOと括られるものです。日本で「SEO」と称されているものの多くは、ここの部分を指して言われているものなのです。なので話が時折おかしな方向に行くんですね。

しかし、これは検索結果全体からみればごく一部の検索結果で苛烈に発生していることであり、大半の検索結果においてはそうしたものとはほぼ無関係です(なぜなら皆さんは普段買い物をするためだけに検索をするわけではありませんよね?)。

とにかく、SEOはGoogleの不完全さを、技術的またはマーケティング的なアプローチを以て補完し、サイトを検索から辿りつける状態にするための取り組み、と言えるものなのです。

「SEOはGoogleとのイタチごっこ」というのは本当なの?

もちろん本当ではありません。ただし、これは全くの間違いですかと言えばそうではなく、何かものすごく偏った、というかごく一部の側面だけを切り出した視点からの表現と言えます。具体的には、

  1. SEOとは、Googleの意図と関係なくランキングを操作する手法である
  2. Googleは、そうした手法を駆逐するために日々アルゴリズム変更を実施している
  3. SEOとGoolgeは、そうした意味で対立関係にあるものである

こうした偏った観点でのSEOとGoogleの考え方である、と言って良いと思います。

実際には、そもそもSEOの意図はそういうところではありませんし、Googleの変更は不正な手法の排除だけでは決してありませんし(スパム対策は検索結果の品質改善の取り組みのうちの一部でしかない)、SEOとGoogleは本来は先ほどお伝えしたように補完関係にあるはずのものです。

もともと、ちょっとしたサイトのチューニングと、人為的にリンクを増やして上位表示する、ということがSEOとして普及してきていたので、そういう視点で見るのであれば、逆にこういう表現がシックリ来るのは間違いないと思いますが。

SEOというアプローチそれ自体を見限るということは、場合によっては本来得られるべき自然検索トラフィックの多くを放棄することにもつながります。検索トラフィックはまだまだWeb全般で見たときには非常に大きなインパクトのあるものです。SEOを正しく理解し、またその重要度について正しく評価できることが重要です。

Googleは完璧な検索システムになり得るか?

まず、完璧なシステムって何よ?というとどういうことかと言えば、例えば

  • ユーザーが今欲しい情報を完璧に理解できるようになったとき
  • ユーザーと全く同じようにコンテンツを閲覧できるようになったとき
  • ユーザーが欲しい情報を有機的に判別できるようになったとき

のようなことが実現出来れば、今の発展形としてはかなり理想に近い検索ツールと言えると思います。そしてこうなれば、今のSEOノウハウなどとされているものの大半は無用の長物になっているでしょう。

しかし、完璧になる時代って訪れるんでしょうか?と言うと、少なくとも当分は訪れないと思います。少なくとも、今の「検索」という形式を取っている以上はなかなか難しいのではないでしょうか。

万人共通のベストアンサーがあるわけでもなければ、同じような情報を求めていたとしてもシチュエーションに応じて本来ベストなアンサーは異なるでしょうし、そこまで含めて全ての検索に対して常に最適解を提示できるというのはちょっと想像が出来ませんね。

Googleが多くの人に使われている中で、それが検索システムとして完璧でないのであれば、それを補完する技術としてSEOはまだまだ必要、と言えると思います。

まとめ

Googleは不完全なシステムですし、検索技術が進歩しても完璧なシステムがすぐに出来上がるわけではない以上、それを補完する(=検索サービスと、Webサイトと、検索ユーザーをつなぐ)ための技術は必要で、それがSEOです。

人々の情報探索行動の中で「検索すること」が重要なファクターである以上は、SEOは終わりませんし、変わらず重要な取り組みと言えます。それだけで物事が全て解決するわけではないというのは間違いありませんが、面倒で難しいからという理由でSEOを放棄するのはただ勿体ないとしか言いようがありません。

初心者向けの内容とは言え、ここに書かれている内容は、SEOに関わる人は全員が共通認識としてもっておいたほうが良い内容と思っています。少しでもためになったとか役に立ちそうと思った方は是非シェアなりブックマークなりして頂けると幸いです。

ヴォラーレ株式会社 土居