【告知】初心者向けSEO入門書として「10年つかえるSEOの基本」という本を書きました

技術評論社さんより、ヴォラーレ土居によるSEO入門書が2015年4月23日に発売されます。技術解説はほとんどなく、「検索」や「検索する人の行動や心理」にフォーカスした不変的な内容を、專門知識がゼロでも読めるように136ページにまとめました。

Google、スマホ対応サイトをモバイル検索結果で優遇するアルゴリズム変更を発表、4月21日から適用

Googleは、スマートフォン利用に最適化されたサイトが「モバイルでの」検索結果で優遇されやすくなるように変更すると発表しました。この変更は2015年4月21日より実施されます。

スマートフォン時代にGoogle検索は不要?よりコンパクト化される情報サイズと、これからの検索の課題

土居です。僕の最近の情報収集源として大活躍のNewsPicksさんで話題になっていたテーマについて書いてみようかなと。あんまり検索に関わる人たちの目には触れていなかったみたいですが。

スマホ時代はGoogle検索が激減する:「コンテンツの面白さ」だけが評価される時代に!

誤解なきようにお伝えしますと全体の傾向としての話や記事の大半については同意できることもありますので反論・否定といった意図ではなく、個人的な見解とポジショントークをふんだんに交えつつ、引用させて頂きながら補足解説を出来ればなといった意図です。

スマホでは検索されない?

パソコンを利用して仕事をする人が多いでしょうから実感は薄いかもしれませんが、移動中や自宅などでスマホを利用している時にGoogle検索(いわゆるググる)を利用することは少なくないでしょうか?

色々なサイトの流入を見ていまると感じることが出来ると思いますが、スマホの検索母数自体は減ってはいない、まだ増えているようにも思います、これはスマホ自体の普及が進んでいることに起因すると考えれば自然でしょう。
(※これ、日本とかグローバルでの検索数推移の公式データってなかったでしたっけ汗)

一方でPCの検索は既に頭打ちから微減、これも時代の流れとして必然でしょう。

全体的には検索は徐々に上限値に漸近しつつも数年は増加傾向と思います(ユーザーの母数自体が増えてますからね)。

スマホの場合はアプリが中心になりますので検索する(ググる)ことが減ります。

検索の絶対数というよりも「ネット閲覧行動全体に対する検索行動の割合」は微減傾向が進むでしょう、という観点では同意ですが、絶対数はまだまだ微増傾向でしょうね。つまり「ネット閲覧行動全体におけるGoogleへの依存度が”割合として”下がっている」というのが正しい表現でしょうね。途端につまんない主張になりますけど。

ユーザーが情報を受け取る手段が多様化しているのは確実ですが、こちらから情報を取得する、という方法についてはGoogleは依然として健在、今のところ完全な代替手段は出てきていない状態ではあると思います。

Googleとしては直近でスマホでの検索頻度をあげるためには音声検索の普及は必須の取り組みとも言えそうです。音声検索に対応できるよう”会話型の検索クエリ”への対応強化(昨年秋の”ハミングバード”とかはそれですね)も行っているのですが、音声検索の普及はまだまだ追い付いていないため、そこまでのインパクトは今のところ見えていないように思います。

閲覧デバイスの変化

スマートフォン…77%、タブレット…6%、パソコン…17%、つまり「パソコン以外が83%」になり、今後この流れはもっと加速するでしょう。ちなみに当サイトの「検索流入」はGoogle、Yahoo!合わせて約40%ですが、読者にスマホ利用者が圧倒的に多いことを考えると、占める割合としては「まだ多い方」です。

こちらは記事で指摘されている通り、全体として確実にスマホに流れています。ただしビジネス向けの商用サイトなど特殊なケースではこんな感じ(下図)で未だに大半がデスクトップだったりもします。

デスクトップ77%、モバイル21%、タブレット2%を示すGoogleアナリティクスのデータ

「(自然)検索流入は結果として得られる」ものと考える

検索流入は「結果として得られるもの」ぐらいに考え、SEOにかけていた時間、費用、思考を向けるべき先は一点だけです。

こちらも半分くらいは同意です。これは「検索エンジンを根拠にサイトを運営しない」という前回の記事で書いたことにも通じます。

ただしビジネスのジャンルによっては検索が圧倒的優位なジャンルが多々ありまして。情報特性によっては情報設計やプロモーション戦略の中でSEO要件を優先しないと大変な目に合いますというのは補足しておきます。

ストックされ、後に検索され得る情報でしたら、是非その辺りも考慮して検索しやすい状態にしておくことは、後に検索して情報を探されているユーザーにとっても、もちろんサイト運営者にとっても有益なことと思います。

この辺りは特に一般的な内容として語る内容ではないかもしれません。ネット時代に時代遅れだとはずっと言われつつも、実際にはテレアポや訪問販売という営業手法が未だ有効な業態だってあるわけですしね。

(3~4年前は「これからは検索じゃなくてソーシャルだ」ってみなさん騒いでましたが、蓋を明けてみるとソーシャルメディアを上手に活用してグロースできたというサイトのほうが逆に珍しいのではないでしょうか。)

人を呼べるコンテンツが重要

まとめ:今後は「人を呼びこめる面白いコンテンツを作れるか?」の勝負となり、メディア格差が生まれる

検索を考慮するにせよ考慮しないにせよ、コンテンツ提供側としてはこれはもう”単なる前提”でしかありません。

それを前提として、その情報はどういう人にどういう形でリーチするべきか、或いは探されるべきか、という点を主軸に考えるべきです。それがもし継続的に検索されるタイプの情報なのであれば、その導線を作っておくことビジネス上必須の課題になるでしょう。

PVが多くても検索流入が多ければ、もっとおもしろい独自のコンテンツを考えるべき

全ての情報がフロー情報として流れていくわけではありませんし受動的に発見されるコンテンツなのか能動的に探索されるコンテンツなのかの違いで優先すべきチャネルは大きく変わります。面白い面白くないだけの価値観で判断すべき問題ではありません。

どちらにせよ情報過多の時代、それでも敢えて閲覧される価値のないコンテンツはいずれインターネットの中から淘汰され埋もれていくのは間違いありません。もちろん検索結果においても同じことが言える流れになってきています。

「検索流入は結果として得られるもの」のスタンスで、全リソースをコンテンツの質に向けるべき

質を高める工夫をするはもちろんですが、コンテンツの質を高めることだけではなく、そのコンテンツをプロモーションしていくこと、どちらも重要です。良い製品があれば売れるはずです、はマーケティングとはいえません。

コンパクト化される情報サイズ

さて、ここからはこの記事独自の話として。閲覧デバイスがスマホに寄ってきている中で、今後はスマホ向けに最適化されたコンテンツが更に多く作られる時代になるのも間違いありません。

コンパクト化される情報サイズ

一つの大きな課題として、情報がPC向けに作られてPCで閲覧されるという時代が終わり、モバイル端末向けの情報サイズを前提に設計をされるコンテンツの割合が急増している時代です。この流れはもう止まらないでしょう。

例えば、冒頭で紹介したようなNewsPicksの連載記事を見ていても、確実に情報サイズはスマートデバイス向けに最適化されている用に思えます。「あっさりしすぎて物足りない」というコメントもちらほら見かけますし。

PCで3000文字の記事を読むのはさほど苦痛ではなくても、移動中にスマホで3000文字ガッツリ読みたいという人はそんなにいないのではないでしょうか。

スマホ閲覧におけるUXと検索エンジン最適化のバランス

Googleが依然としてデスクトップ向けコンテンツをもとにインデックス(検索対象のデータベース)を形成していることはご存知の方もいらっしゃると思いますが、「より信頼できる、有益な情報を提示する」という観点からすれば、多くのクエリではやはり重厚長大なコンテンツが検索結果において未だ優位です。

しかしコンパクトでスピーディな情報収集を求めているスマートフォンユーザーにとってそうした重厚長大なコンテンツは時に検索体験を損ねる要因にもなるでしょうし、このあたりはサイト運営者にとってはもちろん、Googleにとっても課題になってくるのではないかなと感じています。

生産されるコンテンツと、発見されるコンテンツが不釣り合いに成り得るからです。

今のところスマートフォン向けに最適化されたコンテンツを限定したインデックスは存在していませんしその予定があるとも思えませんが、このあたりのバランスは確かに悩ましいところですね。

少なくともコンテンツ提供者側が検索流入をある程度考慮されるのであれば、コンテンツの情報量や品質は保ちつつも、スマートデバイス向けには「コンパクトな見せ方をする」などの工夫をする必要があります。

総じて

なんか結論のない記事で申し訳ありませんが、どちらにせよ多様なデバイス、多様なチャネルでコンテンツが発見される時代になっているということは、少なくとも「検索にヒットしなければ世界に存在しないのと同じです」みたいな10年前のような時代と比べて情報発信側としては歓迎すべきなのは確かですよね。

しかし、マルチチャネル・マルチデバイスを前提とすればコンテンツを作る際にもそれぞれへの最適化を考慮しないといけないわけですし、SEOに関わる人が対応していかないといけないこともどんどん増えてしまいますね。

個人的に最近思うこととしては、アルゴリズムの変更とかそういう話は、日常的な実務においてはもちろん大きな影響ある場合もありますけど、PC→スマホ、Web→アプリ、検索→??みたいな大きな環境の変化という中で考えると結構スモールな話だなと感じることはありますね。

検索の未来としては、「わざわざ検索しなくても情報が受け取れる検索サービス」みたいな感じでしょうか??人工知能なんかも力を入れていますし。そういう時代の”SEO”は更に楽しそうです。

【お騒がせ?】Google大変動!ペンギン3.0来たか!? → 「ちょっと待て、そんなに動いてないじゃん」

先の8月22日(金)の深夜から週末にかけて、Googleの大規模な順位変動(?)が話題になっておりました。SEO関係者以外でもそれなりに話題になっていたようでしたので、今の時点で可能な範囲で経緯や状況をお伝えします。

8月23日(土)未明:最大級と言える検索結果の変動が話題に

ディーボさんが運営するnamaz.jpという変動記録ツールにおいて大変動を表す数値が出ている、として関係者の間でワイワイ騒がれておりました。

大変動という文字。週末から本日にかけて、日常よりも大幅な変動があることを示すグラフ。

細かい解説は省きますが、下段の変動グラフが高い値を示していれば「変動が大きい」という意味を持ちます。

その他でも、晴錬雨読さんが公開している順位変動ウォッチャーにおいても、通常時よりも遥かに大規模な順位入替えが発生していることが記録されています。

晴錬雨読の異常値ウォッチャでは、22日23時以降に継続的に異常値を示す赤文字が羅列されている

実際に検索結果を確認してみると、確かに今まで見ていたものとは明らかに違う検索結果が返されていました。SEOに関わる仕事をされている方は、これはただごとではない、と多くの人が感じたことと思います。

しかし、検索結果を見ていても、「気持ち悪い」というか明らかにバグとか不具合なんじゃないですかと言いたくなるような結果であったことも印象としてはありました。

騒いでいたのは実は日本だけ?

さて、ここで、海外のGoogle検索結果変動を示すツールMOZCASTの変動データを見てみます。

mozcastにおいては、22日~23日にかけての変動幅は決して高くないことがグラフから伺える
※棒グラフでは最後の2列が22日~23日の変動を示しています。

米国時刻では日本で「大変動」が発生していたのは22日午前~23日午後くらいだと思いますが、両日とも「やや不安定」くらいのレベルで、日常の変動の幅を大きく超えるものではありませんね。

先ほどのnamazとの比較をしてみますと、8月13日~14日にかけて、通常時よりもやや大きめの変動が確認されていることは一致していますが、先週末の異常と思える変動についてはMOZCASTでは記録されていません

かなり大規模な変動であったため、やんわりと予告されていた「ペンギンアップデート3.0」が導入されたのかという話も出ておりました。

しかし、ペンギンのようなアップデート(”言語”などのローカルな要因に左右されにくいアップデート)はこれまでも世界共通で実施され、日本でのみ大きな変動が発生することはあまり考えにくいと言えます。

ですので今のところ、「ペンギンじゃないと思います」と一旦結論付けておきます。(まだ分からないですけどね)

実際に、検索結果はどのように動いたか(8/25時点)

計測対象キーワードのうち10000キーワードをサンプルとしてランダム抽出、集計しました。分析というにはほど遠い代物ですがおおよその動向をつかむには問題ないと思います。

「前日対比」での集計結果

各日の「前日対比」のランキングの変動幅(絶対値)の平均を見てみます。やはり平時(変動前)の変動幅に比べて大きく動いているように見えます。

前日対比データでは、確かに週末以降に平時の数倍規模の変動があったことがわかる

同じく、ランキングの入れ替わり率(掲載されていたポジションから大きく入れ替わったキーワードの率)はこちらです。全体の約15~20%のキーワードで、検索結果上のポジションが連日大きく入れ替わっていることがわかります。

前日対比で、ランキング分布における入替えが20%程度のキーワードで発生している

同じく、検索結果に表示されていたURLの変更率について(もともとTOPページだったのに下層ページが表示された、などのキーワードの率)も調べてみました。

前日対比の検索結果表示URLの変化率。21から22にかけても比較的高い水準だったのでわかりにくいが、それでも15%ほどのキーワードで表示URLが変化していることも分かる
※ちょっとこれはわかりづらいデータでしたね。。

何にせよ、各種ツールが提示しているような大きな変動があったことは間違いないように思えます。しかし、これはあくまでも「前日からどれくらい動いたか」の集計ですので、ちょっと異なる集計として「(変動前の)22日(金)と比較して」でも行ってみました。

「大変動前(22日)対比」での集計結果

変動前と比較したランキングの変動幅(絶対値)の平均を見てみます。金曜日対比では、平均値で「1.3位程度」しか変動していないですね。

22日規準では、本日のランキングはほとんど変更なし、という状態。平時よりもやや不安定な動き、というレベル。

同じく、ランキングの入れ替わり率はこちら。こちらも、金曜日対比では全キーワードのうち「3%程度」しか入れ替わりが発生していないことがわかります。

22日対比では、25日はランキングはほとんど入れ替わっていないことが分かる

同じく、検索結果に表示されていたURLの変更率はこちら。表示されているURLも、金曜日対比ではほとんど変化ありません。

22日対比の表示URL変化率。25日時点では、金曜日とほぼ変化なしの状態。

つまり、土日は激しく変動していたが、本日時点では変動前の状態と大差ない検索結果に戻っていることがここから伺えます。

結論:「日常の変動に比べ、やや動きが大きかったかも」程度?

今回の変動は何だったのでしょうね。今のところGoogle関係者から正式な情報は出ておりませんが、何かのテストを行っていたのか、マイナーアップデートかデータリフレッシュの際に変な不具合が混入したのか、ちょっと不明です。

ただ体感として、「あれ、大きく動いたのに今日になったら戻ってる」というのは皆さん感じられているところかなとも思います。

もちろん何か大きな変更の予兆なのかもしれませんのでしばらく様子見は必要と思いますが、「今回の変動を機に具体的なアクションを起こす」根拠はちょっと今のところ見えてこない状況です。

最後に:世間の皆さんの反応

個人的には、こうしたニュースが出た際に、検索結果がどう動くか、ということももちろんなのですが、一般の(=SEO関係者以外の)方々の反応も同様にウォッチの対象としています。

最近NewsPicksというサービスを使っており、普段あまりSEOなどの話題は出ないのですが、週末にはこの変動の話題がピックアップされていました。

  • Googleに依存するビジネスは危険。きちんと流入のポートフォリオを組まないと。
  • こういう変動に振り回されるのが分かってるんだから、最初からSEOなんて無駄。
  • もう時代はコンテンツの時代。良い記事を書くことだけ考えれば良い。
  • SEOなんてもう不要な技術。そこにコストかけるのは無駄。

などなど、色んなことを言われているわけですね。もちろん皆さんSEOについて專門で仕事をされているわけではないし、日常的に何百とかのWebサイトを見ているわけでもありませんので仕方ないですけれども。

ということで、次回はこうした方向けにSEOの事情を少しは理解して頂けるよう、何かしらの形で自分の解説をまとめて書いてみようかと思います。

『HTTPSをSEOで優遇』 SSL化を推奨するアルゴリズム導入をGoogleが公式発表

昨日、SEOやWeb周りの方々が少しざわめいておりました。話題となっているのがこちらです。

Google ウェブマスター向け公式ブログ: HTTPS をランキング シグナルに使用します

本件につきましてはきっと多くの方からお問い合わせを頂くことが増えるでしょう、ということが明確ですので、あらかじめ記事にまとめさせて頂く次第でございます。

Q: まず、これは一体何の話ですか?

概要としては、SSL化されたWebサイトをSEOの評価として優遇します(=HTTPSであることが、SEO上のプラスになります)、といったものです。

こうした方針を検討している、という旨をGoogleが初めて発表したのが2014年の初頭に行われたイベントにおいてでした。( 参考:Google、安全なSSL導入サイトの検索順位を優遇したい? 実現は難しそうだが・・・ SMX West 2014 )

関係者の間では、当時から変わらず導入の賛否は分かれているように見えます。どちらかというとサイト全体へのSSL対応についても慎重派がマジョリティな印象です

Q: 影響度はどれくらいあるのですか?

冒頭のGoogleの公式記事をそのまま拝借しますが、

全体的に見ると、このシグナルは良質なコンテンツであるといった、その他のシグナルほどウェイトは大きくありません。HTTPS は、優れたユーザー エクスペリエンスを生み出す多くの要素のうちの 1 つです。

 
ということですのでそこまで大げさなものではなく、実際に公式にも検索の全体のうち1%未満にしか影響しません、と言っていますので、数字だけ見れば、決して日常的な変動に比べて「とても大きな変動」という規模ではありません。ですが、

これから長い期間をかけて強化していきます。

 
とあるように、これからどの程度この流れが加速していくかについては不明です。今すぐに導入せずとも、いずれどこかのタイミングで検討するかもしれない、ということは頭の片隅に置いておいて良いでしょう。

Q: この件について、何か懸念事項はありますか?

例えば、規模にもよりますが導入コストはもちろんですが、SEO的な課題では、URLが変更する問題(全て正しくHTTPSに評価を引き継げるか?とか正規化処理ミスは発生しないか?など)が一般的な問題でしょう。そのほかにも、関係者の皆さんの意見として色々あがっておりまして、

とか、同じくリファラー関連の話では

などの懸念も早速上がっていたり。direct増えるというのは確かに解析を専門としている人にとっては結構厄介な話でしょうね。また、

とか、同じような切り口で

とかっていう、無責任な提案も増えそうで(しかもそのとおりになってしまう事案が本当に多そうで)怖いなというのも思います。更に、

これはもう過去にもありましたし本当に色々想像に難くないのですが、「Googleも公認、SEOに絶大な効果」的な宣伝文句でSSL証明書が販売されるということが絶対にあるでしょうね。

結果としてセキュアなWebサイトが増えるというのは悪いことではないのかもしれませんが、きちんとした意味や背景を理解した上で導入するのと、間違った認識で導入するのではやはり意味は違うかなと思います。

Q: なぜGoogleがSSL化されたHTTPSを優遇するのですか?

基本的に、Googleは「ユーザーがより良質なコンテンツに到達できるように」を基本として検索アルゴリズムを改良しています。

しかし、HTTPSであるかどうかはコンテンツの内容そのものの改善ではなく、通信環境の問題です。少なくとも大部分のユーザーが普段から求めていることではないでしょう。

では、これをなぜGoogleがSSL化を大々的に推奨し、ランキングにまで反映させるのか?というのは実際僕もそんなに腑に落ちていないこともありました。が、

と言えば確かにそれなりに納得できますね。また、

サイト運営会社はグーグルの検索結果で上位に入りたいと考えている。このため、グーグルは検索アルゴリズムで開発者の慣行を促進したり阻止したりできる。例えば、読み込みの遅いサイトは検索結果で不利な扱いを受ける一方、質の高いサイトは上位に表示される。

( 引用元:グーグル、検索結果で暗号化サイトを優遇 「HTTPS」増加を期待 )

 
とあるように、インターネット全体をSSL化の動きに促進するのであれば、Googleが自らのランキングアルゴリズムへの反映というのはサイト管理者の大きなモチベーションになりうる、という理屈も理解できます。

Q: この動きに対して、どう対応するべきですか?

SSL化することで検索結果においてどれだけ優位になるのか?が不明確なこと(少なくとも今は微小)、その中でコストやリスクを負うことになるというのはあまり手放しで推奨しにくいものです。

個人的な見解としては、皆さんがこぞって「SEOの目的で」ワサワサと導入する必要はないんじゃないでしょうかとは思っています。

ですので僕からは現時点では積極提案することはありませんが、いやいや、でもせっかくだからこれを期にSSL化しようよ!という意向であればそれはGoogleも本意でしょうし早速導入されて良いと思います。ただしURL引き継ぎの処理などに漏れのないよう、慎重に進められることをお勧めします。

読み返してみたら引用だらけですみません。また追加情報などございましたら追記いたします。

※8/8追記

こちらにより具体的なQ&Aが紹介されています。
HTTPからHTTPSへの移行で出てきた質問に回答 | 海外SEO情報ブログ

“成果報酬SEO対策”のビジネスモデルの良し悪しと、これからの形

「成果報酬SEO」「成果報酬SEO対策」とかって昔からランクチェックしてるキーワードを、数年前にサービスメニューから外してここ何年か圏外にあるのがなんか気持ち悪かったのでその辺のワードでひっかかるように記事を書きます。公開から3日経って1ページ目にひっかからなかったらこの一文は恥ずかしいので消します。

成果報酬型のSEOサービスの特徴

検索結果に掲載されるランキングにもとづいて報酬が決められるタイプの契約条件です。順位が上がらなければお金はかからない、順位が上がった分だけお金がかかる、という、「このワードで上位表示したいです」というニーズを持った人にしてみたら普通に考えてこれ以上ないくらいに理にかなったサービス形態でしょう。

一般的に提供されるサービス内容

基本的には内的なチューニングを行った上でリンクによる上位表示を行うことが一般的です。多くの事業者では1KWのみの受注は行わず、周辺の掛けあわせKWなどを合わせて受注して、なるべく最低限は報酬が発生する条件を保ちます。

「1KWだけじゃなくて、色々複合語も対策しておくとCVにつながりやすくなりますよ」「1キーワードだけに焦点あてるより、複合語も含めて対策したほうが逆に上がりやすくなりますよ」「複数やれば単価下げますよ」ということでまあそれっぽい理屈は通ります。

もちろん大規模なサイトでも成果報酬型でやってる場合はあって、数百キーワードとか数千キーワードをキーワード毎に低単価で成果報酬として、上限額を設けて受注する感じでしょうか。

1ワードあたりだいたい数千円~数万円で、全部1位とかになると報酬額が数百万とか千万とかになってしまうので、それを上限200万円でカットするとか。最近はあんまりこういうのはそんなに多くないと思いますので今回の話題の対象からは外します。

成果報酬というメリット

さて、成果報酬とか成功報酬とかいうのは聞こえが良いだけではなく、普通にそれがSEOのサービスとして成立するのであれば、この上なくビジネス的には合理的なモデルだと思っています。

営業活動上のメリット

受注ハードルは低い

「上がるまでお金かかりません」なので初めてSEO会社に依頼する人とかSEOについてそこまで知らない担当者の方でも非常に導入ハードル低く始められます。

営業マンのSEOスキル教育をそこまでしなくて良い

こういうこと言うと怒られるかもしれませんが普通にそう思います。基本的には「SEOで何が重要か」「サービス内容とその価値」「他社はどういうことしてるか」「実績」「料金など諸条件」とかその辺がちゃんと語れれば相手を間違えなければ売れます。

つまりそんなにSEO詳しくなくても売れます。そのため何も知らない人でも売れてしまうという怖さもあります。しかもリンクで上がる時代はそれで十分まともな効果出ていました。

売るのは割と簡単、上げるのも割と簡単、それが拡大した結果が2000年代中盤~後半の上位表示至上主義のSEOビジネスだと勝手に思っています。世間的な需要の盛り上がりに対して、参入障壁があまりに低すぎたんだと思います。

裏方に回れるので代理店拡販がしやすいし、代理店も成果報酬だと売りやすい

リンク中心のSEOビジネスの一番のメリットって、誰でも売れるしどんなサイトにも(顧客を選ばずとも)業務を遂行できることです。コンサルティングは多くの場合、裏方ではあんまり上手く行きません(僕らが不器用なだけかもしれません)。

販売力はあるけど専門チームを持っていないとかリソースがないという企業からすれば、そういう会社が裏方に回ってくれれば、こんなに手軽に売れて粗利確保できる商売もなかったわけですね。

代理店も成果報酬という形態であれば顧客に提案することに大きなリスクを取らなくて良いという考えのもと、積極的に販売してくれたりします。

運用上のメリット

ほとんどの業務を標準化できる

初期の内的チューニングと継続的な顧客サポートを除いては基本的にはリンクの設置とメンテナンスが運用業務の大半を占めるようになります。

ですのでほとんどが自動化、或いは管理者の指導やマニュアル化によりアルバイトとか新人社員などのオペレーターで運用可能なレベルになりますので、標準化を突き詰めることでコストダウンが可能です。

また、同じ理由から、全体的な運用規模が大きくなったとしても業務拡大は比較的用意です。

クライアントに実務力やリテラシーをそこまで求めなくて良い

コンサルティングとかホワイトハットとかそういうのをやろうとすると、基本的には相手がある程度のWebやSEOの理解がある、あるいは知識はなくてもやっていくだけの意欲がある、というのが最低限の条件になります。そうでないところに売り込むとお互い不幸になります。

リンク中心、かつ成果報酬ということであれば、「全部任せるから、やってよ」でも仕事ができますし、クライアントからすれば、業者に任せたら勝手に順位があがったよ、上がるまでは一円もかからなかったよ、ってことで良いことだけです。

報酬体系上、クレームにはなりにくい

かかるのはお金だけではなくて時間による機会損失とかそういうのもありますので、単純にそうとは言い切れませんけど、ただ「上がるまでは業者側も請求できないから」というのは多くの人が納得できる理屈ですのでそういう意味では防衛線になるとは思います。

案件単位ではなくて共通のインフラに一定の投資を行える

リンクビジネスの場合、営業関係の人件費とか広告宣伝費などの販管費は別として、純粋な原価となるものは何かといいますと、

リンクベンダーを使わず自社で内製する場合
  • リンク掲載用サイトを管理するための管理システムの構築&メンテナンス(※)
  • ドメインを買ってサーバーを借りたりする
  • サイトに掲載するコンテンツ用のテキスト
  • レポートや報告書等を作る
  • お客さんの対応をする

※:さすがに全部ベタで作らないでしょうしリンク一括削除とかも出来ないと大変ですし

リンクベンダーのリソースを仕入れている場合

単純に仕入れとして原価が発生します。レポート作ったりを自社でやるならその分の工数も原価となります。自社が成果報酬で販売するのであれば仕入れ先にも同様に成果報酬で依頼するか、固定費の代わりにめちゃくちゃ安くしてもらうかどちらかです。

 

大きくはこのあたりが原価になりますが、このように一定のインフラ投資を行い、一定の営業獲得コストで案件が取得できれば、あとは上がるキーワードが上がってそれを維持できれば投資した分を回収できる、という非常に分かりやすく優秀なビジネスモデルだと思います。

今でこそ、リンクに対しては結構気を使って運用しないといけなかったのですが、昔はほとんどが「色んなクライアントのリンクが共用で掲載されている」形式でしたので、そういう場合、一定のリンク用インフラを構築したら、それを最大まで稼働させていくことで相当な利益を取れていたはずです。

共用のリンクでいくらでも上げられた時代はSEOの営業利益率60%とか70%なんてのはザラだったと色んな人から聞きます。もちろんPL見たわけじゃないのでどこまで本当か知らないですけど。

成果報酬というスタイルのデメリット

もちろん良いことばかりではないのですね。というかそれですべてが上手くいくならみんなそうするのですがそうしないのは「上がらない」とかそういうレベルじゃなくて色々な問題があるわけです。

どちらかが損をする場合も多い、というか報酬の妥当性とか成果ポイントってそこだけ?という議論

依頼者が損をする場合

そこまで難易度の高くないワードであれば、指定ワードの上位表示ってタイトルタグのチューニングくらいで達成されることも多くあるとは思っております。しかし、掲載順位をもとに報酬が決まるということであれば、期間内の報酬はその掲載順位に従って支払う必要があります。何をしているかではなくて何位になっているかで報酬が決まるということの発注者側のデメリットはこういうところでしょうか。

あとは何ヶ月もずーっと上位表示が出来ていなくて今後もすぐには出来そうになくて、報酬発生していない状態で十分なサポートをとかいってもなかなか動きにくいのも業者側の事情としてはあり得るかなと思います。

SEO業者が損をする場合

逆に、どれだけ周辺KWでのランク改善やコンバージョン数の改善が起きていたとしても、特定ワード以外の成果は報酬には反映されません。

ランキングが上がって一定の成果報酬が安定して発生しているので、成果報酬だけどそういうとこまで真面目にやってますという会社さんはそういう場合は損します。

(というかそういう会社はおそらく成果報酬というスタイルをあまり取らないと思いますけど。)

もっと妥当な”成果”ポイントはないものか、とか考えたとしても、目に見えるSEOの改善というのを直接的に反映させるのが検索結果上のランキングだったりしますので、

トラフィックとかCV数とか言っても「これ厳密にどこまでがSEO会社の成果か難しいよね」「仮に他のプロモーションの影響でオーガニック経由CV伸びても成果報酬になるのってなんか違うよね」っていうことでだいたい話が合うことは多くありません。

お互いに結果的に損すること

「このキーワードの順位が上がる以外は割とどうでもいい」という割り切りを持って臨むのなら良いと思うのです。でももしそうでないのであれば、着眼点を必要以上に狭めることになるだけなのです。

そのキーワードの順位に直接的に関わること以外をどうでもよいとするのであれば、SEOとして行うべき施策の大半は価値のない施策となります。業者側も、報酬をもらうことを優先して考えないと商売になりませんので、見るべき視点もその周辺のみに絞られてしまいます。

するとそこで関わる人材が得られるスキルや蓄積される知見も限られます。だから何年やっても上位表示すること以外のスキルが上がらないのですね。そしてリンク使って上位表示できるできないの知見は、その1年後に使えるスキルでない可能性も高いのです。

結果としてそういう担当者とやり取りしていてもクライアント側が得られる知見は限られてしまいます。そしてその知識が正しいものという保証はどこにもありません。その場合、そこで費やした時間とお金は投資ではなくて浪費になります。

成果報酬SEOのこれから

成果報酬、とか成功報酬、とかいうのは単なる報酬条件でしかありませんので今も昔も今後もないわけですが、リンク中心の上位表示SEOが衰退するのに伴い、成果報酬型のSEOビジネスは衰退していくというのは断言できます。

あくまでも顧客にとって採算の取れ得る報酬の範囲内で単価を調整し、上位表示型SEOをビジネスとして成立させるだけのリンク用インフラの開発・運用コストは高まる一方で、更に上位表示達成率や安定性が劇的に改善することは時代の流れからほぼ見込めません。どんどんコストは膨れ上がり、売上期待値が下がるわけです。

作ったはいいけどリンク用サイトのインデックスがゴソっと消されたり、既存のリンク運用システムがあまり成果に貢献しないので一定期間で入れ替える、パターン検出のリスクヘッジとして新しいタイプのものを構築していく、など皆さんが思う以上に結構色んなコストかかるわけですね。

基本的にはGoogleはもうリンク単位ではなくてネットワーク単位でつぶしに来ますので、その検出を避けながら構築・運用しないといけないのです。外から見ている以上にめちゃくちゃ大変です。

「順位による成果報酬」というビジネスは、ほとんどの場合、リンクを駆使してある程度の上位表示成功率が維持できる前提で成り立つサービスです。昔と今は状況が違います。よほど顧客を選ばない限り、あるいは誰かに嫌われる覚悟で営業しないは上手くいかないでしょう。

上位表示が達成できない、達成しても維持できない、その場合は報酬も維持できず顧客も維持できません。どんどん受注単位のLTVが下がるわけですね。

その結果、金額や条件をよほど業者側の都合に合わせて設定しない限りは、徐々に投資回収率80%とか60%とかそれ以下の投資をし続けることになっていきます。それはパチンコとか競馬よりよほど回収期待値は低い投資です。ビジネスとして採算が取れなくなってくるので、何かしら方針を変更するなどの必要が出てくると思います。

では、どう変化していくか

「構築型」のリンクビジネスへの移行

分かりやすいリンクビジネスの移行形態はいわゆる「構築型」とか呼ばれるものです(呼ばれてるのかな?)。このサイトにリンクするために何サイト作って何リンクずつ貼っていくから1サイトあたりいくら下さい、みたいなのをパッケージなりオンデマンドで提供するようなタイプです。

リンク構築するのにかかるコストが一定でかかるので、価格設定もある程度明確にできますが、成果報酬というスタイルは逆に一定コストが確定してしまう分やりにくいです。とはいっても数年前から既にこういう形のものは多くありまして、別に新しいカタチというよりも今では割と標準的なスタイルだと思います。

ある程度コストを許容できるのであれば、大規模にリンクネットワークを展開しないのですぐにペナルティ受けないようにやることはやり方によっては今でもぶっちゃけ可能だと思います。他クライアントとの乗り合いとか量産型ネットワークはさすがにもう厳しいでしょう。

結局は「コスト合えば」というところが一番のネックかなと。で、もっと言えば、企業サイトの場合は普通にリンク集めた方がてっとりばやいですよ、という機会は多いと思います。少なくとも僕が運営者ならよほど厳しいジャンルじゃなかったら買いません。

コンサルティング系サービスへの移行

リンク中心でなくなる以上は、SEOを事業としてやるのであればリンク以外で頑張るしかありません。そうするとおのずとコンサルティングスタイルになるわけですが、そうすると特定キーワードの上位表示による成果報酬というのは業者側の都合でやりたくありません。

リンク以外でSEOやろうとすると、基本的には特定ワードの上位表示以外にやらないといけないことが腐るほどあるからです。逆に言えば、大半の業務はそのキーワードの上位表示に直接的に関わる業務と異なるところにあります。そのため、先ほどお伝えした通りに発注者、業者のどちらかが理不尽な損をしない着地点を決めるのが難しかったりします。

こうした理由で成果報酬は基本的にはあまり妥当ではないですしコンサルティングで成果報酬ってあんまり聞かないですね。条件がほんとにバチッと合うならそれでも良いでしょうけど、お互いに企業としてかなりのコミットをする前提でないとそれはやるべきではないと思います。

ただ成果報酬とかそういう以前に、リンク中心でずっとやってきた人たちがこちらに移行するのは、色々な問題があってとても大変です。移行というかもはや完全に別事業です。なので一部そういう要素を取り入れつつ、薄めていきながら教育しながら採用頑張りながら売上の移行を頑張るということです。ぶっちゃけ大変です。

以上、特に結論も何もありませんが、経験談も含めてお届けしました。

「一覧ページに掲載するリスト数は?」「内部リンクのパスってどう指定すればいいの?」などの質問にSEO現場のプロが答えます

先日schoo(スクー)さんにて、SEOの放送を行わせていただきました。SEOを勉強し始めたばかりの方、制作会社のディレクターさん、SEOを外注されているWeb担当者さんなど、「ホントはSEOのこともっと知らなきゃいけないんだけど・・・」といった方むけに、サイト改善のエッセンスをかいつまんでお話しました。

録画:http://schoo.jp/class/709/
スライド:http://www.slideshare.net/motohojitsukawa/seo-for-35748590

放送では生徒(視聴者)からコメントや質問がもらえて、ライブでやりとりしながら進められるという仕組みになっているのですが、ありがたいことに沢山の質問をいただき、ああやっぱりこういう所が気になるんだなというところが実感できました。その場で答えられなかった質問もありましたので、講義のフォローアップとして気になる人の多そうな質問をピックアップしてお答えします。

今回ピックアップした質問

技術的な質問

個人サイト(自営店舗)を自身で運営しています。季節によってサイトを訪れるユーザーの目的となるキーワードが違うことが想定される場合、HTMLタグの対策キーワードをコロコロ変えてもいいものなのでしょうか?
一覧ページに掲載するリスト数はどのように決めていますか?
内部リンクをhttp:// から指定しろというSEO指示を受けたことがありますが大きな意味はあるのでしょうか?
見出し及びリンクの「画像置換+altタグ」か「文字+CSS3装飾」の選択は’リンクの重み付け’に影響を及ぼしますか?
descriptionの文字数の目安ありますか?

SEO会社一般に関する質問

やはり個人でやるのと、業者に頼んでやってもらうのとでは、全く違うのでしょうか?
良質なSEO会社の見極め方を教えてください。
今後、Googleの仕様変更などにより、SEOの在り方やSEO事業の存続に影響はありますか?悪質なSEO業者が駆逐されるのは当然として、真面目にやっている業者はどうなのでしょうか?

ヴォラーレのSEOに関する質問

SEOコンサルをする場合、コンテンツの提案はどんな事をしていますか?
SEOをバリバリ頑張るのと、広告含めた予算のバランスはどう提案されてますか?

その他

SEOにおいてschooのここが素晴らしい!というのはありますか?
参考する書籍があれば教えて下さい。/ おすすめのSEO本はありますか?

技術的な質問

個人サイト(自営店舗)を自身で運営しています。季節によってサイトを訪れるユーザーの目的となるキーワードが違うことが想定される場合、HTMLタグの対策キーワードをコロコロ変えてもいいものなのでしょうか?

店舗サイトということは、商品を販売する小規模なECサイトか、店舗への来店をうながすような案内サイトでしょうか。実際に見てみないことにはわかりませんが、季節によってユーザーの検索ワードが代わる場合でも、特定のページに含むタグをコロコロ変えることはあまりおすすめできません。

検索エンジンの評価はURLごとに各キーワードに対してひもづけられるので、時期によってタグを変えてしまうと、各キーワードに対してどういった評価を下せばいいのか?ということが検索エンジン側で適切に判定しづらくなってしまいます。

具体的にどのような内容なのかは分かりませんが、例えば対策としては、ユーザーが検索するであろうキーワードが季節ごとに複数分かっているのであれば、それに対応するページをそれぞれ作成し、いつ、そのキーワードで検索されても対応できるようにするのが良いでしょう。毎度毎度タグを変更する必要もないですし、検索エンジンからの評価も安定します。

一覧ページに掲載するリスト数はどのように決めていますか?

特にSEO的にいくつであるのがベスト、という一般的な正解はありません。一覧ページにどれだけ個々の情報を掲載するのかによっても判断は変わるでしょう。

基本的にGoogleはページャーでつながれた一連のページはひとまとめに処理しようとしてくれます。ただしリストに掲載された個別のページへのリンクをクローラーが回りやすいかどうか、という点で言えば、あまり細かく切り分けてページャーで遷移させまくるというのはクローラビリティの観点からあまり良い状態とは言えません。

かといってあまり1ページあたりの掲載数を多くし過ぎるとページの読み込み速度に影響を与えたりスクロールして閲覧するのに苦労したりとユーザビリティに影響を与えたりもするので、「掲載して問題ない範囲で多めに」というのが一般的な判断軸としては無難かなとは思います。

内部リンクをhttp:// から指定しろというSEO指示を受けたことがありますが大きな意味はあるのでしょうか?

相対パスではなく絶対パスでリンクを指定するという話ですね。これが実際にどういう意図で指示されたものなのかは不明ですが、いくつか意味は考えられます。ここでは詳細は割愛します。

  • Googleが絶対パスを推奨しているため
  • サイト内でクローラーが発見するURLを統一するため
  • コンテンツを自動で無断転載されたときなどにリンク飛び先のURLを自社サイトに戻すため

などでしょうか。とは言え絶対パス、相対パスによるSEOの効果の差異はほとんどのケースではほぼ皆無と考えて良くて、あくまで運用上の都合やコストなどを優先させるべきという考えで問題ありません。わざわざ全ての相対パスを絶対パスに書き換えなんていう作業は決して必要ありません。

見出し及びリンクの「画像置換+altタグ」か「文字+CSS3装飾」の選択は’リンクの重み付け’に影響を及ぼしますか?

リンク1本は1本なので、そのリンクが受け渡すパワーとしては変わらないと考えて良いと思います。また、テキスト理解という意味でのベストプラクティスを考えれば「文字+CSS3装飾」が正解ですが、画像置き換えも一般的に広く浸透している技術なので検索エンジンが問題なく処理してくれる可能性が高いと思います。

ただリンクのパワーの問題というよりは、見出し等でいちいち画像を読み込ませるのか、という意味で考えるとユーザビリティ上及びSEO上の影響が出てくる可能性がなくはないかなと思います。

結論としては、画像によるビジュアル的な表現が必要な場合には見出しに画像を使用するで全く問題ありませんが、CSSでの装飾された文字で十分なものであればテキストで記述しましょう、といった判断で良いと思います。

descriptionの文字数の目安ありますか?

meta descriptionについては特にSEO上の重要な加点になる要素ではありませんので、あくまで検索結果上での見え方を重要視すべきという考え方で良いと思います。つまり考えるべきポイントは検索されそうなキーワードが含まれるか(太字表示されるため)、であったり、内容が理解できて検索結果でクリック候補に入れてもらえるかどうか、などです。

その上で文字数については、表示文字数も考慮すれば50~100文字くらいであれば問題はないかと思います。スマートフォンの検索でのアクセスが多い場合にはスマホの検索結果表示も意識して、前半50文字程度でキーワードが含まれ内容が理解できるように工夫すると良いと思います。

SEO会社一般に関する質問

やはり個人でやるのと、業者に頼んでやってもらうのとでは、全く違うのでしょうか?

業者に頼むメリットってなんですか?という質問と捉えて回答します。まず当然頼む会社によってまったく異なりますが、色々なサイトに実務で関わった結果として得られた知識や経験の有無は大きいかなと思います。

サイトの構造をこうすべき、SEO上この施策は影響が大きい、小さい、意味が無い、逆効果、などの要件については、やはり実際にどのくらいサイトのSEOに取り組んできたか、検索エンジンの特性や動向を理解しているかによって理解レベルが変わりますので、実績のある会社に頼むのであれば「成果が出る可能性が高い」というメリットは享受できるかと思います。

特に大きなサイトのSEOを行うのであれば、忙しい担当者が聞きかじりの知識でどうにかなるほど簡単なものではありませんし、改修に費用がかかったり、現状のトラフィックに悪影響を与えるなどのリスクがある中で自分の知識だけを信じて改修に取り組んでいくというのは相当な勇気が必要だろうと思います。

もちろん中にはSEOの専門家並みとかそれ以上の知識を持つインハウスSEO担当者の方も一部いらっしゃいますが、全体から見ればごく稀なケースです。

ただもちろんコンテンツの良し悪しやその内容がより重要性を増す中で、そのサイトのサービス自体の専門家ではないSEO会社がそうした全て代行するというのは多くの場合は現実的ではないですし、そこはうまく分業するところかなと思います。

設計や仕組みづくりなど専門的な知識や経験が必要な部分に関しては必要に応じて専門家の知見を利用し、自社サービスに大きく関わるコンテンツについては社内でリソースを確保して体制を作るというのが理想的かと思います。

良質なSEO会社の見極め方を教えてください。

一般的にお答えするのは難しいです。各社とも得意・不得意が必ずあります。そして会社単位ではなく実務担当者が誰かというレベルでも大きな差が出ます。個人的には”相性が良いかどうか”というのが正直長く取り組んで結果を出すコツなのではないかなと思ったりもしていますが、もし選定しなければならない立場にあるのであれば、選ぶポイントとしては

  • SEOに取り組むことによって何を実現したいのか(上位表示、何位にしたい、とかではなく、ビジネスとして何を達成したいのか)、という具体的なゴールを持つことと、それを担当者に伝えること
  • それに対して「具体的な」解決策を提示してくれるかどうか
  • 相手の会社の得意な領域、不得意な領域について率直な回答を求め、明確な回答を得られるか
  • どのような仕事の進め方をするのか、それは現実的に上手く行きそうか
  • 提案された内容に、「なんかすごそう」「プロっぽい」とかそういうレベルではなく、理解して納得して取り組む価値があると思えるか
  • 取引条件が合うかどうか

こうしたことでしょうか。

※参考※
SEO会社って何を基準に比較・選定したら良いんですか?
[寄稿] 元インハウスSEO担当者が語る、失敗しないためのSEO会社の選び方、付き合い方

※編集者注:

全てにおいてこの会社が一番良いです!という会社は知るかぎりは思い当たりません。

ちなみに営業担当者のレベルで言えば、「実績があります」「ノウハウがあります」「最新のアルゴリズムの動向を把握していますので常に最適な状態を保てます」「○○(大手)さんのSEOやってます」「ペナルティ受けたこと一回もありません」みたいな自社の営業トークと自慢話や”フカシ”しか出来ない担当者であれば、担当者を変えてもらうか会社を変えるかはしたほうが良いかなとは思います。

 

今後、Googleの仕様変更などにより、SEOの在り方やSEO事業の存続に影響はありますか?悪質なSEO業者が駆逐されるのは当然として、真面目にやっている業者はどうなのでしょうか?

既にかなり影響はでてきていると思います。かつてのような人工リンク一辺倒のやり方で継続的に上位を維持できる可能性は年々低下傾向にありますので、SEO会社全般としても取り組み自体をリンク以外にシフトしなければならない状況にはあります。

同時に市場の認識も変化して、リンク中心ではない手法のSEOを行いたいという企業も少しずつですが増えてきておりまして、リンク以外のノウハウが自社にない状態では、すぐに別方向にピボットも難しいのでそうした会社は苦しいのではと思います。

逆にリンク中心のSEOで一定以上の成果をあげられる専門会社は今でも存在していますし、今後も一定数は残ると思います。ただし、それはそれでかなりの覚悟を持ってやられている会社でなければそうは出来ないと思いますので、そういう会社はかなり少数だと思います。

※編集者注:

実際には、ご存知の方もいらっしゃるかもしれませんが、最近は事業をシフトするか、撤退、事業譲渡、倒産、といった動きが目立ちます。

 

Googleの仕様変更によってSEO自体がしづらくなるかというと、特にそういうことではありません。仕様変更によって使えなくなった手法はたくさんありますが、逆に言えばそれだけです。

SEO上で考慮すべき項目は数えきれないほどたくさんありますし、多くの場合は優先順位も明らかです。それを一つ一つ整理して提示して、実現可能なところから実行していくだけです。

※参考※
自然リンクを狙ってSEOの成果を出せる人は普通にスゴイと思う、という話と将来的なSEO事業の向かう先について
Googleがアルゴリズムを変更する目的とSEOの役割
“ホワイトハットSEOが上手くいかない”という人へのアドバイス

※編集者注:

リンク→リンク以外への転換については、個人事業や少人数の組織ならまだしも、組織規模が大きくなると更にいろんな障壁があり本当に難しいと思います。既存の販路(特に代理店への依存度が高い場合)、既存の人材スキル、スキルを持つ人材の維持(離職防止)、新規採用、教育、標準化、リンク用インフラの処理、既存サービスの顧客、ほかにも色々と大きな障壁があります。外から見ているよりも「リンク中心のSEOから、リンクを使わないSEOをお金をもらえるレベルで組織的に提供するようにシフトする」ことはそうそう簡単なものではありません。

大げさに言えば、SEO事業としてくくっていても、それぞれはビジネスモデルとしてほとんど別物です。つまり単なる方向転換、ではなく既存のビジネスを一度破壊して新たに再構築するくらいの覚悟が必要なことだと認識しています(もちろんこれはもともとの状況にも依るのでしょうけど)。

と、ここ数年は本当にこのビジネスモデルの移行をしていくにあたり僕自身も色々大変な思いをしてきましたので長々と補足しました。誰かが知ってるとか出来るとかでは全然ダメで、みんなが出来る必要がある、それがビジネスとして成立する、というのが本当に大変なことです。そしてメンバー個々人のレベルの引き上げという意味では今後も際限ないのでまだまだチャレンジングです。

 

ヴォラーレのSEOに関する質問

SEOコンサルをする場合、コンテンツの提案はどんな事をしていますか?

もちろんサイトによってまちまちです。ただ、面白いことをやりましょうとか流行りの手法を使いましょうとかそういうのは違うと思うのですね。一つ一つ整理して、必要なコンテンツを洗い出して作っていくように地道な提案をしています。あまり派手なことは提案しません。

例えば既成品を販売するサイトと、オーダーメイドで作って販売するサイトでは同じテーマでも必要なコンテンツは異なります。情報収集期間を長くとるサービスを紹介するサイトと、ふと困った時に探して選んで見つけて申し込むようなサービスを紹介するサイトでも、コンテンツの戦略も重要性も大きく変わります。

自分のサイトに来て欲しい人、彼らが知りたいこと、彼らに知ってほしいことをまずは明確にして、それは良質な自然リンクの獲得につながるものなのか、或いは商品を比較選定される上でのポジティブな材料と成りうるコンテンツなのか、例えばそういうことを考えながらコンテンツを考えていきます。

※参考※
Webサイトに必要なコンテンツとSEOについて
「ユーザー」から出発するWebコンテンツ企画の5ステップ【基本編】
元雑誌編集者が語る、あなたの”コンテンツマーケティング”が上手くいかないワケ

SEOをバリバリ頑張るのと、広告含めた予算のバランスはどう提案されてますか?

当たり前っぽい回答ですが期待できそうな投資対効果による判断となります。

SEOに取り組み、自然検索流入を改善することで大きな成果を上げられる可能性が高い(伸びしろが大きい)のであれば、SEOに積極的に投資してもらうように提案します。分かりやすい例では、規模の大きなコンテンツなのに実装が甘いために相応な検索流入が得られていない、リスティング広告には月に500万円投資している、であれば、短期間で一気にサイトにテコ入れしてSEO側の改善をしましょうという提案が出来ます。

逆にサイトの多方面の改善で自然検索を伸ばすにはそれなりの期間やコストを要するため、そこに見合った効果をあまり見込めないのであれば、SEOはそこそこに、広告を中心としたマーケティングを優先させるべきです。常にSEOに全力投球する必要はどこにもありませんし、SEOに取り組んでも期待できる効果が全体から見て微小なのであれば、こんな面倒なことやっている場合ではないことがほとんどと思います。時間と労力ばかりかかって何も得られませんし。

※参考※
SEO対策とリスティング広告の共通点/相違点
SEO対策を実施するメリット

その他

SEOにおいてschooのここが素晴らしい!というのはありますか?

なんとも答えづらい質問ですが、外から見て言えるレベルの回答としては、現状でSEOはそこまで優先して意識していないのではないかな、と思います。今は、基本的に生放送を中心として、schooのアカウントor講師本人or講師の所属団体がソーシャルメディア上で拡散して集客/スクー自体のファンがサイト巡回中に放送を発見して視聴、という流れが主流かと思いますし、現状ではそれでかなり集客はできているのではないかと思います。

これまで蓄積した放送情報及び受講者の投稿によるテキストコンテンツといった独自の情報資産に加え、ユーザー参加が非常に活発なメディアになっているため新たな仕組みのユーザー投稿型のコンテンツなども促進しやすいだろうといった特性もありますので、SEOを本格的に実践することで、もっともっと検索結果での露出を改善していくことは出来ると思います。

参考する書籍があれば教えて下さい。/ おすすめのSEO本はありますか?

ということで定番の本を紹介します。下2つは最近出版されたものでお勧めです。

このあたりでしょうか。

まとめ

あまりまとまりのない感じにはなってしまいましたが、でてきた質問は現場でも割とよく聞かれるような質問であったりというところで、一つくらいは参考になる問答があればなあと思います。

ちなみに最近はこんな形でスクーさんで声をかけていただいたり、自分でもちょっと大きめにセミナーを開こうとしていたり外に向けて発信することが増えて、認知度が上がっているんだなあととても嬉しくなります。スクーさんの方は会社でチャンネルを持たせて頂いているので、また何度かやると思いますので引き続きよろしくお願いいたします。

Googleより容赦無し?Appleのアプリランキング操作の『即アウト』的な排除規制が、実際わりと厳しい模様

同じ”ランキング”に関わるテーマでも、今回はiPhoneやiPadを代表とするiOSアプリを主題とした話題です。つまりGoogleでの検索ではなく、「App Store」の中の話です。とりわけ新情報というわけではありませんが、「本格的な動きが見られた」という意味では新しいかなと。

App Storeのランキング操作に関わる仕組みを持つiOSアプリがゴッソリとストアから排除されるように規制強化

ランキングの人為的な操作を排除することでユーザーの利便性の向上を図りたいのは、なにもGoogleだけではありません。ランキングの品質改善は、ユーザーにランキングを提示する仕組みを持つ多くのプラットフォームにとって、避けては通れない課題の一つなのです。

Appleのアプリストア「App Store」でも、ランキングの公正化のための取り組みとして、人為的にランクの操作をする目的のプロモーションを排除する動きが厳しくなっているということがつい先日、話題になりました。まとまっている記事としてはこのようなところをご覧頂ければと思います。

※2つ目、3つ目のURLについては、訂正も入れられていますが「規約がずいぶん厳しくなった」ではなくて「もともと言われてたことが本格的に実行されてきているようです」という意図ですね。タイトル内の「規約厳格化」の表記で誤解する人も中にはいそうでしたので、念のため補足。

“記事の公開時、「規約を発表」とありましたが、「すでにある規約を厳密に運用し始めた」の誤りでした。”

“以前からAppleはリワード付きの広告を禁止していた。しかし、実際には規約は厳格に運用されず、「厳密には違反しているようだが、何も言われない」という状況になっていた。”

 
さて、挙がっている話題をまとめますが、

“規制の対象となるのは、報奨で誘ってビデオの視聴をすすめるツール、ソーシャルに共有するとおまけがもらえるもの、プレイしているゲームの中でほかのアプリを見つけさせるもの、などだ。この規制はアプリ業界全体に影響を及ぼし、アプリの成長や市場拡大のためにこれまで一般的に使われていた方法を“リセットする”効果を持つだろう。”
ビデオを見たりソーシャルな共有で“ごほうび”をくれるアプリはApp Storeから締め出しへ…iOS 8の大改革

ということで、何かしらのインセンティブ(報酬)と引き換えにユーザーに何らかのかアクション(広告の閲覧、アプリのインストール、Facebookでのシェアなど)を求める仕組みを持つアプリは、アプリストアからリジェクトされる、つまりストアに掲載されなくなるということですので、その間は一切新規のインストールを獲得出来ません。重めです。

そういう規制がここにきて本格的に運用され始めたようです、というのが今回の話題の主旨となります。ここからは、この話題を背景から掘り下げて行きましょう。

App Storeの人気ランキングってどうやって決まるの

Appleのアプリストア「App Store」は、利用したことがある方は分かると思いますが、アプリの人気ランキングには、「総合」「有料アプリ」「無料アプリ」のような全体的なランキングと、「仕事効率化」「ビジネス」のようなカテゴリ毎のランキングが存在します。

アプリのランキングには、総合的なランキングとカテゴリごとのランキングがあり、有料アプリ、無料アプリ、どちらも含むランキングから探すことが出来ます

こうしたランキング決定ルールについてはGoogleと同様公表されてはおりませんが、やはり「一定期間内にどれだけ多くの人がインストールしたか」という要素は大きいようです

※もちろんGoogle検索と同じで、インストール数が全てではありませんが、主たるランキング決定要因の一つにはなっている、ということです。だからApple側としても本腰入れて規制をせざるを得ないわけです。

 

そして、iOSでアプリをインストールするユーザーのうち、App Storeの人気ランキングを参考にインストールするアプリを選ぶユーザーはやはり多く存在します。

従って、「一定期間のうちにどれだけインストールされるか」でランキングが上がるか上がらないかが決まり、ランキングが上がればその後のインストールの促進にもなるわけです。

つまり、iOSアプリにおいて継続的にインストールを増やすために、

  • 短期間でのインストールを増やし、人気ランキング上位に食い込む
  • App Storeユーザーへのリーチが増え、オーガニックなインストールも増える
  • その後も継続的に一定量のインストールを獲得し続け、ランキングを維持する

大きくこのような施策が一般的に行われています。

従って、まずは「短期間でのインストール促進」というのはこの流れの起点となることですので、ここが上手くいくかどうかがアプリマーケティングの鍵を握る、と言っても過言ではない状態でした。

何かしらの報酬を対価としてアプリのインストールを促進するプロモーションが普及

「何かしらの報酬を対価としてアプリのインストールを促進するプロモーション」て何やねん、ということですが、砕けて言えば「ここからこのアプリをインストールしてくれたら、コイン○枚プレゼント!」みたいなやつです。

逆に、「コイン○枚あげるから、その代わりこのアプリインストールしてよ」とも言えますね

そしてこういう形式でインストールを増やしまくったアプリが人気ランキング上位にいるというのは、何か本質的な「人気ランキング」と言うには違和感ありますよね、というのはWeb検索に関わる仕事をされている方であれば慣れ親しんだ文脈だと思います。

また直接的なインストール促進以外にも、同じような意図で、ポジティブなレビューの投稿やソーシャルメディアでのシェアを報酬付きで促すようなプロモーションも広く行われています。

とにかく、このようなランキングの人為的な操作につながるような行為を何かしらの報酬を対価としてユーザーに促すような仕組みについては、実はもとから規制するとされていました

しかし、Googleのかつてのガイドラインと同じく、「そんなこと言ったっていくらでもやれちゃうし、やってるやつたくさんいるし、現にランキング上がりまくりじゃん」状態であった、ということですね。

Google検索とApp Storeの違い

Google検索ランキングとの大きな違いとして、掲載されているコンテンツ(アプリ)は全てAppleの規定に基づく人的な審査を通過したものですので、Web検索よりも掲載時点でのコンテンツ品質をある程度は担保しやすい、という点が挙げられるかなと(App Storeの場合は審査時に体裁整えて通してしまえば、、という抜け道はあるのでしょうけど、さすがにいずれはその辺も対応されるかと思いますし)。

また、それに付随し、コンテンツ量はGoogleのように”兆”とかの規模にはなり得ませんので、あくまでアナログな規制であっても機能しやすいという点も今回の話題には直結します。(ちなみにApp Storeの場合は特定の仕組みを自動検出する精度とかはどうなんでしょうかね?)

したがって、Googleのようなアルゴリズム依存ではなく、プラットフォーム側の運用ルールをどのように引くか、どのように運用するか、という改善のみで大きく規制を加速することが可能ということです。

その前提で、Google検索のリンク売買のアレと比較すると

若干こじつけだったりしますが概ねこんな対比は分かりやすいかなと思います。

App StoreとGoogleで対比して考えます。  App Storeの事情。 ・インストールが多いアプリは人気があるというロジック ・だからインストールが増えるとランキングが上がりやすい ・何らかの報酬と引き換えにインストールを促す機能を持つアプリがある ・何らかの報酬を払って得たインストールでランキングをあげようとしているアプリがある ・ユーザーの自発的なインストールでないのであればランキングに反映したくない ・報酬と引き換えにユーザーにアクションを促す機能を持つアプリに規制を入れる ・アプリストアからのリジェクト(排除):ストアに掲載されない ・問題となる部分を修正して再審査を行い、問題がなければ規制解除  Google側の事情。 ・リンクがたくさんあるサイトは人気があるというロジック ・だからリンクが増えるとランキングが上がりやすい ・何らかの報酬と引き換えにリンクを提供しているサイトがある ・何らかの報酬を払って得たリンクでランキングを獲得しているサイトがある ・ユーザーが自発的に貼ったリンクでないのであればランキングに反映したくない ・報酬と引き換えにリンクを提供しているサイトに規制を入れる ・検索結果からのインデックス削除:検索結果に表示されない ・問題となる部分を修正して再審査を行い、問題がなければ規制解除

という感じですね。Googleに慣れている方であれば特に違和感なく飲み込める話題だと思います。

今回のケースはGoogleのリンク売買の例に例えれば「リンクを売っているサイトは問答無用でインデックス削除ね(=検索結果に表示されなくなるよ)」ということになりますので、Googleで言えば最も重度のペナルティを、割とバシバシ行っているということです。

現実には、Googleのインデックス削除は、本当に低品質なサイト(アフィリエイトリンクばっかりとかリンク提供以外の目的がないとか)を除いては、よほどのことがない限りは一般的なサイトでそう起こりうるものではないのですが、Appleの場合はその辺は容赦ないみたいですね。

しかもGoogle検索で言えば、大事に作ってきたメインのサイトがそうなる、とかそういうレベルのことですので、アプリ関係者としてはそれなりに大きい変更と言えそうです。

ちなみに:実際この規制運用の強化によりどうなったか

ちょっと又聞きの情報なので不確かではありますが(関係者の方、もしも不適切でしたら訂正追記しますのでご指摘頂けますと幸いです)、結構色々話は聞きます。

結論から言えば、とりあえず、Appleは割と本気出してきているようです。

少なくとも上記の規制の対象と言われている

  • インセンティブ付きで他アプリのインストールを促進する仕組みを持つアプリ
  • インセンティブ付きでソーシャル拡散等を促す仕組みを持つアプリ

のような代表的な規制対象の仕組みを持つアプリは割とガシガシリジェクトされているみたいです。

また、ユーザーにインセンティブ付与が有りだろうと無しだろうと、アプリの中で他のアプリインストールを推奨するようなものも含めてアウトになっている的な噂もあります(これはあくまで噂)。

インセンティブの有無に関わらず、アプリの中で他所のアプリをプロモーションするのはヤメレ、という意図がそもそもあるのかもしれません。ぶっちゃけそれくらいはええやんとか思ってしまいますが。普通に広告してるだけだし。。(※もちろんそれ以外でアプリ内に表示される通常の広告ネットワークなどは特に規制の対象ではありません)

ちなみに、Webを通じたインセンティブ付与の広告とかについては特に規制とかないんですけどね。アプリの中にそういう仕組みを持ってたらダメよ、ということなので。

※この辺については、アプリ内でのインセンティブ付与の排除の背景として、「ランキング操作の禁止」だけではなく「そんなところでインセンティブとして付与しちゃったら、Appleに課金してもらえないじゃないの」という意図も多分にあるのかなと思いますがどうなんでしょうね。媒体(アプリ)としてはアドオンで課金されるより広告で得られる報酬が高いのであれば普通そちらを選びますし、事実今でもインストール成果報酬型の広告って単価かなり高く設定されますし。

 

まとめ

アプリの関係者の方々にとっては何だかんだ言ってもそれなりにはインパクトのある規制強化なのではないかなと。少なくともGoogleがここ何年もかけて取り組んできた規制レベルを、それに比べれば結構な短期間でズバンと進めてきたのが今のAppleということですので。

実際には、監視をかいくぐってうまいことやることが出来ないわけではないと思いますので、どこまで厳密にこの規制をAppleが運用していけるか分かりませんが、Googleのそれに比べれば現実的に運営側の努力と工夫である程度対応できるコンテンツ量ではないかな、などと考えますと、

アプリマーケティングの世界では、定められたルールの中でちゃんとプロモーションするにはどうしたらよいか、というのを考えていかなきゃ行けないよね、がキレイ事ではない時代はそんなに遠くないかもしれないですね。

※今回の件、おそらく「そういうプロモーションをしてるアプリを規制する」だとめちゃくちゃハードル上がると思うんですけどね。外的要因が絡むので検知と判断が難しいので、今Googleが右往左往してることと似たようなことを何だかんだすることになると思いますし。あくまで、「そういう仕組を持っているアプリ」への規制、ということで、根本からそういうプロモーションをやりづらくしようとしているのが現状でしょう。Googleも、最近のリンク系ペナルティの話題を聞くに、表面的なリンク対策への対応よりも、根本的な原因の検出と排除に注力するポイントをシフトしてきているようにも見えますし。

 

ともかく、GoogleにしてもAppleにしても、特定のプラットフォームに依存したビジネスを行うにあたっては、プラットフォームが許容する中でどうやって勝っていくか、を考えるのは普通です。

その中で、現時点での勝ちパターンを追求することで勝てている勝負も多くあると思いますが、一方で、プラットフォーム自体のルールや仕様の変更によりその勝ちパターンが一気に破綻する、といった可能性は常に考慮しておかないといけませんよね。

ということで、普段と違った話題をお伝えしました。別事業でアプリ紹介サービスを運営しておりますのでたまにはアプリ界隈の話題も良いかなと。(長い割に薄い内容ですみません)

最後に:SEOセミナーのお知らせ

すみませんただの告知でしかないのですが6月24日(火)に僕とグループマネージャーの實川の2人でセミナーやります。Googleのこれまでとこれから、SEOのこれまでとこれから、実際に業務としては何をしていくべきか、事例を交えてポイントに分けてお話します。ご興味ある方は是非。
セミナー詳細:“リンクを買わないSEO”を成功させるための、Web担当者向け実践SEOセミナー

外部サイトへのリンクには漏れなく”nofollow”とか、いい加減やめませんか

「外部サイトへのリンクには、PageRankが外に流出するのを防ぐために”nofollow”を入れるように、とSEOの人からアドバイスをもらったことがあり、実践している」という方が今でも多いように思います。というか多いです。

無意味です

ほとんどの場合、大切なPageRankの流れを意味もなく断ち切っているにすぎず、プラスになることはなくマイナスでしかありません。この記事で紹介するような事情が無い限りは外すことをおすすめします。

まず前提として、ユーザー投稿型のサイトなどではない一般的な企業サイトを運営していて、nofollowをテクニカルに駆使する必要のあるシーンというのはごく限られたケースだという認識です。正直ほとんど使いドコロはないと思っています。

普通はほとんど使わなくて良いものですし、個人的にもここ数年でnofollow付与を提案したケースは自社で運営するメディアも含めて数えるほどしかありません。(某氏のように大規模なサイトのSEOばかりをガッツリ見ている人はそうではないと思いますがそんな人、何人もいないと思います。)

ということで記事タイトルについての話はもう完了したので、ここからはrel=”nofollow”について解説します。

rel=”nofollow”の意味

nofollowって何よ、という方に簡単に解説しておくと、「nofollow指定されたリンク先にPageRankを渡さない」「nofollow指定されたリンクをクロールの対象リストから除外する」というものです。簡単にいえばSEO上そのリンクの価値がなくなるということですね。

nofollowの意味を図示しています

nofollowが作られた目的は、検索エンジンのランキング評価対象としたくないページへのリンクにPageRankをを受け渡さないようにする、といったことを簡便に実現するためです。

もしnofollowがなければ、例えばリンクをクロールさせたくない場合、robots.txtでブロックされた中間ページにリンクし、中間ページから本来リンクしたいページのURLにリダイレクトをする、など何かしらの面倒な作業が必要となります。

なぜnofollowが必要になったか

その当時に検索業界にいたわけではありませんでしたので、その時代を生きていた方から何か補足がありましたら是非お願いしたいのですが、考えられる点としては主に以下のものかなと。

SEOを目的とした有料リンク掲載への対策

ユーザーが(何かの対価としてではなく)自発的に掲載したリンクに限定して評価対象としないと本来のPageRankの概念それ自体が意図した通りに機能しなくなります。

そこで、Googleとしては「金銭などを対価として掲載するリンクにはnofollowを付与する」というルールを設けることで、有料リンク等による順位操作を規制しようとしたことが背景としてあげられると思います。

ユーザー生成型コンテンツ(UGC)の普及に伴う、”リンク先ページの信頼度をサイト運営者が保証できないリンク”のクロール制御

1つ前の項目とほとんど同じじゃないかと思うフシもありますが。

Wikipediaを代表として、Yahoo!知恵袋や無料ブログサービスなどでは外部サイトへのリンクに自動的にnofollowが付与されるようになっています。身近なところではtwitterの投稿のリンクも同様です。nofollowが付与されているので、これらのサイトにリンクが掲載されたとしても直接的なSEOの価値はありません。

もともと、大半のリンクはサイト運営者の意思の元で掲載されていたはずです。しかしUGCが普及し、サイト内にユーザーが自由にコンテンツを投稿したりリンクを掲載できたりするようになると、サイトへの誘導目的や、SEO目的のリンクの掲載も一定割合発生します。

それがまともなサイトならまだしも、アダルトサイトやウィルスを拡散させるためのサイトでないとも言い切れません。そうしたサイトへのリンクを検索エンジンが評価対象&クロール対象としない、とすることで、少なくともSEO目的のリンクの投稿の価値をなくすことが出来ます。

まとめてしまえば、SEOを目的としたリンクへの対処法として、と言えそうですが。

PageRankスカルプティング

僕がこの業界に関わりだした2009年には、ギリギリそういうテクニックがありました。最近SEOの勉強を始めた人だとあまり聞き慣れないかもしれません。

イメージだけ説明すると、”100″のPageRankを持ったページがあったとして、そのページから10本のリンクが均等に掲載されていた場合、各ページに10ずつのPageRankが流れます(あくまでもイメージです)。

pagerankが均等に10ずつ配布されるとします

そのうち2本のリンクにnofollowを付与することで、PageRankを受け渡す対象が8本になりますね。すると、各ページには12.5ずつのPageRankが受け渡されることになります。つまり8本に渡るPageRankが増えるのです。

nofollowで指定したリンクの分だけ、他のページへのPRの受け渡し分が増える

このように、nofollowを活用して重要なページにPageRankを集中させようとするテクニックを、PageRankスカルプティングと呼びました。

でもこれは既に2009年時点で機能していません。あるリンクにnofollowを掲載した場合、PageRankを破棄することになり、そのほかのリンクに充当されるわけではない、という仕様変更が行われたためです。

仮にnofollowで指定したとしても、それは破棄することに同義。他が増えるとかそういうわけではない

変更の意図としては、もともとサイトのPageRankを調整するためのテクニックとしてnofollowが作られたわけではなく、ユーザーにとっては無関係な施策でしたので、そういう使われ方をされることは本来の目的と異なる、という判断のもとの変更という話だったのかもしれません。

どちらにせよ現時点では、nofollowを付与すればPageRankが重要なページに集中します、ではなくなっているのです。

nofollowはいつどんな時に使うか?

一部曖昧なところもありますがこのようなイメージで問題ありません。

ユーザーがリンクを自由に掲載できる場合の不正リンクへの対策

先述の通り、ユーザーが投稿できるタイプのコンテンツで、誰でもリンクを掲載することが許可されている場合、信頼できないサイトへリンクが向けられる可能性があるため(出会い系やアダルトサイトなどのスパムコメントなどが良い例)、それをGoogleに辿らせない&評価の対象としないために使います。

昔はUGCがここまで普及していたのでほぼ全てのリンクはサイト管理者の制御のもとで掲載されていましたが、UGCが普及したことで誰でも簡単にリンクを貼ることが出来るようになり、その中で自作自演やスパムなどが増えてくると、外部サイトへのリンクには一律でnofollowなどの対応を取らざるを得ません。

※事実、近年では不正リンク対策として、有料ディレクトリ登録サービスや無料ブログサービスの外部サイトへのリンクの多くもnofollowを付与するように変更されてきています。

検索エンジンがデータ収集する価値のないページへのクロールの制御

よく言われているのはログインページなど、Googlebotがそのコンテンツの中身を収集出来ない場合です。砕けて言えば「そこクロールしても何も見れないから他のとこ見に行ってちょうだい」という意味ですね。

それであれば使う意味は確かにあるような気がしますが、いちいちそんな細かいこと考える必要もないんじゃないでしょうかとも思っています。大きな効果があるとは思えませんし。

あとこの意図で使うとすると、ほとんどのサイトは意識する必要はないと思うのですが、大規模なサイトを運営していて、本来クロール不要なURLへのリンクが不可避に大量に生成されるがrobots.txtでブロックする必要がない、或いはrobots.txtでリアルタイムに弾いていくのが運用上現実的ではない、などの場合でしょうか。

※ただし不要なはずのURLが大量に生成されるというのは、それはnoindexとかnofollowでどうこうじゃなくてその仕様を適切な形に変更すれば良い、というケースも割合多そうですが。。

よほどのことが無ければ、ほとんどの場合はウェブマスターツールのパラメータ制御機能で上手く調整すれば良いレベルだと感じています。(すみません、ここは正直言いきる自信がないです。)

Google的には”真っ黒”な完全アウトサイダーなサイトへリンクをせざるを得ない場合

これは正直ちょっと自分でも確信はなくて、賛否両論あると思うのですが。

仮に自社の関連サイトだったとしても、リンク先のページが大規模な不正リンクプログラムなどの中心にいる場合、或いは重度のペナルティを受けている場合など、リンクを掲載することでそのサイトとの(リンクの繋がりとしての)距離が近くなってしまいます。

こいつはくせぇーーッ!スパムのにおいがプンプンするぜーーーッ!!

でも関連サイトですし、Google的に真っ黒であることとユーザーに見せたくないことは全く違いますので、リンクを外す理由にはなりません。放置でも良いのかもしれませんが、個人的にはこういうリンクの繋がりの全体像を想像するとこれはちょっと気持ち悪いし嫌なのですね。

それを避けるためにnofollowを掲載するよう提案したことはあります。

nofollowを付与することでリンクグラフから相互リンクを無効化する

どのケースも多少の効果はあったように見えましたが、正直言えば因果関係は曖昧ですのでここは参考程度にして下さい。冒頭でも書きましたが、ほとんどの場合は有効なPageRankを破棄することでもありますのでこんなことしない方が良いのは間違いありません。

とまあ、いくつか挙げてみましたが、少なくとも一般的な中小規模の商用サイトでnofollowを当然のように使う、どこでnofollowを付与するかをじっくり考える、などということはほとんど無いなあとは思っています。

なぜ、テクニカルなことをしたがるのか

ドラクエで新しい呪文を覚えると、誰もが”絶対に必要ないけど使わざるを得ない”みたいな精神状態に追い込まれます。

例えば敵グループが複数に分かれていて、どう考えても賢者としてはヒャダインかイオラあたりで対応するようなシーンなのに、1ターン目でなぜか敵単体に向かって新しく覚えたベギラゴンを唱えてしまうなどの事例が挙げられます。

特に画面演出のないドラクエ4以前であっても、同様の現象が必ずと言っていいほど起きますね。

それと全く同じです。少し勉強して知識がつくと、絶対に必要ないのにcanonicalとかnoindexとかnofollowとかrobots.txtを駆使してクローラーの色々制御してみようなどと思ってしまったり。しかしほとんどの場合が「しかしなにもおこらなかった」です(逆に大ダメージを受けることはありえます)。

例えば、昨年にrobots.txtについて詳細に記事にまとめられていたブログがありましたが、(おそらく記事執筆時に調べながら追記したであろう)robots.txtの記述が誤っていて、全てのページがクロール拒否になっていたということは記憶にあたらしいです。ちなみにその後きちんと修正されていました。

まとめ

普通にサイトを運営していれば「ほとんどのページはクロールされ、インデックスさせるべきコンテンツ」なはずです。外部サイトであっても、nofollowを付与する必要のあるようなサイトにリンクすることは滅多にないはずです。

少なくとも、敵グループが多数に分散していたら、多くの場合は素直にイオ系呪文で対応しておくのが良いかと思います。

ヴォラーレ株式会社 土居

知っておいて損はない!Googleの検索エンジンに関する「特許」まとめ

以前に検索エンジンとSEOの歴史について書いてくれた大学生の佐々木くんに、次のテーマで「Googleの検索に関する特許」についてまとめてもらいました。

Googleの特許は「何がしたいの?」を理解する手がかりに

Googleの特許を知る事はSEOを考える上でとても重要な事です。何故ならSEOを実施するにあたって、検索エンジンとしてのGoogleの考えや方針は必ず理解しておく必要があり、Googleが持っている特許の内容は、その考えや背景を読み取るための材料になるからです。

この記事ではGoogleの特許の中から検索エンジンに関する特許を一部ピックアップし、紹介します。

※年代は申請日で記載しています。
※発明者もしくは譲受人がGoogle Inc.になっている特許を記載しています。
※ここに挙げられていないものも含め、特許を取得していることと、それがランキングに反映されていることは別問題です(特許はとったが使っていない、があり得るということ)。

PatFT:認定された特許

※PatFTとは公式に認定されている特許を指します。
 

リンクされたデータベース内におけるノードのランキングに関する方法

(1998年1月 特許番号:6285999)
検索技術に関わる特許の中で最も有名かもしれません。いわゆる”PageRank”のアルゴリズムに関する特許です。特許権の所有者はスタンフォード大学ですが、Googleが独占で使用する権利を持っています。

※参考1:ページランク(wikipedia)
※参考2:SEOの最重要特許ベスト10 その1 ページランクとは?

 

検索エンジンの音声インターフェース

(2001年2月 特許番号:7027987)
音声による検索システムに関する特許です。以下の参考URLをご覧いただくとわかりますが、現在少しずつ普及してきている音声検索について、今から10年以上も前から、それが使われるシーンを想像されていたわけですね。

ちなみに「特許の一部は製品化・サービス化するが、そうでないものもある」というのはこの記事の最後にも書かれています。

※参考:米Google、検索エンジンの音声インターフェースに関する米国特許を取得

 

曖昧な検索クエリに対して検索結果を提供する為に修飾されたインデックスを使用する方法及び装置

(2003年3月 特許番号:6529903)
ユーザーが検索する時にサイトの管理者が想定した具体的なキーワードを打ちこまず”曖昧な言葉”での検索をしてしまった場合を想定した施策に関する特許です。

※参考:「Google」の知的財産戦略

 

ユーザーの行動や特徴のデータに基づいた文章のランキング

(2004年7月 特許番号:7716225)
いわゆる”リーズナブルサーファーモデル”の特許です。全てのリンクを均等に扱うのではなく、データや特徴に基づきリンクに妥当な重み付けをして扱う、という考え方です。

※参考:GOOGLE’S REASONABLE SURFER: HOW THE VALUE OF A LINK MAY DIFFER BASED UPON LINK AND DOCUMENT FEATURES AND USER DATA

 

ソーシャルネットワーク内の関連メンバーを評価する為の方法とシステム

(2004年8月 特許番号:8010459)
SNSでの友人のクールさ、セクシーさ、信頼度などによって評価が出来るシステム、といった少し変わった特許です。

参考:知人の「セクシーさ」を評価:Googleが特許出願

 

カメラ付き携帯電話用の画像ベースの検索エンジン

(2005年5月 特許番号:7565139)
“画像での検索”に関するシステムの特許で、内蔵カメラ付きケータイの普及が背景にあります。携帯電話で撮影した画像そのものを検索に利用するための技術です。
 

フレーズベースの情報検索システム内のスパムドキュメントを検出する

(2006年6月 特許番号:7603345)
文書内の関連フレーズの数に基づいてスパム文書を特定するシステムに関する、とする特許。スパム文書にありがちな「キーワードの集合体」のような文書のパターンを検出し、スパム文書と非スパム文書を識別します。

参考:http://www.seobythesea.com/2006/12/phrase-based-information-retrieval-and-spam-detection/

 

コンテンツに基づいた広告サービスの提供

(2006年7月 特許番号:7734624)
サイトの内容に近いジャンルの広告を表示する技術の特許です。コンテンツを閲覧しているユーザーに関連性の高い広告を表示することで、より高い広告効果を実現することができます。
 

強化された検索結果

(2006年1月 特許番号:7624101)
電話番号または住所を含んだクエリ検索に応じる事と、クエリに関連のある住所のリンクを示す事が出来るといった検索機能の強化に関する特許です。この特許にはWebの膨大な情報量に対して、ユーザー(特に新規でWeb検索に不慣れなユーザー)が求めている情報を探す為に労力を使ってしまう可能性が高いという背景があります。
 

電子メール環境内でのメッセージランキング

(2008年9月 特許番号:8095612)
自分の受信メールの内容を検索結果にランク付けして反映する方法に関する特許です。以下の記事で詳細に紹介されていますが、ウェブページとは異なり、メールならではのシグナルにもとづいてランク付けされます。

※参考:Googleの新特許「メールランク」であなたのメールが格付けされる?

 

AppFT:出願した特許

※公式に認定されていないが、公開されている特許を指します。

MapReduce内のフレームワークデータの処理

(2011年4月 特許番号:20120254193)
MapRuduceというGoogleのサーバー処理に用いられている分散処理アルゴリズムで、「処理速度の向上→検索結果反映までの時間短縮」の技術に関する特許です。

※参考:GoogleのMapReduceアルゴリズムをJavaで理解する

 

ポリシーに違反してるかをチェックするシステム

(2012年8月 特許番号:20130110748)
過去の”問題あり”なデータと比較して、ポリシーや法律に抵触するような悪意のある書き込みを事前に防止出来るようにする技術ですが、以下の記事にもあるように「道徳的な判断をGoogleが行う」というところに賛否が分かれそうな技術とも言えます。こちらも製品化されるとは限らないとのこと。

※参考:Google、「検閲システム」の特許を導入

 

ソーシャルネットワークオブジェクトランキング

(2013年10月 特許番号:20140108428)
ブログやコミュニティなどのソーシャルネットワーク内のコンテンツのランク付けには、一般的なウェブページとは異なるシグナルも利用するべきだ、といった主旨の特許です。例えば友達やファンの数、プロフィールの閲覧数、投稿へのコメント数、最新の話題かどうか、などです。

※参考:HINTS OF HOW GOOGLE MAY RANK SOCIAL NETWORKS?

補足:特許の探し方

Googleの特許は登録までしている特許(PatFT)も公開までしかしていない特許(AppFT)もすべて米国特許庁データベースで検索する事が出来ます。
特許番号や譲受人、発明者など様々な条件で検索する事が出来ます。

america_patents_engine

しかし、こちらの検索ページはそんなに見やすい訳ではないので私はGoogleの特許検索エンジンをオススメします。

google_patent_engine

一番の違いは、実際に特許の概要が説明してあるページにアクセスして自動翻訳をした時です。米国のデータベースだと活字がひたすら並んでいて見づらいですが、Googleの方だと項目が分かれていて見やすいです。

america_trans
▲米国データベースの説明内容を翻訳したらこうなる

google_trans
▲Googleだとこんなに見やすい

出典

まとめ

検索技術に関する様々なテーマからピックアップして、ごく一部を紹介させて頂きました。これらの特許内容はGoogleがこれからの検索エンジンをどうしていきたいのかを知る材料になり、ひいてはSEOをどのように考えていけばいいのかを知る材料になります。

こうした技術を読むにあたり、「どういう技術なのか」はもちろん大切ですが、「こび技術が開発された背景はなにか」「何が実現できるのか」「利用者にどういう利点があるのか」などを考えてみると、テクニカルな解釈ではなく、Googleが本質的に目指す方向性などを理解するのに役立つと思います。

しかし、前述の通りGoogleが特許を取得していてもその特許内容を検索エンジンに全て反映させているという訳ではないので注意して下さい。

参考:特許取得=Googleの検索アルゴリズムに組み込まれている訳ではない

ヴォラーレ株式会社 佐々木

非エンジニア向けSSL解説:OpenSSLの脆弱性「HeartBleed」とは?

GoogleのMatt Cutts氏が「SSL(https)のサイトを優遇するかも」のような発言をしたことや、4月にはOpenSSLの致命的な脆弱性についても話題になりました。今回の記事では、非エンジニア向けにSSLや、指摘されている脆弱性「HeartBleed」について解説します。開発室の坂田による執筆です。

2014年は”SSL”が何かと話題に

以前からGoogleが強制的にSSLで接続するようになったり、2014年に入り、GoogleがSSLのサイトを優先しようか検討している、といった話が出てくるなど、SEO関係者の中でもたびたびSSLが話題に出てくるようになりましたね。

今年の4月ごろ、SSLでの通信を可能にしているOpenSSLというソフトウェアに、個人情報などの通信内容がサーバーから流出する重大な欠陥(脆弱性)が見つかったことが話題となりました。

この脆弱性は、サーバーからの情報流出が、心臓(Heart)から出血(bleed)するほど深刻に捉えられたため、「Heartbleed」と呼ばれています。

どんな形であれ個人情報を扱うようなサイトはセキュリティを担保することが求められます。今回は、SSLの仕組みを改めて理解していただいた上で、この脆弱性「Heartbleed」について解説します。

編集者注:冒頭の「GoogleがSSLのサイトを優先」の話は、Googleでも検討が始まったばかりの未確定事項

SSLの役割と仕組み

SSLは、主に2つの機能を提供しています。1つは、信頼性を担保することです。SSLを使用しているウェブサイトはSSLの証明書を有しています。

この証明書は、第三者機関である認証局(CA)によって発行されています。この証明書により、利用者が、ウェブサイトを信頼できることが保証されています。

もう1つは、暗号化により安全性を担保することです。通常のウェブサイトを表示するために使用するhttp通信は暗号化されていません。そのため、第三者に通信が見られた際、通信している情報が容易に読み取られてしまいます。

ここでいう情報の中には、IDやパスワードなどの会員情報や、住所や名前など、お問い合わせの内容など個人に関わる重要な情報が存在します。

こうした情報を第三者に読み取られないように、暗号化する必要があります。SSLは、通信情報を暗号化する機能を有し、安全な通信を確立する役割を担っています。

SSLの説明

OpenSSLの脆弱性「Heartbleed」とは

OpenSSLとは、実際にこの暗号化を行っているプログラムの一つです。SSLを可能にしているソフトウェアはOpenSSLの他にもNSSやGnuTLSといったプログラムの存在しますが、OpenSSLは非常に高いシェアを占めています。

ところがこのOpenSSLの脆弱性が先日指摘され話題になりました。それがHeartbleedです。

SSLに限らず、サーバーは通信を行うと、メモリに通信内容を一時的に記録します。本来メモリに記録されたデータは、通信が終了すると破棄されます。

ところがHeartbleedという”バグ”により、メモリ上のデータが破棄されず、サーバー外部に流出してしまう場合があります。この流出したデータの中に、個人情報が含まれていると、個人情報の流出といった事態になります。

Heartbleedはサーバーの秘密鍵が流出する場合もある

ここで大きく問題なのは、Heartbleedによる影響は、通信データの一部流出にとどまらず、「サーバーの秘密鍵」の流出の恐れがある点です。

詳しい解説はここでは割愛しますが、SSLでは、共通鍵暗号方式と公開鍵暗号方式の2つの暗号方式を利用して安全性を担保しています。

SSLでサーバー送信した情報は、これらの方式を用いて暗号化されます。この情報は、サーバーの秘密鍵という鍵のみで復号化することが可能です。逆に言えば、この「秘密鍵」さえあれば、第三者でも容易に通信内容を読み取ることができます。

情報流出の危険性

サーバーはひとつの秘密鍵を使用しているため、一度秘密鍵が流出してしまうと、ウェブサイトの利用者の通信内容を継続的に読み取られる可能性があります。例えるなら、隣の人にパソコンのパスワードを知られてしまった状態です

対処法

実際の作業はサーバーなどの環境に依存しますので、具体的には触れませんが、以下の手順を取るとよいでしょう。

Heartbleedかどうか調べる

まずは、OpenSSLのバージョンを調べます。この際、以下のバージョンに当てはまる場合、Heartbleedの脆弱性があります。

またこれらのバージョンに該当しなくとも、古いOpenSSLを使用している場合は、他の脆弱性やバグが存在している可能性もあるので、最新のものにバージョンアップすることをおすすめします。

  • OpenSSL 1.0.1 から 1.0.1f
  • OpenSSL 1.0.2-beta から 1.0.2-beta1

Heartbleedを取り除く

OpenSSLのバージョンを確認し、Hearbleedの影響を受けている場合は、早急に取り除くましょう。最も簡単な方法は、OpenSSLのバージョンを最新のものにします。

また、レンタルサーバー等OpenSSLの設定を変えることのできない場合は、サーバーの管理会社に連絡し、この脆弱性を解消してもらう必要があります。

証明書を再発行し、以前の証明書を失効させる

OpenSSL脆弱性を直したら、SSLの証明書を再発行します。主なSSL発行会社は、無償での再発行を受け付けています。証明書を再発行したら、その設定をサーバーに反映させます。最後に、SSL発行会社を通じて古い証明書を失効させましょう。

まとめ

SSLは、個人情報を取り扱うウェブサイトを安全に運営していく上で、重要な役割を担っています。ウェブサイトの利用者が安心して利用できる環境を整えるためにも、SSLだけでなく、利用している技術やその仕組みを理解し、脆弱性やバグに柔軟に対応していくことが重要です。

最後に、私たち開発室もブログを書いておりまして、技術トピックを中心に、幅広い内容を紹介しています。こちらも参考にしてください。
Catcher in the tech – ヴォラーレ株式会社開発室ブログ

ヴォラーレ株式会社 坂田

「構造化データ」がよく分かる!初心者向け徹底解説

SEOの文脈においても頻繁に話題になる「構造化データ」。意外にそこまで詳細に理解されている方は多くないのでは?と思います。ここでは構造化データやリッチスニペットの概要から、HTMLでの記述方法、テストツールなど、全体像を掴んで頂ければと思います。今回はコンサル部門サブマネージャーの巣鷹による執筆。

目次

セマンティックWebについて
構造化データとは
構造化データを使用するメリット
ボキャブラリーとシンタックス
構造化データをマークアップする方法
HTML上で直接マークアップする方法
データ ハイライターを用いる方法
テストツールのご紹介
まとめ

セマンティックWebについて

構造化データとセマンティックWebという考え方は切っても切り離せないものです。今回は構造化データを説明する前にセマンティックWebというものに簡単に触れておきたいと思います。

「セマンティックWeb」は、例えば以下のように説明されています。

Webページおよびその中に記述された内容について、それが何を意味するかを表す情報(メタデータ)を一定の規則に従って付加することで、コンピュータが効率よく情報を収集・解釈できるようにする構想。インターネットを単なるデータの集合から知識のデータベースに進化させようという試みがセマンティックWebである。
引用元:http://e-words.jp/w/E382BBE3839EE383B3E38386E382A3E38383E382AFWeb.html

コンピュータ(検索エンジン)は従来、テキストを単なる”文字”として認識し情報として蓄積していました。しかし、それでは検索エンジンは文字を記号としてしか認識することができず、その意味を推し量ることはできません。

そこで、文字を”意味”としてその背景や文脈まで解釈し、それを蓄積していこうというのがセマンティックWebの考え方です。

構造化データとは

セマンティックWebを実現するための手段として、構造化データがあります。構造化データは、言葉に対して意味をメタデータとして持たせることで、ロボットがそのもつ内容の解釈を容易にし、検索エンジンはより有用な検索結果をユーザーに提供できるようになります。

わかりづらいので例を。例えば、以下のような例を考えます。

--</pre>
<div>私は土居 健太郎 (天照SEO)です。</div>
<pre>
--

私達がこれを見た時に、この人は土居健太郎という”名前”の人物で、天照SEOという”ニックネーム”を持っているのだとある程度推測することができます。

検索エンジンもその推測ができないわけではありませんが、これを明確にニックネームだと定義することは難しいのです。そこで、そうした情報の「意味」を検索エンジン等に明確に伝えてあげましょうというのが構造化データの考え方です。

構造化データはHTMLに直接マークアップする、もしくはウェブマスターツール上で設定しますが(設定方法は後述します。)、上述した土居健太郎の例でいうと以下のような記述となります。

--</pre>
<div itemscope="" itemtype="http://schema.org/Person">私は<span itemprop="name">土居 健太郎</span> (<span itemprop="nickname">天照SEO<span itemprop="nickname">)です。</span></span></div>
<pre>
--

nameやnicknameという値が含まれているのが御覧頂けるかと思いますが、特定の情報に対してHTMLマークアップを行う(メタデータを付与する)ことでその情報の説明が付与することができるようになります。

構造化データを使用するメリット

検索エンジンがサイトコンテンツの把握を容易に行えます

上述した通り、特定のテキストあるいは画像がどういう情報なのかを指し示すことで、検索エンジンはコンテンツの内容がどういう意味を持つものか、容易に把握できるようになります。

構造化データを用いることで、前述した文章は、「私の名前は土居健太郎で、ニックネームは天照SEOです」のように、情報の持つ意味がより明確に検索エンジンに伝わり、適切に認識されるようになります。

リッチスニペットが表示されます

通常の検索結果においてサイトが表示される際には青色のリンク、その下meta descriptionやサイト内テキストから引用したスニペットが表示されますが、構造化データを用いることで、リンクの下に通常とは異なる情報が表示されることがあります。これを「リッチスニペット」と言います。

リッチスニペットの画像

こういった検索結果を見たことがある方は多いのではないかと思います。

これにより検索結果で目につきやすくなり、クリックされやすくなるなどのメリットがあります。リッチスニペットに対応されているコンテンツは、上の画像のレビュー情報やレシピ、筆者情報以外にも音楽や映画、イベント、パンくずなどがあります。

ボキャブラリーとシンタックス

構造化データを理解する上で、この2つの言葉についてきちんと理解しておく必要があります。

ボキャブラリー

冒頭の例では文章全体に”http://schema.org/Person”という値を、土居健太郎に”name”、天照SEOに”nickname”という値を付けました。その指定する値を定義している規格のようなものがボキャブラリーです。

ボキャブラリーの代表的なものにschema.orgがあります。schema.orgはGoogle、yahoo!、Microsoftの大手検索エンジン企業が共同で取り組んでおり、値の数は日々拡張されています。

先ほどの例では人物の説明でしたが、人物の説明には名前やニックネームはもちろんのこと、所属する団体や誕生日なども情報として持つことがあるかと思います。そういった部分もある程度網羅されており、こちらのページ(※リンク先は英語です)にてまとめられています。propertyという欄で人物の説明に対してマークアップ可能な値が表示されています。

なお、schema.orgで構造化データマークアップに対応している情報のタイプはこちらでまとめられています。実際にHTMLをマークアップする際にはこれらの中からコンテンツに合致するタイプを選択し、実装します。
※マークアップしたい項目について、リンク先に利用可能な値が記載されています。

また、見て頂くとわかるかと思いますが、プロパティは階層構造となっています。

例えば「Thing(もの)」という大項目の子として「Book(本)」や「Event(イベント)」という項目、「Event(イベント)」の子として「BusinessEvent(企業向けイベント)」といった階層を形成しています。

シンタックス

ボキャブラリーは値を定義しているだけのものですので、HTMLにマークアップする際にはどうマークアップするかの仕様が必要ですが、その仕様がシンタックスです。

--</pre>
<div itemscope="" itemtype="http://schema.org/Person">私は<span itemprop="name">土居 健太郎</span> (<span itemprop="nickname">天照SEO<span itemprop="nickname">)です。</span></span></div>
<pre>
--

ちなみにこの文章でいうとitemscopeやitemtypeの部分がシンタックスで決められている仕様です。

シンタックスには代表的なもので以下の4つがあります。

  • Microdata
  • RDFa
  • Microformats
  • JSON-LD

Googleが推奨しているのはMicrodataです。

また、JSON-LDはHTML上で各情報に直接マークアップするその他のシンタックスとは異なり、スクリプトを用いて記述するため、各データに直接マークアップする必要がなく、一箇所で構造化データを記述できるとぃう利点があります。

先ほどの例

再度、土居健太郎の例を用いて詳しく見てみましょう。
※以下の例はボキャブラリーにschema.orgとシンタックスにMicrodataを用いています。

--</pre>
<div itemscope="" itemtype="http://schema.org/Person">私は<span itemprop="name">土居 健太郎</span> <span itemprop="nickname"> (天照SEO) <span itemprop="nickname">です。</span></span></div>
<pre>
--

1. itemscope
itemscopeという属性がdivに付与されています。これはこのdivに構造化データが付与されているということを意味します。

2. itemtype
itemtypeはitemscopeで示された構造化データが何に関するものなのかを示すために用います。上述したデータでいうとhttp://schema.org/Person という人物を表す値が用いられているためdiv内の情報が人物を表す情報であると確認できます。

人物以外にも組織や会社を表すhttp://schema.org/Organization や、商品であればhttp://schema.org/Product などが定義されています。

3. itemprop
itempropはitemtypeで示された人物や組織・会社などの詳細な情報を示すために用いられます。

上の例ではdivに対してitemtypeで人物の情報であると提示されているので、itempropがnameと指定されているspan内の情報は、人物の名前であることが読み取れます。また、その次のnicknameが記載されているspanはニックネームを表しています。

構造化データをマークアップする方法

構造化データを検索エンジン(Google)に伝える際には大きくわけて2つの方法があります。

  • HTML上で直接マークアップする方法
  • データ ハイライターを用いる方法

前者のHTMLに直接マークアップする方法は文字通り上述した土居の例のようにHTMLタグに構造化データの要素を追加します。

一方でデータ ハイライターを用いる場合、ウェブマスターツールのページ上でクリックすることによりページの構造化データを(HTMLをいじることなく)Googleに伝えることが可能です。

Googleヘルプには以下のように書かれています。

■HTML の使用が適しているケース:
・サイト上のイベント、レシピ、その他の各種データの Google による認識方法を明確にコントロールしたい場合。
・HTML マークアップを一貫してすべてのデータ項目に追加できる場合。
・サイトの構造が頻繁に変わる場合。
・Google 以外の検索エンジンでもウェブサイトのコンテンツが認識されるようにしたい場合(データ ハイライターで抽出されたデータを利用できるのは Google のみです)。

■データ ハイライターの使用が適しているケース:
・サイトで表示するデータが、イベントに関するものである場合。
・サイトで構造化データやリッチ スニペットを使用することを検討しているが、HTML マークアップを更新するためのリソースの準備がまだできていない場合。
・HTML マークアップを記述するよりも、ウェブページをポイントしてクリックするほうがよい場合。
・サイトで HTML マークアップを変更できない、またはデータ項目を一貫してマークアップできない場合。
引用元:https://support.google.com/webmasters/answer/99170?hl=ja

どちらの方法もメリット・デメリットがありますので、運営されている体制やサイトの状況などにより、どちらを使うか検討することが望まれます。

ではそれぞれ実際に説明していきましょう。

HTML上で直接マークアップする方法

この方法には大きく分けて二つあります。それぞれ説明します。

ボキャブラリーとシンタックスを参考にHTMLにマークアップしていく方法

今回はボキャブラリーにschema.orgとシンタックスにMicrodataを用いてマークアップする方法を紹介します。

一般的に構造化データがマークアップされている情報は人物や商品、パンくずが多いですが、こちらにまとめられている通り、マークアップできる情報は他にも沢山あります。

今回は以下の文章について考えてみましょう。

--</pre>
<div>ヴォラーレ株式会社は五反田に位置する企業です。2007年1月15日に高橋飛翔が創業しました。企業情報はこちらのサイトから御覧ください。<a href="”">http://www.volare.jp/</a></div>
<pre>
--

①まずはitemscopeを入れましょう。

上述した通り、構造化データであることを示すはじめの一歩はitemscopeを該当するタグに入れることです。

--</pre>
<div itemscope="">ヴォラーレ株式会社は五反田に位置する企業です。2007年1月15日に高橋飛翔が創業しました。企業情報はこちらのサイトから御覧ください。<a href="”">http://www.volare.jp/</a></div>
<pre>
--

②itempropで何を示している情報なのかを指定しましょう。

今回はヴォラーレ株式会社の情報ですので、itemtypeで企業情報であることを示すhttp://schema.org/Corporationを用います。

--</pre>
<div itemscope="" itemtype="http://schema.org/Corporation">ヴォラーレ株式会社は五反田に位置する企業です。2007年1月15日に高橋飛翔が創業しました。企業情報はこちらのサイトから御覧ください。<a href="”">http://www.volare.jp/</a></div>
<pre>
--

これでこのテキストは企業に関する情報であることをマークアップできました。

③itempropを使って各情報についてそれぞれマークアップしていきます。
企業に関する情報の際に使えるitempropはこちらのページで挙げられています。マークアップしてみると以下のようになります。

--</pre>
<div itemscope="" itemtype="http://schema.org/Corporation"><span itemprop="”name”">ヴォラーレ株式会社</span>は<span itemprop="”lacation”">五反田</span>に位置する企業です。<span itemprop="”foundingDate”">2007年1月15日</span>に<span itemprop="”founder”">高橋飛翔が創業しました。企業情報はこちらのサイトから御覧ください。<a itemprop="”URL”" href="”">http://www.volare.jp/</a></span></div>
<pre>
--

「ヴォラーレ株式会社」は企業名なので「name」を、「五反田」は住所にあたるので「lacation」を、その他創業日や創業者、コーポレートサイトへのURLもマークアップしています。

構造化データマークアップ支援ツールを用いた方法

ウェブマスターツールには、構造化データマークアップを支援する機能があります。

先に説明した方法だとschema.orgなどを理解した上でマークアップする必要がありましたが、こちらの方法はそれよりも容易に構造化データを用いることが可能になります。

ここでは弊社の開発室が運用しているブログを用いて説明します。

①構造化データマークアップ支援ツールに該当するページのURLを入力し、今回マークアップするデータを選択した上でタグ付け開始をクリックします。

構造化データマークアップ支援ツールの画面「

今回はブログ記事のマークアップですので、記事を選択しました。

②実際にマークアップしてみましょう。

ブログ記事ページイメージ

タグ付けはツール内でページが読み込まれた画面で行います。右にタグ付けできるデータが並びます。この例で言うと、前の画面で記事を選んだため、著者や公開日など、記事に関連するデータが並んでいます。

ではまず一番上にある「名前」(今回の場合は記事タイトルです)をマークアップしてみましょう。

タイトルがハイライト

タイトルに当たるところをドラッグすると、選択肢が出てきますのでそこから「名前」を選択しますと右側にマークアップしたいテキストもしくは画像が追加されます。著者情報や公開日なども 同様の要領で指定していきます。

データの指定が終わったら右上にある「HTMLを作成」をクリックするとそのページのHTMLが出力されます。

イメージ

③出力されたHTMLをサイトに反映させます。
どういったサイト運用をされているかにもよりますが、出力されたHTMLでマークアップされた部分(黄色くハイライトされています)、もしくはソース全てをコピーしてHTMLを実装しましょう。これでマークアップは完了です。

データ ハイライターを用いる方法

データハイライターを用いた場合には 直接HTMLをいじる必要がなく、構造化データマークアップ支援ツールのようにブラウザ上でクリックすることで構造化データをGoogleに伝えることが可能です。

①ウェブマスターツールでデータハイライターを開きます。

データハイライター画面

ハイライト表示を開始しましょう。

ハイライト表示

先ほどと同様に構造化データを設定したいURLを入力し、タイプを選択します。今回は天照SEOブログを用いますので、タイプに「記事」を選択しました。

また「このページをタグ付けし、他のページも同様にタグ付けする」の場合は(幾つかのサンプルページにてタグ付けを行うことで)同様のページ群もGoogleが学習して構造化データを認識してくれるようになります。一方で「このページだけをタグ付けする」場合はGoogleに学習させず選択したページのみをタグ付けしたい場合に用います。

ブログ記事のように同じようなページ群がある場合には前者、そうでない場合には後者が望まれると思います。
今回はブログ記事ですので前者を選択しました。

②タグ付けを行います。

アイテムを選ぶ

上述した構造化データマークアップ支援ツールと同様に、タグ付けしたいところをクリックもしくはドラッグし、タグ付けするデータを選択します。タグ付けが終了したら右上の「完了」を選択しましょう。

③Googleに自動でタグ付けして欲しいページを選択します。
※この選択肢は「このページをタグ付けし、他のページも同様にタグ付けする」を選択した場合にのみ表示されます。

ページセットの作成画面

左の項目ではGoogleが同様だと判断したページ群が選択肢として表示されます。それでは問題がある場合は「カスタム」で設定しましょう。※ページ群の設定は正規表現で行います。

これらを選択したら「ページセットを作成」に進みましょう。

④サンプルページで上手く設定できているか確認します。

確認画面

Googleは最初にタグ付けした設定から他のページでも同様の構造化データをタグ付けします。このページでは③で選択した構造化データを設定したいページ群の中から、構造化データ部分をハイライトした状態でサンプルページが表示されます。自分の意図通りに設定されている場合には、右上の「次へ」をクリックしましょう。

次々にサンプルが表示されますので、問題がある場合には手動で設定を修正しましょう。5ページ分のサンプルを確認すると、「完了」という項目が右上に表示されるので次に進みましょう。

⑤最終確認画面

採取確認画面

最後に確認したサンプルページを再度見直して、問題が無い場合は右上の「公開」ボタンを押しましょう。これでデータハイライターによる構造化データの設定は完了です。

テストツールのご紹介

構造化データ テスト ツール

構造化データ テスト ツールで正しく構造化データが記述できているかを確認できます。URLもしくはHTMLを入力することでそのページに設定した構造化データが正しく設定されているか、どの項目が設定されているかに加えて、検索結果上でどういう表示がなされるページなのかを確認できます。

テストツール

構造化データのマークアップを行った後には出来る限りこのツールを用いて、正しく設定されたかを確認するようにしましょう。

※なお、このツールで表示される検索結果プレビューが必ずしも本物の検索結果で表示されるとは限らないようです。

ウェブマスターツールの「構造化データ」項目

ウェブマスターツールの構造化データでは、構造化データの設定にエラーが無いか一覧で確認することができます。検索結果のプレビュー機能は無いですが、構造化データにエラーがあるデータタイプやページが一覧で確認できますので、URLを何度も入力する必要のある構造化データテストツールよりもその点は便利です。

まとめ

ここ最近の検索エンジンまわりの動きを見ても、構造化データを利用する重要性は高まるはずなので、サイトによっては是非チャレンジされると良いかと思います。しかし、サイトの全体的なマークアップに構造化データを適用するというのはコスト的に現実的でない場合が多く、そのあたりのバランスは今はまだなかなか難しいのかなと思います。

最後に、こちらも参考にどうぞ。

皆様のお役に立ちましたら幸いです。

ヴォラーレ株式会社 巣鷹

最近のGoogleの変動はペイデイローンアップデート2.0とパンダアップデート4.0の2本立てが原因??その内容と対策

先週末くらいから、確かに検索結果で不安定な動きが見られ、SEO関係者の「Google動いてる…?」的なツイートもその時期から多く見られました。

そんな中、先日GoogleのMatt Cutts氏がこのようなツイートをしていました。

“Googleは本日パンダ・アップデート4.0を実施しましたよ(5/21)”

 

“先週末、Googleは”とってもスパミーな検索クエリ”に向けたアップデートを実施しましたよ(5/21)”

 

このことから、”パンダ・アップデート4.0″と”ペイデイローン・アップデート2.0″という比較的規模の大きな変更が、先週末~今週末にかけてほぼ同時期に実施されていたことが分かりました。

パンダはまだしも、ペイデイローンについては、「ぺイデイローン?何それ?言いにくい!ダサい!」と思われる方や、「それって1996年に公開された、突如現れたUFOに地球が襲撃される系のウィル・スミス主演の映画のタイトル?」などと思われる方も相当数いると思われます。

既にクライアント様からも次々と質問をされていますので、解説を入れておきます。

「この変更に伴いどんな対策をすべき?」について

具体的なアルゴリズム解説は後にして最初に結論を言っておきますと、これらの変更は「大半のサイト運営者にとってはさほど影響のない話」であって、更にちょっと乱暴に言えば、今回は仮に影響があったとしても、基本的なSEOの取り組み方針としてやるべきことは特に変わらないです。

それはつまり、ユーザーが欲しがる情報を用意しておきましょうとか、薄いコンテンツを減らして中身の詰まったサイトにしましょうとか、不正なリンクを取り除いて正当なリンクを集めましょうとか、スパム的なことをするのはダメです、とか技術的に問題が発生しそうな実装があるのであれば最適化しましょう、というようないつも言われていることになるのですね。

変更に伴うランキングの調整の方法を探すのではなく、変更の背景や意図を理解し、SEOの取り組みに反映させる

パンダ、ペンギン、今回の”ペイデイローン”にしても然り、こういう比較的大き目の変更があったとして、それに都度「今回はこう!」「次はこう!」「そんでもって次は、、こう!」みたいな感じで何かを対応していくというスタンスは、正直いえばなかなか不毛な場合も多いです。

何故ならば、Googleが定期的に行う”変更”の大半は技術的な刷新や変更、あるいは追加であって、「検索サービスとしての方向転換」では決してないのですよね。つまり基本的にはどういう検索結果にしたいかという方向はだいたい固まっていて変わらなくて、それを実現するために、次々に新しい技術や仕組みを取り入れているというようなイメージです。

それにもう一つ理由を言うのであれば、あからさまな問題点とあからさまなタイミングの一致がある場合を除き、最近では原因を特定することももちろん難しい場合が大半です。

アルゴリズムの変更はいちいち公表されるものではそもそもありませんし、日常的に様々な変更を加えられ、かつ以前のアルゴリズムよりもかなり多面的な評価がされているということも考慮すると、ほとんどの場合は「考えても分からないものを考える前に、目の前に山積みになっている課題を一つ一つクリアしていきましょう」ということになるわけです。

もちろん、内容によっては「やるべきこと、考えるべきことが変わる(≒増える)」場合ももちろんあります。ですが本質的に大事なのは、「この変更を経て、今ランクを調整するためにどういう対応をすべきか」ではなく、「この変更はなぜ行われたのか、そしてその上で、自分たちがやることを追加、変更する必要はあるか」という考え方が良いのではないかなと思います。

※参考:Googleがアルゴリズムを変更する目的とSEOの役割

そういう意味では、今回はなにか大きく慌てるようなことがあるかというと、まだ不明な点もありますが、基本的には従来の仕組みの延長線上で行われている変更ですので、特にないかなと(ただしもちろんこういう不安定な時は自サイトや競合他社のランキングの観測はきちんとやっておきましょう)。

ということで、ここから先は各々についてまとめていきます(主に初心者向けに書きますのでそこまで厳密な解説はしません)。

ペイデイローン・アップデート

ペイデイローン(Payday Loan)とは、「次回振り込まれる給料を担保にした少額のローン(貸金)」のことみたいです。確かに日本だと馴染みはないですね。

アルゴリズムとの関連性の文脈としては、なんのこっちゃ良く分かりません。

ペイデイローン・アップデートの内容

ローンとSEOと何の関係があるの?と言えば、「こういう系のキーワードは(上位表示されると売上に直結しやすいため)スパムに汚染されやすい」という特徴があります。これは日本でも同じことが言えますね。

その「不正に順位操作されたサイトで検索結果がいっぱいになってしまいがちな残念な検索キーワード」の代表例として”ペイデイローン”という言葉が使われ、一般的なこのアップデートの呼称となっているわけです(Google公式の名称ではなく、通称。)。

このアップデートは、そういう残念なことになっている検索結果をきれいにしますよ(スパムをやってるサイトを排除しますよ)、という意図の更新です。

ペイデイローン・アップデートの対策は?

このアップデートの趣旨として、繰り返しになりますが「一部のスパムに汚染されまくったキーワード」を対象に、そうしたスパムサイトを排除するようなアップデートです。

例えば、日本国内で言えばギャンブル系キーワード、アダルト系キーワード、金融系キーワードなどは全体的にそういう傾向が昔から根強いですね。もちろんジャンルどうこうではなく、あくまで「スパムされやすい検索キーワード全般」ということなのですが。

どのキーワードが、とはもちろん明言されていません。ただし一般的に「激戦」と言われていたキーワードではガラッと検索結果が変わりました(変なサイトがゴッソリいなくなったり)。

ということで、これを気にする必要がある可能性がある人は、

  • 検索結果上位がスパムサイトで埋まってしまうようなテーマのサイトを運営していて、
  • 自身もスパムな手法を使ってSEOを行っていて、
  • ここ最近になって急激に順位が下落したように見える

のようなごく一部の方であって、ほとんどの方は影響のないアップデートと言えます。

※ここでいうスパム、はリンク購入に限らず、順位操作系のスパム全般を指しています。

ペイデイローン・アップデートまとめ

特定の手法や状態に対して評価を下げる、というよりも一部の特定のキーワードでの検索結果を、その中でスパムな手法を使って順位操作しようとしているサイトを排除することによってキレイにする、というような主旨のアルゴリズムであるとご理解下さい。

したがって、ほとんどのWeb担当者の方には影響ないものと思います。

パンダ・アップデート

もう英語圏で最初に導入されてから3年以上もたつのですね。SEO担当者の方であればほとんど全員が知っている内容なのでしょうが、最近はいちいちアップデートの公表もされなくなっていたので、耳慣れない方のために改めて解説を入れておきます。

パンダ・アップデートの内容

色々調べれば出てくると思いますので、ものすごくざっくりとした解説をしておきます。

  • 低品質なコンテンツが上位に出てきにくくするために実施されています。
  • 低品質とは例えば、単純に中身がスカスカだったり、
  • どこにでも書いてあるような薄っぺらいことしか書いてなかったり、
  • 他のサイトと共通のコンテンツしか載せてなかったり(独自性がない)、
  • 全体的に信頼できなさそうなサイトだったりが該当して、
  • 全体的にそういうコンテンツを多く抱えているサイトが検索にヒットしにくくなります

ざっくり言えばこういう感じです。こういうアルゴリズムを考慮した上で何をすべきかという点については、めちゃくちゃイメージで言えば、薄っぺらーく広がったサイトよりも、筋肉質で密度の濃いサイトを目指しましょう、というようなイメージです。

※具体的な対策はこちらの記事を:Google パンダアップデート 業界・タイプ別 傾向と対策

パンダ・アップデート4.0の特徴

まず、”4.0″とか”2.0″とかってというのは、アルゴリズムのアップデートのバージョンの話です(同じアルゴリズムの中でも、仕組み自体が刷新されたり、その仕組みの中で処理されるデータが更新されたりされます)。

パンダ・アップデート4.0では、以前(下のツイート参照)から言われていた“Next generation Panda(次世代パンダアップデート)”なのか?というのが少し関係者の中での関心事項になっています。まだ公式なアナウンスはありません。

“GoogleのMatt Cutts氏は(SMX Westというイベント内で)、新しいパンダアップデートは、小規模な事業者(サイト)にポジティブな影響を与えるだろう、と話していた(2014/03/14)”

 

まだ、これが具体的にどういう仕組みなのかは詳しくは分かっていないのと、今回のアップデートがこれにあたるのか?というのは何とも言えない状況ではあります(個人的には、おそらく今回で実装されたかなという気がしていますが)。

小規模なサイトが優遇される、というよりも、コンテンツ規模の大きなサイトを優遇せず、小規模サイトも大規模サイトも公平に評価できるようにする(規模の大きなサイトが、規模が大きいというだけで相対的に優遇されないようにする)的な文脈なのかな?と思うのですがどうなんでしょうか。公式なアナウンスを待ちます。

そしてまた先ほどと同じ議論なのですが、だからこの変更に際して何かを変える必要があるかといえば、特に大きなものは思いつかないです。規模が大きいから、という理由だけで恩恵を受けていたサイトがあって、こういう変更によりランクが落とされたとしたのであれば、もう少し、一つ一つのコンテンツに磨きをかけていく必要がありますね、という具合でしょう。

以上となります。ちょっと長くなってしまいましたがお伝えしたいところは中盤で書いてしまいましたのでこのあたりで。

ヴォラーレ株式会社 土居

【寄稿】元インハウスSEO経験者が語る、失敗しないためのSEO会社の選び方、付き合い方

先日、半ば勢いでこんな記事を公開したところ、即時で「協力したい」とご連絡頂いた、株式会社スタビライザーの小松氏に連載寄稿をして頂く運びとなりました。最初の記事は、自分たちではポジション的に絶対に書けない「SEO会社の選び方」的な、非常に難しいテーマから。。。

はじめに

「今日から君、うちのホームページのSEO担当してね!」って・・・

そんなことサラッと言われても何をして、どうすればいいのか。とりあえず、「SEO対策」で検索してヒットした会社に連絡して話を聞いてみるか。

中小企業のWebマーケティングでは、往々にしてこのような状況があるかと思います。もしかしたらこのブログを読んだ方もそんな経験がある方もいらっしゃるかもしれません。

ごあいさつ

ごあいさつが遅れました。私は株式会社スタビライザーの小松と申します。はじめまして。縁あってこちらに記事を寄稿することになりました。

株式会社スタビライザー:http://www.stabilizer.co.jp/

簡単に自己紹介させて頂きます。大手医療系人材会社のインハウスのweb担当役員を経て独立。

インハウスでは約8年間、webマーケティングの部署立ち上げから担当役員まで経験。インハウス経験者ならではの視点が強み。Webの何かの分野の専門医ではなく”webの町医者“として幅広い悩みに応えます。

自社で対応出来ない場合は専門の会社(人)と一緒に解決します。現在はSEMカフェのメンバーとして活動中。

そうです。私自身もインハウスでWebマーケティングを担当してきたため、みなさまが一度は経験したことある悩みを経験しています。

今回の連載では、SEOに限らずインハウス経験者ならでは視点や、予算の大きなwebマーケティングだけでなく予算が小さい、サイト規模が小さいサイトについても取り上げていきたいと思います。

前置きが長くなりましたが、本題に入ります。

SEO会社の選び方、付き合い方

これからSEOを外注しよう、またはリプレイスしようと考えている方。とはいえ、SEO詳しくないし…という方。そういう方に読んで頂きたい内容です。

以前まで所属していた会社で2006年からSEOに着手し、大手から中小・個人まで様々なSEO会社とお取引させて頂きました。取引に至らず商談だけなら数十社です。

その経験をもとに、しっかりしたSEOの知識がない場合、どういう選び方をすれば「外れる確率」が少ないか、についてお話しします。

1. 実務担当者がきちんと情報を発信しているか?

SEO会社の担当者や中の責任者がSEOに関するブログで情報を発信していたり、SEOのセミナーを開催しているところもあります。

積極的にそういうことをしている会社(人)は、そうでない場合に対して、信用できる確率が比較的高い。あまりメディアに登場しない凄腕のSEO会社ももちろんあるのですが、初心者ではそれはなかなか判断しづらいです。

※ポイント※
ブログでしっかりとした情報を発信しているかを見極める

※注意点※
ブログやセミナーで発信していても、間違った情報を発信する人もいます。きちんと複数見比べて、ご自身でもSEOの知識を強くすることをオススメします。

編集者注:

直前のコメントは本当にそうで、発注者側にSEOの知識が多少なりはないと、単独での正しい判断は困難を極めます。ただ一方で、その知識をどこから得るか、何をもってしっかりした情報発信なのか、という判断も、それはそれで初心者の方にはとても難しく、かといって勉強しましょうと言って経験なしに簡単に習得できるものでもなく、、、
極端な話、SEOの知見が何もない方にとっては、このブログはもちろん、業界でも著名なブログであってもそれが内容として良いか悪いかの判断も出来ないのですよね。
むしろ「こいつら難しそうなことばかり言いやがって、、もっと簡単に出来るって言ってる人もいるじゃないか」みたいな方も多いと思います。ということで、次に紹介されるポイントこそ、現実的に最も重要なポイントなのではないかなと思います。

2. SEOにある程度精通した人から紹介してもらう

自分の友人・知人でSEOを実施している会社はたくさんあると思います。取引実績のある会社からの紹介だと丁寧に対応してもらった、というケースは多くの方が経験されていることかと思います。

SEOも例外ではなく取引実績のある会社の紹介だときちんと対応してくれる可能性は高くなります

どうしても知り合いがいないなどの場合は、インハウスのSEO担当者が集まるイベントが定期的に開催されているのでこちらで知り合った方から実際の評判を聞いたり、紹介してもらうのも手です。

※ポイント※
信頼出来る人からの紹介は大幅に失敗率を下げてくれます。

※アドバイス※
そういう知り合いがいない場合はセミナーやイベントで知り合いを作りましょう。

編集者注:

初心者の方であれば、まずはここが現実的に最重要と思います。SEOに精通した方が周囲にいないのであれば、セミナーや交流会に積極的に参加し、実際に業界事情に詳しい方との交流を作り、相談相手を外部に持つことで、”外れクジ”を引く確率は格段に下がると思います。

ちなみに上記で紹介されていたイベントはインハウスで経験豊富な人が多く集まりますので、間違いないと思います(基本的にSEO事業者はNGなので僕は行けません)。

3. キーワードや順位やリンクのことしか話さない会社はNG

「このキーワードで上位にします!」
「ロングテールでたくさんのキーワードを集めます!」

インハウスの担当者からするとSEOを実施したい訳ではありません。SEOという施策を通じてトラフィックや収益を上げたいだけです。

特に、ここの収益を上げるというところがポイントです。

キーワードの検索順位は確かに下より上が良いですが、収益につながらないワードで上位表示出来たからといってコストだけ出ていっては仕方がありません。

もっというと代替案があるなら解決策がSEOでなくても良いのです。

少なくとも、そのキーワードで上位表示されるとキーワードの意図とサイトはマッチしているので収益が上がるとか、そのキーワードでは上位表示されても収益につながらないからこっちのキーワードが良いなど、依頼者の利益につながる話が出来ない会社や担当者と付き合っても、絶対にろくなことがありません。

どんなに有名な会社や大きな会社であってもこの時点でNGです。

※ポイント※
順位の提案ではなく収益につながる提案かを見極める!

※アドバイス※
自分たちでもどのキーワードで収益が上がりそうか、アクセス解析のデータやリスティング広告のデータから仮説を持っておく。

編集者注:

今でもたまに営業の現場に出たりする身から補足しますと、順位とかリンクとかキーワードに限らず、自社の商材を売ることを主眼とした話しか出来ないのであればその時点で微妙と思います。

それは仮にホワイトハットな提案をするとしても同じで。手段が目的にとって代わるということはあり得ないためですね。

4. 明らかに新人と思える担当者に単独で担当させない

個人企業だと判別できませんが、そこそこの規模の会社で、新人に営業させて新人がそのまま単独で担当になるケースはありますが、個人的にはそれは極力避けたいところです。

新人が悪い、ではなく、社会経験が浅くビジネスに対する理解が不十分だったり、SEO会社内での力が弱く、スピーディーに対応してもらうことが出来ない可能性が高いということです。

新人が担当の会社に依頼する場合でも、コンタクトは担当の人とするにしても必ずその人を単独で担当させないことです。出来れば、そのプロジェクトの責任者は誰で、施工項目の監修は誰が行うのか、なども教えてもらい、早い段階で顔合わせはしておくべきです。

※ポイント※
新人には単独で担当させない。経験豊富なベテランに最低でも監修に入ってもらう。

※アドバイス※
1の会社を2経由で紹介してもらえば、新人が単独で来ることはまずない。

編集者注:

実際に各社どこまでそれが可能かは分かりませんので、その場合、最低でも、「あなたが一人で担当するの?一人じゃないなら、誰がどういう感じで関わってるの?」くらいのことは予め確認しておくべきと思います。どうみても実務経験の浅い担当者が単独で対応する、は危険すぎるので避けるべきなのは間違いありません。

まとめとおさらい

いかがでしたでしょうか?SEO担当にはなったものの専任ではない場合、この4つをクリアすれば失敗する確率はかなり低くなります。

最後に、もう一度ポイントのおさらいです。

  • しっかりとした情報を発信しているかを見極める
  • 信頼出来る人と交流を作り、人づてに紹介をもらう
  • 順位の提案ではなく収益につながる提案かを見極める
  • 明らかな新人に単独で担当させない。

とは言え、これから初めてSEOを始める方は、1の方法でいろんなブログを読んだりセミナーに行ってみたりすると知識が広がってより精度高くSEOを実施することが出来ます。

次回は、「限られた予算の中でSEOをやる?リスティングをやる?どっち?なんで?」についてお伝えしていきます。

株式会社スタビライザー 小松 雅直

国内の検索エンジンとSEOの歴史を振り返る

地方で大学生活を送っているうちの内定者の佐々木君(平成生まれ)に、お勉強がてらインターネット黎明期の検索エンジン事情などについて色々調べてまとめてもらいました。

今や人々のライフスタイルの一部として当たり前となっている検索エンジンですが、今回は少し振り返ってその歴史やSEOの移り変わりについてまとめました。

SEOと日本の検索エンジン

SEOとは「Search Engine Optimization:検索エンジン最適化」ですので、検索エンジンの仕組みの変化に伴い、最適化の方法も変化します。

例えば、以下の大手の検索エンジン(Google、Yahoo!JAPAN、MSNjapan(Bing)、goo)に対して、シークレットモードで「SEO」と検索してみると、

SEO(google)
図1.Googleによる「SEO」の検索結果

SEO(yahoo)
図2.Yahoo!JAPANによる「SEO」の検索結果

SEO(Bing)
図3.Bingによる「SEO」の検索結果

SEO(goo)
図4.gooによる「SEO」の検索結果

見づらいと思いますがGoogle、Yahoo!JAPAN、gooの検索結果がほぼ同じ結果となっています。これは、Yahoo!JAPANとgooの裏側でGoogleの検索システムが動いているためです。つまり、現在はBingなどを除き、ほとんどの日本国内の検索はGoogleのシステムによって処理されているのです(BingはMicroSoftの自社開発の検索エンジンです)。

しかし、インターネット黎明期と言われていた2000年前後などでは、今とは全く状況が違いました。ここからはその歴史について振り返っていこうと思います。

検索エンジンの歴史

主な検索エンジンの登場年表

表1. 1990年代の検索エンジンの歴史
1990年代の検索エンジン年表

この年代はあれやあれやと新しい検索エンジンが登場しています。(オレンジで記載しているのが相当)そんな中、Yahoo!JAPANの登場によって日本国内はそれ一色でした。僕が初めて見たOSはWindows98で当時保育園の年長でしたが、トップページはYahoo!JAPANしか見た覚えがありません。

編集者注:↑衝撃

2000年に差し掛かってくると検索エンジンに初めから他社のものを採用したポータルサイトが出現してきます。(緑で記載しているのが相当)
では次に2000年以降はというと、、

表2. 2000年以降の検索エンジンの歴史
2000年代の検索エンジンの歴史

2000~2005年あたりで買収が盛んになってきます(青で記載しているのが相当)。2001年のYahoo!JAPANがロボット型検索エンジンにGoogleを採用した事によってGoogleの知名度は上昇していきます。そして米Yahoo!が独自のロボット型検索エンジンを開発したのが2004年、Yahoo!JAPANがGoogleと提携するのが2010年です。当時からSEOに関わっていた方々からすると、この統合は非常に大きな変化であったと思います。

※出典

検索エンジンの群雄割拠からGoogleが首位を勝ち取るまで

1990年代年代後半は、Webサイトの爆発的な増加に伴い多くの検索エンジンが登場するまさに群雄割拠の時代でした。

Googleが出る以前は検索エンジンサービスを持つ会社のサイト又は、他の企業の検索エンジンを採用して立ち上げたサイトはポータルサイトとしてのサービスが主流で、そこには検索窓以外にも多くのコンテンツ(天気、メール、ニュース、広告など)を含む様になりました。

中でも、前述の通り日本においては1996年に登場した「Yahoo!JAPAN」が主流となります。

yahoo!1997
1997年のYahoo!JAPAN( 出典:Yahoo! JAPANのトップページザイン15年史 )

当時の検索エンジンは決して性能が良いとは言えませんでした。

人気のYahoo!JAPANはディレクトリ型検索エンジンを採用していた為、予め登録しておかないとそもそもサイトが表示すらされないし、検索してもユーザーの求めている情報とは異なったものを表示させています(これには最適化の手法に関する問題があるのですが、最適化については後述します)。

それでも当時はインターネットなんて馴染みが無かったのでトップ画面上に表示された豊富な情報量に感激し、「検索」はあくまでサブの機能でYahoo!JAPANも検索エンジンを重要視していない状況だった事もあり、「検索結果に悩まされる」という人は少数だったのではないかと予測出来ます。

そんな中、Googleがリリースしたサイトは検索窓のみ、広告も無しといった極めてシンプルなものでした。

google_1997
1998年に米Googleがリリースした検索サイトページ( 出典:Google.com 1997-2011)

え、なにこれ?って当時の人は思ったのではないでしょうか?GoogleのWebサイトを開いても何もコンテンツが無い、質素な検索窓のみです。コンテンツが満載だったポータルサイトの利用者からすると、何の面白味もないサービスだと感じた方も多かったのではないかと思います。

しかし、Googleの検索エンジンは

  • ユーザーの検索ニーズにより応えれる独自のロボット型検索エンジン技術
  • 価値のあるサイトか否かを指標付けするページランクの導入

という他の検索エンジンには無い価値により、次第に多くの人がGoogleの検索エンジンを好んで使う様になります。

そして2000年にはGoogle日本語版が上陸し、2001年にはYahoo!JAPANの検索エンジンに採用され、どんどん知名度を上げていきます。

google2000
2000年のGoogle検索サイトページ( 出典:Google.com 1997-2011)

しかし、Googleも検索エンジンを世に送り出した当初は殆ど収益性がありませんでした。そんな中、1998年に米Yahoo!が考え出した検索連動型広告を参考に2001年にリリースした「Google Adwords」が、多くのユーザーが使っているGoogleに広告を出稿する事への価値を高める効果を発揮し、ここからGoogleは多額の広告収入を得る様になります。

その他、Googleは

  • Google AdSense
  • Google drive
  • gmaiL
  • Googleカレンダー
  • Google Web Designer
  • Googleアナリティクス
  • Googleウェブマスターツール

こうした仕組みやツールを世に出しさらに多くの利用者を集め、急速にシェアを拡大してきました。その結果、日本だけでなく、実質現状としてはGoogleが世界の検索エンジン市場の大半を占めています。

最近ではGoogleの検索エンジンのアルゴリズムが変更されたという情報に対して多くのメディアや業者が敏感になっています。他の検索エンジンの内容が変わってもほとんどと言っていい程、問題視されていません。それだけSEOにとってもGoogleの変更は多大な影響を与えるということです。

Googleの近年の検索エンジンアルゴリズムの変更内容に関しては、以下のサイトが(英文ですが)見やすいので興味のある方はご覧下さい。
Google Algorithm Tiemline

Yahoo!JAPAN以前の検索エンジン

少し余談ですが、Yahoo!JAPANが日本に登場する前にも日本に検索エンジンは存在していました。

senrigan
出典:Google以前の検索エンジン

こちらは早稲田大学村岡研究室の学生であった田村健人さんが1994年11月に立ち上げた国内初のロボット型検索エンジン「千里眼」です。独特なデザインのアイコンが目に止まります。

この千里眼は検索の対象が.jpをドメインに持つWebサイトのみでした。Yahoo!JAPANを始めとするポータルサイトに需要を奪われて最終的に1999年にサービスは終了してしまいますが、千里眼にはサイトにリンクしているページ(=被リンク元)を表示させる機能がありました。

今でこそフリーソフトで被リンク元を調べる事も出来ますが、当時の検索エンジンで被リンク元を調べれるというのは画期的だったのではないでしょうか?

※出典

日本のSEOの歴史

1990年代後半(Google登場前)

さて本題となるSEOの歴史ですが、SEOという言葉そのものは検索エンジンがWebサイトを認識した瞬間から始まっています。

インターネットの世界が始まると、Webサイトの持ち主は自身のサイトに検索エンジンを通じてのアクセス数が増加した事により、オーガニック検索の価値を高く評価する様になりました。

1990年代後半になりWebサイトの数が爆発的に増加してからはより一層、どうしたら自分のWebサイトが検索エンジンにとって最適になるのかを考える様になります。そこに対して、Webサイトを上位表示させる為に必要な技術や知識が求められるようになり、それが現在でいうSEOということですね。

リリース当時のYahoo!JAPANはディレクトリ型検索エンジンが主流で、Yahoo!JAPANにサイトを登録する必要がありその審査は厳選されていた為、個人規模のサイトが検索結果に反映される事はあまり無かった様です。

1998年には検索エンジンにロボット型の「goo」を採用しますが、1990年代後半時点でのSEOの手法は

  • ページの中にキーワードがいくつ含まれているか
  • サイトのページ数はどのくらいあるのか
  • HTMLの最適化が出来ているのか

といった内容でした。alt属性にキーワードを盛り込んだり、隠しテキストとしてキーワードを盛り込んだり、(内容が薄い可能性が高い)Webページを大量生産したりといった施策が頻繁に行われます。今考えればただの内的スパムです。当時は、サイトのコンテンツを充実させるとかリンクを集める、などということがなくてもちょっとした小手先のテクニックで上位表示させられる時代だったということですね。

2000年〜2010年(Google登場後)

2000年になりGoogleの検索エンジン日本に上陸してその利便性が広く浸透する様になってからはGoogleの検索エンジン導入されているページランクの判定基準である被リンクが注目される様になり、

  • 外部リンクの数を増やす
  • 質の高いサイトからリンクを貰う

といった内容がSEOの施策として注目されます。今のようにブログやTwitterをはじめとするソーシャルメディアが普及していなかった当時は自然にリンクを集めることは今に比べ難易度が高く、リンクを自前で作る為にWebサイトを大量生産するには労力的に割に合わないことなども起因となり、リンク提供型のSEOサービスの需要が2000年代後半に向け徐々に高まることになります。

SEO会社の多くはこぞってクライアントのサイトにリンクを与えて上位表示させていました。内容が伴っていないサイトであってもお金さえ払えば上位表示出来る、SEO会社もリンクを張るためのサイトさえたくさん持っていればとりあえず仕事が出来る時代と言えました。

同様に、コンテンツの品質を評価する仕組みが未発達だったことから、ただページ数だけが多いようなサイトが検索結果で多く露出されているという状況でもありました。

Googleのページランクの導入により検索結果がだいぶ改善されたとは言え、今と比べればまだまだ検索結果は粗かったと言えます。

2010年以降

Yahoo!JAPANが2010年に検索エンジンにGoogleを採用した事でSEOは事実上Googleの検索エンジン最適化とほぼ同義になりました。

編集者注:ここでは書かれていませんがそれまではシェアから考えてもYahoo!検索エンジン(YST)のSEOが主流でしたね。Yahoo!とGoogleどちらの動向も追う必要があった(しかもどちらも全然不完全で意味わかんないことも多かった、TDPとかTDPとか、、)頃に比べるとかなり最適化難易度としては易しくなっているとも感じます。

また、2011年にGoogleが行ったパンダアップデートよって低品質なコンテンツが上位表示されにくくなりました。

同様に2012年のペンギンアップデートの導入や、によるガイドライン違反に対するペナルティ対応の強化などにより、それまでのようにリンク集め

以降、SEOの手法に関しては、もちろんHTMLの最適化や被リンクは必要ですがそれよりも、本質的にユーザーにとって価値のあるサイトを作れているのかどうか、という方向性に徐々に興味がシフトしていくようになりました。

まだまだユーザーの求める情報を完璧に提供出来ているとは決して言えない状況ですが今後、よりユーザーの求めるサイトが上位表示される世の中になる事は間違いありません。

※出典※

最後に

SEOの歴史はまだ約20年と浅いものですが、スピード感のあるWeb業界においてこれからのSEOに関する環境もさらに変化していきます。

この様な時代において新しい発見や知識を得るには「温故知新」という諺がある様に歴史を知る事も必要なのかもしれません。

ヴォラーレ株式会社 佐々木

被リンクから”オーサーランク”へ評価軸が変更、、って本当?? マット・カッツ氏の動画を解説してみる

先日公開されたマット・カッツ氏の動画が様々な憶測を呼びWeb界隈を賑わせつつ、なかなかカオスな感じになっておりましたので、話のネタとしてきちんと釣られておこうと思います。今回はコンサルティング部門のグループマネージャー實川がお届けします。

ここでマット・カッツ氏の「被リンクの重要性が薄れる」という発言が、被リンクによる評価が今後使われなくなり、その代わりに「オーサーランク」なるものが非常に重要なファクターになるのではないかといった解釈を誘発しているようです。

違います

まずはこの動画をきちんと和訳をしてくれている方がいらっしゃるので、こちらの訳を参照していただくと分かりやすいかと思います。

被リンクは死ぬのか?マット・カッツの話を和訳してみた

これをもとに、今回マット・カッツ氏が言っていることを噛み砕いてみると、

  • ユーザーに役立つページをより正確に見つけるため、自然言語を理解してそれを評価軸にできるよう今頑張っていますよ
  • もし自然言語をきっちり理解できるようになれば、被リンクにばかり頼らなくてもある程度正確な解釈ができるようになるので被リンクの重要性は相対的に薄れていきますよ
  • ただし、ページの基本的な評価のために被リンクの評価は役立つので今後も使っていきますよ

といった内容であると読めます。「オーサーランク」などという言葉はそもそも言及されていませんね。

元々検索エンジンは「ユーザーの求める情報を素早く適切に提供することでユーザーを増やし、広告手数料で収益を上げる」というビジネスモデルなので、検索ユーザーにいかに有益な情報を提供できるか、そしてユーザー数・ユーザーあたり利用頻度を上げていくことができるかというところが収益を上げるための重要なファクターになります。

この有益な情報を発見するためのシグナルとして、これまでは主にリンクがどのくらい集まっているか(=どのくらい他のサイトから支持を受けているのか)をベースにしたものでありました。

それが、実際にそのページにどういうことが書かれているんだろうか、それは信憑性のある内容なのか、などのことが今よりもっと的確に理解できるようにしたいんですよ、そのために、今よりももっと多角的な評価方法を取り入れていきたいんですよ、というお話ですね。

その中の要素として、ダニー・サリバン氏の例に上がっているように「誰が書いたの」という情報が理解できるようになればそれもコンテンツの信頼度を測る上での1つの重要なシグナルとして活用できますよね、ということです。

マット・カッツ氏が今回述べているのは以上のようなシンプルな内容なのですが、ちょっと界隈で「オーサーランク」の話題も上がっていたのでこちらについてちょっと解説します。

著者の権威性(オーサーランク)

上で書いたように今回マット・カッツ氏が話しているのは自然言語理解の技術が重要性を増してくるというところが趣旨なのですが、その発言の中で「専門家の書いた記事を読解しようとしている」旨の話があり、ここのところがオーサーランクの話を想起させているようです。

「オーサーランク」という言葉はGoogleが公式で発表しているものではなく、SEO関係者が慣習的に用いている言葉です。オーサーランクは、検索における評価づけをコンテンツ単位ではなくそのコンテンツの著者(Author)に対して行う試みのことで、特定分野において信頼できる著者を見つけることである程度安定的に良質な情報を提供できるようになるはずだ、という仮説に基づいています。

同じサッカーを習うのでも、町内会で大人気の近所のおじさんに教わるよりもサッカー日本代表の本田選手に教わったほうが良いに違いないですよね、ということで、沢山リンクを受けているだけで実際その分野には詳しくない人が書いた記事とその道の専門家が書いた記事であれば当然後者を信頼すべきだということを検索結果にも反映しようという試みですね。

この”人物の権威性”という要素は現在のところGoogleの検索結果のなかでもごくごく一部にのみ使用されていることが明らかになっているだけで、現状で大きな影響を及ぼすものではありませんが、取り組みとしては合理的であり、将来的にはもう少し影響力を持つであろうと予測されています。

参考:
Google、人物の権威性に基づいて検索順位を決定していることを明らかに Author Rank::SEM R
Author Rank (オーサーランク)はまだランキング要因になっていないが、使われている場面がある | 海外SEO情報ブログ

再度言っておくと今回のマット・カッツ氏の発言は「自然言語理解の上で専門家の書いた記事を理解することでどういった記述がその分野で価値のある情報なのかということを理解しやすくなる」という文脈で、オーサーランクが被リンクにとって代わります、ということではありません。

従って、(リンクはしませんが)

【速報】Google「被リンクからオーサーランクに移行する」SEO業者全滅か!?
href=”http://netgeek.biz/archives/11937

↑こういった誤った解釈を多分に含むような情報は本来あまり多くの人に見つけられるべき情報ではありませんが、今の時代こうした記事であっても被リンクを集めやすくなっているので被リンク評価だけでこうした記事であっても上位表示してしまいます(事実、5月15日現在「オーサーランク」で検索すれば上記記事がかなり上位に来てしまいます)。

この話題について調べた人がこのような記事に辿りついてしまって誤った情報を取り込んでしまうことは、ユーザーにとっては決して有益ではありませんね。(この話題に関わらず、被リンク販売のみを行ってきたSEO事業者のシノギが苦しくなってきているのは今に始まったことではありませんし、、)

しかしそれが現在のGoogleの評価であって、今後はもっと内容として信憑性があり確かな(本来の意味で有益な)情報が優先してユーザーの目に触れるようにトライしています、という主旨の話題なのです。

Googleの目的と今後のサイト評価の展望

上でも書いたように、検索エンジンはこのビジネスモデルであり続ける限り半永久的に「ユーザーの役に立つか否か」という価値基準でコンテンツを判断したいのです。

自然言語が理解できようができまいが、Googleとしてはその時点での技術に合わせて最適なアルゴリズムを充てていかなければなりません。

リンクよりも精度の高い評価基準が見つかればそちらを重視しようとするし、その他に信頼できる評価基準があるのであれば、それも積極的に取り入れていくでしょう。

このあたりの、評価の重要性の移り変わりについてはSEMリサーチさんの喩え話で

被リンクという評価手法から、何か別のものに移行する、置き換えられるという話ではありませんのでご注意ください。技術発達により、従来はできなかった評価方法を用いることが可能になれば、その他の評価方法の相対的な重要性は低下していくものです。例えば、ある大学の入学試験が英語(100点満点)、国語(100点満点)の2教科だったものが、英語+国語+数学+小論文(各100点満点)の4教科に変更されたら、国語と英語の相対的な重要性は低下しますよね、それと同じです。自然言語処理が進化し、(従来不可能だった)モノゴトの真の意味の理解が可能になれば、従来の評価指標は重要性が下がります。

と書かれていましたがこれが一番しっくりくるのではないかと思います。
引用元:[UPDATE] Google「バックリンクの重要性は薄れる」今後は著者オーソリティやコンテンツ分析へ::SEM R

基本的にはGoogleの本来の目的というところをしっかり押さえていれば検索技術の展開をどのようにしていくかというのはある程度正しく想像できるようになるため、あまり間違った解釈もしなくなると思います。迷ったら検索エンジンって何がしたいんだっけ?ということに立ち返っていただくのが良いと思います。

※こちらも参考に。

「SEOはGoogleとのイタチごっこ」というのは本当なの?

もちろん本当ではありません。ただし、これは全くの間違いですかと言えばそうではなく、何かものすごく偏った、というかごく一部の側面だけを切り出した視点からの表現と言えます。具体的には、

・SEOとは、Googleの意図と関係なくランキングを操作する手法である
・Googleは、そうした手法を駆逐するために日々アルゴリズム変更を実施している
・SEOとGoolgeは、そうした意味で対立関係にあるものである

こうした偏った観点でのSEOとGoogleの考え方である、と言って良いと思います。
実際には、そもそもSEOの意図はそういうところではありませんし、Googleの変更は不正な手法の排除だけでは決してありませんし(スパム対策は検索結果の品質改善の取り組みのうちの一部でしかない)、SEOとGoogleは本来は先ほどお伝えしたように補完関係にあるはずのものです。
もともと、ちょっとしたサイトのチューニングと、人為的にリンクを増やして上位表示する、ということがSEOとして普及してきていたので、そういう視点で見るのであれば、逆にこういう表現がシックリ来るのは間違いないと思いますが。

引用元:Googleがアルゴリズムを変更する目的とSEOの役割

ヴォラーレ株式会社 實川節朗

熟練のプロも答えに窮する、SEOについての究極の質問

 

「何の仕事してるの?」

 

Webの世界で「SEO」という概念や仕組みは幾分か浸透してきているとは言え、残念なことに、世間一般的なこういう仕事の認知としては非常に低いというのが現実でしょう。

そんな中、SEOを生業としている人にとって「WebやSEOについてほとんど知らない人に自分の仕事内容について一言で説明できる」ことは究極の課題の一つである、ということはSEOの経験者であればそんなに異論はないと思っています。

そこで、質問者の属性別に、どんな回答をするのがベストだろうか?を個人的な意見としてまとめました。この連休に帰省される方も多いと思いますので、何かの参考にしていただければと思います。

おばあちゃん、おじいちゃん、田舎の親戚のおじちゃん等

ここでは、普段からPCやスマートフォン、それ関連の話題に一切触れていないし知識もなければ興味関心も当然一切なし、という層という意味です。

こうした層の方には、「インターネット」も「パソコン」も「ホームページ」も「IT」も「Web」も難しそうと敬遠してきているため言葉として聞いたことがあっても、すべてほぼ同義語として扱われる傾向にあります(自分調べ)。

彼らにWorld Wide Webの概念と検索エンジンの仕組みや役割を説明してSEOという仕事について理解してもらおうとするとなると、こちらとしてもかなりの覚悟をもって、じっくり腰を据えて回答に臨む必要があります。

一方で彼らとしてもそうした話題に対しては「難しそう」というイメージが強いため、詳しい話を理解したいと思っている方はごく稀なはずです。

こうした考えを経て、あらゆる試行錯誤の末、ある意味こうする他ないという結論に達しました。

 

「パソコンの仕事。」

 

このような、この業界の全てを包み込んでくれるような優しい回答を用意しておくことで、お互いの利害が一致し、「あら難しそうな仕事してるのね、立派ね」ということで上手く着地できます。

夜の嬢の方々等

僕のパーソナリティを知っている方は既にご存知と思いますが、もともと内気で草食系、仕事一本で人間関係も不器用な人間ですので、僕個人としてそういうお店と縁が深いわけでは決してありませんが、需要としてはありそうですのでという意味で書いておきます。

彼女らは、仕事の一環としてお客さんの仕事内容を聞いたりして話を広げていくことは基本的なコミュニケーション方法の一つです。仮に興味があろうがなかろうが、なんとか話のきっかけをつかみたいというところと思います。

もちろん、最近はインターネットも普及しそういう分野の知識や興味のある人も割合増えてきたとはいえ、まだまだ全体から見れば興味津津というのは少数派です。

僕がもしそういう前提で質問をされたら、一言で答える場合の回答はこうです。

 

「ざっくり言えばIT系、その中でもWeb系、のベンチャー企業でマーケティングのコンサル、みたいな仕事してるんだよね」

 

とりあえずそれっぽい言葉を並べただけの極めてアレっぽい回答ですが、これで大体は解消できます。反応としては「よくわからないけどスゴそうだね~」が8割です(と知人から聞いています)。

ちなみに余談ですが、僕の同業者にあたる某社の某氏と先日久々にお会いしたのですが、氏曰く、

「an●nの”女性にモテる職業ランキング”の1位は広告系、2位がIT系だったんだけど、俺はIT系で広告系の仕事をしてるんだよ」的な回答をいつもしてて、これが意外にめちゃくちゃ反応いいんすよ

とのことでしたが、率直なところ、色々な意味で未だ懐疑的である、と言わざるを得ません。

Webとは違う業界で働いている同年代の友人や先輩など

Web業界ではないとは言え、インターネットを日常的に利用し、FacebookやTwitterやブログなどで自分から情報発信している人が多く、情報への感度はそれなりに高めと言えそうな層、とイメージしてください。

彼らは前提となる知識を持っているわけではないとは言え、うまく説明すればきっと理解してもらえるはずです。彼らに対して自分の仕事をきちんと説明できるかどうか、というのはSEOという仕事を世間に知ってもらうという意味でも非常に重要なことと思っています。

的確に伝えるスキルが必要なのはこのラインではないでしょうか。ざっくり言うと、こういう感じの説明を端的にします。いきなり真面目な感じですが。

 

・ざっくり言えばWebの世界で企業のマーケティングに関わる仕事

・具体的にはGoogleとかYahoo!の検索結果上でWebサイトが良いポジションに掲載されるようになるためのお手伝い

・それを有料広告ではないアプローチで実現するのがSEOという仕事

・それを実現するために必要なアドバイスを企業向けにしている

 

だいたいこういう話題で話が具体的なところまで広がることが多いわけではありませんが、割と雰囲気では理解してもらえます。

広告系の仕事、と一緒にされそうになりますが、そこは何か変なSEO人のこだわりみたいなところで「広告、というよりも技術的な側面のほうが割合多いかな」的な補足は入れたりします。

Webに関わる仕事をしている人

最後に、Webに関わる仕事をしている方であれば、大半の人はSEOという言葉について最低限の理解はあります(実務的にではなくてイメージ的な理解)。

そういう方には「SEOだよ」でだいたい通じるようになってきました。もちろん人によって知識レベルには差があるし、変な風にイメージ持ってる方も多いので、そこから先は具体的なところまでお話します。

まとめ

知識が一切ない、インターネットは利用してるがそこまで具体的なところに興味はない、業界人ではないがインターネット分野の感度もそこそこ高い、Webに関わる仕事をしている、くらいのパターン分けで解説しました。

連休前なので何か書いておこうと思ってこんな記事しか浮かばなかったのが残念ですが、参考にして頂ければと思います。それでは良い連休をお過ごしください。

ヴォラーレ株式会社 土居

Googleがアルゴリズムを変更する目的とSEOの役割

ご存じの通り、Googleというシステムには日々様々な変更が加えられています。それに伴い、SEOを行う際に気をつけた方が良いこと、逆に気にしなくて良くなったこと、なども継続的に発生し、日々の情報収集と定期的な知識のアップデートが求められることは間違いありません。

しかし、そのようにGoogleに変更が加えられること、それに伴いSEOにも変更が必要になる場合があることなどから、「SEOはGoogleとのイタチごっこ」のような偏った理解をされている方や、逆に「SEOの時代は終わった、これから必要なのはSEOではない」などの極端な解釈をされている方が多いです。

出尽くした感の否めない話題ですが、改めてそのあたりについて整理しました。

改めて、検索エンジンについて理解する

Googleという検索サービスのビジネスについて、最近東証一部に上場されたファンコミュニケーションズの柳澤社長(@ankeiy)がこれ以上ないくらい端的に表現されていたので引用させて頂きます。

 

Googleは世界中の情報をクローラーというプログラムで収集し、検索して取り出しやすいようにインデックス(索引)化し、検索キーワードが送信された際にその言葉の意味や検索の意図を理解し、ランキングアルゴリズム(≒ランキング算出ロジック)に基づき検索結果に表示する順序を決めて、それを検索結果に表示します。

ここで表示された検索結果が検索ユーザーにとって都合の良いものであればあるほどツールとしての利用価値は高いと言えますし、利用ユーザー数の獲得や利用頻度の向上につながります。

一方で、GoogleはAdWordsという広告プラットフォームを広告主に公開し、検索キーワードと関連性の高い広告を検索結果に表示できる仕組みを持っています。この広告がクリックされた時点で、Googleには広告収益が発生します。

従って、シンプルに考えてしまえば、検索ツールの利用者数や利用頻度が増えれば、総合的に検索結果に広告が表示される回数や広告クリック数が増え、結果としてGoogleの収益も増える、と言えますね。

つまりGoogleが検索ツールとしての収益を高めるためには、まず基本的な取り組みとして検索ツールの利用価値を高める、つまり「検索した人が見たい情報にすぐに辿りつける検索ツール」にするような取り組みが継続的に必要になるのです。

今のGoogleは完璧なシステムではない

前の記事の中でも触れた内容なのですが、文脈的にこちらでも引用しておきます。

不完全というのはどういう根拠のもとで言っているかと言えば、

・検索する人が検索する言葉をある程度考えて打ちこまないとうまく欲しい情報に辿りつけないことが多い
・サイトが検索エンジンが理解できるように作られていないときちんとヒットしないことが多い
・ユーザーが本来求めていないような情報が上位に表示されることが多い

などの点からです。

ということですね。

つまり、適切な検索キーワードが上手く思いつかなかったり、見たいサイトが検索エンジンにとって読み取りにくい仕様で作られていたりすればユーザーは見たい情報に辿りつけませんし、また、未だに内容として間違いだらけの情報が上位に表示されていたりもするわけです。

Googleは何のために日々の変更を行っているのか?

Googleが今の時点で理想とは言えないのであれば、当然そのギャップを埋めていくために様々な改善を加えていく必要があります。いわゆる「アルゴリズム更新」なんていうのもこの一環です。変わるのはアルゴリズムだけではなく、先ほどの

世界中の情報をクローラーというプログラムで収集し、検索して取り出しやすいようにインデックス(索引)化し、検索キーワードが送信された際にその言葉の意味や検索の意図を理解し、ランキングアルゴリズム(≒ランキング算出ロジック)に基づき検索結果に表示する順序を決めて、それを検索結果に表示する

という、一連のプロセスを実行するための仕組み全般において様々な変更が日々加えられています。実際には、これに加えて、不正な手法でランキングを操作しているサイトを人為的なオペレーションのもとでランクを下げるなどのスパム対策(手動対応)も取られたりしています。

Googleはとにかく、検索ユーザーに対してより理想に近い検索結果を返すために出来ることは何でもやろうとする、ということです。イメージとしてはこんな感じでしょうか(今やってるセミナーの資料から抜粋)。

とにかくGoogleの実情と理想がまだまだかけ離れているのでそのギャップを埋めるためにGoogleは頑張っているんですよという図です

例えばですが、昨年に実施された「ハミングバード・アップデート」について、あまりこうした話題に不慣れな方々が「ハミングバードによってリンクやSEO会社の出る幕は終わった、よりコンテンツが重要視される時代に」と言うような主旨のエントリーが書かれているのをいくらか見かけました。

しかし実際にはハミングバードとは、リンク評価やコンテンツの評価などではなく、上図で言う「検索された言葉の意味や意図をより的確に把握するため」のアップデートです。

具体的には、フレーズや言葉ではなくて、(音声検索の普及などを見越して)「会話型の検索キーワード」を今までより適切に解釈して上手く処理できるようになりました、と言った趣旨の変更でした。

では、SEOの役割とは?

Googleが検索結果の改善のために様々な取り組みを行っている一方で、ではSEOという考え方はどのような役割を果たすべきなのか?と考えてみましょう。先ほどの図の延長で見ればこういうことでしょうか。やや無理やり感がありますが。

SEOとは、検索する人が打ちこむキーワードを想定してページに反映しておく、検索エンジンが正しく理解できるようにサイトを作る、検索エンジンがユーザーに提示したいような情報を用意し、それが正しく優先表示されるようにする、など検索エンジンの実情を理解し、それでもユーザーが検索を通じてサイトに辿りつける状態にしておく、そのために必要な取り組みのことです。

Googleが、自社システムの不完全な部分を埋めるための取り組みを行っているのに対して、SEOは、現状のシステムの性能、将来的な検索エンジンの向かう先を理解をした上で、多くの検索ユーザーが検索結果を通じてサイトに辿りつける、という状態を安定して作っておくために行われるものなのです。

その中で、直接的なビジネスへの貢献度が高い(≒売上に直結しやすい)一部の商用キーワードにおいては、そのポジション争いが熾烈となり、過剰な手法を用いてランキングを上げようとする対策が蔓延しており、それがいわゆるブラックハットSEOと括られるものです。日本で「SEO」と称されているものの多くは、ここの部分を指して言われているものなのです。なので話が時折おかしな方向に行くんですね。

しかし、これは検索結果全体からみればごく一部の検索結果で苛烈に発生していることであり、大半の検索結果においてはそうしたものとはほぼ無関係です(なぜなら皆さんは普段買い物をするためだけに検索をするわけではありませんよね?)。

とにかく、SEOはGoogleの不完全さを、技術的またはマーケティング的なアプローチを以て補完し、サイトを検索から辿りつける状態にするための取り組み、と言えるものなのです。

「SEOはGoogleとのイタチごっこ」というのは本当なの?

もちろん本当ではありません。ただし、これは全くの間違いですかと言えばそうではなく、何かものすごく偏った、というかごく一部の側面だけを切り出した視点からの表現と言えます。具体的には、

  1. SEOとは、Googleの意図と関係なくランキングを操作する手法である
  2. Googleは、そうした手法を駆逐するために日々アルゴリズム変更を実施している
  3. SEOとGoolgeは、そうした意味で対立関係にあるものである

こうした偏った観点でのSEOとGoogleの考え方である、と言って良いと思います。

実際には、そもそもSEOの意図はそういうところではありませんし、Googleの変更は不正な手法の排除だけでは決してありませんし(スパム対策は検索結果の品質改善の取り組みのうちの一部でしかない)、SEOとGoogleは本来は先ほどお伝えしたように補完関係にあるはずのものです。

もともと、ちょっとしたサイトのチューニングと、人為的にリンクを増やして上位表示する、ということがSEOとして普及してきていたので、そういう視点で見るのであれば、逆にこういう表現がシックリ来るのは間違いないと思いますが。

SEOというアプローチそれ自体を見限るということは、場合によっては本来得られるべき自然検索トラフィックの多くを放棄することにもつながります。検索トラフィックはまだまだWeb全般で見たときには非常に大きなインパクトのあるものです。SEOを正しく理解し、またその重要度について正しく評価できることが重要です。

Googleは完璧な検索システムになり得るか?

まず、完璧なシステムって何よ?というとどういうことかと言えば、例えば

  • ユーザーが今欲しい情報を完璧に理解できるようになったとき
  • ユーザーと全く同じようにコンテンツを閲覧できるようになったとき
  • ユーザーが欲しい情報を有機的に判別できるようになったとき

のようなことが実現出来れば、今の発展形としてはかなり理想に近い検索ツールと言えると思います。そしてこうなれば、今のSEOノウハウなどとされているものの大半は無用の長物になっているでしょう。

しかし、完璧になる時代って訪れるんでしょうか?と言うと、少なくとも当分は訪れないと思います。少なくとも、今の「検索」という形式を取っている以上はなかなか難しいのではないでしょうか。

万人共通のベストアンサーがあるわけでもなければ、同じような情報を求めていたとしてもシチュエーションに応じて本来ベストなアンサーは異なるでしょうし、そこまで含めて全ての検索に対して常に最適解を提示できるというのはちょっと想像が出来ませんね。

Googleが多くの人に使われている中で、それが検索システムとして完璧でないのであれば、それを補完する技術としてSEOはまだまだ必要、と言えると思います。

まとめ

Googleは不完全なシステムですし、検索技術が進歩しても完璧なシステムがすぐに出来上がるわけではない以上、それを補完する(=検索サービスと、Webサイトと、検索ユーザーをつなぐ)ための技術は必要で、それがSEOです。

人々の情報探索行動の中で「検索すること」が重要なファクターである以上は、SEOは終わりませんし、変わらず重要な取り組みと言えます。それだけで物事が全て解決するわけではないというのは間違いありませんが、面倒で難しいからという理由でSEOを放棄するのはただ勿体ないとしか言いようがありません。

初心者向けの内容とは言え、ここに書かれている内容は、SEOに関わる人は全員が共通認識としてもっておいたほうが良い内容と思っています。少しでもためになったとか役に立ちそうと思った方は是非シェアなりブックマークなりして頂けると幸いです。

ヴォラーレ株式会社 土居

Googleが日本のリンクネットワークに制裁を与えたようです

先ほど、GoogleのMatt Cutts氏がTwitterで「ここ数カ月で日本国内の7つのリンクネットワークに制裁を与えた」という内容のツイートをしたことが話題になっています。他のブログでも既に取り上げられていますが、こういう話題はあまり触れないのですが大事な動きですのでこちらでも書いておきますね。

“Over last few months”ということですので、今日そういうことがありました、ではなくて「ここ数カ月にわたってそういう対処をしてきました」という事後報告ですね。ですのでこの発表があったからどうこう、と慌てるような話題ではありません。

少し補足するとこういう発表のあるなしに関わらず、リンクネットワークの駆逐は小規模なものから大規模なものまで順次実施されています。また、こうした動きも今に始まったことではなく、以前からこういうようなネットワーク単位での制裁は行われています。

今回の「日本国内の7つのリンクネットワーク」がどれを指すのかは今時点では分かりませんが、海外ですと「○○のネットワークに対して制裁を与えた」という感じで名指しで公表されているものも多くありますね。

海外でのこうした発表は前から見られており、最近ではヨーロッパ諸国の話題が多かったのですが、日本国内のリンクネットワークに関する発表は初めてでしたので界隈では「ついにきたか!」という感じで話題になっていますね。

今回は結論とかはありません。

ヴォラーレ株式会社 土居

※参考記事※
Google、日本の7つのリンクネットワークに制裁
Google、国内7つのリンクネットワークに制裁を科したことを公表