完全版GoogleウェブマスターツールSEO活用ガイド

ウェブマスターなら誰もが活用したいグーグルのウェブマスターツール。SEO本格的に取り組まなくとも、グーグルでのサイトの登録状況が様々な側面から把握できるこのツール、意図しないペナルティ等も増えている最近、最低限理解&設定しておきたい項目を厳選して紹介します。機能が豊富すぎてどこから手をつけたらよいかわからない、というあなたもまずはこれを読んで基本を押さえるべし。 — SEO Japan

グーグルウェブマスターツール(WMT)は、強力な味方になり得る。しかし、ミスをすると、もしくは、間違った使い方をすると、SEOにマイナスの影響をもたらす可能性がある。この記事では、ウェブマスターツールの利点を完全に利用していない人達のために、ウェブマスターツールの基本的なSEOガイドを提供したいと思う。

これから説明するツールの一部は、その他のツールよりもサイトにより大きなダーメージをもたらすことがある点を指摘しておく。また、それぞれのツールやレポートに対する記事が既に投稿されている可能性もある。このウェブマスターツールのSEOガイドは、鋭い見解を交えた要約だと思ってもらいたい。

SEO Guide to Webmaster Tools

ウェブマスターツールのSEOガイド

メッセージ: スパムの警告 & その他の通知

優先順位: 中/高

サイトに問題が見つかると、グーグルがウェブマスターツールにeメールを送信することは、よく知られている。ウェブマスターツールのメッセージを頻繁にチェックしていない場合、重要な情報を見逃してしまう可能性がある。

重要メッセージの例として、不自然なリンクの通知が挙げられる。このようなメッセージは、重大な問題を示唆する場合もあれば、結果的に何も起こらない場合もある。特定の状況に対処するグーグルの計画に左右される。いずれにせよ、このタイプのメッセージを受信したなら、その理由を解明するべきである。

Bad Link Warning

リンク警告

設定

優先順位: 高

設定のタブでは、- 地域ターゲット、使用するドメイン、そして、クロール速度の3つの設定を行うことが出来る。

地域ターゲット

グーグルは次のように指摘している。「お客様のサイトで汎用的なトップレベル ドメイン(.com、.org など)が使用されている場合は、地域ターゲティングの情報を基に グーグルでは検索結果へのお客様サイトの表示方法を決定できます。地域ターゲティングにより、地域に関連する検索結果の精度も向上します。お客様のサイトを特定の地域に関連付けたくない場合は、[指定なし] を選択してください。」

この項目を設定して、意図する地域のマーケットに狙いを定めよう。

使用するドメイン

グーグルはこの項目について、「使用するドメインを http://www.example.com と指定し、グーグルが検出したサイトのリンクが http://example.com である場合、この 2 つのリンクは同一と見なされます。」と説明している。

私は使用するドメインに関しては、ウェブサイトをどのようにインデックスして欲しいかを考慮して設定するよう薦めている。こうすることで、wwwと非wwwのドメインの双方の所有権を証明する必要がある可能性がある。

クロール速度

最後の選択肢は、クロール速度である。グーグルは、「グーグルでは、サーバーの帯域幅に大きな負荷をかけることなく、サイト内のできるだけ多くのページをクロールすることを目標としています。サイトのクロール速度(クロール処理での グーグルのリクエストの速度)は、www.example.com や http://subdomain.example.com のようなルート レベルまたはサブドメイン レベルのサイトで変更できます。新たにカスタマイズしたクロール速度は 90 日間有効です。」と説明している。

大抵の場合、ウェブマスターは、グーグルにそれぞれのウェブサイトに対するクロール速度の選択をグーグルに任せている。しかし、一部のケースでは、グーグルボットが問題を起こす可能性があり、その場合は速度を変えなければならない。

Settings Webmaster Tools

ウェブマスターツール – 設定

サイトリンク

優先順位: 中

あらゆるウェブサイトのオーナーが良質なサイトリンクを求めている。ちなみにサイトリンクとは、グーグルの検索結果でドメイン名の下に表示されるリンクのことである。

小さなサイトリンク:

Small Sitelinks

小さなサイトリンク

大きなサイトリンク:

Big Sitelinks

大きなサイトリンク

サイトリンクは、特定のクエリに対して、ドメインが持つオーソリティの高さに基づいて決定される。サイトリンクを構築して、オンラインの評判管理を支えているウェブサイトは多い。ネガティブな情報をページの下の方に下げることが出来るためだ。

サイトリンクがどのように表示されているにせよ、ウェブマスターツールのこのセクションで、サイトリンクを降格させることが出来る。従って、何らかの理由で表示させたくないサイトリンクがあるなら、削除しておこう。

ここで一点注意しておきたいことがある。1本のサイトリンクの順位を下げた結果、全てのサイトリンクが数ヶ月間に渡って表示されなくなったケースがある。そのため、軽はずみな気持ちで、順位を下げるべきではない。

Sitelinks Webmaster Tools

ウェブマスターツール – サイトリンク

URL パラメータ

優先順位: 高

ウェブマスターツールでは、URL パラメータを指定し、クロールするべきURLとするべきではないURLをグーグルに伝えることが出来る。これは非常に強力なツールになり得る。しかし、失敗すると、サイトの大半がインデックスから削除されてしまう。

個人的には、このツールの利用を避けるべきだと思う。このツールが役に立つ問題に直面したなら、rel=canonical、no index/no follow、301 、または、robots.txtを使う方が無難である。

このツールを利用する必要がある場合は、適切に設定していることを確認してもらいたい。また、ウェブサイトのURLの構造を熟知していることが、このツールを利用する上での大前提だと言っておこう。

サイトのURLの構造がクリーンであり、適切な人物が利用しているなら、役に立つだろう。

URL Parameters

ウェブマスターツール – URL パラメータ

アドレス変更

優先順位: 中

引っ越しするなら、適切にその旨を伝える必要がある。

この項目についてグーグルは次のように説明している。「新しいドメインにサイトを移す際、アドレス変更ツールを使って 、グーグルに新しいURLを伝えることが出来ます。グーグルは、インデックスを更新し、新しいURLを反映させます。変更は180日間に渡って有効であり、その頃までには、新しいURLのページをクロール & インデックスしているはずです。」

Change of Address

ウェブマスターツール – アドレス変更

過剰な量のクロールのエラー

優先順位: 中

ウェブサイトの動きが悪く、定期的にエラーが発生しているなら、対処するべきである。しかし、現実には、エラーに対処していないウェブサイトが多い。ユーザビリティに悪影響を与えるエラーは、顧客の損失につながりかねない。

Crawl Errors WMT

ウェブマスターツール – クロル エラー

クトールの統計情報

優先順位: 中

このレポートは、1 日あたりのクロールされたページ数、1 日にダウンロードされるキロバイト(KB)数、そして、ページのダウンロード時間 (ミリ秒)を報告している。偶然にも、ページのダウンロード時間を伝えるレポートが新たにグーグルアナリティクスに導入されている。個人的には、アナリティクスのレポートの方が遥かに質は高いと思う。しかし、このタイプのレポートは、全体的に有効だと言えるだろう。レポートを確認する際は、次のように考えてもらいたい:

  • クロールされるページが多ければ多いほど良い(グーグルがコンテンツに興味を示し、チェックしている)
  • ダウンロードされるページが多ければ多いほど良い(無視しても良い領域でグーグルが時間を無駄に費やす問題が発生していない場合)
  • ダウンロードに費やす時間が短ければ短いほど好ましい。ご存知のようにページスピードはSEOの要素である。しかし、特定のメディアのダウンロードに時間がかかる可能性もある。

注記: 上述した原則は、全てのウェブサイトに当てはまるわけではない。あくまでも一般的な目安である。

Crawl Stats

ウェブマスターツール – クロールの統計情報

ブロックされたURL

優先順位: 中/高

このレポートでは、robots.txtによってブロックされたURLを確認することが出来る。一部のケースでは、ブロックされるべきではないサイトの領域が表示されることもある。このケースに該当する場合は、ブロックを解除する必要がある。

 

Blocked URLs

ウェブマスターツール – ブロックされたURL

Fetch As Google

優先順位: 高

Fetch as Googleは、グーグルのようにウェブサイトのページを取得することが出来るツールである。ページがアクセス可能かどうかを調べたい場合、このツールは大いにプラスに働く。大規模なサイトの場合、様々な取り組みが行われており、このシンプルなツールが頼りになることがある。直接的な答えを得られるからだ。当該のページをグーグルが取得することがどうかが分かる。

また、このツールには、グーグルボット-モバイルとして、ページをフェッチするオプションも用意されている。モバイル向けの最適化の異なる形式に対して、必要な要素が存在するため、このオプションは大いに役に立つ可能性がある。

Fetch as Google

ウェブマスターツール – Fetch as Google

 

インデックスステータス

優先順位: 中

インデックスステータスのレポートは、グーグルがウェブサイトで見つけることが出来るURLから、何本のURLがインデックスされているのかを報告する。

このレポートを利用することが可能な用途の例を一つ紹介しよう: サイトマップに300本のURLを抱えていると仮定する。この300本のURLは、インデックスしてもらいたいURLであり、また、恐らく、サイト上に存在することを把握しているURLだと考えられる。しかし、インデックスレポートは、20,000本のURLから、3,000本のURLをインデックスしていると指摘している。

このような不一致が意味することは、サイトが、カノニカルURLや重複するコンテンツの問題を抱えているか、または、ただ単にウェブマスターがサイトでの取り組みをよく分かっていないかのいずれかである。

Index Status Webmaster Tools

ウェブマスターツール – インデックスステータス

マルウェア

優先順位: 高

フォーラムやコメントに誰かがコードを挿入した場合、問題が発生する。グーグルはこの問題に気づき、マルウェアだと判断する。すると、誰かがこのサイトに訪問すると、ユーザーにとって安全ではない旨を説明するメッセージが表示される可能性がある。そのため、マルウェアのレポートを確認する必要がある。

Malware Webmaster Tools

ウェブマスターツール – マルウェア

 

検索クエリ

優先順位: 中

検索クエリのタブでは、グーグルのインデックスでURLが得ているインプレッションとクリックの回数の目安を知ることが出来る。このツールは、上位のクエリを表示し、また、携帯電話、画像、動画、ウェブ、場所、そして、トラフィックに分類されている。

このレポートを確認することで、ランキングとトラフィックの目安を得られる。しかし、信頼性に欠けると言わざるを得ない。このレポートで提供される情報は目安に過ぎない。チャートに大きな変動があるなら、調べてみる価値はある。

Search Queries

ウェブマスターツール – 検索クエリ

 

サイトへのリンク

優先順位: 中/高

ご存知のように、劣悪なウェブサイトから張られたリンクはサイトに害をもたらす可能性がある。一つのキーワードに対してアンカーテキストが多過ぎる(日本語)と、アルゴリズム関連のペナルティを科される可能性がある。ウェブマスターツールのリンクレポートでは、誰がリンクを張ったのかが分かる。また、上位のアンカーテキストの情報も得ることが出来る。上位のアンカーテキスト内に表示されている用語で上位にランクインしていないなら、リンクの一部を削除しておくことを薦める。

この項目では、ウェブサイトに向かうリンクを全てエクスポートし、見直すことが出来る。審査請求を行う前にリンクを無効化する必要がある場合、この項目を時間を割いてよく調べる必要がある。とりわけ、私はこのレポートを見る時、サイトに大量のリンクを向けている質の低いサイトを確認するようにしている。通常、海外の質の低いサイトからのリンクは、グーグルに注意を促す。リンクを評価する方法を延々と語ることも出来るが、このツールが存在する点をここでは知ってもらいたい。

Links to your Site

ウェブマスターツール – サイトへのリンク

内部リンク

優先順位: 中

良質な内部リンクは、グーグルがページを発見する上で大いに役に立つ。また、適切に実施すれば、ランキングアップにもつながる。ページに対するリンク1本1本が、それが、内部リンクであれ、外部リンクであれ、グーグルで上位にランクインするための票の役目を持っている。そのため、内部リンクがもたらす価値についてよく考えてもらいたい。

ページに向けられているリンクが多ければ多いほど、グーグルの目には、ページのオーソリティが高く映る。従って、検索にとって特に重要なページに対して、頻繁にリンクを張るように心掛けよう。しかし、その他の取り組みにも共通することだが、過剰にリンクを張る行為は避けるべきである。妥当な範囲内で内部リンクを行い、その他のページの内部リンクの比率に合わせるように努力しよう。

Internal Linking Webmaster Tools

ウェブマスターツール – 内部リンク

サイトマップ

優先順位: 中/高

サイトマップに関しては、少なくともウェブマスターツールには投稿しておくべきである。これは、基本的なXMLのサイトマップであることが多い。また、画像のサイトマップ、ニュースのサイトマップ、動画のサイトマップ、または、モバイルのサイトマップもまた投稿することが出来る。

いずれにせよ、この項目をチェックして、サイトマップが投稿されているかどうか、エラーが生じているかどうかを確認しよう。サイトマップは多ければ多いほど良い – サイトマップを支えるコンテンツが存在することが条件。

Sitemaps Webmaster Tools

ウェブマスターツール – サイトマップ

URLの削除

優先順位: 中/高

グーグルはURLの削除ツールを用意しており、ウェブマスターは、URLの削除を依頼することが出来る。当然、ウェブサイトを持っていることが条件である。残念ながら、このツールの効果を理解することなく利用している人がいるようだ。以前、ある会社の従業員がこのツールを使って、大規模なウェブサイトのホームページを削除していたことがあった。私がこのリクエストの存在に気づくまで、誰もトラフィックが激減した理由を理解することが出来なかった。

また、先日、あるディベロッパーがこのツールを使って、50本以上のURLを削除していた。全てのURLのページは割と上位にランクインしており、301リダイレクト、または、単純に修正して残しておくべきであった。このツールは強力であり、誰にでも利用させて良いわけではない。

Google URL Removal Tool

ウェブマスターツール – URLの削除ツール

HTMLの改善

優先順位: 中

このレポートはとても価値が高い。グーグルの視点で、ウェブサイト上の重複したコンテンツの形態を見ることが出来る。重複するコンテンツのタイトルタグのリンクをクリックすると、同じタイトルを利用しているページのリストが表示される。これは、カノニカルURLやサイト上のその他の重複するタイトルやディスクリプションを見つける上で大いに役立つ。

HTML Improvements Webmaster Tools

ウェブマスターツール – HTMLの改善 Improvements Webmaster Tools

コンテンツ キーワード

優先順位: 中

コンテンツ キーワードレポートは、ウェブサイトで特に多く利用されているキーワードを報告する。この内容はSEOに影響をもたらす。パンダアップデート以来、ウェブサイトに関連するテーマを持つことが重要になった。

論理的なテーマを持つキーワードのグループを携えることで、グーグルで上位にランク付けされる可能性は高まる。難易度の高いキーワードに焦点を絞っているなら、コンテンツ キーワードレポートに反映されているべきである。

Content Keywords Report

ウェブマスターツール – コンテンツ キーワードレポート

構造化データ

優先順位: 中

構造化データレポートは、グーグルがサイトで見つけた構造化データの数、そして、構造化データが用いられているページの本数を報告する。また、サイトで利用されている構造化データのタイプの数も伝える。構造化データは、競合サイトから差別化する上で効果があり、今後、SEOにおいて大きな役割を担うようになるだろう。このタブを見れば、サイト上の構造化データを明確に理解することが出来る。

Structured Data

ウェブマスターツール – 構造化データ

データハイライター

優先順位: 中

データハイライターは、コーディングに自信がないウェブマスターにとって貴重なツールである。このツールを使うと、サイトに変更を実際に加えることなく、構造化データをウェブサイトに適用することが可能になる。現在、利用することが出来るのは、イベントの構造化データのみだが、今後、グーグルが構造化データを加えていく可能性はある。

Data Highlighter

ウェブマスターツール – データハイライター

 

その他のリソース

優先順位: 中

その他のリソースには、3つのツールが用意されている。一つずつ簡単に紹介していく。

リッチスニペットテストツール

これは、グーグルが正確に構造化マークアップを解釈し、表示していることを確認するためのツールである。

グーグルプレイス

グーグルが提供するこの無料のローカルプラットフォームはグーグル+になったものの、ここではグーグルプレイスと表記されている。アップデートしてもらいたいものだ。

Google Merchant Center

これは製品データをアップデートするための場所である。先日のアドワーズの統合により、このアカウントをアドワーズに接続して、グーグルショッピングで良好なパフォーマンスを実現することが重要になった。この点に関して詳しく知りたい方は、この分かりやすいスターターガイドを参考にしよう。

作成者の統計情報

優先順位: 中

このページには、作成者(オーサー)のプロフィールがウェブサイトに適切に接続されている場合、スタッツが表示される。新しいウェブサイトにrel=”author”を設定する際に私はこのツールを多用した。全て適切に設定され、準備が整っていることを確認するためだ。

Author Stats Webmaster Tools

ウェブマスターツール – 作成者の統計情報

カスタム検索

優先順位: 低

グーグルの検索バーをウェブサイトに加えることが出来る点を知っていただろうか?このタブでは、カスタム検索に関する情報を得られる。 私はカスタム検索を複数のサイトに設定したことがあるが、全て問題なく動いている。このツールには、サイトの検索レポートを有効にする利点がある。

Custom Search Webmaster Tools

ウェブマスターツール – カスタム検索

インスタントプレビュー

優先順位: 低

このツールは、Fetch as Googleにとても良く似ている。ウェブサイトを取得し、その後、検索のオンデマンド インスタント プレビュー検索のプリレンダリング インスタント プレビュー、そして、モバイル検索のインスタント プレビューを見ることが出来る。

このセクションでは、取得中のエラーも表示される。ここでは、Ignite Visibilityを例として用いている。ご覧のように幾つか問題は発生していたが、デザイン変更を終えようとしているところであり、今後対処する予定である。下の方には9つのエラーが発生した旨が表示されている。

Instant Previews

ウェブマスターツール – インスタントプレビュー

 

サイトのパフォーマンス

優先順位: 一番低い

グーグルは、サイトのパフォーマンスのサポートを終了している。グーグルはこのセクションで次の情報を提供している。

サイトパフォーマンスはWebmaster Labsの機能でしたが、現在はサポートを終了しています。

サイト パフォーマンスを把握し、改善するには、以下のサービスをお試しください:

  • グーグル アナリティクスのサイトの速度では、ユーザーのページ読み込み時間が測定され、他のユーザー設定速度も測定できます。
  • ページスピードインサイトではページのコンテンツが分析され、パフォーマンス改善のための提案を見ることができます。

ちなみに、私はページスピードインサイトを愛用している。

リンクの否認ツール

優先順位: 議論の余地あり

リンクの否認ツールは、役立つこともあれば、害をもたらすこともある。グーグルでウェブスパム対策を統括するマット・カッツ氏は、強力なツールだと強調している。しかし、良質なリンクをブロックしてしまうと、ランキングが落ちる可能性はある。質の低いリンクを否認すると、SEOにプラスの影響を与えると見られている。

従って、このツールを利用する際は、リンクの質を理解しておく必要がある。大半のSEOのエキスパートは、質の低いリンクを分析するための基準を用意している。

disavow links tool

このガイドでは多くのポイントを取り上げたものの、他にもこのツールを利用する用途は数多くあり、また、このツールとレポートから得られるメリットも他にも多く存在する。まずは、始めることが最初のステップである。サーチエンジンランドには、グーグルウェブマスターツールの最新情報、そして、ウェブマスターツールを特集したニュースが豊富に揃っており、情報源としても利用してもらいたい。


この記事は、Search Engine Landに掲載された「The SEO Guide To Getting Started With Google Webmaster Tools」を翻訳した内容です。

予想以上に全体を網羅した充実の記事でした。私もブックマークして使いたいと思います。。。 — SEO Japan [G+]

絶対に忘れてはならないSEOの基礎がある

新しい季節も始まった今、改めてSEOの基礎を見直してみようという記事を今回は。若干抽象的な話が多いですが、再確認の意味も含め、新人検索マーケッターもベテランSEOマニアも一読する価値ありの内容です。 — SEO Japan

2006年のFIFAワールドカップでアルゼンチンが準々決勝で敗退した時、大勢の情熱的なファンが衝撃を受けた。ドイツとの試合で、アルゼンチンは、90分間で決着をつけることが出来ず、PK戦で敗れた。試合後、非難の矢面に立たされたアルゼンチン代表のペケルマン監督は、辞任を追い込まれた。

なぜだろうか?

ファンや専門家が、ペケルマン監督がスター選手のリオネル・メッシをスタメンから外した采配をこぞって批判したためだ。致命的であり、代償の高い戦略のミスであった。

しかし、それがSEOにどのような関係しているのだろうか?意外にも、大きく関係している。

SEO戦略を改善する

SEOのスペシャリストは、似たような戦略を強制される – つまり、優秀な戦略を控えに回さなければいけなくなる。毎日のように新たなテクニックが登場しているため、従来のオンサイトのSEOの重要性を見過ごし、効果のある方法に焦点を絞ることが出来なくなるケースがよくある。

クライアントから「一番新しい、一番流行っている、一番格好いい」手法を求められ、大勢のSEOコンサルタントがフラストレーションを抱えている。最新の手法を使って、検索結果でのビジビリティを高める行為自体は問題はない。しかし、その結果、テストを経て効果が証明されたメソッドが犠牲になることが多い。

だからこそ、時間を割いて、このチェックリストに目を通し、SEOの基礎を正しく理解している点を確認する必要がある。

1. 収益と利益への焦点を維持する

Focus Your SEO on Revenue and Profit

イメージ: Crestock.com (ライセンス)

あらゆるオンラインビジネスにとって、収益、そして、利益は重要である。どちらを得る上でも、オンサイトSEOが欠かせない。緻密に、個々のレベルで、オンサイトSEOを使って、マーケットに焦点を絞るべきである。

ソーシャルメディアマーケティングは、浸透しており、SEOとのシナジー効果は、絶大である。

しかし、その他の従来のSEOの形式にソーシャルメディアが取って代わるわけではない。また、アーティクルマーケティングもオーディエンスの構築において、控えに回るわけではない。

グーグルの常に変化するアルゴリズムを掌握する上で、ブログのオーサーシップが、リンク構築の代わりを務めるわけではない。収益と利益を増やす取り組みに関しては、何でも試し、改善する価値がある。

2. 新しい手法の誘惑に負けない

オンラインで配信するアイテムは全てインデックスされる。顧客は、検索エンジンでコンテンツを発見し、顧客が目にするコンテンツは、購入の決定に影響を与える。自然な検索結果は、あらゆる企業にとって、収益に直結する成果をもたらす。従って、新しい未知数の手法を追いかけて、SEOの基本を後回しにするべきではない。

3. SEO戦略は常に変化する

この業界は常に変化している。グーグルは、200近くの要素を基にサイトのランクを決めている。アルゴリズムは毎日変化し、年間500-600回の変更が加えられる。そのため、SEO戦略を進化させ、適応させ、そして、改善させなければならない。

Social Media & SEO Strategy

イメージ: Crestock.com(ライセンス)

ソーシャルメディア、クライアントとのコミュニケーション、そして、その他のマーケティングのテクノロジーは、あらゆるキャンペーンにとって重要である。 しかし、全てのメソッドが、既に効果を上げている手法の代わりになるとは私は考えていない。

「新しいSEO」は作り話にすぎない。雑音であり、焦点がぼやけてしまう。勝利を収めるためには、新しいメソッドを受け入れ、全体的なマーケティングミックスに組み込む必要がある。

マーケティングに対するソーシャルメディアの重要性を過小評価するのは危険である。だからこそ、多くのSEOコンサルタントが、ソーシャルネットワークをマスターすべく、必死に研究しているのだ。ソーシャルメディアは、利益をもたらすポテンシャルを秘めている。マーケティングキャンペーンの欠かせない一部である。

全ての要素に対して適切に資金を用意する必要がある。マーケティングおよびSEOのその他の分野の予算を適当に削り、ソーシャルメディアのみに焦点を絞るべきではない。

4. 「新しい」手法を受け入れるものの、効果のある手法を維持する

心躍る新しいサービスやテクノロジーにより、顧客ベースを拡大させ、収益を増やす機会が生まれる。しかし、多くの会社の経営者が、流行りに乗り、「格好いい」マーケティングのテクニックに一目ぼれして、「従来の手法」を放棄している。

これは賢い判断とは言えない。既存のアプローチの上に闇雲に新しいモデルを重ねる方針も賢明ではない。適切なバランスを見出すことが肝要である。

5. とにかく焦点を絞る

混乱した状態から秩序を取り戻す必要がある。グーグルがアルゴリズムを調整する度に、あるいはフェイスブックが機能を加える度に、もしくは、ツイッターがツールを導入する度に、無条件に反応しているようでは、SEOの戦略にまとまりが欠けているように見えてしまう。

狙いをつけずに撃ちまくるのではなく、SEOやマーケティングキャンペーンでは、最大の目標にターゲットを絞る必要がある。

6. マーケティングを1つのSEOの取り組みに集中させるべきか?

集中させるべきではない。数あるマーケティングの取り組みの中で、SEOは特にコスト効果の高い取り組みの部類に入るものの、何もかも解決するわけではない。だからこそ、マーケティングの取り組みを多様化させて、よりターゲットの絞られたトラフィックを競合者よりも多く獲得する必要があるのだ。

ソーシャルメディア、eメールマーケティング、顧客関係の構築、そして、ロイヤルティプログラムと共に用いることで、SEOは、顧客、パートナー、投資家、ジャーナリスト、その他の関係者とのコミュニケーションを改善し、効率よく協力することが可能な環境を作り出すのだ。

7. インフォメーションアーキテクチャは単なる飾りではない

構造でもある。

優れたSEOは、インフォメーションアーキテクチャおよびウェブサイト/URLの構造を改善する。巧みに構造化されたコンテンツのレイアウトを用いることで、ネットワーク内の相乗効果を活用することが出来るようになる。予算が限られているなら、ベースを強化するために賢く利用しておきたいところだ。オンサイトSEOは、ウェブビジネスの安定した基盤としての役割を担っている。

8. 優れた構造がインバウンドリンクを呼び込む

優れた構造を用いると、リンクの深さを改善するだけでなく、リンクを張ってもらえる、ツイートしてもらえる、もしくは、例えば、「ウォールステッカー トップ10」リストのように、投稿で言及してもらえる確率が高くなる。

アンカーテキスト内で理想的なターゲットのキーワードを使って、適切な場所に深いリンクを張ってもらうことで、ウェブサイトおよびコンテンツに対して、最高のSEOのアドバンテージを確保することが出来る。

9. 完璧な餌で検索エンジンを釣り上げる

例えば、[ウォールステッカー]で検索が行われた際に、検索エンジンが優れたユーザーエクスペリエンスを提供する手伝いをする必要がある。コンテクストが適切であり、関連するページのみにリンクが張られている点を確かめることで、コンテンツの関連性を高めることが出来るだろう。

こうすることで、検索結果を巡って内部で競争することなく、サイトの各セクションに価値を加えることが可能になる。また、検索スパイダーによるクロールおよびインデックスが、スムーズに行われると言う利点もある。

10. 深く、強力なリンクを獲得する

強力且つ綿密に計画されたインフォメーションアーキテクチャを用いることで、力のある深いリンクを集めることが出来る。家具店を例にとって考えてみる。多くのブロガーがホームインテリアに関する記事を綴っている。理想的顧客は、このようなブログを読み、ツイートをフォローし、そして、フェイスブックで推奨事項を共有している。このタイプのブロガーは、- オーディエンスに対する価値を加えることが出来るため – 関連する内部のページのコンテンツに喜んでリンクを張るだろう。

11. コンテンツを整理する

コンテンツを整理する際は、ソーシャルネットワークを活用し、SEOに勢いを与えることを意識してもらいたい。全てのマテリアルをウェブサイトのルートディレクトリに落とすのではなく、[インテリア]に対するカテゴリを設定し、その中にサブカテゴリを作って、ニッチを分けていこう。

こうすることで、ブロガーは「interior/wallstickers/」に直接リンクを張りやすくなり、また、読者にとってより有益になる。オンサイトSEOは、ソーシャルネットワーク向けのアクティビティを強化し、メリットをもたらす。マーケティングキャンペーンの寿命を延ばし、効率を高める効果がある。さらに、顧客、ブロガー、ジャーナリスト、そして、パートナーにさらに関心を持ってもらい、共有してもらい、いいね!してもらえるようになる。

SEOの基礎に焦点を絞る

各種のマーケティングの取り組みを統合することで、当該のニッチのマーケットの大部分を制し、収益は自然に増加していくだろう。容易にこの流れを確立するには、基本に焦点を絞り、厳しい審査で効果が証明済みのSEOの基礎を採用する必要がある。

最先端のマーケティングは確かに刺激的だが、リスキーでもある。それに比べて、従来のアプローチは面白味に欠けるかもしれないが、見返りを得られる可能性は高い。

どちらからもメリットを得ることが出来る。焦点を失わないように注意してもらいたい。焦点がぶれてしまうと、制御不能な状態に陥ってしまうからだ。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「Are You Getting These SEO Fundamentals Right?」を翻訳した内容です。

一読の価値ありと書いておいて何ですが、抽象論というか簡単な話を難しくいいすぎているような感もある内容でした・・・とはいえ、適度に参考になる点はあったのではと。簡単にいえば、流行の手法は意識しつつも、あくまで基本に忠実に、ということですか。地道に頑張りましょう。 — SEO Japan [G+]

ランディングページに死を

最近、SEO以上にLPOに力を入れている私の会社ですが(テレビ東京のWBSでも紹介されました!)、サーチエンジンランドにて気になるタイトルの記事を見つけたので思わず翻訳&ご紹介。 — SEO Japan

今週、SMX Advancedカンファンレスで、私はプレゼン「ワンパターンのランディングページに死を」(リンクをクリックすると、スライドシェアでデックが開く)を行った。このスライドは、ほとんどがグラフィックで構成されているため、このサイトで詳しく説明させてもらう。

実は、私はランディングページ推進派であった。7年間に渡って、ランディングページの構築に携わってきた。弊社は、多くの一流の企業に対して、ランディングページの作成およびテストを行うソフトウェアを販売している。つい最近は、ランディングページの素晴らしさを絵で表現していた。ランディングページは、パフォーマンスマーケティング、コンテンツマーケティング、そして、テクノロジーが交差する部分である。これでは、好きにならずにはいられない。

しかし、これほどランディングページを愛しいても(少なくとも理想的なランディングページに関しては)、大半のランディングページは質が低く、毎日、胸を締め付けられるような思いをしている。

劣悪なランディングページの原因

ランディングページの質を下げる理由は次の2つのうちの1つであることが多い。(a)マーケッターが具体的なインタラクションについて考慮せず、ユーザーエクスペリエンスがひどい。(b)具体的なインタクションを考慮しているものの、ビジターが求めることではなく、自分達が求めること(コンバージョン)ばかり考えている。このモバイル支払い処理サービスは、その典型的な例だ(社名を隠している):

Landing Page Assault

このタイプのランディングページは、誘い文句のようなものだ。浅はかであり、「取引を成立させるために」最適化されている。正直に言うと、大半のビジターは、このようなアプローチに親切に反応することはない。だからこそ、大抵の場合、ランディングページの直帰率は95%前後に達するのだ。

この点について深く考えてもらいたい。何も問題がないなら、広告をクリックした20人のうち19人が、いきなり戻るボタンをクリックしないはずである。バーでナンパしたところ、20人のうちの19人に拒絶されるなら、誘い文句を変えるだけでは不十分である。全く異なる – そして、より誠実な – アプローチを採用する必要がある。新しいデオドラントを試した方がいいかもしれない。冗談はさておき、この拒絶反応は、ブランドにとって死に等しい。

しかし、幸いにもこの状況を変えることが出来る。

救済への道は – 直観とは相容れないかもしれないが – ランディングページについて考える行為を止めることだ。ランディングページは、マーケッターが生み出した作品である。「早く、あの企業のランディングページを見てみたい」等と願う人はいない。

その代わりに、エクスペリエンス/経験について考えよう。顧客候補の視点になって考えよう。広告をクリックしてランディングページにアクセスした際、求めているものを与えているだろうか?自分のことを好きになってもらえる理由を与えているだろうか?

コンテンツマーケッターは、望ましいブランドのインパクトを作る上での適切なエッセンスを持っている。しかし、良質なコンテンツが、必ずしも十分な勢いを得ているとは言い切れない。

コンバージョンの最適化の原則は、顧客候補の背中を押すことだが、優れたコンテンツが存在しない状況では、中古車のディーラーの戦術に成り下がってしまう。しかし、この戦術自体は問題ではない。この2つを連動させることが可能である。これが、卓越したポストクリックマーケティングの秘訣である。

ランディングページの既成概念を突き破る

様々な方法が考えられるが、ここでは1つの方法に焦点を絞って説明する: 1つのページのみに制限する必要はない。ランディングページはページである。ランディングページのユーザーエクスペリエンスを、型にはめる必要はなく、ビジターにとって最適な形式を採用するべきである。

先程紹介したひどいページは、いろいろな意味で、典型的なリード生成型のランディングページだと言える。このランディングページは、「無料」や「保証」等の用語、箇条書きした機能やメリット、Verisignやベター・ビジネス・ビューローからの信頼の目印、受賞経験による社会的証明、「start here」に導く赤い大きな矢印、コール・トゥ・アクション、500ドルを提供するオファー等、所謂ベストプラクティスを所狭しと詰め込んでいる。

しかし、自分がビジターだった場合、少し落ちつかない気分になるのではないだろうか?店に入って、店内を見渡した瞬間に、店員からしつこく購入を求められるケースを想像してもらいたい。これはマーケティングにおける攻撃とも言える。コンバージョンが一部発生する可能性はあるが、購入しない人達は、当該ブランドと決別するだろう。

1ページ – 顧客をコンバートさせるページが1ページしかないと考えていると、このような集中砲火型の攻撃につながる可能性がある。

同じキーワードフレーズで見つけたIntuitのランディングページと比較してもらいたい(クリックすると拡大する):

Microsite Example

ビジターが到着するページには、全てランディングページのDNAが共有されている。ヘッドライン – Get paid on the spot – があり、「start now」ボタンが用意され、無料のカードリーダーに対するコール・トゥ・アクションが提供されている。また、メディア「Wired」と「Wall Street Journal」に取り上げられており、社会的証明が存在する。プロセスと対応する電話機に関する箇条書きのような文章が用意されている。iPhoneを使ったハロー効果が用いられている。また、どこにでもあるようなストック写真ではなく、動画が用いられており、このデバイスを実際に利用するデモを見ることが出来る。

レベルの高いランディングページだと言えるだろう。

単一のページのランディングページとこのランディングページの違いは、コンテクストに沿ったナビゲーションを上部に用意している点である。これはマイクロサイトである。大変な作業を要すると思う方もいるかもしれないが、実は割と簡単に作ることが出来る。一つのページに全ての要素を詰め込もうとするのではなく、複数の関連するページを利用しているのだ。HTMLでページを結びつけるのは、難解な作業ではない。

こうすることで、顧客候補にとって、1つ目のページで納得した場合、「start now」をクリックする選択肢が生まれる。 しかし、コンバージョンする前にさらに情報が欲しい場合、より深く情報を追求することが出来る。

製品の利用を説明するために1ページまるまる割かれている。価格を詳細に説明するページ(通常は小さな活字で済ましてしまうか、あるいは、提供しないページもある)も用意している。このような詳細な情報を提供するページは、強力なコンテンツの役目を務めている。Intuitは、会社の経営者が知りたい情報: 月額料金、スワイプ利用料金、キー利用料金、手数料 – を全て明確に提示することで、信頼を構築している。

コール・トゥ・アクションが全てのページに登場している点に注目してもらいたい。ビジターに向かって叫んでいるわけではないが、忍耐強く待っている – 準備が済んだら、すぐに取引に移ることが出来る。

それだけではない。社会的証明にうんざりしている人もいるだろう。顧客候補の一部は、確実に飽きている。Wall Street Journalのロゴは、同紙がサービスを高く評価していることを示唆している。しかし、必ずしも、高く評価しているとは限らない。酷評している可能性もある。このようなマイクロサイトは、本当の意味での、社会的証明を提供する余地を得ている。ロゴだけではなく、ヘッドライン、配信された日付、そして、実際の記事に向かうリンクを加えることも出来る(クリックすると拡大する):

Genuine Social Proof

顧客の推薦広告にも同じことが言える。どこの誰かも分からない人物が「最高の製品だ!」と推奨するいかにも怪しい広告は避けるべきである。そうではなく、証言者の名前と組織を明かすべきである。この会社は、動画の証言も組み込んでいる。これは本物の推薦であり、信頼構築およびブランド構築の効果が見込める。

その他のランディングページを振り返ってもらいたい。顧客を獲得する点において、どのランディングページが優れていると思うだろうか?

マイクロサイトの形式にこだわる必要もない

確かにマイクロサイトは効果が高いかもしれない。しかし、このフォーマットに拘る必要もない。1つのページに執着する姿勢を正せば、オーディエンスを魅了する様々な方法が思い浮かぶはずだ。

例えば、California Closetsが提供するこの相談ガイドを見てもらいたい。専門用語で表現すると、所謂「コンバージョンパス」と言われるアイテムである(クリックすると拡大する):

California Closets

このクリックパスは、対立しない一連の選択肢をビジターに与え、求めている製品に導く。このガイドでは、まず「クローゼットの整理」か「部屋の整理」を選択する。クローゼットを選択すると、今度は「ウォークイン」か「リーチイン」を選択する。ビジターの関心に合わせて、既にイメージとコピーが調整されている。ウォーキンクローゼットを欲しい場合、ショールームに足を運ぶか、または、お宅訪問相談を選ぶ。

このインタラクティブな会話は、当該のビジターの求めに応じて完全に調節されたコール・トゥ・アクションのページでクライマックスに達する。理想のウォークインクローゼットに関する相談を自宅で無料で受けることが出来る。3-Dのレンダリングを実施し、予算内で見積もりを立て、忙しい生活にスケジュールを合わせると謳い、そして、短いフォームを用意している。

注記: これは多目的のウェブサイトではなく、PPCのランディングページである。ちなみに、このようなユーザーエクスペリエンスは、タブレットやスマートフォンでも抜群の効果を発揮する – タップに向いているからだ。

また、マルチページのランディングページによるユーザーエクスペリエンスは、「進行形のコンバージョン」を可能にする – BlukeCross BlueShieldの例に見られるように、会話のようなコンバージョンを介して、ビジターをゆっくりと進ませる(クリックすると拡大する):

Progressive Conversion

「少なければ少ないほど、得られるものは多い」と言うデザインの有名な原則が存在する。大量の要素を投じて、大声で注目を呼び込む行為を回避することで、本当の意味で有意義なコミュニケーションが生まれる。ジョージア州の85000の中小企業。活発なフェイスブックのコミュニティ – 社会的証明。郵便番号の入力 – シンプルな3つの手順の1つ目の段階 – でこのランディングページはスタートする。

ステップ2でも手間はかけていない: 何人の従業員が働いているのか?また、規模に応じた補償や解決策等、主なメリットが幾つか取り上げられている。

最後のステップに到達する頃には、勢いが増しており、ここで、簡素な見積もりのフォームを提供する。ちなみに、このページのコンテンツはビジターに合わせて調整されており – 郵便番号、会社の規模等 – 各種のプランが用意される仕組みになっている。ビジターは、この会話のそれぞれの段階で提供した情報の量よりも、多くの情報を入手する気になっている。「Finish」と記された緑色のボタンが、これが最後のステップであることを強調している。

コンバートだけでなく、印象を与え、刺激し、説得する

最後にもう1つ例を紹介したい。再びマイクロサイトを取り上げるが、このサイトは、マルチページのカンバスを巧みに利用している。

The Center for Arts and Technologyは、芸術関連の複数のプログラムを用意する専門学校である。このマイクロソフトは、Fashion Design & Merchandisingプログラム向けであり、生徒候補に対するリード生成を考慮している(クリックすると拡大する):

A Very Creative Microsite

1つ目のページに到着すると、まず何が目に入るだろうか?ファッション性の高い美しいイメージが視界に飛び込んでくる。単なるモデルの写真ではなく、ページの構造に組み込まれている。このページでは、情熱に従い、クリックしてさらに情報を得る – または、上部のナビゲーションバーで、何を学びたいかを自分で選ぶことも出来る。

プログラムの詳細を調べることも可能だ。単なる箇条書きではない。ファッション業界での輝かしい未来を語る心躍るストーリーである。コール・トゥ・アクションには「Start My Future!」が用いられ、イメージにシームレスに統合された短いフォームが用意されている。しかし、ここでも最大の要素はファッション自体である。

それでも、コンテンツは十分に用意されている。就業の機会を紹介するためだけのページがあり、このプログラムが導く可能性のある、様々な仕事がリストアップされている。実際に何を学ぶのだろうか?必修科目から選択科目、パターンのドラフトから、ファッションショーの演出に至るまで、提供されているコースの全容を紹介するページが用意されている。

各ページにメインのイメージが掲載されている。このイメージは、ショーの本質を表現しており、言葉ではなく、プログラムの面白さを直観的に伝えている。私はファッションとは無関係の人間だが、それでも、興味をそそられた。単一のページのランディングページでは、このような気分にさせるのは不可能である – 単純に物理、または、概念におけるスペースが足りないのだ。

創造性の面での自由が生まれるが、技術的な難易度は決して高くはない。必要とされているのは、HTML、CSS、そして、複数の良質なイメージだけである。

ただし、多目的のウェブサイトでもなければ、スライドショーでもない点を忘れないでほしい。これは、コンバートさせるための、PPCのランディングページのユーザーエクスペリエンスである。このユーザーエクスペリエンス全体を通じて、コール・トゥ・アクションとコンバージョンのメカニズムは一貫している必要がある。ビジターの準備が整い次第、次のステップに進んでもらうためだ。ただし、ビジターを説得するのはボタンのラベルではなく、あくまでもコンテンツである。

ワンパターンのランディングページを拒絶する意欲が湧いてきただろうか?競合者との差別化を行い、好印象を残すことで、ビジターをコンバートさせるだけではなく – 当該の分野で最も優れた製品としてビジターの心に深く刻まれることになるだろう。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「Death To The Cliche Landing Page」を翻訳した内容です。

最初の事例のランディングページが凄すぎましたが、まぁ、日本でもチラシの延長で情報過多、デザインも意味なく派手すぎるランディングページもなくはないですけどね。記事の内容自体は色々書いてありますが、結論からいうと、ランディングページ作るなら、テスト&効果検証もね、という話なんですが、それもないまま、何となく「広告経由のユーザーを受けるページが必要」という前提の元、自身の感性でデザインしたランディングページを作成し、ユーザーに訴求したい要素をテンコ盛りにしてしまった挙句、良い結果も出せず悶々としているマーケッターも意外と多いのでしょうか。。。

それはともかく、途中からの事例は、単一のランディングページではなくマイクロサイトを多数紹介していましたが、確かにこのアプローチは日本ではあまり見られませんよね。記事タイトルは単一ランディングページだけでなくマイクロサイトもリードジェネレーションの選択肢として考慮すべき、という意味でつけられたことも同時に分かるわけですが、記事でも触れられているようにタブレットやスマホ時代にマイクロサイトは改めて注目したいアプローチであることは間違いないと思います。 — SEO Japan [G+]

ディスプレイ広告にはディスプレイ広告、検索広告には検索広告の基準を

アドテクの進化で盛り上がりを見せているディスプレイ広告ですが、過去10年サーチに侵食されきった結果、多くのマーケッターが検索広告の延長線上でディスプレイ広告を理解・活用しようとしている人が多いようです。今回は、ディスプレイ広告を活用する際に考えるべきディスプレイ広告ならではの基準について、ディスプレイ広告の歴史から紐解いて考えてみた記事を。業界ベテランにも新人マーケッターにも興味深い記事です。– SEO Japan

1990年代が懐かしい – インターネットが登場したばかりで、IPOが容易に行うことが可能であり、CPMが50ドルに到達するのが普通だった時代だ。残念ながら、絶頂を極めた90年代が去り、ITバブルがはじけると、CPMは急激に下落していった。その結果、バナー広告、続いて、ディスプレイ広告が“消滅”すると推測する専門家が大勢現れた。しかし、幸いにも、ここ数年で事態は好転し始めている。

事実、ディスプレイ広告は、堅調に成長を続けている。先日ニューヨークで開催されたAppNexus Summitに参加したところ、フォレスターで主席アナリストを務めるジョアンナ・オコネル氏が、プログラマティックバイイング(註:いわゆるRTB取引全般)の収益は、2007年まで増加を続けるのではないかと推測していた。これは朗報だと言えるだろう。

CPMの平均値もまた上昇を続けており、最新のMediaPostの記事では、2017年までにCPMの平均は3.17ドルから6.64ドルに上がると推測しているフォレスターの見解が引用されていた。

もう少し深く検証してみよう。なぜ、CPMは上がってきたのだろうか?なぜ、ディスプレイは突然再び注目を集めるようになったのだろうか?この業界をリサーチすると、ディスプレイ広告が復活した理由が幾つか見えてくる。 – エクスチェンジが台頭し、マーケットの「安定感」が増した。新しいターゲティングの選択肢(消費者のプライバシーに関する懸念の影響を受けやすい)によって、大量のデータがエクスチェンジの構造に組み込まれた。このターゲティングの選択肢の登場によって、優れた広告主は、ターゲットのオーディエンスに接触する新しく、独自の手段を得た。

個人的には、- ディスプレイが検索とは異なり、同じ“クリック数”ベースの基準で測定するべきではない点を大勢のマーケッター達が理解するようになったことが、最も重要な理由だと思う。

検索の基準とディスプレイの基準の違い

検索マーケティングは、複雑なテーマであり、厳格な領域に発展した。キーワード検索マーケティングは、電話帳の広告によく似ている。1970年代では、会社を見つけたい時は、分厚い電話帳を調べるのが普通であった。電話帳に掲載する広告が大きければ大きいほど、より多くの電話がかかって来る仕組みである。電話の回数を記録することで、大きな広告のパフォーマンスを容易に調べることが出来た。売り上げにつながらなかった場合、広告を出した場所を誤ったか、あるいは、消費者への対応を誤ったかのいずれかが原因であった。

残念ながら、検索広告において単純な基準が採用されたため、大勢のマーケッター達が、ディスプレイベースの広告も同じ基準で計測するべきだと考えるようになった。しかし、このタイプのマーケッター達は、現在、ディスプレイの真価とは、接触、認識、そして、顧客を購入ファネルで動かし、最後まで進ませる力である点を理解しつつある。

通勤中に毎日目にする広告掲示板について考えてもらいたい – 電話帳の広告と同じ基準で掲示板の広告を計測するマーケッターはいないはずだ。メディアが異なれば、計測する方法もまた異なるのだ。

従来のメディアは、オーディエンスを最も重要視している – ディスプレイは、いろいろな意味で従来のメディアに似ていると私達は考えるようになってきた。検索リターゲティングを例にとって考えてみよう。この手法は、革新的なテクノロジーをベースとしたディスプレイターゲティングの戦略である一方で、非常にオーディエンスに焦点を絞った手法でもある。

過去7日間の私の検索履歴を見ると、海外渡航者、テクノロジーに詳しい消費者、さらには、自動車の購入を真剣に検討している消費者のカテゴリに当てはまる。新車、海外のホテルのプラン、そして、最新のアップルのガジェットの広告を掲載する完璧なターゲットだと言えるだろう。

しかし、大半のケースでは、広告を見せることで、消費者の行動を一度止めて、別の行動を取ってもらうことを目指すのは現実的とは言えない。同じように、テレビのCMの視聴者に対して、好きな番組の視聴を今すぐに止めて、行動を起こしてもらえるとは、スポンサーも期待していない。ディスプレイ、とりわけ、広告ターゲティングは、独自の基準で成果を計測するべきである。

ディスプレイの復活について考える時、ディスプレイが何をもたらしたのかを考慮するべきである。検索の直接的なレスポンスとも、広告掲示板や30秒間のテレビCMによる認知度を高めるタイプとも異なるものの、ディスプレイ広告は、急ピッチでこの2つの世界の長所を集めた広告になりつつある。ディスプレイは、認知度とオーディエンスのターゲティングに橋をかけ、広告業界を変えた広告と言えるだろう。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「What Does The Re-emergence Of Display Mean For SEM?」を翻訳した内容です。

若干、ディスプレイ褒めすぎな終わり方な気がしなくもないですが、インターネット歴10年以上のベテランマーケッターには懐かしいネット広告の歴史を再確認、新人ウェブマーケッターにはディスプレイ広告が今に至る過程を学べる良い記事だったと思います。後半書かれているディスプレイ広告のマーケティング手法はまだまだ試行錯誤の段階のものとは思いますが、技術の進化でこういうことが簡単に実現できるようになったのです。スマホなどモバイルデバイスも普及し、24時間体制で(流石に言い過ぎですが)ユーザーの生活を追うことができるようになった今日のデジタル社会。ディスプレイ広告の本格的な活用は始まったばかりです。 — SEO Japan [G+]

もしもリファラーデータが100%見れなくなったら

Googleアナリティクス等で検索キーワードのデータが以前に比べ大幅に見えなくなっている状況を知りつつも、とりあえずある程度は見えるのでどうにかなるだろう、と思っているマーケッターが大半かとは思います。しかしあのGoogleリーダーでさえ、Googleの方針転換で簡単に終了してしまう時代、検索キーワード、つまりリファラーデータが全く見えなくなってしまう日が来ないとは限りません。今回はそんな検索マーケッター恐怖の日を考えた記事を。– SEO Japan

google-not-provided-200px先日、クロームがセキュアサーチに移行するニュースが報じられ、一部のマーケッターは、ウェブ分析で検索データを利用する取り組みの先行きに懸念を抱いている。

サイトに導く検索は、企業にとって貴重なデータである。消費者の要求とニーズに直接アクセスすることが可能なデータのソースは他にあるだろうか?当然だが、直接消費者に尋ねることが出来る。しかし、消費者は本音を隠す可能性がある。あるいは、答えてくれない可能性もある。ビジターが実施した検索に注目することで、顧客が誰なのか、顧客は何を求めているのか、そして、求めているものを自分達が提供することが出来るかどうかについて、多くの情報を得ることが出来る。

検索マーケッターは、以前からこのデータの価値を認めていた。しかし、検索マーケッターに限らず、従来型のマーケッター、製品マネージャー、カスタマーサポートに至るまで、組織の様々な部門においても、有益な情報を得ることが出来る。誰だってオーディエンスのことをもっと良く知りたいはずである。このデータは非常に魅力的であり、本を一冊書いてしまったほどだ: 「Marketing in the Age of Google

しかし、この情報が姿を消そうとしている。うろたえるべきなのだろうか?このデータを取り戻すために、何かできることはあるのだろうか?

検索データを失いつつある理由

まず、現状を把握する。検索エンジンにクエリを入力し、検索結果内のページをクリックすると、ビジターを当該のページに「照会」(リファラー)したURLは、通常、ビジターが検索したクエリを含んでいる。サイトのサーバーログ内でリファラーのURLを確認し、ウェブ分析パッケージをインストールしているなら、当該のリファラーのURLからビジターが検索したクエリを解析し、便利なレポートとして提供してもらえる。

1年と少し前、グーグルは、特定のケースで、リファラーのURL内に検索用語を含める取り組みを休止した。その代わり、リファラーのURLは、www.google.comと表示されるようになった。ウェブ分析プログラムは、ビジターが検索した用語を把握する手段を用意していなかったため、ビジターがグーグルを経由して訪問したことしか分からなくなってしまった。そのため、ウェブ分析プログラムは、グーグルの自然検索として訪問をカウントし、検索用語を「not provided」と表示するようになった。

それでは、一つずつ特定のケースを振り返っていく

  • 2010年5月 – グーグルは、www.google.comとは別のURLで検索の暗号化を立ち上げた。リファラーのデータから検索用語を外すためには、セキュアサーチにアクセスしなければならかった。
  • 2011年10月: グーグルのアカウントにログインしているユーザーがwww.google.comで行った検索は、グーグルのセキュアサーチに送られるようになった。当時、グーグルは検索の10%がこの取り組みの影響を受けると推測していた。
  • 2012年3月: www.google.com以外のグーグルのサイトで検索を行う場合も(グーグルの米国外のドメイン等)グーグルのセキュアサーチに送られるようになった。
  • 2012年7月: 全ての検索に対してグーグルのセキュアサーチを利用するファイヤーフォックス 14がリリースされた。
  • 2012年9月: iOS 6のサファリが、グーグルのセキュアサーチの利用を始めた。グーグルは、セキュアサーチをモバイルデバイスでは異なる方法で処理しているため、このトラフィックはリファラーのデータには全く反映されず(www.google.com経由だとしても)、ウェブ分析プログラムでは、ダイレクトトラフィックとして計上されるようになった。
  • 2013年1月: クロームの最新版(バージョン 25)は、グーグルのセキュアサーチをアドレスバーでの検索にも適用している(グーグルのアカウントにログインしていないユーザーがwww.google.comで行った検索は、セキュアサーチには送られない)。

グーグルは、セキュアサーチの最新の措置に関して、クロームの公式ブログで説明を行っている。

セキュアサーチのよって曖昧になるトラフィックの割合

それでは、グーグル検索のトラフィックのうち「not provided」として表示されるのは、どれぐらいの割合なのだろうか?そして、このトラフィックはいずれ100%に達するのだろうか?

ご存知の通り、曖昧にされる検索データの割合は、サイトのオーディエンスに左右される。検索を行う際、グーグルのアカウントにログインする傾向があるのだろうか?一部の調査結果によると、ログインするユーザーが急増しており、さらに、右肩上がりで増えていくようだ。しかし、これは緩やかな増加ではなく、各データソースがセキュアサーチに切り換えると、急激に変化し、その後、次の変更が行われるまでは横ばいの状態が続く。

例えば、休暇シーズン中には、iPhoneユーザーのトラフィックの大半は、大勢の消費者が、iOS 6が予めインストールされた最新のiPhoneを購入したため、「ダイレクト」として処理されていた。

さらに多くのデータソースがセキュアサーチに切り換える可能性が高く、今後も不明確なトラフィックの割合は増えていくはずだ。

弊社、Nine By Blueでは、様々な業界のサイト、そして、オーディエンスのタイプの異なるサイトをサンプリングし、現状を把握する取り組みを実施した。思った通り、not providedとして報告される検索の割合は、時間の経過ともに増加していた。私達は、2011年12月、2012年6月、そして、2012年12月の割合に注目し、また、セキュアサーチは当初米国のみに適用されていたため、米国のサイトと海外のサイト(英語)を区別した:

Not Provided Over Time

下の図では、2011年12月と2012年12月のデータを比較している:

not provided

あるサイト(テクノロジーが好きなオーディエンスを抱える)では、グーグルの自然な検索の用語のうち、54%はnot providedとして処理されていたが、大半のサイト(特に消費者を中心としたサイト)では、このように検索用語が表示される検索の割合はずっと低かった。

うろたえるべきか?データを取り戻すことは出来るのか?

うろたえるべきではない。リファラーは確かに素晴らしいデータであり、失うのは痛い。また、曖昧にされるデータの割合は、今後も増加していくだろう。しかし、同じ決定を行い、同じ行動を特定することが可能なデータは、今後も引き続き手に入れることが出来る。

リファラーデータの失うことで、最も懸念されているのは、トレンドを把握することが出来なくなってしまう点である。私は、個別の用語だけではなく、検索クエリのカテゴリに注目するよう常に推奨している。例えばブランドの用語、または、「how to」の検索は、時間の経過とともに減っているように見えるが、実はこのトラフィックの多くは、単純にnot providedとして処理されているだけである。

グーグルウェブマスターツールのデータを利用する

リファラーのデータを取り戻す上で、ウェブ分析プラットフォーム以外のツールに頼る手が考えられる。検索用語はリファラー内に表示されていないことが問題とされているが、グーグルは、今でも検索用語をまとめてクエリログに表示している。グーグルは、このデータをウェブマスターツールの中で用意している(情報開示: グーグルで働いていた頃、ウェブマスターツールの構築に関わったことがある)。

過去90日間の上位2000の検索用語を確認することが出来る。グーグルは、サイトの98%に対して、ウェブマスターツールは検索用語を漏れなく表示すると指摘している。残りの2%は、このデータを最も知りたい大規模なサイトなのだろう。いずれにせよ、完全な検索のデータがウェブマスターツールで提供されていなくても、トレンドは正確である。そのため、オーディエンスが探している情報、そして、低迷しつつあるトピックの分野に関する情報を十分に把握することが出来るはずだ。

私はウェブマスターツールのデータは、とても価値が高いと考えており(先程述べた理由により、私の意見はバイアスがかかっている)、私の会社では、このデータに関する見解を提供する検索分析ソフトウェアを開発した。Blueprint(情報開示: この製品を販売している)は、ウェブマスターツールのクエリデータを論理的なトピックのカテゴリに分類し、長期間に渡って保存する(従って、90日間が過ぎても問題ない)。

ウェブマスターツールは、このデータに対する、通常のウェブ分析プログラムとは異なる視点をユーザーに与え、各クエリのインプレッションのデータ、ランキング、そして、クリックスルー率を表示する。この視点で検索クエリを見ることで、オーディエンスが関心を抱いている事だけでなく、トラフィックの減少が、ランキングの問題なのか、あるいは、ただ単に季節の影響を植えているだけなのかを理解することが出来るようになる。

例えば、以下のグラフでは、2012年のデータ点ごとのブランドのトラフィックを比較することが出来る。ランキングは一年を通じて変動は少ないものの、トラフィックは、検索の量の変化(季節)、そして、検索結果からのクリックスルー率の変化(9月にrel=authorマークアップを追加)による影響を受け、変動が見られる。

Blueprint

有料検索データの利用

先程も申し上げた通り、検索用語のデータを表示しなくなったのは、リファラーのみである。そのため、グーグルのクエリログでは、今でもこのデータが表示されているだけでなく(そして、ウェブマスターツールのソースとして用いられている)、アドワーズでもこのデータの提供が提供されている。有料検索を利用しているなら、自然な検索データと同じようなオーディエンスの見解を得ることが出来るだろう。当然ながら、有料検索を利用していない場合は、役に立たない。

その他の検索エンジンのデータを利用

恐らく、皆さんのサイトの検索トラフィックの大半は、グーグル検索が占めているのだろう。しかし、オーディエンスのことを深く知りたいなら、 – 何を求めているのか、そして、その要求に応じることが出来ているかどうか – ビングが今もリファラーデータを提供している点を思い出してもらいたい。

ウェブ分析データを新たな方法で利用

Not Providedを有益で、実用的なデータに変える方法」には、ウェブ分析のデータの見方に関して、検索用語のリスト以外の解釈が取り上げられている。

今後の行方

セキュアサーチに移行するデータソースが増え続けているため(そして、その他の検索エンジンがこの流れに追随する可能性があるため)、今のうちに計画を練って御くことが肝要だ。現状のプロセスを見直そう。

クエリデータの一部がなくなっても、同じ結論および行動計画が導かれるだろうか?ウェブマスターツールやその他のデータを使って、決定を下すために必要な材料を集めることが出来るだろうか?キーワードリサーチを行い、オーディエンスのデータを増やすことが出来る。また、クエリベースのビューではなく、ページベースのビューに注目することで、サイトの行動に関するデータを得ることが可能だ。何を実現する必要があるのかをじっくり考えて、失われたデータに焦点を絞るよりも、この目標を達成する上で効果のあるその他のデータに着目してもらいたい。


この記事は、Search Engine Landに掲載された「Will [Not Provided] Ever Reach 100% In Web Analytics?」を翻訳した内容です。

何というか、結局、グーグルウェブマスターツール(&解析用の自社製品)のPRに終わってしまった内容の気がしなくもないですが、、、100%リファラーや検索キーワードデータは見えなくなる状態は想像がつきにくいですが、多くの人が利用するRSSリーダーでさえ一瞬で終了を決定してしまうGoogle(RSSリーダー製品市場を破壊した上で!)、ブラウザー(普及が進行中)やウェブマスターツール(既にアクセス解析市場もほぼ破壊・・)にマーケッター軽視の大きな変更があっても不思議ではありませんし、たまに余り喜ばしくはない未来の可能性とその対応策について考えることも、マーケッターにはプラスの作業かもしれません。 — SEO Japan [G+]

ニュースメディア系サイトにおけるSEOで重要な5つのポイント

コンテンツマーケティングがSEO的にも注目される最近ですが、コンテンツといえばインターネット黎明期からあるニュースやメディア系サイトが注力してきた分野。同時に多くのニュースメディアがマネタイズに苦戦してきたわけですが、もしかするとせっかくのコンテンツが検索エンジンに正当に評価されずそのコンテンツの質と比較して十分なトラフィックを得られていないケースもあるかもしれません。そこで今回はニュースメディア系サイトがSEOで意識するべきポイントをまとめた記事をサーチエンジンランドからご紹介。あなたのコンテンツ、検索エンジンに正しく評価されていますか? — SEO Japan

SEOのサイト評価は、全て同じではなく、少なくともある程度は、固有の要素を持たせるべきである。なぜなら、価格設定やSEOの評価は、人によって異なるためだ。また、サイトのタイプによって、ニーズが異なる点も留意してもらいたい。

例えば、20ページで構成されるB2Bのリード生成用のサイトの評価における本質的な課題および焦点は、大規模なeコマースサイトを評価する上で考慮し、取り組む重要事項とは大きく異なる。

パブッリシングやニュースメインのサイトに対するSEOの評価にも同じことが言える。そこで今回は、パブリッシング系のウェブサイトのSEO評価を行う際に重視する必要がある5つの大事な点を挙げていく(あらゆるSEOの評価において検討しておきたい典型的な対策以外で)。

拡大可能且つ柔軟なインフォメーションアーキテクチャ

インフォメーションアーキテクチャの見直しは、あらゆるサイトにとって重要だが、特にパブリッシングサイトにとっては、次の事実を考慮してサイトを構築することが肝要である:

  • 1日/1週間に複数のコンテンツを加える可能性が高い
  • コンテンツの大半は、一刻を争う
  • コンテンツのアグリゲーションは、静的なカテゴリのページよりも(そして、場合によってはホームページよりも)、大幅に自然な検索トラフィックを運ぶことが多い

そのため、アーカイブしたコンテンツを(リンクの価値の大半を保有する)サイトのホームページの近くに配置する(例えば、2、3回のクリックの範囲)様々な方法を特定し、新しいページにより多くのリンクの価値を与えるべきである。この取り組みを行う上で、大半のサイトにおいて、効果のある方法を幾つか挙げていく:

ページネーション

数字のページネーションを含む(1、2、3、4等)、ホームページとカテゴリページに「以前 & 次」リンクを用意する単純な構造から、より古いコンテンツをサイトのカテゴリページとホームページに近づけることが可能な構造に移すと、サイトのインフォメーションアーキテクチャを「平らにする」ことが出来る。当然ながら、ここでは通常のページネーションのベストプラクティスに従う必要がある

An example of deeper pagination to get more archived content closer to the home page.

インデックスのインデックス

その他のリンクの集まりに対するリンクの集まりとして機能するページを作成することで、1つのページにつき100本以上のリンクを持つページを持つことが出来るようになる。すると、大量のコンテンツをメインのページから数クリックの距離に置くことが可能になる。

ここでは、ページをクリックする人達にとって有益なリンクの集まりを提供するために何を実際に作ればいいのか、そして、個別のブログの投稿に関連するどのようなデータを持っているのかを考慮する必要がある。例えば、タグやその他の分類法が考えられる。

誰がウィジェットを検索しているのか

最も時間の面で関連する投稿に多くのリンクの価値を与えるため、分析データを活用して、ナビゲーションボックス内で、昨日または先週最も多くの検索トラフィックが寄せられた投稿を維持するウィジェットの構築を検討しておきたい。

また、人気の高い記事を前面に押し出すその他の方法を用いて、新鮮さに焦点を絞ったウィジェットで、最も話題になっているコンテンツ、例えば、最も共有された/コメントを集めたコンテンツに対して、リンクの価値を流すことも可能である:

An example of a popular posts widget on Search Engine Land.

 

パブリッシングに特化したインフォメーションアーキテクチャを構築することで、各種の用語で上位にランク付けさせる確率を高め、また、より多くのトラフィックを集めようとしているページのランクを高めやすくなるだろう。

タグ & カテゴリの利用

パブリッシングサイトのタグとカテゴリは、SEOにとって厄介な存在になり得る。まずは、以下の幾つかの問いに答えてもらいたい:

  • 誰がコンテンツをタグ付けし、どのような基準を用いてタグ付けを行っているのか?
  • 新しいタグのページを作成する上で/投稿に特定のタグを与える上で、どれだけ考えを巡らせているのか?
  • 過剰な量のタグページが作られているか(リンクの価値が薄まり、複数の薄いページが一つの投稿を収容するケース)?
  • カテゴリの構造にどの程度考えを巡らせているか?
  • 現在のタグおよびカテゴリの構造によって、ユーザーはどれだけ恩恵を受けているのか?

上述した問いの多くは、クライアントに対して答えを用意しておく必要があり、また、大半の場合、既存の構造を使って、ユーザーに対する利便性を考慮しなければならないだろう(SEOの観点では、完璧な最適化とは言えなくても)。

しかし、完全に、または、ほとんど無計画にカテゴリやタグの構造が作られていることが多く(特にタグ付け)、現在の構造を一から考え直さなければいけない可能性もある。どのような構造が用いられてにるせよ、インフォメーションアーキテクチャはSEOにとって重要である

グーグルニュースの導入 & 最適化

リード生成およびeコマースのサイトに主に取り掛かっているなら、グーグルニュースが絡む状況には遭遇したことがないはずだ。ここでは、基本的に2つの問題について考えてもらいたい:

グーグルニュースに掲載されていないものの、掲載されるべきである

質の高い、ニュースをベースとしたコンテンツを数多く投稿している場合、グーグルニュースに取り上げてもらうべきだと指摘しよう。掲載の条件の詳細は、このページで確認することが出来るが、基本的に次のようなコンテンツをグーグルニュースは取り上げる:

  • 固有の、ニュースをベースとしたコンテンツ(この条件は問題なくクリア可能だ)
  • 個別の投稿のURLは、3つの数字を含み、固有である必要がある(URL内の日付によってこの条件は満たされる)
  • ページとリンクがクリーンであり、クロール可能なHTMLが用いられている(この条件もクリアしているはずだ)

このページからサイトを投稿することが出来る。

投稿すると、サイトのレビューが行われる。また、グーグルニュースのサイトマップをウェブマスターツールズを介して投稿する取り組みも推奨しておきたい(このオプションは、グーグルニュースから承認を受けるまでは、利用することが出来ない)。この件に関しては、このページで詳細を確認してもらいたい。

グーグルニュースの対象になっているものの、コンテンツが表示されない

メインの自然検索アルゴリズムのランキングと同じように、グーグルニュースのランキングを改善するベストプラクティスに関する様々なアイデアが存在する。次にチェックしておきたリソースを幾つか挙げていく:

ランキング要素として上述した要素の幾つか – 例えば、頼りにされるサイトを構築する、コンテンツを共有してもらう、コンテンツにリンクを張ってもらう、誰よりも早くストーリーを配信する – は当然のような気もするが、次のようなあまり明白ではない要素もあるので注意してもらいたい:

  • 目立つタグを活用する – グーグルは、特定のコンテンツに対して、目立つタグを介して、質の高いコンテンツと指定する機会を与えており、質の高い、オリジナルのレポートを、リライトした薄いコンテンツやフィードから再配信したコンテンツと区別することが出来る。
  • パフォーマンスの問題 – グーグルニュースでの上位へのランクインを阻んでいる原因が、技術的な問題の可能性もあるので、パフォーマンスをテストするツールの利用を検討しておこう: http://www.webpagetest.org/http://tools.pingdom.com/fpt/
  • オーサーシップ/グーグルプラスのプロフィールグーグルのオーサーシップをSERPのビジビリティおよびクリックスルー率を改善する手段として実装することを吟味してもらいたい。

このような取り組みによって、あまり目に触れる機会が少なかった質の高いコンテンツをニュースのリスティング内で、より高い位置に掲載することが出来るようになるだろう。

拡大可能なキーワードリサーチ

インフォメーションアーキテクチャとタグ付けの問題と同じような問題が他にもある。複数の個別のコンテンツ(評価を実施する際にコミュニケーションを取る人物とは別の人物が作成していることもある)に対応することが可能なキーワードリサーチを行うため、戦略を修正しなければならない。ここでは、次の複数の取り組みを試みることになる:

  • キーワードのリサーチ – 大量のページに対してキーワードリサーチを実施することは不可能だが、評価の範囲、そして、事前に同意した内容に基づき、階層が最も高いページ(ホームページやカテゴリページ等)に対して、具体的なキーワードのターゲティングに関する推薦を行う取り組みは合理的である。
  • 手取り足取り – 代わりに、リサーチを実施し、キーワードをコンテンツに組み込む方法に関するアドバイスを継続的に提供する取り組みは、全体的により多くのメリットをもたらすことがある。

2番目の方法は、「SEO」とキーワードのターゲティングにうんざりしているジャーナリストやプロのライターを相手にアドバイスを送る場合、スムーズに事が運ばない可能性がある。その場合、次の行動を取ってもらいたい:

  • サイト上の既存のページで、実際にどのような効果をもたらすのかを具体的な例を使って、説明する。こうすることで、「キーワードスタッフィング」を行っているのではなく、より人気の高い用語を考慮し、自然且つ論理的にコピーにフィットするかどうかを判断しているだけである点が伝わる。
  • フィットしない、もしくは、論理的ではないバリエーションを「無理やり」使う必要はない点を強調する(記事を共有してもらえる可能性が低くなるため、SEOにマイナスのダメージを与える)。
  • 十分なリサーチおよび最適化が行われているのは低レベルのコンテンツだけではない点が分かるように、良質なコンテンツを作成しつつ、関連するキーワードのバリエーションを組み込んでいるサイトの例を紹介する(出来れば密接に関連する分野のサイト)。

あらゆる良質なSEOの評価に共通することだが、貴重なアドバイスを送るだけでなく、アドバイスに対して実際に行動に移すことが可能な状況を作り出せるように、構想を練る必要がある。

CPMの相対的価値 & その他の取り組み

SEOの評価を行う上で、クライアントが利益を得ている仕組みを理解する必要がある。コマースサイトなら、セールス、そして、セールスの利鞘が該当する。リード生成サイトの場合、各種のオファーの価値の違い(例えば、見積もりの要請の価値 vs ニュースレターへの登録の価値)、そして、パブリッシングサイトの場合、特定のタイプのコンテンツがその他のコンテンツよりも価値が高いかどうかを尋ね、理解する努力が鍵を握る。

例えば、特定の一連のコンテンツが、サイト全体のバナーに特定のスポンサーをアピールしているなら、当該のコンテンツの価値はとりわけ高いと言えるだろう(そのため、注目に値する)。また、ニュースレターの登録やeブックのダウンロード等の付加的な試みも把握し、可能ならばその価値を数量化したいところだ。

当たり前だが、パブリッシングサイトでSEOの評価を行う上で、考慮するべきポイントは他にもあるが、今回紹介した5つのポイントは、リード生成およびeコマースサイトの評価に取り掛かる場合、確実に考慮するべきである。

皆さんがパブリッシングサイトの評価を行う際、特に何に注目するだろうか?

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「5 SEO Audit Considerations For Publishers & News Sites」を翻訳した内容です。

 

どれも本格的にニュースメディアを運営しているサイトには参考になるアドバイスでした。テクニカルな部分を正しく実装するには、ここに書かれていることをきちんと理解するだけのSEOの知識がシステム開発会社やデザイン会社に必要となりますが。。。さらにコンテンツのSEOに関するマーケティング的なアドバイスもあり、ニュースメディアを運営している人は一度自社サイトのSEOについてこの記事を参考に検証、改善を検討してみてはいかがでしょう?特に古くから運営されているニュースメディアなど表面上のデザインはアップデートされていてもSEOに関してはきちんと対策されていないままのサイトも多い気がします。マネタイズできないと嘆く前に、SEOに再注目してみる価値があると思います。 — SEO Japan [G+]

Google、スパム取締りの手動アクション対応の推移をグラフで初公開

前回紹介したGoogleによるインフォグラフィックの中で、Googleが手動で行っているスパム対応の量をチャートで紹介している気になる内容があったので、掘り下げて紹介したいと思います。 — SEO Japan

グーグルは、スパム行為を実施しているウェブサイトに対して、どのぐらいの頻度で「手動アクション」を実行しているのだろうか?グーグルは、10年近く前まで遡って、このデータに関するグラフを初めて公開した。

このグラフは、グーグルの新しい取り組み -「検索の仕組み」(日本語)の一部であり、2004年の8月から現在までのデータが反映されている(クリックすると拡大する):

actions over time

【チャート右側のカテゴリの翻訳(上から下)】

純粋なスパム

レガシー

ハッキングされたサイト

サイトから不自然なリンクが外部に向けられている

自動生成されたコンテンツおよび無限の空間

クローキング/悪意のあるリダイレクト

価値をほとんど/全く加えない薄っぺらいコンテンツ

サイトに不自然なリンクが向けられている

パークドメイン

ユーザー生成スパム

テキスト隠し/キーワードスタッフィング

スパムな無料のホストおよび動的DNSプロバイダー

「レガシー」は、具体的なカテゴリを用いていなかった時代に行われたアクションを意味する、とグーグルが説明してくれた。2007年の年末あたりまでは、「不自然なリンク」か「レガシー」- つまり“その他”に分類されていた。

純粋なスパムに比べて少ない不自然なリンク

全体的に見て、最も多くのアクションが行われているカテゴリは、「純粋なスパム」である。これは、不自然なリンクやクローキング等(どちらもカテゴリが用意されている – そして、比較的、アクションが行われる回数は少ない)、特定の方法以外の方法でグーグルのガイドラインを違反する行為を指す。

グーグルは、関連するページで上述したタイプの定義を提供している。奇妙にも、「純粋なスパム」は、カテゴリが与えられている一部のスパムのタイプも含むと定義されている:

純粋なスパム: 意味のないコンテンツを自動的に生成する手法、クローキング、その他のサイトからコンテンツをコピーする行為、グーグルのウェブマスターガイドラインを何度も、または、大幅に違反する行為等、攻撃的なスパムの手法を用いていると思われるサイト

純粋なスパムの次にアクションが行われている回数が多いカテゴリは、「ハッキングされたサイト」である。グーグルは、ハッキングされただけでなく、もともと提供していた、ランク付けの対象になっていたコンテンツが既に提供されなくなっているサイトに対して、ペナルティを与えている。

一方、昨年大きな注目を集めた(日本語)、不自然なリンクに対するアクションは、少ない部類に入る。

自動アクションは反映されず

当然ながら、グーグルは、例えば、2011年に「薄っぺらいコンテンツ」対策として導入したパンダアップデート、そして、昨年、不自然なリンクに対抗するために実施したペンギンアップデート等、ウェブサイトに対して「自動アクション」も並行して実行している。このタイプのケースでは、通知は行われない。自動的にペナルティを科されるだけである。

この点を考慮すると、このグラフは、グーグルが実施するスパムのアクションを完全に反映しているとは言えない。完全なデータが反映されたグラフをいつか見てみたい気もするが、この取り組みは始まったばかりなので、今後に期待したい。

スパムのピーク & スパムの年表

このグラフには「トータル」の項目が欠けているが、「レガシー」、そして、「純粋なスパム」の線を見ていくと、手動アクションがピークを迎えた時期が何となく見えてくる。「スパム」のピークは、1ヶ月間に55万3994回の手動アクションが行われた時期である:

How Search Works - The Story ? Inside Search ? Google-3

残念ながら、カウントの隣に日付は表示されていない。しかし、その他の大半の時点に対する日付は掲載されているため、このピークの前後の日付から、最も多くの手動アクションが行われたのは、2011年6月であったことが分かる。

ここで関連する年表が役に立つ。グラフの下には、次のように、グーグルのスパム対策の歴史の中で重要な出来事が記載されている:

spam history

しかし、2011年6月に最多のアクションを発動させた出来事は年表で取り上げられていない。パンダアップデート 4(以前はパンダ 2.2と呼ばれていた)が当時行われていたが、これは自動(または“アルゴリズム”主導)のアクションであり、手動のアクションに反映されていないはずだ。

再審査リクエスト

自動アクションの打撃を受けたウェブサイトは、サイトに変更を加え、後はグーグルが自動的に変更点を見つけ、潔く検索結果に戻してくれることを祈るしかない。この件の詳細は次のエントリで確認してもらいたい:

一方、手動アクションに対しては、再審査リクエストと呼ばれる要請書をグーグルに提出することが出来る。どれぐらいの頻度でこの要請は行われているのだろうか?グーグルは別のグラフでこのデータを公開している:

Reconsideration request

残念ながら、日付は明記されておらず、週の番号しか表示されていない。それでも、週の数を変換するサイトのおかげで、再審査リクエストの投稿が得に多かった2010年の43週目が10月25日-31日に当たることが分かった。

年表には、この急激な増加の理由が記されている。この時期にグーグルの通知システムがアップデートされ、手動アクションに関するメッセージの送信が増え始めた結果、再審査リクエストが増加したようだ。

このリクエストのうち、実際に認められたリクエストの割合はどの程度なのだろうか?残念ながら、このデータを示すグラフは公開されていない。


この記事は、Search Engine Landに掲載された「Google Charts “Manual Actions” Against Spam In Search For First Time」を翻訳した内容です。

記事にもあるように自動アクションを含んでいない手動アクションのみのチャートであり、これだけでスパム取締り状況の全体像を把握できるわけではありませんが(その辺の出し惜しみっぷりがまたGoogleらしいですね・・・)、それなりに参考になるデータでもありました。手動アクションが純粋なスパム中心でリンク関連のスパムがほとんど含まれていないのは、逆に考えるとリンクによるスパム認定はほぼアルゴリズムで判断されているということなのでしょうか?確かに手動でリンクプロフィールからスパム認定を行う作業は相当大変な気もしますし、人に任せると判断基準に個人差が相当出てきそうですし、自動ルール化した方がやりやすいのでしょうね。たまにその弊害としか思えない順位下落の憂き目にあうサイトも出てくるわけですが、、、。

最後の再審査リクエスト数もチャートで出ていましたが、Googleの対応が遅れ気味になるのもむべなるかな、というボリュームでした。対応が遅い・無いと無駄に再審査リクエストの再リクエストを出すのは、じっと我慢する忍耐力も必要そうです。 — SEO Japan [G+]

>

Google、「検索の仕組み」を描いた公式インフォグラフィックを公開

インフォグラフィックばかりかビデオグラフィックにもはまりつつあるSEO Japanですが、あのGoogleがインフォグラフィックで検索エンジンの仕組みについて分かりやすく解説した特設ページを開いたということで早速のその内容をご紹介。 — SEO Japan

How Search Works

グーグルの検索エンジンが、どのように動き、どのようにウェブでページを見つけ、そして、検索クエリに対して、どのようにページをリストアップするのか、誰しも気になったことがあるはずだ。グーグルがこの質問に答える新しいリソースを用意してくれた。本日発表された、How Search Works(検索の仕組み)と呼ばれるこの新しい取り組みは、インタラクティブなインフォグラフィックであり、グーグルがスパムを処理する方法を含む、検索のプロセスが詳しく描かれている。

この新しい取り組みは、グーグルがeメールを処理する方法を説明するため、昨年リリースしたインタラクティブなインフォグラフィック The Story Of Send(送信物語)に着想を得て、誕生した。

「マット・カッツ[グーグルのウェブスパム対策の責任者]と私を含む[検索]チームの数名で、このサイト[The Story of Send]を一緒に見ていた時、グーグル検索のプロダクトマネージャーを務めるジェイク・ハバートが「同じような形式で、検索に関する情報が提供されていないのはなぜか?」と言い出した。

ハバートは、グーグルは、以前からこのトピックに関するリソースをサイトに用意しているものの、消費者の重視したフォーマットで提供していたわけではない点にすぐに気が付いた。「How Search Works」は、検索の仕組みを説明するために作成されているものの、後半では、パブリッシャーが、グーグルが自分のサイトに満足していない場合に何をすればいいのかを理解してもらうことを目的として、情報を提供している。」

クロール & インデックス

このインフォグラフィックは、3つのパートに分けられている。1つ目は、グーグルがウェブページを探して(クロール)、検索可能にして、(「インデックス」と呼ばれる大きなバーチャルな本の中で)保存する仕組みが取り上げられている:

crawling and indexing

この領域を調べていると、リンク、そして、隠された「イースターエッグ」が見つかる。カーソルを合わせて、クリックすると、より多くの情報が提示される。

アルゴリズムを使ってページのランク付けを行う

2つ目のパートでは、グーグル検索に対してマッチしたページを返す仕組み、そして、グーグルがインデックスから上位にランク付けするべきページを判断する仕組みが描かれている。これは全てグーグルの「アルゴリズム」によって決定される。アルゴリズムは、200種類以上のランキングシグナルを確認し、表示するべきページを決定している:

part2of3

1つ目のパーツと同じように、様々なアルゴリズムの仕組みをさらに学ぶために、調べることが出来る:

part 2 callouts

スパム対策

3つ目のパーツは、グーグルのスパム対策を取り上げている:

part 3 spam

ここでは、「リアルタイムでスパム」がどのようにグーグルの検索結果から削除されるかを実際に確認することが出来る。実際にはリアルタイムではないが、スパムが行われてから1時間以内に削除された検索結果が提示されることが多い。私達のサイトの記事で詳細を確認してもらいたい: 検索結果からスパムが削除される模様をグーグルが生中継

このパーツには、グーグルが以前までは公開していなかった、「手動アクション」- グーグルの従業員で構成されたウェブスパム対策チームが、サイトに対して何かしらの対策を講じる – に関するチャートが含まれている:

actions over time

また、パブリッシャーが手動アクションに対する再審査を要請する際に提出する「再審査リクエスト」のチャートも用意されている:

 

How Search Works - The Story ? Inside Search ? Google

この点に関しては、さらに詳しく調査した記事 – グーグル、スパム対策の「手動アクション」の表を初公開(日本語)で確認してもらいたい。

検索のポリシー

インフォグラフィックと並行して、グーグルは、検索に関連する多くのポリシーの新しいガイドを作成している:

policies

因みに、来月私達が主催するSMX West サーチカンファレンスの「Walk A Mile In Google’s Shoes: Dealing With Tough Calls In Organic Search」セッションでは、グーグルの検索ポリシーのスペシャリスト パトリック・トーマス氏を招き、グーグルが検索のポリシーを策定する仕組みを説明してもらい、また、質疑応答にも参加してもらう予定だ。

今回のインフォグラフィックは、全体的に有益な情報と言えるだろう。パブリッシャーを含め、- グーグルの検索の仕組みを理解する上で何から手をつければいいのか分からない人達は大勢いる。良質な公式のソースが存在することに越したことはない。ただし、だからと言って、非公式なソース(サーチエンジンランド等)の価値が下がるわけではない。いずれにせよ、検索の問題を話す際に、共通の用語と基礎知識を持つことが出来るようになるはずだ。


この記事は、Search Engine Landに掲載された「Google Releases Interactive Infographic: “How Search Works”」を翻訳した内容です。

最近流行しつつあるインターアクティブなインフォグラフィックで流石一歩先を進んでいるGoogle先生でした。内容自体は初心者向けのものが中心でしたが、こうした形式で情報提供することで、普段なら読まないような内容も思わず読んでしまう人もいることでしょう。さらにSEOマニアにも嬉しいこれまで余り聞いたことがなかった情報も含まれておりこの辺のさじ加減が絶妙なGoogleのマーケティングでした。– SEO Japan [G+]

Googleパンダアップデートの余波を探る:売却&閉鎖に追い込まれたサイト

昨日からお届けしているパンダアップデート関連のシリーズ記事第二弾を。今回は、パンダアップデートの影響でサイトを売却や閉鎖までしてしまった悲しい逸話の数々をご紹介します。。。(合掌)。 — SEO Japan

(編集者の注記: これは、2011年2月24日に導入されたグーグルのパンダアルゴリズムアップデートのその後に注目した、シリーズ記事の第2弾である。1本目を読んでいない方は、遅れを取り戻すため、この記事を読む前に1本目の記事に目を通してもらいたい: Googleパンダアップデートの余波を探る ? 敗者は復活できたのか?(日本語)

panda-birthday-anniversary-icon2年前にリリースされた(日本語)、グーグルのパンダアルゴリズムのアップデートは、SEO業界、そして、オンラインパブリッシング業界全体に大きなインパクトを与えた。

グーグルのアルゴリズムが変更される度に、検索結果において、勝つ者もいれば、負ける者もいる。このシリーズの第1弾では、パンダの初期の負け組のビジビリティの現状、そして、その移り変わりに注目した。

しかし、パンダがサイトに与えた影響は、ランキングや検索結果に留まらなかった。一部の会社は名前を変え、ビジネスモデルを変え、従業員を解雇せざるをえなくなり、また、閉鎖に追い込まれた会社もあった。

それでは、この2年の間、パンダの敗者の一部に起きた出来事を振り返っていく。

HubPages.com

hubpages-logo2006年に立ち上げられたHubPages.comは、ユーザーが作成するコンテンツを配信するサイトであり、作者は記事の投稿(同サイトはhubと読んでいる)、質疑応答、そして、フォーラムでのコミュニケーションを実施することが出来る。このサイトには110万本以上の記事が投稿されており、「コンテンツファーム」の定義に当てはまる。

HubPagesのCEO、ポール・エドモンソン氏は、パンダアップデートが原因で、「トラフィックと収益を大幅に失った」と述べている(明日、インタビューを紹介する予定)。サーチメトリクスのデータによると、HubPagesのSEOのビジビリティは、パンダアップデートが行われる前と比べると、62%低い数値になっている。

下の表には、パンダがHubPagesに与えた強烈なダメージが記されている(オレンジ色の線)。

panda-losers

(Mahalo.comとSuite101.comのセクションでも、再びこの表に触れる)

HubPagesは、当初、コンテンツをサブドメインに移すことで、2011年の夏にビジビリティを若干取り戻すことに成功していた。

現在、HubPagesはユーザー生成コンテンツモデルを用いて、運営を続けている。作者はそれぞれのサブドメインで記事を配信している。エドモンソン氏は、「サイトの未来を楽観視している」と話しているものの、明日投稿するインタビュー記事の中でも取り上げられているように、そして、上の表が示唆しているように、同社は今も長期的なソリューションを模索している。「前に進む道があることは分かっている。そして、絶対に見つける」と同氏は述べていた。

Mahalo.com

mahalo-logoMahaloは2007年に人間が管理する検索エンジンとしてスタートし、ユーザーが、ウェブの人気の高い検索用語の多くにマッチするコンテンツを作成するサイトを謳っていた。Mahaloは、アンサーセクション(ヤフー!アンサーズと同様のコーナー)を2008年に加え、最終的に、リンクの提供と“検索結果”から、出来るだけ多くのコンテンツを作成するサイトに方針を転換した(Mahaloの元従業員が綴った、「コンテンツファームの手口」には、このサイトが進化する経緯に関する観点が興味深く描かれている)。

上の表(HubPagesのセクション)にも示されているように、パンダはMahaloに大きなダメージを与えた。サーチメトリクスによると、マハロのSEOのビジビリティは、パンダが行われた後、77%下落し、その後も改善は見られず、現在のビジビリティは、パンダの前と比べると、92%下回っている。

パンダがローンチされてから1週間が経過した頃、Mahaloを設立したジェイソン・カラカニス氏は、「トラフィックと収益が大幅に減ったため」従業員の10%を解雇すると述べていた。また、Mahaloを中止し、コンテンツ制作を見直すものの、動画作成は切り詰めないと話していた。実際に、現在のMahaloは「How To」および「Courses」セクションにおいて、大幅に動画に偏っている。

アップデート: カラカニス氏が、コメント欄でMahalo.comの最新情報を提供してくれた:

「Mahalo.comに関して、私達は段階的に規模を縮小しており、アドセンスの広告に頼るビジネスモデルを見限った。質の高い動画およびアプリを作成し、手堅く成功を収めるべく、全力を注いでいるものの、まだピンチを乗り切ったわけではない。

今後、検索での露出を必要としないInside.comと言う新しい製品を第2四半期または第3四半期に導入する予定である。私達はパンダアップデートから多くの教訓を得た。その中でも最も身に染みたのは、(前の会社で、エンガジェット、オートブログ、ジョイスティック等で実施したように)直接的な顧客のベースを自ら構築し、検索のトラフィックは、“現れては消える”おまけと考える必要がある点だ。」

Suite101.com

suite101-logo上の表には、ユーザーが作成した記事をベースとするサイト、Suite101.comのビジビリティの推移も描かれている。サーチメトリクスのデータによると、Suite101.comのSEOのビジビリティは、パンダアップデートが行われてから1週間で81%減少し、その後も減少を続けていった。現在のビジビリティは、パンダが行われる前のビジビリティと比べ、96%低い数値になっている。。

現在、Suite101.comはビジネスモデルを完全に変更するプロセスを行っている。2012年1月にマイケル・ケッダ氏がCEOに就任するや否や、新しい方向性を模索する取り組みを始めた。2012年11月のブログの記事のの中で、ケッダ氏は、同社が数年間に渡って採用してきた「浅はかな、広告およびグーグルボットのためのコンテンツモデル」を一掃するために全力を尽くしていると述べていた:

今年の始めに私達が引き継いだSuite101は、もはや抜き差しならない状況に追い込まれていた。このブランドは目標を見失い、量と競争に固執するあまり、質と連帯感が失われていた。このサイトは、一つの目的 – もっと増やせ -をひたすら追求するようになった。広告、クリックスルー、キーワード、SEOの技術、ライター、そして、コンテンツ等、全てを増やすことに一心不乱になっていた。

Suite101が採用していたインセンティブの構造が問題を悪化させていた。寄稿者に対して、読者ではなく、検索エンジンのアルゴリズムと広告ユニットをターゲットにさせていたのだ。2009年、新しいメンバーに向けて配布されていたチュートリアルには、「言葉ではなく、広告が読者のニーズを満たすように作品を構成すること」と記載されていた。

しかし、当時、Suite101はライターのネットワークに過ぎなかった。

しかし、変革の時はやって来た。

先週、ケッダCEOは、寄稿者のコミュニティをアップデートし、新たな方向性を見出した。同氏は、Suite101は「記事」&「チャンネル」と私達が読んでいるコンテンツの配信を止めると発表した。このブログのエントリのコメント欄で、ケッダ氏は、今後3-4週間でこのプロセスを行うことになると述べ、また、数ヶ月前に発表した変更だけでは不十分だと付け加えていた:

多くのライターが、パフォーマンスをベースとして収益を上げることを念頭に多数の記事を投稿する行為を続けている – これはコンテンツファームの定義そのままである。

今後の方向性の詳細は明らかにされていないものの、Suite101は「ディスカッション、意見、そして、熱意に溢れた好奇心を下地にした、新しいタイプのソーシャルナレッジ」として、ブランド再生を進めようとしている。

Associated Content/ヤフー!

yahoo-voices-logo2005年に設立されたAssociated Contentは、大規模なコンテンツファームであり、大きな成功を収めていた。その結果、2010年に推定1億ドルでヤフー!によって買収されることになった。comScoreによると、買収が行われた当時、Associated Contentは約38万人の寄稿者を抱え、毎週、約1万本の記事を投稿し、トラフィックの90%を検索から得ていた。リサーチ会社のExperian Hitwiseは、トラフィックの約55%はグーグルから獲得していたと指摘している。

そして、ヤフー!が同サイトを買収してから1年も経過しないうちにパンダアップデートが行われた。

ほぼ全てのパンダ後の勝者/敗者のレポートに、Associated Contentは、敗者の部門で登場している。サーチメトリクスが先週提供してくれたデータによると、パンダが行われた3週間後、同サイトは、76%のグーグルの検索結果のビジビリティを失っていたようだ。 このデータは、昨日投稿した同シリーズの1本目の記事(日本語)で利用していたスプレッドシートに掲載されている。

panda-sheet-1

Associated Contentを設立し、買収後にヤフー!のバイスプレジデントに就任したルーク・ビーティー氏は、パンダアップデートが行われた数週間後に開催されたSMX Westカンファレンスで講演を行い、Associated Contentの記事の3分の2において、グーグルからもたらされるトラフィックが大幅に減少したことを明らかにしていた。

ヤフー!は問題を解決するため、抜本的な対策を講じた: Associated Contentの名称とドメインを抹殺し、ヤフー!ボイス( voices.yahoo.com)としてブランドを一新し、その一方で、75000本以上の記事を削除した。

ヤフー!ボイスは、現在も引き続きサービスを提供しているものの、Associated Contentの時代よりも厳しいコンテンツのガイドラインの下、運営が行われている。また、ヤフー!は寄稿者アカデミーを立ち上げ、「良質なウェブコンテンツの作り方」&「倫理にかなった、偽りのないコンテンツのプロモーション」を行い、ビジターを集める方法を伝授している。このアカデミーには、SEOの基礎ヤフー!のサイトで特集されるに値するコンテンツの作成等のコースが含まれている。

About.com

aboutcom-logoコンテンツベースのウェブサイトとして長い歴史を持つAbout.comは、パンダの負け組として、一部第三者のレポートに名前が挙げられていた。

パンダアップデートが実施された2ヶ月後の2011年4月、ニューヨークタイムズのジャネット・ロビンソンCEOは、業績報告会で、「この四半期で実施されたグーグルのアルゴリズムの変更によって、ややネガティブな影響がページビューにもたらされた」と述べていた。

それから16ヶ月が経過した2012年の8月、ニューヨークタイムズは、3億ドルでIACにAbout.comを売却した。同社がAboutの買収に費やした金額、4億1000万ドルから大幅に棒引きされた金額で、同サイトを手放すことになった。この売却に関するロイターの記事は、売却とパンダを明確に関連付けているわけではないが、About.comがグーグルの変更によって大きな打撃を受け、ニューヨークタイムズがIACにAboutを売却する前に、価値を1億9500万ドル低く見積もったと指摘している。

MerchantCircle.com

merchant-circle-logoサーチメトリクスのデータによると、パンダアップデートが行われてから数週間で、MerchantCircleはSEOのビジビリティを61%失っていたようだ。当時、インパクトは報じられているほど大きなものではないが、同サイトは、「検索経験を改善することを目標に、サイトのレイアウトおよびトポロジーに修正を加えることが出来る」領域を再評価すると述べていた(日本語)。

MerchantCircleは、パンダが行われた4ヶ月後にReply! Inc.によって買収され、2012年の始めまでにデザイン変更を行っていた。Reply!は、過去のMerchant Circleのフロントエンドを撤廃し、ビジネスのオンラインディレクトリから、地域のサービスプロバイダーを消費者が探す際に手を貸す取り組みに力を入れると宣言していた。

FindArticles

findarticles_logoこれは記事を検索するエンジンであり、以前投稿された無数の記事(私の記憶が正しければ、その多くは新聞や雑誌の記事)にアクセスするためのサービスであった。無料で閲覧することが出来る記事もあれば、有料制を敷いている記事もあった。私自身、2008年に出版したロックバンドに関する本を綴っていた時、FindArticlesを何度も利用した。

CNETがFindArticlesをLookSmartから買収した。サーチメトリクスの最新のデータによると、FindArticlesは、パンダが行われてから数週間が経過する中、グーグルでのビジビリティを77%失っていたようだ。

現在、FindArticles.comは姿を消し、ドメインはSearch.com(このサイトは、CNETを所有する、CBS インタラクティブによって運営されている)にリダイレクトされる。

今回は、私達が把握しているパンダのその後のストーリーを紹介した。今回取り上げたサイトの他にも、Suite101.comのように大きな変更を行ったサイト、Associated Contentのようにブランドを一新したサイト、Merchant CircleやAbout.comのように売却されたサイト、そして、FindArticlesのように閉鎖されたサイトは存在するのではないだろうか。

大勢の優秀なSEOコンサルタントが、ここ数年の間に指摘してきたように、単一のソースから無料のウェブトラフィックを得る取り組みをベースにビジネスモデルを構築する方針は、やはり賢明とは言えない。

これは、導入後2年目を迎えたグーグルのパンダアップデートに関するシリーズ記事の第二弾である。明日はHubPages.comのポール・エドモンソンCEOのインタビューを提供する。

(ストックイメージは、ライセンス契約の下、Shutterstock.comのコンテンツを利用している)

この記事は、Search Engine Landに掲載された「Google Panda Two Years Later: The Real Impact Beyond Rankings & SEO Visibility」を翻訳した内容です。

Hubpages、Mahalo、、一時はネット・検索時代の新メディアともてはやされた時代の寵児(若干言い過ぎかも)がここまでトラフィックを失っていたとは知りませんでした。日本に同様の事例はあるのでしょうか。。。Mahalo創始者による「顧客のベースを自ら構築し、検索のトラフィックは、“現れては消える”おまけと考える必要がある」はネットビジネスに関わる方であれば、頭では理解していることとは思いますが、実際にその日が来た時には対応しきれない・規模を大幅に縮小せざるえないサイトが多々あるのが現実と思います。

検索エンジンに依存はある程度せざるえないと思いますが、極端な手法やトリックで検索エンジンからのトラフィックを一気に無くす可能性があるSEOは避けた方が無難なのは間違いないですよね。コンテンツマーケティングの重要性も叫ばれていますが、この記事に上げられていたような低品質コンテンツを過度に量産してパンダアップデートにかかってしまうような悲劇だけは繰り返したくないものです。 — SEO Japan [G+]

SEOとソーシャルを駆使して最強のTwitterマーケティングを実現する7ステップ

ちょっと出張が多くてパソコンの前に座る時間がなく更新停滞中です。公開できる時にまとめていきますのでご容赦ください。。ということで、今回はSEOとソーシャルを駆使して日本でもすっかりインフラ化したTwitterをマーケティングに活用しようというお話を。限りなくベタなタイトルですが、内容は一読の価値あることは保障します。 — SEO Japan

多くのトラフィックをサイトに送り込み、コンバージョンを増加させ、大勢のユーザー達とソーシャルメディアで交流する。ソーシャルネットワークでの取り組みをさらにレベルアップさせたいだろうか?それなら、ソーシャル-SEOグループを結成し、相乗効果を活かし、コラボレーションを促進し、そして、ソーシャル & SEOの双方の分野で、さらに良好な成果を出す試みを行おう。

オンラインでのマーケティングの取り組みを統合する上で最も重要なのは、縦割りの構成を破壊し、ブランドおよびエージェンシーに良い結果をもたらすことだ。ここで鍵を握っているのが、ソーシャルマーケッターとSEOマーケッターである。

マーケッターとしての最終的な目標は、PPC、SEO、ソーシャル、そして、ディスプレイのグループをシームレスに連動させることだ。しかし、今回は、SEOのデータを活用して、SEO-ソーシャルチームを組織する方法に焦点を絞って説明していく。

SEOチームとソーシャルチームの連携

多くの会社においては、ソーシャルチームが、オーディエンスが何を求めているのかに関する理解を基に、ユーザー、顧客、そして、インフルエンサーに対応する。ソーシャルメディアマーケッター達は – 交流の目標を考慮し、何をツイートすればいいのか – と言う大きな疑問を抱えている。この問いに対して、私は常に – オーディエンスにとって重要なことは何か – と逆に質問を返すようにしている。

マーケッター達は、通常、ツイッターのストリームに目を通して、オーディエンスが何に興味を持っているのかに関して、キーワードとハッシュタグを探す。この取り組みを行うと、ある程度、アイデアを得ることが出来る。また、フォロワー全体を見渡し、コンテンツと興味を分析しようと試みる。しかし、大勢のフォロワーを持つと、規模に関する問題が生じる。このアプローチは、ユーザーが少なく、ある程度興味の範囲が絞られる場合は効果を上げるが、数百名のフォロワーが対象になっている場合、現実的ではない。

それでは、SEOサイドを見ていく。SEOのチームが、オンページの最適化を巧みに行い、競合者よりも優れたリンクプロフィールを構築していると仮定する。すると、当然の流れとして、次にソーシャルメディアを使って、さらにランキングをアップさせる取り組みを行う。オンページの最適化とリンク獲得の試みだけでは、トップ10入りが難しい可能性がある。この壁を打ち破る鍵がソーシャルメディアであり、ここでコラボレーションを行う機会が生まれる。

SEO & ソーシャルチームを結成するには

 

ステップ 1 – キーワードを考える

キーワードはオーディエンスに関連する用語であり、オーディエンスはキーワードを使って、興味があるトピックやテーマを検索している。また、このようなキーワードを持つコンテンツには、オーディエンスの注目、関心、そして、マインドシェアを獲得する可能性を高める効果が見込める。そこで、ユーザーにとって何が重要なのかを考える際は、キーワードを使って表現してもらいたい。

SEOの担当者はキーワードを把握している。ページのランクとコンバージョンを高める取り組みを行う上で、キーワードに対する詳細な分析を実施しているためだ。この知識を活用し、ユーザーにとって重要なキーワードを特定しよう。SEOチームが多数のキーワード、特にロングテールのキーワードを持っているなら、リストに目を通して、ユーザーにとって最も重要な関連するキーワードのグループを選んでいく。

このステップでは、単純にキーワードを特定するだけでなく – キーワード、つまりオーディエンスが関心事を表現する上で実際に利用しているワードの観点から、オーディエンスの興味を検討する考え方を身につけてもらいたい。

ステップ 2 – ソーシャルメディアでトレンドになっているキーワードを特定する

ステップ 1で特定したキーワードの中で、キーワード/テーマが、ユーザーの関心にどれだけ存在するかを評価する上で役に立つ基準を探す。以下にこの取り組みを行う際に役立つメトリクスを2つ挙げる:

  1. キーワードが含まれたツイートの絶対数 - 各キーワードに対して、今週、当該のキーワードが含まれたツイートの絶対数を確認する – ツイッターのキーワード量と呼ぶ。
  2. ツイートの本数の週ごとの変化 – トレンドを探す。先週または先々週よりもツイッターのキーワード量が多いキーワードはあるだろうか? ちなみにこの記事では「トレンド」とは、週ごとのツイッターのキーワード量が増加している状況を意味する。また、トレンドのレベルを定義しておく必要もあるだろう – キーワード量が50-100%変化したキーワードは、「並」、100%以上変化したキーワードは「強」と考える。絶対数が多い場合のみ、大規模な変化は重要な意味を持つ。

ツイッターのキーワード量は、リアルタイムでユーザーにとって何が重要なのかを示唆している。あるキーワードに対するキーワード量が増加していると言うことは、当該のトピックがトレンドになっており、ユーザーにとっての重要度が上がっていることを意味する。これは当該のトピックの勢いを利用する絶好のチャンスと言えるだろう。

それではデータを集めよう:

  1. ステップ 1で選んだキーワードのポートフォーリオから取り掛かる。
  2. 全てのキーワードに対するツイッターのキーワード量を計測する。
  3. 次に強のトレンド、並のトレンド、そして、弱のトレンド、ゼロのトレンドの割合を確認する。
  4. このデータを使って優先順位をつける(次のステップで説明する)。

Total Twitter Keyword Volume By Trend Strength

 

ステップ 3 – ツイッターのアクティビティを活性化させるための、キーワードの優先順位をつける

ユーザーにとって何が重要なのかに基づき、適切なキーワードを選択する取り組みは、このプロセスの鍵であり、また、ソーシャルメディアの取り組みに優先順位をつける上でも役に立つ。以下にこの取り組みのアプローチを幾つか挙げていく:

  1. 強のトレンドを示すキーワードをすぐに活用する。このキーワードを最優先する必要がある。早ければ早いほど良い。強と並が混じっている場合、最初に強のトレンドのキーワードを全て選び、次に、量に応じて、並のキーワードを選ぼう。
  2. トピックが既存のキャンペーンと重なっているかどうか確認する。重複しているなら、キャンペーンに関連するキーワードの一部を優先することも可能だ。ここでも、トレンドのデータを用いて、どのキーワードを重視するかを判断していこう。
  3. 時間とリソースが無限に存在するなら、次のステップに進んでもらって構わない。限りがあるなら、ツイッターのアクティビティに利用することが出来る量を算定する。キーワード/トピックを選ぶ時は、1日/1週間/1ヶ月に何本のツイートを送信しているのか、そして、どれだけの作業が必要なのかを考慮しよう。最初は少量でスタートし、この作業に慣れ、成果を把握してから、ターゲットのキーワードの量を増やしていくことを薦める。

このステップを終える頃には、ツイッター戦略のコアとなるキーワードのリストが出来あがっているはずだ。

ステップ 4 – 既存ページをトレンドのキーワードに割り当てる

SEOの担当者は、キーワードのページマッピングを熟知している。ターゲットのキーワードを共有し、それぞれのキーワードに対して最も最適化されているページを尋ねよう。

また、このタイミングでキーワードの優先順位を練り直すことも出来る – 一部のページが、ランキングまたはコンバージョンに関して、良好なパフォーマンスを見せているなら、当該のページに散りばめられたキーワードの優先順位を上げることが出来る。

既に入手したデータをまとめる – これで、ユーザーにとって重要なトピックに関連するキーワードのリスト、また、ツイッターの取り組みに優先順位をつける上で役に立つキーワードのリスト、そして、キーワードに対して最適化されたページ(コンテンツ)を持っていることになる。

Keyword Content Mapping For Twitter Campaigns

 

ステップ 5 – ツイートを作成する

ステップ 5の小見出しでは、意図的に「作成」と言う言葉を使った。なぜなら、ただ単に大量のツイートを送ればいいわけではなく、適切なタイミングで、適切な言葉を使って、適切な内容のツイートを送信する必要があるためだ。また、適切な配置も重要である。

適切なタイミング: リアルタイムでトレンドになっているキーワードを利用しよう。時間、曜日等、テストしてタイミングを絞り込むことも可能だ。

適切な言葉: ユーザーが関心を持つトピックに関して、連想する言葉を把握しているはずだ。このようなキーワードをツイートに盛り込む必要がある。このキーワードを持つツイートがトレンドになっているためだ。ツイートの本文、または、ハッシュタグに掲載することが出来る。この点に関してはテストを実施する必要がある – ステップ 6で詳しく説明する。

適切な内容: キーワードに対して最適化されたページ上に存在する。このページのURLをツイート内に盛り込もう。

内容は重要 – 言いたいことをツイートするには、ツイートの構成に関するアイデアが幾つか紹介されている。

適切な配置: プロモツイートは、ユーザーがトレンド(キーワード)の検索を行った際に検索結果ページの上、そして、ツイートがユーザーに関連している場合、ホームのタイムラインの上部に掲載される。

プロモツイートは、ツイートのビジビリティを改善するだけでなく、アドワーズを使ってキーワードを見つける取り組みと同じように、ツイートがユーザーの共感を呼ぶかどうかをテストする上でも効果的である。ツイッターに用意されているこのプロモツイートに関する説明には、この取り組みを始める上で必要な情報が掲載されている。予算に余裕があるなら、プロモツイートの利用を検討してもらいたい。

ステップ 6 – 成果を測定し、微調整を行う & 今後のキャンペーンに反映させる

ステップ 1から6を振り返っていく。適切なキーワードを含み、適切な内容が盛り込まれたツイートは、関連するトピックがトレンドになっているタイミングで、ユーザーの注目を集め、その結果、より多くのユーザーがクリックする。また、ツイートを送信する度にフォロワー(重要なフォロワー)が増加し、ランディングページのコンバージョンが増えるようになり、ユーザーエンゲージメントも高まる。

それでは、実際にこの成果をどのように測定すればいいのだろうか?ターゲットのオーディエンスに関する知識、そして、繰り返しA/Bテストを実施する取り組みが鍵を握る。このステップの最終目標は、以下の問いに対する答えを得ることだ:

  1. キーワードを冒頭に掲載するべきか?
  2. ツイートをハッシュタグとしてキーワードに含めるべきか?
  3. どのトーンが最も効果が高いのか?
  4. どの時間・曜日が最も効果が高いのか?
  5. プロモツイートを行う価値はあったか?

何がうまくいくのかをテストする時間が限られている点を忘れないでもらいたい。簡素で、実行に移しやすいテストプランを策定するべきである。このテストを実施し、何がうまくいっているのかを把握するためには、メトリクス(ツイッターと自分のサイト)、そして、メトリクスを記録する追跡メカニズムが必要である。

ツイッターのメトリクス: ツイッターで直接メトリクスとアクティビティを分析することを薦める。ツイートのURLがクリックされた回数、RTの数、そして、お気に入りの数を確認して、ツイートがユーザーを引きこんでいるかどうかを感じ取ってみよう。

また、フォロワーの人数の変化にも注視する必要がある。変更がツイッターの取り組みの結果である点を把握する際は、あまり多くの変数を一度に取り扱わないように注意しよう。

加えて、このプロセスの一環として、次のように主観的なフィードバックを集める取り組みを薦める:

  1. どのツイートがコメントを獲得し、どのツイートがリアクションを得ていないか?
  2. どのように分類されているのか?
  3. コンテンツをどのように言及しているのか?
  4. ハッシュタグがあるか?幾つあるのか?
  5. 新たなキーワードのアイデアを得られたか?

サイトのメトリクス: ユーザーにRT、お気に入り、または、ツイート/RT内のリンクをクリックしてもらえたら、第一段階をクリアしたことになる – つまり、ツイートは、オーディエンスに注目してもらえたのだ。ただし、あくまでも

第一関門

を見事に突破しただけである。ユーザーを実際に引き込んでいるかどうかを知るには、サイトで有意義な行動を起こしているかどうか – つまり、コンバートしているかどうかを確かめなければならない。サイトで計測することが可能なメトリクスの例を以下に幾つか挙げていく:

  1. ページビュー
  2. サイトでの滞在時間
  3. 直帰率
  4. コンバージョン – ダウンロード回数、登録した人数、投稿されたフォームの数

ランディングページに対する上述したメトリクスが改善しているなら、喜ばしい限りだ。

測定メカニズム: 何が功を奏しているのか、何が失敗しているのかを把握するため、ツイッターの取り組みの影響を特定するには、テストの結果を測定し、功績を振り分けていく必要がある。トラフィックが発生している場所を表示する、ウェブ分析プラットフォームのリンク短縮サービスやマーカーは、便利である。

さらに正確な測定を行うため、少数のキーワードとページを選び、期間を設定し、上のメトリクスから一つ、または幾つか選択し、念入りに計測していこう。この期間中は測定に集中し、速やかに実施するべきである。

思い出してもらいたい。オーディエンスの注目をピーク時に獲得することが理想である。ただし、タイミングを逃しても、落胆しないでほしい – 学んだことを次のキャンペーンに活かせばいいのだ。

ステップ 7 – コラボレーション: ソーシャルチームとSEOチームの双方が得をする

SEOチームは恩恵を施すだけでなく受ける側でもある。グーグルとビングが明確に指摘(日本語)しているように、ソーシャルのシグナルはSEOにおいて重要である。このようなツイートを理解するサイトによるハロー効果は、検索エンジンのランキングに影響を与える。

ソーシャルはSEOにプラスに作用するだけでなく、トラフィックも呼び込む力を持つ。従って、SEOチームが、一部のページに対して、ソーシャルメディアでの勢いを求めているなら、上述したようにソーシャルチームと協力し、より戦略的にツイートを送信することが可能である。

すると、SEOチームは、ページに対するツイートの本数とランキングを関連を見出し、何がうまくいっているのかを評価することが出来るようになる。例えば、ソーシャルチームと共有するページに対するツイートの本数が増加しているなら、ランキングとの前向きな相関関係が存在するかどうか確かめてもらいたい。

 

Tweets vs Keyword Rank

 

ランキングに影響を与える上で、大量のツイートが必要なわけではない点に留意しよう。例えば、「アドビが検索データを使って、クロスチャンネルのセールスを増加させた方法」の中でも指摘されているように、アドビはたった7本のツイートを介して、28位から2位にジャンプアップしている。

例: Performics & Feeding America

一流のデジタルマーケティングエージェンシーのPerformicsは、Feeding Americaがツッターを使って、同団体の活動に関心をもってもらい、寄付や奉仕活動等の行動を起こしてもらえるように支援を行った。

適切なトラフィックを特定のページに送り込むことが、一つ目の課題であった。Performicsはステップ 1からステップ 6で紹介したプロセスに従って、キーワードをベースとしたオーディエンスに接触し、飢餓問題に関するページに導くことに成功した。その結果、ツイッターからのトラフィックは、キーワードベースのプロセスを実施する前と比べ、250%増加した。

Performicsの偉業に関する詳細は、ツイッターのディベロッパー向けのサイトに掲載されている。

結論

ツイッターのデータの「ファイヤーホース」を確認し、キーワードおよび検索に最適化されたページを求めることで、ソーシャルメディアに大きなインパクトがもたらされるだろう。ソーシャルを重用し、検索への影響を計測する取り組みは、今年、ますます重要性を高めていくだろう。

検索とソーシャルの取り組みを統合することで、ブランドのビジビリティおよびコンバージョン率は改善される。適切なコンテンツを、オーディエンスが必要としている時に、オーディエンスが訪問する全てのチャンネルで、魅力的な方法で提示することが出来るか否かが重要な鍵を握るだろう。

SEOチームと協力することで、ソーシャルチームは、ユーザーにとって重要なことを把握し、適切な時期に支援するコンテンツを提供することが出来るようになる。一方、SEOチームは、ソーシャルメディアによるプロモーションから利益を受けることが出来る。こうして、正確なデータを基に検索チームとソーシャルチームのコラボレーションがさらに前進していく。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「Take Twitter Campaigns To The Next Level With SEO Data」を翻訳した内容です。

Twitterのトレンドワードを眺める習慣がある人もいるのでは?と思いますが、それをマーケティングに活用しようという姿勢が素晴らしいと思いますし、具体的な手法まで公開されているのは志高い人にはありがたく、早速トライあるのみ、といった感じでしょうか。

それがTwitterのトレンドワードかはともかく、リアルタイムに旬のトレンドを追いかけてそこに対応するマーケティングを仕掛けていく心意気が素敵ですし、実際それで大成功する場合もあるんですよね。この記事を読んで先日行われたアメリカのスーパーボウルで起こった停電を速攻でCMに反映させたオレオの例が頭に浮かんだ人もいるのではないでしょうか。

ウェブのリアルタイム性が革新的に進みつつある、これからはリアルタイムウェブの時代だ、なんてことが数年前まで叫ばれていたのを思わず懐かしく思い出してしまいましたが、ソーシャル、コンテンツ、インバウンド等のキーワードが注目されているウェブマーケティング業界、今日のウェブが持つリアルタイム性にも改めて注目してみる価値は十分にありそうです。 — SEO Japan [G+]

検索リターゲティングのよくある質問とその答え

今年のディスプレイ広告市場、進化するアドテクの力も借りて昨年以上に盛り上がるかどうか気になるところですが、サーチマーケッターが気になるメニューでいえばやっぱり検索リターゲティング。SEO Japanでも定期的に記事を紹介いますが、いまだによく分からないという人も多いと思いますし、今回は検索リターゲティングに関するよくあるQ&Aをまとめた記事を。 — SEO Japan

検索リターゲティングを数年前にマーケットに導入して以来、顧客候補が答えを求める質問に変化が見られるようになった。2年前、興奮と好奇心でマーケットは満ち溢れ、「どのような仕組みで効果を上げるのか?」、「どれぐらいコストはかかるのか?」、そして、「始めるにはどうすればいいのか?」を尋ねる声が多かった。

しかし、模倣する業者が買い手を混乱させたこともあり、質問は遥かに複雑化になった。採用曲線を進むにつれ、この傾向も続いていくと思われる。

基本的な質問以外にも、次の7つの疑問を問う人達が多い:

  • 検索データをどこで手に入れるのか?
  • グーグル SSLは影響を与えるのか?
  • サイトリターゲティング/リマーケティングと何が違うのか?
  • これは誰が買うのか ? 検索チーム?あるいはディスプレイチーム?
  • 検索リターゲティングは、ダイレクトレスポンスと同じではないのか?
  • 拡大することは出来るのか?
  • どのようなキーワードを利用するべきか?

検索のデータをどこで手に入れるのか?

これは慣れていない人が最も混乱する分野の一つである。通常、ベンダーは、複数の様々なソースを利用しているが、ソースは効果によって決まる。

Chango(チャンゴ)では、主なイベントのデータを利用するようにしている – これは「リファラー」データとも考えられ、ユーザーがグーグル、ヤフー!、あるいはビングで検索を行い、別のサイトに辿りついた際に手に入る。受け入れるサイトはリファラーのURLを見ることが出来るため、リファラーと言う用語が用いられる。

また、コードを発し、データの取得を支援するため、サイトのオーナーを金銭的に保証するパートナーシップも存在する。このパートナーシップはNAI(ネットワーク・アドバタイジング・イニシアチブ)の標準に準拠している。

ソースによっては何らかの提携企業を介して、検索が行われる度に検索履歴を入手するツールバーのデータもあれば、インベントリを率先して収益化する「三流」の検索エンジン、そして、その他の形式のソフトウェアも存在する。 

データによって重要度は異なるため、それぞれの状況で何が効果が高いかを分析し、当該のソースを利用する取り組みは容易ではない。

グーグル SSLは影響を与えるのか?

少しはあるが、たいして大きな影響ではない。検索リターゲティング業界の人間なら、この疑問への明確な回答は避けたいはずである。しかし、データへの影響はごく僅かであり、キャンペーンの規模に影響を与えるようなものではない。

サイトリターゲティング/リマーケティングと何が違うのか?

いまだにこの点を尋ねる人が多いことに、私は驚いている。しかし、この業界はとても狭いため、このようなひどい製品名をつけた責任を負わなければならない。

簡単に言うと、サイトリターゲティング(サイトリマーケティング)とは、サイトを訪問し、去った人達に広告を見せる取り組みである。つまり対象のオーディエンスは既存のビジターであり、既存の顧客である可能性もある。サイトリターゲティングには多くのメリットがあるが、このメリットとは、収益を上げるために既に資金を投じたオーディエンスから追加の収益を得ることである。

反対に検索リターゲティングは(適切に実施した場合)見込み客に焦点を絞っているツールである。検索リターゲティングの目標は、サイトにアクセスしたことがない新たなオーディエンス候補を探すことだ。

この点を理解してもらえたなら、サイトリターゲティングと検索リターゲティングが共食いしない点も分かってもらえるはずだ。事実、この2つのツールはお互いを補っており、同時に実施することが可能であり、また実施するべきである。検索リターゲティングは、新たなオーディエンスをもたらし、一方のサイトリターゲティングは、購入ファネルから出てきた際にコンバートしてもらうために存在する。

この違いをさらに理解する上で、「7種類のリターゲティング」(インフォグラフィック)と「リターゲティングを徹底解剖」(ホワイトペーパー)は役に立つはずだ。

これは誰が買うのか ? 検索チーム?あるいはディスプレイチーム?

素晴らしい質問だ。また、これは当初、誤って理解していた質問でもある。当時、検索リターゲティングは、SEMの分野にとって理想的なツールだと考えられていた。実際にキーワードをベースにしており、私達の多くが、検索マーケッターが影響力を高めると考える将来有望なRTB(リアルタイムビッディング)を利用し、パフォーマンス主導型であった。

現実には、検索リターゲティングは、基本的にディスプレイバイイングなのだが、検索マーケッターの心の中には精神的なわだかまりがあり、これが障害になっているように思える。

弊社のビジネスの約80%はディスプレイのバイヤー(エージェンシーと直接のクライアントを合わせて)、そして、残りの20%はSEMのチームから依頼される。双方のバイヤーはほとんど同じような行動を取るものの、どちらかと言えば、ディスプレイのバイヤーは、バイイングサイクルが短く、大きな予算を持つ傾向が見られる。これは「バナー」用の予算を既に得ているためだ。

検索リターゲティングは、ダイレクトレスポンスと同じではないのか?

同じではない。繰り返すが、業界全体で私達は命名に対する責任を負わなければならない – 「リターゲティング」さらには「検索」を何かに加えると、マーケッター達はすぐにダイレクトレスポンスを想像する。

検索リターゲィングの仕組みに注目してもらいたい – あらゆる行動メディアバイイングに共通することだが、特性ごとに適切なオーディエンスを特定する取り組みが最も重要視されている。

プレミアムネットワークから購入する場合、デモグラフィックかサイコグラフィックのことが多く、直接サイトから購入する場合、どんな人達がサイトに集まっているかが重要視される。検索リターゲティングにおいては、実際にユーザーが明言している興味とユーズに左右される。

一部のブランドのバイヤーはこの違いに気づき、大きく得をした – 影響を与えるべき適切なオーディエンスを4分の1のコストで見つけることが出来るにも関わらず、わざわざ25万ドルを購入につぎ込み、そのうち40%を損失する、あるいは、結果が読めないプレミアムのプレースメントに投資するのは理に適っていない。アーリーアダプターは大勝しており、その他の人達もやがてこの点に気づくだろう。

拡大することは出来るのか?

有難いことに、拡大することが可能だ。さもなければ私はイングランドに逃げ帰っている。検索リターゲティングが登場して間もないころ、スケールはデータへのアクセスおよびメディアへのアクセスによって制限されていた。進歩の過程で、この2つの問題は既に解決されており、150万ドル/四半期以上の契約を締結する小売業者も現れている。

メディアの観点では、全てのメディアエクスチェンジに結びつけると大きなアドバンテージになり、ユーザーの90%以上にアクセスすることが可能になる。また、RTBがメディアバイイングに占める割合は現時点では20%程度だが、今後の3年間で50%にまで増えると見られており、機会は右肩上がりに拡大していく。

メディアの質も変化している – 誰も欲しがらないような半端者ではなくなり、完全無欠のメディアに成長している。

どのようなキーワードを利用するべきか?

これは目標に大きく左右される。私達が実際に目にしている主なカテゴリーを挙げていく:

  • 既存のPPCキーワードリスト(通常はすべての製品およびカテゴリーの用語を網羅する)
  • コストが原因で、PPCの中から最適化されたヘッドターム
  • SEOのウィッシュリスト
  • 競合者のブランドおよび製品の用語

ここで答えが提供されていない質問がある場合

コメント欄で気軽に質問して欲しい。ここで遠慮なく質疑応答をすることも、あるいは、具体的な情報または公にしたくない情報について尋ねたいことがあるなら、直接連絡を取ることも可能である。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「The Most Frequently Asked Questions In Search Retargeting」を翻訳した内容です。

私もこの記事を読んで検索リターゲティングに対して中途半端に理解していた部分が明確になった気がしました。日本ではまだまだ普及が進んでいないような気もしますが、さていち早くこの分野にチャレンジするウェブマーケッターはいるでしょうか? — SEO Japan [G+]

今すぐ計測したい9つの検索 & ソーシャルKPI

検索マーケティングに加え、ソーシャルメディアマーケティングも並行して取り組み始めている方も多いことでしょう。そこで気になるのが効果の程なわけですが、検索以上に効果測定のポイントが把握しづらいのがソーシャルメディア。何を指標にソーシャルメディアマーケティングに取り組んだらよいのかわからない、、、今回はそんな悩めるあなたのために、サーチエンジンランドから検索&ソーシャルの代表的KPIを紹介したお役立ち記事を。 — SEO Japan

検索およびソーシャルメディアでの取り組みを計測していないなら、その取り組みが成功しているかどうかをどのように判断しているのだろうか?ビジネスを支えているのか、あるいは、反対にビジネスにダメージを与えているのか、もしくは、何も効果がないのかをどのように把握するのだろうか?

時間と労力が無駄ではなかった点をどのように証明するのだろうか?

ポジティブな成果を得ている点をどのように把握するのだろうか?

そもそも、その取り組みを行う価値があるかどうかをどのように判断するのだろうか?

答え: このような判断を下すことは出来ない

SEO/ソーシャルメディアの成功および失敗を計測する取り組みは、それぞれのキャンペーンを改善し – その戦略がビジネスを前進させる上で役に立っていることを確認する唯一の方法である。

この話をすると: 「計測しているし、目標を設定しているし、tweet1本当たりのretweetの本数も増えているし、サイトのヒット数も毎日増加している。つまり、改善している」と言う答えが返ってくることが多い。

それは素晴らしい。しかし、1万人のフォロワーやサイトのビジターが、ビジネスにとって実際に価値のある行動を取っていない状態なら、その改善に何か意味はあるのだろうか?収益の増加、コストの削減、あるいは、顧客満足度の向上に貢献しているだろうか?

「はい」と答えた人はどのように把握しているのだろうか?

繰り返すが、そんなことは不可能である。実際のデータ、そして、総合的な計画を持ち – 戦略が成長にどのように貢献しているかを示す具体的な証拠が必要である。

フォロワー、ファン、検索エンジンのトラフィック、retweet、そして、購読者の増加は、戦略において重要な役割を担っているかもしれないが、全体像を見るためには、- つまり- このようなアイテムの増加がビジネスにどのように役立つかを知るためには – 視野を広げなければならない。

すべての取り組みは会社の全体的なミッションを反映する

戦略的なソーシャルメディア戦略の定義を取り上げた良質な指針の中で、アンジー・ショットモアーが指摘しているように、会社の全体的なビジョンを基に目標を策定することから始めるべきである。

ソーシャルメディア – そして、SEO – における全ての取り組みは、ビジネスのミッションに一致していなければならない。以下に目標の例を挙げていく:

  • ブランド認知を高める
  • ブランドの信頼を高める
  • ブランドロイヤリティを高める
  • セールスファネルを短縮する
  • リードを増やす/新しいリード生成チャンネルを作る
  • カスタマーサポートを促進(軽減)する: サポート関連のeメールや電話を晴らす、または、サポート用の別の手段を提供する
  • 顧客満足度を高める/顧客との交流を活性化する
  • ユーザーの行動を理解する
  • サービス/製品を販売する

総合的な目標の策定に関しては、先程紹介した「ソーシャルメディア ROI: 戦略的な計画の定義」、そして、リサ・バローネ氏が投稿した「求められる賢いソーシャルメディアマーケティング」を参考にしてもらいたい。

追跡するべき検索/ソーシャル KPIs

目標の策定を終えたら、次に目標と重要な成果(OKR)を達成し – そして、主要業績評価指数(KPI)を見つけ、成功を計測する上で役に立つ手法を選ぶことになる。

注記: 以下のKPIの多くはマーシャル・スポンダー氏が作成した「ソーシャルメディアアナリティクス」で取り上げられている。必要に応じて、より複雑な割合に対する要素を用意した。

1. 検索エンジンのトラフィックを測定する

KPI:

  • 検索エンジン経由の訪問の割合
  • 検索エンジンのビジターによるコンバージョンの割合

2. ビジターのウェブサイトとのエンゲージメントを測定する

KPI:

  • コメントを残したビジターの割合
  • ソーシャルメディアで共有/投票したビジターの割合
  • コンバージョン率:

(コメントの数)

÷

(コンテンツの数)

  • クリックしてアクションを起こした、または、CTA(コール・トゥ・アクション)リンクをクリックしたビジターの割合
  • 1回の訪問ごとの平均滞在時間
  • 1回の訪問ごとの平均のページ閲覧数
  • エンゲージした訪問の数:

 

(エンゲージメントの総数)

÷

(訪問の総数)

3. ウェブサイトでのユーザーエクスペリエンスを測定する

KPI

  • 直帰した訪問の割合(1ページのみの訪問)
  • 結果がゼロであったサイト内部の検索の割合
  • ページが読み込まれるまでに3秒間以上待ったユーザーの割合
  • 特定のページの直帰率(以下の公式のページ X):

[アクションが何もなかった単一のページの訪問の数(ページX)]

÷

[エントリーされたページの訪問の数(ページ X)]

4. 寄付/購入するビジターの人数を測定する

KPI:

  • 寄付した/購入したビジターの割合
  • 寄付/購入のカートページを訪問したビジターの割合

5. ブランドエンゲージメントの測定

KPI:

  • ブランドエンゲージメントの割合:

 

(ブランド検索による訪問数 + 直接訪問の数)

÷

(検索エンジン経由の訪問数 + 直接訪問の数)

6. ソーシャルエンゲージメントを測定する

KPI:

  • ページごとのソーシャルアクションの数:

(ソーシャルアクションの総数)

÷

(ソーシャルボタン付きのページの数)

  • ソーシャルアクション:コミュニティの規模の比率(例 – フォロワー1000人当たりのページのツイートの数、フェイスブックのファン1000人当たりの共有の数 等)

7. ユーザーのサイトの検索経験を測定する

KPI:

  • サイト検索を利用する訪問の割合
  • 1回の検索当たりの閲覧される検索結果の平均
  • 検索結果を見た後にサイトを去るビジターの割合
  • 訪問中に複数の検索を実施するビジターの割合(同じキーワードに対する複数の検索は除く)
  • 検索を行った後のサイトの平均滞在時間
  • 検索を実行した後のビジターが閲覧したページの平均

8. オンサイト動画を測定する

KPI:

9. その他の部分的なKPI

  • Xページ以上閲覧した訪問の数
  • X分/秒以上サイトに滞在した訪問の数
  • 寄付/購入/リードのページに到達した訪問の数

その他の分析ツール

グーグルアナリティクスは、今でも役に立つツールの筆頭格だが、その他の注目する価値のあるサイトおよびツールを紹介していく:

  1. Social Media Metrics プラグイン(グリースモンキー): グーグルアナリティクスでソーシャルシェアの広範なリストを提供する
  2. RetweetRank: retweetされる頻度を計測する
  3. YouTube Insight: 動画の人気、閲覧数等を記録するサイト内分析ツール
  4. ShareThis: コンテンツを容易に共有する手段をビジターに与える。また、グーグルアナリティクスと統合すると、サイトの共有において成功を収めている/人気の高いソーシャルチャンネルを把握することが出来る
  5. Reachli (以前はPinerlyと呼ばれていた)とPinpuff: ピンタレストのアカウントに対する分析レポートを提供する。Pinerlyでは、ピンを選び、「キャンペーン」を作成して、異なるキャンペーンを比較することが出来る

「どんな会社もソーシャルメディアを利用する必要があるため」ソーシャルメディアから距離を置くことは薦められない。また、サイトのビジターが何も買っていないなら、全ての取り組みをSERPで1位を獲得する試みに集中させるべきではない。

ピースを組み合わせ、全体を見てほしい。それぞれの戦略がビジネス全体にどのように貢献しているのかを確認してもらいたい。計測を実施すれば、点と点を結ぶことが出来るようになるはずだ。

少なくとも、なぜSEO/ソーシャルメディアマーケティングを実施しているのか問われた際に – 「みんなやっているから」以外の理由を得られるだろう。

イメージ – ライセンス契約の下、Shutterstock.comのイメージを利用した。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「9 Search & Social KPIs To Start Tracking Right Now」を翻訳した内容です。

検索&ソーシャルと謳っているだけあり指標測定方法が幅広く網羅されており、思った以上に参考になった記事でした。このリストだけ見ると「ここまで計測する必要があるのか」と既に途方に暮れてしまっている方もいそうですが、全部を計測する必要があるとは限りませんし、多くの数値はGoogle Analyticsなどアクセス解析サービスで取れるデータであり、ソーシャルアクションもツイートや「いいね!」などであれば比較的計測しやすい値ですよね。読んで重要と思えた指標からだけでも始めてみれば、あなたのウェブマーケティングもきっと改善するはず? — SEO Japan [G+]

セマンティックSEOで小売業者が売上を上げる方法

昨日、セマンティック技術に関する記事を紹介しましたが、今回はより具体的にセマンティックSEOを意識してEコマースの売上を向上させる仕組みについて解説した記事をサーチエンジンランドから。マークアップについての知識が必要となり、若干、難易度高めなのでその覚悟でどうぞ。 — SEO Japan

セマンティック SEOは、ウェブマーケティングの手法としては新しい部類に入り、SEOとセマンティックウェブの技術を組み合わせた取り組みである。セマンティック SEOには、検索アルゴリズムのテキスト、キーワード、そして、リンクに頼るだけでなく、人口知能に焦点を絞り、ユーザーの意図(クエリの意味)を理解する試みが含まれる。以前、「小売業者が構造化マークアップを使って製品のビジビリティを改善する方法」を投稿し、構造化マークアップを利用する取り組みを取り上げたことがある。

また、数週間前、「schema.orgを利用するeコマースSEO、細かくなる」の中で、アーロン・ブラッドリーは、グーグルがeコマースのschemaをGoodRelationsからschema.orgに導入した点を取り上げ、この方針により、コマースサイト向けのschema.orgのクラスとプロパティが大幅に増え、その結果、小売業者にインパクトおよびメリットがもたらされると指摘していた。

構造化データの重要性

つまり、今まで以上に小売業者にとって、構造化データに対する語彙およびシンタックスに力を入れる取り組みが重要になりつつあるのだ。アーロン・ブラッドリーも説明していたように、構造化データは、ウェブページのコンテンツの意味の詳細を、検索エンジン、そして、データを消化するその他のコンピュータに対して、容易に処理することが出来る仕組みで送信する。

様々な語彙が公開されているが、小売業者に主に影響を与えるものは2つだけである。その2つの中でも、GoodRelationsのオントロジーがより重要であり、その次にオープングラフのプロトコルが続く。そのため、GoodRelationsに焦点を絞って説明していく。

とりわけ人気の高いシンタックスは、GoodRelationsのオントロジーで用いられるRDFa、そして、Schema.orgの階層で用いられるMicrodataの2つである。

構造化マークアップの語彙およびシンタックスは、セマンティックマークアップと言い換えることが出来る。

セマンティック SEOには、セマンティックマークアップをウェブページに導入し、ドメインおよびページの意味を補い、コンピュータが容易に処理することが出来るようにする取り組みが含まれる。その結果、検索エンジンは、クエリに対してユーザーにより良い結果を提供することが出来るようになる。

私は、小売業者に対して、GoodRelationsのオントロジーを2010年から推奨してきたが、現在、セマンティック SEOをSEOのベストプライクティスとして採用することが不可欠になっている。その理由を説明していく。

ビジネスのデータ & デジタルコンテンツに容易にアクセスすることが出来る

ビジネスのデータには、リッチメディアの動画コンテンツ、製品のレビューや評価、場所および連絡先の情報、専門的な情報、特別販売、製品情報、医療情報等が含まれる。セマンティック SEOにより、このようなデータは次のような状態になる:

  • コンピュータが読み取り可能な検索エンジン、ウェブアプリ、カーナビ、タブレット、モバイルデバイス、アップルのマップ、SIRI、イェルプのマップがアクセス可能になり、また、Linked Open Dataによって消化される。
  • セマンティックマークアップによって、ビジネスのデータは、検索エンジンにとってチョコレートのような存在になる。つまり、検索エンジンに気に入られ、すべて取りこんでもらえる。
  • 検索エンジンはこのデータを理解し、ユーザーエクスペリエンスを改善するため、どのように集めればいいのかを理解している。
  • 検索エンジンは構造化データを使って、SERP内でデータを表示し、CTRを高める。

グーグルはGoodRelationsの語彙に対応する

2011年7月、グーグルはGoodRelationsのサポートを開始すると発表した。予備調査では、GoodRelationsの拡張子を持つ検索結果では、クリックスルー率(CTR)が30%高くなった点が証明されている。セマンティックマークアップを加えると、検索エンジンは当該の情報を使って、ページを直接SERPに表示する取り組みを強化する。

GoodRelationsは、製品やサービスの詳細を検索エンジン、モバイルアプリ、そして、ブラウザに親切な仕組みで配信する強力な語彙である。RDFaをウェブのコンテンツに加えることで、顧客候補の人達に、すべての機能、サービス、そして、得られるメリットを提供し、その後、顧客候補のコンピュータは容易に情報を取り出し、提示することが出来るようになる。検索エンジンは、このような情報を集めたがっている。

GoodRelationsによって、レストラン、ホテル、レンタカー会社、そして、小売業者が容易に1日限定の特価、営業時間、そして、メニューを様々なスマートフォンアプリに直接送信しやすくなる。サポートを望むそれぞれのアプリに別々にフィードを用意する必要はなくなる。

どこから手をつければいいのか?

モバイルがウェブの小売ビジネスにおいて欠かせない存在になっている点は、ご承知の通りだ。モバイル = ローカルである。ローカルは、誤解されることが多く、軽視されることが多い検索の分野である。よく調べると、大半の小売業者は、ローカルおよびセマンティック SEOの複数の分野で不十分な取り組みを行っていることが分かる。

まずは、Store LocatorとMobile Store Locatorを変更しよう。次に、ローカルSEOのベストプラクティスの導入、地図の最適化、そして、IYPのリンクの最適化を実施する。

Rio SEOで製品開発部門のシニアディレクターを務めるビル・コナード氏は、「このような重要な自動ローカルSEOの手法を実装すると、SERPでの1ページ目で複数のリスティングを掲載してもらえる可能性がある」と指摘している。実際に、クライアントのサイトが上位にランク付けされるように、コナード氏はschema.org[place]とMicrodata[local business]を全てのウェブサイトに挿入している。

まず最適化、次にデータをマークアップ

すべてのローカルのビジネスデータを集め、最適化したら、次にGoodRelationsを使って製品をマークアップする作業に移る。 まずは、ローカルデータを集め、最適化し、オンラインのデジタルな店舗と実際の店舗を結びつける必要がある。

すべてのデジタルおよび実際の店舗をシンクさせたら、検索エンジンと情報サービスは、同じデータを消化するようになる。これは「データフィデリティ」と呼ばれる。データフィデリティは、信頼性およびオーソリティを作り出し、その結果、見返りとして、SERPの1ページ目に複数のスペースを与えてもらえることがある。

GoodRelationsのセマンティックマークアップをページに加えると、1ページ目のリスティングを強化し、CTRを高める効果が見込める。RDFaの詳細は、GoodRelationsのコミュニティウィキを参考にしてもらいたい。このウィキには、GoodRelationsの語彙、コンピュータ、モバイルアプリ、そして、検索エンジンが理解することが可能なeコマースの情報を配信する取り組みに関する情報が掲載されている。

教訓

セマンティックマークアップを利用することで、SERPのビジビリティが改善され、CTRが30%改善される可能性がある。GoodRelationsの語彙は、コンピュータ、モバイルアプリ、そして、検索エンジンが理解することが可能なコマース情報の配信において、標準として認められている。まずは、ローカルおよびモバイルの分野での整理および最適化を行う必要がある。最適化を行った後、構造化マークアップを加えると、ビジビリティ、そして、ウェブ小売サイトの利益が共に改善される可能性がある。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「How Web Retailers Can Profit With Semantic SEO」を翻訳した内容です。

肝心のGoodRelationsの詳細ページが英語ですし、正直、これだけ読んで即導入というわけにはいかない内容でした。。。今年セマンティックSEOで一歩進んだSEOを実現していきたい人はこのページを起点に一度じっくり勉強してみては。 — SEO Japan [G+]

セマンティック技術と検索エンジンの進化、SEOへの影響

ウェブの進化と共に注目されてきたセマンティックの概念ですが、それが検索エンジンに与える影響については余りわかっていない検索マーケッターも実は多いのではないでしょうか。ということで、今回はそんなセマンティック技術と検索エンジンの関係について解説した記事をサーチエンジンランドから。セマンティック検索の歴史はもちろん、最近の検索エンジンの進化を理解したいという人にも最適な内容になっています。 — SEO Japan

「セマンティック検索」はホットな話題ではないが、検索および検索エンジンに対して、新たな一面、そして、影響をもたらしてきた。さらに、的を絞ったセマンティック広告に大きなインパクトを与えてきた。

セマンティック検索に関する今回の一連の特集記事では、セマンティック技術の発展の経緯、そして、商業ベースで存続可能となり、話題を集めるようになった理由を探っていく予定だ。また、このテクノロジーが単純な検索エンジンを超えた「答えを提供するエンジン」に進化し、ユーザーエクスペリエンスを改善した経緯にも触れていく。

例えば、グーグルでクエリ[Barack obama birthday]を検索した際の直接的な回答を以下に挙げる。

グーグルのインサイドサーチブログで行われた告知によると、これは「人工知能」エンジン、別名「スタートレック」エンジンの構築の序章に過ぎないようだ。

ナレッジグラフの告知を行うブログの最後に記されたアミット・シンガル氏のコメントは注目に値するものであった:

「グーグルは、はじめの一歩 – ナレッジグラフ – を踏み出し、検索をより知的にレベルアップし、私が思い描いてきた「スタートレック」のコンピュータへ近づくことに成功した。」

セマンティック検索

多くの人工知能、自然言語処理(NLP)、または、機械学習技術は「セマンティックテクノロジー」と言い変えることが出来る。セマンティックとは、「意味」を意味する。そのため、通常、セマンティック技術は、セマンティック検索だけを指すものではない。

しかし、例えば、セマンティックにターゲットを絞った広告、自動的なトピックの認識等、その多くは、検索の改善に活用することが可能である。多くのセマンティック技術は、語彙集や用語集と考えられる基本的なオントロジーを解読する。

「セマンティックSEO」をテーマとして挙げているため、今回は、セマンティックウェブに関連するコンセプト、そして、グーグルやその他のメジャーな検索およびソーシャルエンジンによる、セマンティック技術の採用をおさらいし、利用されているオントロジー – セマンティックやコンセプトを網羅する – そして、オンページの構造化マークアップを介してメタデータで定義される構文を紹介する。

セマンティック検索は、メタデータを使って(活かして)文書の検索を改善する考え方を指す。検索エンジンにおいては、メタデータをHTML 5で埋め込む行為を具体的に示している(セマンティックマークアップ、検索エンジンが現在対応しているフォーマットまたはHTML 5の構文: RDFa ライトとマイクロデータを使って)。

検索エンジンがメタデータを活用する仕組みとは

SERPのエンハンストディスプレイもその一つである(グーグルのリッチスニペット、ビングのタイル、ヤグー!のサーチモンキー)。また、エンハンストディスプレイは、ビジュアルの面でより魅力的なディスプレイおよびインターフェースを提供し、CTRを高くする傾向が見られる。

さらに、Sindice.com、グーグルのナレッジグラフおよびナレッジカルーセル等 – 消化されたメタデータを使って直接検索を実施する行為も、この情報を活用する一つの形である。

これは、一連の確率的な結果(青いリンク)を提供するエンジンから、“答えを提供するエンジン”への進化に大きく貢献している。ユーザーは、複数のクエリを実行して、一つのクエリに対する答えを得る(または得られない)行為を面倒に感じている。クエリに対する答えの関連性は最も重要であり、この目標を達成するために、セマンティック技術を活用することが出来る方法が幾つか存在する。

また、機械学習技術は、トピックの妥当性確認を裏付ける/改善する上でも活用することが可能である。それでは、過去のセマンティックウェブの採用を振り返っていこう:

  • ヤフー!がサーチモンキーを立ち上げる: 2008年2月
  • ビングがパワーセットを買収する: 2008年7月
  • グーグルがリッチスニペットを用いたレビューおよびレビューのアグリゲートを導入する: 2009年5月
  • グーグルがRDFaを使ってイメージのライセンスを特定する技術を導入する: 2009年8月
  • グーグルが動画のRDFaのサポートを開始する: 2009年9月
  • グーグルがリッチスニペットを利用して「ウェブを改善する試み」への支援を呼び掛ける: 2009年10月
  • グーグルが組織を描写するための構造化データの導入を発表する: 2010年3月
  • グーグルがレシピのリッチスニペットの発表を行う: 2010年4月
  • グーグルがリッチスニペットの世界展開を発表する: 2010年4月
  • フェイスブックが RDFaベースのオープングラフプロトコルの発表を行う: 2010年4月
  • グーグルがメタウェブを買収する: 2010年7月
  • グーグルがグーグルリファインの告知を行う: 2010年11月
  • グーグルが買い物サイト向けのリッチスニペットの導入を発表する: 2010年11月
  • グーグル、ヤフー!、ビングがSchema.orgの発表を行う: 2011年6月

セマンティック技術は関連する答えの提供に貢献する

このように、2011年6月、3つの主要な検索エンジンは歩調を合わせ、schema.orgのサポートを発表した。つまり、過去のマークアップ(RDFa)の標準を飛び出し、マイクロデータのみをサポートし(セマンティックウェブコミュニティの怒りを変え、後に態度を軟化させる)、そして、データを消化する検索エンジンの役割を論理的に受け入れ、その結果、高い標準、データの品質、そして、標準化団体の定義がもたらされたのであった。

一連のリンクだけでなく、実際のの関連する答えを提供することは、すべての検索エンジンが目指していた目標であった。このような答えは、上述したメカニズムを活用して、引き出せれるようになった。

ユーザーの意図の特定もまたセマンティック技術を活用することが出来る領域の一つである。 この取り組みは次の仕組みで実施される:

  • クエリの一部、または、全体におけるクエリを正確に解釈する
  • 信頼の高いソースで過去に認証された情報を使って、直接推測を行い、「有力な予測」を答えとして提供する
  • 消化された情報を加える、または当該の情報を推測することで、このナレッジベースウェブ・オブ・データ、または、グラフデータベースを集約および増加させる。

例えば、グーグルのブログ等が説明しているように、HTML 5のように、エンベッドしたメタデータの形式でこの情報を作成または配信する取り組みによって、マイクロデータやRDFa ライトを追加することで出来る。しかし、これは検索エンジンが消化または理解することが可能な構文に過ぎない。因みに、HTML5は互換性がある。

語彙集(オントロジーまたはタクソノミ)も課題の一つに挙げられている。標準化は様々な分野でプラスに働くため、3つの検索エンジン – グーグル、ビング、そして、ヤフー!は、標準のschma.orgの語彙やオントロジーの利用を義務付けると2011年6月2日に発表した。この3社の検索エンジンが抱えるユーザーベースは巨大であるため、利用するオントロジーや語彙を強制する力を持っている。

一方で、セマンティックウェブコミュニティは、その他の多くの定義されたオントロジー/語彙を用意しており、オープンソースとして提供している(eコマース向けのGoodRelations FOAFSIOCWordnetDBpedia ? ウィキペディアから抜粋等)。

Schema.rdfs.orgには、自動的に構造化マークアップを生成するためのチュートリアル、ソフトウェア、そして、ツール等、すぐに始めたい人のためのリソースが豊富に提供されている。

schema.org

それでは、引き続き、schema.orgの発表後のセマンティックウェブの採用を見ていこう。

楽曲のフォーマットが増える: 2011年8月

semantic music formats

NFLのマイクロデータおよびスポーツのスタッツが登場する: 2011年8月22日

 

今後のコンサートのスケジュール: 2012年2月

アンサーエンジンになりつつある検索エンジン

この年表は、この記事を作成している時点では、2012年5月のナレッジグラフの導入およびカルーセル化によってクライマックスに達する。

ナレッジグラフは、フリーベースを直接拡大したアイテムであり、また、schme.orgで定義された、もしくはグーグルによって必要があると見なされた「構造化マークアップ」を介して消化されたその他の情報によって強化されている。

ナレッジグラフ自体は、クエリの右側に描かれる。これは、事実を基にした、または事実を集めた情報を介して、「答えを提供するエンジン」を目指すグーグルの取り組みの一つである。

2012年6月、ツイッターは「Twitter Cards」の告知を行った。これは、“コンテンツにリンクを張るツイートにメディアエクスペリエンスを加える”手段である。Twitter Cardsの詳細は、semanticweb.comの投稿で確認してもらいたい。

2012年7月、グーグルウェブマスターセントラルは、ウェブマスター向けの構造化データダッショボードを導入し、消化された構造化データを確認することが出来るようにした。グーグルがこの方針を強化する点を示唆するコメントがこのブログに掲載されている。

「構造化データはウェブのエコシステムにとって欠かせない役割を担う存在になりつつある。グーグルは特定のタイプのコンテンツを検索結果内で目立たせることが可能なリッチスニペットを含め、構造化データを様々な方法で活用している。業界基準のフォーマットおよびschemaを用いて、コンテンツをマークアップすることで、ウェブサイトは構造化データを活用することが可能である。

以下にschema.orgのbookに対する約200万のアノテーションに関するサイトレベルのデータを掲載する:

バンド「Coldplay」の結果の表示に注目してもらいたい。schema.orgのリッチスニペットのマークアップ(music等)がこの画面には明確に統合されている。

以下にナレッジカルーセルの機能(上部のスクロールバー)が組み合わされたナレッジグラフの画面を掲載する。ナレッジグラフは、単純にフリーベースやセマンティックウェブ関連の技術のような構造化マークアップを含む、その他の認証済みのページや信頼されているソースから延長されている。

以下の結果ページをもたらしたクエリは「Tom Cruise Movies」である。ナレッジカルーセルは、2012年9月より世界の英語ページに導入されている。


上の例を見れば一目瞭然だが、エンハンストディスプレイはSERPのスペースを吸収する。

セマンティックなマークを介してCTRが増加

セマンティックSEO(schema)においては、マークアップしたアイテムに対するCTRが高まる点、そして、ナレッジグラフ/カルーセルおよびリッチスニペットやその他のグーグルが集めた情報に、スクリーンのスペースが割かれる点(ナレッジグラフの結果が表示されることが多い、グーグルのRHS上の場所やイベント)もまた見逃せないポイントである。

以下に例を掲載する:

今後の展開においては、検索に対する情報を得る上でもグーグルに注目し、結果のグラフを確認する価値はある。そのため、私は[Semantic Search]で検索を行った。その結果を以下に掲載する。

拡大するセマンティック技術の利用

どの用語が最も多く検索されているのだろうか?下のグラフのピークは、ウォルマートのセマンティック検索エンジンのインパクトを示している(10-15%売り上げを押し上げる)。

また、グーグル、ビング、そして、その他の検索エンジンのバーティカルに対して、schema.orgの高い順位の用語が反映される点も注目に値する。下のイメージで、ユーザーが特定のバーティカルを選択する場合、クエリ内の意図を理解しやすくなる。/p>

ご自由に公式のschema.orgのサイトと比較してもらいたい。私は実験目的で、schema(owlバージョン)をロードした。

Protegeと言うツールを使って、結果の階層の画像を確認すると、素晴らしい図が出来あがる。私は[place]の拡大に焦点を絞ったが、好きな選択肢を選ぶことが可能である:

セマンティック SEOのメリット

結論を言うと、セマンティック SEOおよびセマンティック技術は、検索エンジンに多くの強力なメリットをもたらす。

  • SERPでのディスプレイのビジュアル面の強化(リッチスニペット)
  • 関連する答えに対して、検索エンジンが当該のデータを直接検索し、より関連する結果を取得する
  • 検索エンジンが分類子やその他の機械学習メカニズムを使って、ページ上のトピックの情報を確認する
  • ユーザーの意図を特定する上で支援する(コンテキストが再現率/関連性を改善する)

このシリーズでは、今後、具体的にバーティカルを取り上げる予定だ。バーティカル検索が関連性を改善し、ユーザーの意図を特定する仕組みの詳細を明らかにして、さらに、推奨エンジン、セマンティック技術広告等に用いられているセマンティック技術に注目していく。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「How Search & Social Engines Are Using Semantic Search」を翻訳した内容です。

私も最近セマンティック技術について勉強中だけに、色々な情報がまとめてあり役に立った記事でした。こうしてみると最新の検索技術の多くがそのベースをセマンティック技術に依存しているのですね。次世代SEOを考える上でもヒントになる情報が満載でした。最もこれまで一時的にでも通用していたようなトリック的SEOがあるわけではなさそうですが、、、検索エンジンがユーザーにとってより便利な存在に少しずつ進化しているのは間違いなさそうです。 — SEO Japan [G+]

ディスプレイ広告と検索広告の4つの違い

アドテクの進化で昨年注目が高まったディスプレイ広告の復権ですが、RTB等、検索広告で培われてきた入札型の仕組みもあるせいか、検索広告の延長オプション的に利用しているマーケッターが多いようです。今回は検索広告とディスプレイ広告の違いについて、マーケティング上の位置付けから考え直したみた記事をサーチエンジンランドから。今年ディスプレイ広告に本格的に取り組んでいきたいあなたにはピッタリな内容です。 — SEO Japan

昨年、ディスプレイが検索に似ていると言う誤解を何度も耳にした。SEO業界の関係者なら、誰でも一度や二度は聞いたことがあるはずだ。この(一部においては的を射ている)誤解は1つのファクターが原因となり、発生している。それは、ディスプレイにおいて台頭した、オークションベースのマーケットである。

これから説明していくが、この理由が誤解を招くには幾つか訳があると私は考えている。

ディスプレイはオーディエンス&リーチが全て

広告ターゲティングの増加によって、ディスプレイにおいて、今まで以上にオーディエンスが重要視されるようになった。行動広告および検索リターゲティングは、ブランドがディスプレイ広告を使って、消費者を購入ファネルに動かそうとする、または、動かす取り組みを支援する、ファネルの中間または上部のアクティビティに焦点を絞っている。

一方検索に関しては、広告の精度は高いものの、接触範囲は限られている。キーワードベースの入札 vs 検索アクティビティ、オンラインの行動、心理学等から引き出すオーディエンスをベースとした入札も重要な違いの一つである。

リアルタイムのメディアはダイレクトレスポンスとは異なる

適切な広告を、適切なタイミングで、適切なオーディエンスに提供すると言うコンセプトは、検索およびディスプレイにおいて存在する。しかし、リアルタイム広告のレスポンスは異なる。

検索は、明確に決められたダイレクトレスポンスチャンネルそのものである。ユーザーが検索を行うと、直後に検索クエリに関連する広告が返され、その時点でアクションを起こしてもらうことを期待する。

ディスプレイ、具体的に言うならデータベースのディスプレイ広告においては、オーディエンスの情報に応じて、ディスプレイ広告のターゲティングが行われる。ウェブサイトを訪問したり、詳しい情報を求めたりして、すぐにアクションを起こさなくても、数日後、または数週間後にアクションを起こす可能性がある。

その間、他のディスプレイ広告が表示される。このタイプのリアルタイムのメディアでは、優先順位付け、頻度の制限、そして、検討期間中に消費者に影響を与えることが重要な鍵を握る。

ディスプレイにおいては、最高のタイミングで消費者に接触することが出来るかどうかは、クリエイティブ、メディア、そして、データの最適化の組み合わせに大きく左右される。

ディスプレイ & 検索は異なるメトリクスで計測される

簡潔に言うと、ディスプレイは検索とは異なるため、検索と同じクリックベースのメトリクスで測定するべきではない。検索マーケティングは複雑なトピックであり、厳格な規律が生まれている。キーワードの検索マーケティングは、電話帳の広告にとてもよく似ている。70年代では、会社を探す際は誰もが電話帳を使っていた。

ディスプレイは、クリックほど単純に、そして、容易にメトリクスに頼るタイプの広告ではない。ディスプレイは、マーケッターが利用可能な様々な接点を考慮する場合、最も計測しやすいチャンネルと言っても過言ではない。まず、接触範囲が広い。ディスプレイキャンペーンは、インプレッションをベースに購入が行われ、そして、露出を最大限に拡大することに焦点を絞っている(ターゲットが絞られているかどうかは別として)。

次にエンゲージメントだ。ディスプレイにおいては、クリエイティブにおける機会があり、この点においても、メトリクスを加えることが出来る。一部のディスプレイキャンペーンはサイトのビジター数に注目している – どの広告がサイトのコンバージョン、そして、コンバージョンとROIに貢献しているのかを把握するため。

要するに、ディスプレイに対するメトリクスは広告主によって、そして、キャンペーンによって異なるのだ。そのため、キャンペーンの目標と実際に利用するメトリクスを合わせることが肝要である。

例えば、ある小売業者がある製品の販売を望んでいる場合、1つの広告のみが売り上げに貢献していると言う状況は考えにくい。

検索でのキーワードの購入はキーワードレベルのディスプレイ広告とは異なる

検索リターゲティングは検索ではない。検索リターゲティングのコンセプトは、ディスプレイの戦略である。キーワードの利用においても、違いが見られる。

ディスプレイにおいては、検索履歴を基にターゲットに選んだオーディエンスに応じて、インベントリを購入する。一方の検索では、キーワードに入札する。

基本的な違いを説明しよう。まず、検索広告では、キーワードリストを使って、選択したワードに入札する。ディスプレイの場合、CPMで支払う金額が決まり、当該のワードだけでなく、関連するワードやカテゴリで検索を行ったオーディエンスをターゲットにすることで範囲を拡大する。

次にディスプレイにおいてだが、ディスプレイはファネルの早い時期に消費者に接触することが出来る。なぜなら、検索エンジンだけでなく – 複数の検索の要素全体で検索用語を活用するためだ。ほとんどの場合、検索リターゲティングは、純粋にディスプレイ戦略として利用されるが、検索を拡大するために、検索チームによって活用されることもある。

ディスプレイは、確かに今まで以上に検索のような特徴を持つようになったかもしれないが、基本的に品種が異なる。オーディエンスのリーチ、認識、そして、メトリクスの違いを見れば、この2つのチャンネルに異なる戦略が採用される点は一目瞭然である。

ディスプレイが検索に似ていると言う考えは2012年限りで引退させ、2013年からは様々なチャンネルを連動させる取り組みを取り入れてもらいたい。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「The Most Common Misconception Of 2012: Display Looks Like Search」を翻訳した内容です。

広告価値も違えばメトリクスも違う、それぞれの良さを理解して活用していきたいですね。記事にもあるようにファネルモデルを適用すれば、それぞれの意義も活用法、効果測定の値も比較的考えやすいかもしれません。目指せ相乗効果で一歩上のウェブマーケティング。 — SEO Japan [G+]

サイトの配色がSEOとコンバージョンに影響を与える仕組み

以前、色とユーザー行動の関係に関する記事を紹介したことがありましたが、今回は色がSEO、さらにはコンバージョンに与える影響について掘り下げて考えた興味深い記事を。ウェブデザインやユーザー行動に知見が深いSEO業界の超ベテラン筆者が書いただけあり、参考になる点が多し。– SEO Japan

SEOのエキスパートによって、検索エンジンフレンドリーなウェブサイトのデザインと言う用語に対する解釈は異なる。クローラビリティ – つまり、ウェブコンテンツが消費者向けの検索エンジンに確実にアクセスすることが可能なデザインを挙げる人もいれば、検索エンジンフレンドリーなデザインとは、インデクセーション – 要するにウェブページが検索エンジンのインデックスに確実に含まれるデザインを指すと主張するSEOのエキスパートもいる。

Color wheel - image

ユーザーフレンドリー(そして、サーチャーフレンドリー)な色の選定は、通常、技術力に長けたスタッフまたは芸術性に秀でたスタッフによって決められることが多い。しかし、当該のスタッフが、ユーザビリティとSEOに対して色の選択が与えるインパクトを理解しているとは限らない。

SEO vs ユーザビリティを超えた情報アーキテクチャ(日本語)の中でも指摘したように、特殊な用語が出てくる時は、SEOの全体像を理解していない人物と話をしている可能性が高い。

実際のところ、クローラビリティインデクセーション等のSEO用語を一般的に利用するウェブデザイナーはどれぐらいいるだろうか?

ウェブサイトのデザインと開発は、それぞれ異なるスキルではあるが、重複する部分も多くある。アーティストやグラフィックデザイナーの中には、素晴らしい技術的なスキルを持っている人もいれば、その反対のケースも考えられる。そのため、色の選択は、技術力および芸術性に長けたスタッフの手にゆだねられることが多い。

ここでデザイナーとディベロッパーに問いたい: 色の選択が、ウェブ検索エンジンがウェブサイトのコンテンツを解釈し、表示する仕組みに影響を与えることをご存知だろうか?

ウェブ検索エンジンのユーザーが、色の選定をどのように解釈するのか理解しているだろうか?色の選択が、たとえ検索エンジンのランキングが1位だっとしても、コンバージョンにマイナスの影響を与える可能性がある点を理解しているだろうか?

色の選択がユーザビリティに与える影響

先日投稿したクリッカビリティと検索エンジンフレンドリーなウェブデザインの中でも指摘したように、クリッカビリティは、ユーザーエクスペリエンス/サーチャーエクスペリエンスにおける重要なパーツである。

重要なポイントを繰り返す:

  • ウェブページ上のすべてのクリック可能なアイテムは、クリックすることが出来る点が見て分からなければならない
  • ウェブページ上のすべてのクリック不可能なアイテムは、クリックすることが出来るように見えてはいけない
  • ウェブページ上のすべてのクリックすることが出来るように見えるアイテムは、クリック可能であり、反応しなければならない
  • サーチャー/ユーザーがクリックすることを意図していないリンクをページに載せるべきではない

ただし、全てのテキストリンクを青で記載し、アンダーラインを引くべきだと私は主張しているわけではない。そうではなく、クリック可能およびクリック不可能なテキストを同じようにフォーマットするべきではないと言いたいのだ。検索エンジンは、リンクをユーザーから隠し、検索エンジンにだけ見せようとしていると考える可能性があるためだ。

すると、大勢のウェブディベロッパーやウェブデザイナーは必ず呆れた顔で「ちょっと待って!そのデザインの基本は時代遅れだ。カーサー/マウス/指をテキストの上に乗せれば、何をクリックするべきかは分かるはずだ」と叫ぶ。

デザイナーやディベロッパーが指摘しているのは掃海作業(原文:minesweeping)と呼ばれるもので、Usability.govは掃海作業を次のように定義している:

「ウェブページ上でページのどこにリンクがあるのかを特定するための行動。掃海作業には、ユーザーが急いでカーサーやポインターをウェブページ上で動かし、カーサーやポインターが変化して「リンク」の存在を示唆する場所を確認する行為が含まれる。」

私はデスクトップ、携帯電話、そして、タブレットで10年以上に渡ってユーザビリティテストを実施してきた。リンクを探すために掃海作業を実施する人もいれば、実施しない人もいる。因みに掃海作業を純粋に好むユーザーは子供である。

そこで質問だ: ターゲットのオーディエンスに子供は含まれるだろうか?恐らく含まれていないのではないだろうか。

また、ユーザー/サーチャーに掃海作業を求めると、タスクの完了を長引かせてしまう。そもそも、ウェブページ上のアイテムが、クリック可能なことが一目で分からないなら、大半のユーザー/サーチャーはクリックしないはずだ。

そのため、クリック可能な要素およびクリック不可能な要素を色で示すつもりなら、色を途中で変えるべきではない。検索エンジンと検索エンジンのユーザーを混乱させてしまうためだ。

色、視認性 & 可読性

初めて綴った書籍「Search Engine Visibility」の中で、私はウェブデザインの5つのルールを挙げた。1つ目のルールは、読みやすいウェブサイトをデザインすることだ。当然ながら、このルールには次のようなポイントが付随する:

  • 目を通しやすい(ビジュアルの階層)
  • 読みやすい
  • 分かりやすい

色の対比は読みやすさにおいて非常に重要度が高い。最も色の対比が高いのは、白と黒である。一部のウェブデザイナーは、黒い背景に対して白いテキストを利用することを好む。スタイリッシュに見えるからだ。ただし、実際には読みにくく、コンバージョンの低下をもたらす可能性がある。コンテンツをあまりにも読みにくくしてしまうと、リンク構築において最高の結果は期待できない。そして、皆さんもご存知のように、そのリンクの獲得はSEOのプロセスにおいて今でも重要な要素とされている。

それでは、白の背景に薄いグレー等、低いコンストラストの配色を利用しているだろうか?あるいは、ウェブデザイナーが設定したテキストのサイズが小さ過ぎて、何が書いてあるのか分からないだろうか(モバイルデザインで頻繁に目にする)?このようなデザインは、テキストが辛うじて読めるとしても、検索エンジンからはスパムの烙印を押されてしまうこともある。

例えば、レスポンシブデザインを導入するウェブサイトのデザインを行うなら、フォントサイズが特定のサイズを下回らないように私なら注意する。コーディングを簡素化させるために読みやすさと見やすさを犠牲にする方針は、ユーザー中心のアプローチとは言えない。

色は分かりやすく、容易に読み取れなければならない。「色は連想でメッセージを伝える効果がある」とMECLABSのフリント・マクグローリン視は先日開催したウェブセミナー 「ウェブサイトのカラーがコンバージョンに影響を与える仕組みとは?」の中で指摘していた。

例えば、青からは様々な意味が連想される。ネイビーブルーからは、プロ意識、安全、信頼、そして、品位が伝わる。アクアブルーからは異なるメッセージが伝わる(面白い、格好良い、熱帯、水)。また、柔らかいライトブルーからは、男らしさよりも女性らしさを感じられることがある。

従って、検索エンジンと検索エンジンのユーザーにとって読みやすく、そして、分かりやすくなるように、常に色の対比を留意してもらいたい。ウェブサイトの配色を分かりやすくしたいなら、色彩の連想と文化を理解する必要がある。

色彩の連想 & 文化

「大半の国際的なマーケッターは、言語だけでなく、より広範な文化的な問題に対応しなければいけない点を理解している。」とWebCertainのCEOを務めるアンディー・アトキンス-クルーガー氏は指摘している。「しかし、文化を定義することが出来る人は少ない。個人的には「文化」とは、身近な環境であり、私達が慣れ親しんでいるもの、そして、少し奇妙に思えることだと考えている。例えば – ウェブを閲覧していて、奇妙なウェブサイトを見つけることがあるが – これは、恐らく、異なる身近な文化圏の人物が作り出したウェブサイトを見ているためだ。」

Global Search Engine Marketing - book by Anne Kennedy and Kristjan Mar Hauksson実は、私はアジア研究(日本語)の修士課程を卒業しており、アジアの宗教、文学、そして、文化を数年間教えたことがある。

ウェブデザイナー兼SEOとして、赤は中国では幸せ、日本では怒りと危険、そして、インドでは生活と創造性を意味する点を私は心得ている。

米国以外のオーディエンスをターゲットにしているウェブサイトをデザインする際は、同じテンプレートや配色は利用しないように心掛けている。

2012年に気に入ったSEOの書籍「Global Search Engine Marketing: Fine-Tuning Your International Search Engine Results」の一部を以下に掲載する:

Baiduでさえ、中国の文化には、ユーザーの行動に大幅に影響を与えるアイデンティティを形成する意味が幾つか存在すると指摘している。つまり、色、数字、言語等である。

赤が米国ではマイナスなイメージを持たれていることに私は気づいた。アメリカのデザインは青を基調にしていることが多く、スカンジナビア諸国は米国と比べると遥かに複数の色を受け入れる傾向が見られる。」とNordic eMarketingのインターネットマーケティング部門を統括し、また、「Global Search Engine Marketing: Fine-Tuning Your International Search Engine Results」の著者の一人でもあるKristjan Mar Hauksson氏は述べている。

潜在的な文化の問題をリストアップするべきである – これは、信頼の要因と言っても過言ではない。なぜなら、当該の文化圏の人と協力すると信頼が構築され、製品を購入してもらえる可能性が高くなるためだ。」とアトキンス-クルーガー氏は指摘している。「文化に注意していればそれで済むわけではない。色の選定、言語、貨幣の記号、ページの複雑さや安易さ、左から右ではなく右から左に読む方式、暦のフォーマット、型、郵便番号や代わりの番号の形式、クレジットカードの記号、配達の時期、イメージのコンテンツ等、様々な細かいポイントの一つに注意していればいいわけではない。全てが重要であり、総合的に判断される。つまり、私達と同じですか?と言う質問に対する答えである。」

例えば、アイルランドには郵便番号が存在しない(そのため、郵便番号の記入を必須にするべきではない。タイでは、紫は朝を連想させるが、西洋諸国は王族を連想させる。中国で銀聯カードを認めない場合、基本的にビジネスは成り立たない。西洋諸国の企業が左から右へ読むテンプレートを、右から左に読むテンプレートに変える際、暦を変えるのを忘れがちである。また、英国と米国では異なる日付が採用されている。

そこで、読者の皆さんには、色がウェブサイトに与える影響を考えてもらいたい。色は検索エンジンフレンドリーなデザインの重要な要素の一つである。色はリンクの獲得に影響を与える。色はコンバージョンにも影響を与える。また、色の不適切な利用は、検索エンジンのスパムと考えられる可能性がある。色は検索エンジンのユーザーにとって非常に重要度が高いのだ。

参照情報

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「How Does Color Usage Affect SEO & Conversions?」を翻訳した内容です。

どれもいわれてみると基本といえば基本ですが、様々な内容を丁寧に簡潔にまとめてくれた良記事でした。ウェブデザインの進化の過程で記事にもあるような「掃海作業」をせざるえないデザインのサイトも多かった気がしますが、最近はスマホやタブレット普及やレスポンシブWebデザインの影響なのか、よりシンプルなデザインがトレンドになっているようにも感じます。そんな今だからこそ、よりユーザー心理、行動を意識した配色を心がけたいですね。 — SEO Japan [G+]

FacebookグラフサーチSEO

Facebookの気合が感じられる新機能のグラフ検索ですが、「SEO的にはどうなの?」と気になっているSEOマニアも多いことでしょう。実は既にFacebook自身がSEO的なアドバイスを提供してくれている、ということでその内容を解説。 — SEO Japan

facebook-graph-search-seo先日、フェイスブックのグラフサーチ(日本語)の発表が行われ、大勢のビジネスのオーナー達が会社をフェイスブック検索で見つけてもらうにはどうすればいいのかを本気で考えるようになった。

心配する必要はない。フェイスブック自身がこの取り組みに関するアドバイスを幾つか提供している。後ほどこのアドバイスを紹介するが、まずは知っておきたい予備知識を幾つか挙げていく。

知っておきたいフェイスブックグラフサーチの基本

フェイスブックグラフサーチは、最終的に効果的なローカル検索/推薦エンジンになり得るポテンシャルを秘めている。フェイスブックによるビジビリティのアドバイスを紹介する前に、知っておきたい点を幾つかまとめておく:

  • しばらくは一部のユーザーにのみ公開されるものの、グラフサーチは利用を始めるその日からローカル検索を提供する。この点は発表イベントでも取り上げられていた。
  • フェイスブック曰く、検索結果は、ビジネス(ページ)が作成/共有した情報と検索を実施するユーザーのつながり(友達、いいね!、チェックイン等)の組わ合わせによって生成されるようだ。
  • ビジネスのフェイスブックページを登録すると(大いに)役に立つが、必須ではない – 顧客等が「スポット」つぃて追加していると結果に表示される可能性がある。

最後のポイントは重要である。なぜなら、ページを持っていなくても、「スポット」としてリストアップされる可能性があるためだ。ニューヨークシュウのバッファローにあるラーキンビルはその典型的な例である – クリックすると、20人以上が「いいね!」し、500人以上のユーザーがこの場所にチェックインしていることが分かる。

フェイスブックによると、新しい検索バーは、「人物、ページ、アプリ、スポット、グループ、そして、提案される検索を含む上位の検索結果を」返すようだ – 「ページ」と「スポット」が別々にリストアップされている点に注目してもらいたい。

グラフサーチに対するフェイスブックのSEO的なアドバイス

フェイスブックの新しい検索サービスによって、ユーザー達は、ベーシックな「スペースニードルの近くのホテル」のような(ローカル)検索に加え、「友達が行ったことがあるイタリアンレストラン」(フェイスブックのチェックインがシグナルになる)や「私の友達がいいね!した美容院」(友達がいいね!したページを持っていることがシグナル)等の検索を実行することも出来るようになる。

スモール/ローカルビジネスが自分の思い通りにすることが出来るのはページであり、フェイスブックがビジネスのオーナー達に提供する3つの具体的なアドバイスも、グラフサーチに対してページを最適化する取り組みに集中している(以下にフェイスブックの投稿をそのまま引用する):

  • 「About」セクションで共有する名前、カテゴリー、バニティ URL、そして、情報は、ユーザーがビジネスを見つける上で役に立ち、フェイスブックで共有するべきである。
  • ロケーションまたはローカルのプレイスページを持っているなら、ユーザーが特定のロケーションを検索した際に結果に表示されるように住所をアップデートしておこうく。
  • 適切なファンをページに集め、継続的にコンテンツを利用する動機を与えることに力を入れよう。

昨日投稿した記事(日本語)の中で指摘したように、フェイスブックがグラフ内に存在しないコンテンツを見つける必要がある場合、今まで通りビングのウェブ検索の結果が表示される可能性がある。ビングはこの件を詳しく説明し、フェイスブックの新しい検索サービスでビングの検索結果が表示される仕組みをスクリーンショットで紹介している

グラフサーチは間違いなく今後の数ヶ月間で大勢のユーザーに開放されるようになり、一部のSEO業者やソーシャルメディアマーケッターは、結果でビジリビティを獲得するために全力で取り組むようになるだろう。しかし、差し当たりは、フェイスブック自身が提供するアドバイスを参考にして、ページを使ってフェイスブックのエコシステムでビジネスを宣伝する方法を復習しておこう。


この記事は、Search Engine Landに掲載された「SEO For Facebook Graph Search? Facebook Has Some Tips」を翻訳した内容です。

基本情報を明記し、ウェブ上の住所記載を最新版に更新し、コンテンツでファンを継続的に集める。当たり前すぎるといえばすぎますが、結局こういうことなのでしょうね。「いいね!」を大量に購入するようなお手軽SEO?は存在しないようなのであしからず。Googleのローカル検索のSEOも米国では激しく進んでいるようですし、このFacebookグラフサーチのSEO、これから熱く盛り上がっていきそうです。 — SEO Japan [G+]

プレスリリースはSEOに効く真実

プレスリリース経由のリンクは大手サイトにも掲載されるしSEOに効くかもしれない、とばかりにリンクを詰め込んだり、中身より量目的のプレスリリースが日々配信されている現実もあるようです。業を煮やしたGoogleのマット・カッツがプレスリリースはSEOに効果がない、とまで宣言する始末だったのですが、気になったとあるSEOエキスパートの実験によると、全く効果がない、というわけではなかったようで。。。 — SEO Japan

数週間前、グーグルのウェブスパム対策を統括するマット・カッツ氏が、プレスリリース内のリンクは「ランキングにプラスの効果」を与えないとグーグルのフォーラムで指摘していた。

このニュースをサーチエンジンラウンドテーブルで取り上げたところ、SEOコミュニティから多くのフィードバックが寄せられた。そして本日、SEO コンサルトが、プレスリリース内のリンクがグーグルのランクキングにプラスに働くことをテストで証明していた。

このテストは皮肉にもカッツ氏のブログで実施されていた。SEO コンサルトはPR.comでプレスリリースを出し、アンカーテキスト「sreppleasers」をマット・カッツ氏のブログに向けていた。このプレスリリースはグーグルによってインデックスされ、その直後、カッツ氏のブログは、このプレスリリース内のリンクのアンカーテキストに対して、上位にランク付けされ始めた。

[sreppleasers]でカッツ氏のブログが上位にランクインしているSERPの写真を掲載する:

それでは、グーグルのフォーラムに投稿されたカッツ氏のコメントをどのように解釈すればいいのだろうか?同氏は次のように主張していた:

注意: プレスリリースのウェブサイトのリンクがランキングに好影響を与えるとは私なら期待しない。

競争の激しいキーワードでは役に立たないと言いたかったのだろうか?特定のプレスリリース配信サイトを指していたのだろうか?私には分からない。グーグルにeメールを送ったので、返答があり次第、この記事をアップデートする。

リンクの詳細は、リンク構築 & 検索エンジンでのランキングのセクションを参考にしてもらいたい。


この記事は、Search Engine Landに掲載された「Links From Press Releases Do Have Ranking Benefit Despite What Google Says」を翻訳した内容です。

キーワードの難易度が低すぎるので微妙なところですが、私自身も「SEOに全く効かない」ことはない気もしますけどね。「余り効かない」「ほとんど効果がない」辺りが正しいところでしょうか。マット・カッツもよく読むと「プレスリリースのウェブサイトのリンクがランキングに好影響を与えるとは私なら期待しない。」といっており「全く意味がない」といっているわけではありませんし。とはいえ、内容の薄いプレスリリースの乱発やリンク詰め込みはサイトや会社のブランディングに悪影響も与えそうですし、止めておいた方が無難でしょうか、、、でもやっぱり少しのSEO効果があればやる人はやるんでしょうね。 — SEO Japan [G+]