eBayのペナルティ問題を検証!アルゴリズムか?手動アクションか?

先週Googleがパンダアップデート4.0をリリースしましたが、影響を受けたサイトの話題も多く見られます。アメリカのオークション・通信販売サイトであるeBayもその話題の中心の一つです。時期が時期だけに、パンダアップデートなのか、ペイデイローンなのか、それとも手動アクションによるものなのか、判断が非常に難しいところです。今回のSearch Engine Roundtableの記事によると、手動アクションによるものだということですが、真相は果たして。。。– SEO Japan

*記事内の参照記事へのリンクは全て英語となっております。

周知の通り、Googleがパンダアップデート4.0を先週リリースした。多くのサイトが順位を落としたが、その中にはeBayも含まれている。

ここに、最新版のSearchMetricsのチャートを載せておくが、下降具合は明らかで、実に78%ものビジビリティが落ちている。

ここで一つの疑問がある。今回の件が、パンダアップデート4.0によるものなのか?それとも、手動アクションによるものなのか?こちらの記事でも確認したところだが、Re/Codeのレポートによると、どうやら手動アクションによるものであるようだ。もちろん、Googleはこれに対してのコメントはしないだろう。しかし、eBayが手動アクションによるペナルティを受けたことは明らかだと思われる。

実際に、refugeeks.comのレポートや他のトラッキングツールによると、eBayのサイトの特定のディレクトリで下降が見られている。

パンダアップデートは、サイト全体ではなく、ディレクトリのようなサイトの一部分に影響を与えることはあるのか?答えはYesだ。では、今回の件はパンダによるものなのか?それとも、手動アクションによるものなのか?可能性は両方にある。

また、手動アクションかアルゴリズムかを検証することに意味があるのだろうか?こちらの答えもYesだ。なぜなら、問題を解決する手段と解決されるタイミングが、手動アクションかアルゴリズムによるかで、異なるものだからだ。

この件に関しての議論はTwitterGoogle+でも行われている。


この記事は、Search Engine Roundtableに掲載された「eBay Slapped By Google: But Was It Algorithmic Or Manual?」を翻訳した内容です。


記事内で紹介されている他記事によると、Googleの検索結果から削除されたページの多くが、”ドアウェイページ”であるということです。著者は「非常に賢いやり方だ」と表現しながらも、「度を越したものであった」と述べています。また、それらのページのURLが”bhp”という文字列を含んでいたため、“Black Hat Pages”の略称では?というジョークも。まさに、ブラックジョークというところでしょうか。– SEO Japan [G+]

SEOに効果が高いサイト構造の設計法

SEOの観点からサイト構成を考えることは、基本中の基本ともいえますが、意外と実施できているサイトは少ないのが実態ではないでしょうか。インバウンドマーケティング的な考え方は支持されつつある今日、改めてSEO視点のサイト構造・設計を考えた記事をSEO Bookから。 — SEO Japan

ウェブサイト上のページを整理する方法は数多くある。しかし、情報をまとめる一般的な方法の中には、SEO戦略に害を与えてしまう方法も存在する。

SEOを考慮せずに決めた階層ごとに、サイトを整理する方針は理想とは程遠い。なぜなら、このようなサイトの構造は、検索エンジンのユーザーが最も関連すると考える情報へのリンクを重要視している可能性が低いためだ。例えば、価値の高いキーワードページを、「ホーム」や「About」や「お問い合わせ」の階層にフィットしないことを理由にトップではなく、サイト構造の奥深くに埋めてしまうケースが考えられる。

この記事では、検索ビジターの要望を基にサイトの構造を調整する方法を紹介していく。

用語集を作る作業から始める

SEOにとって最適なサイトの構造は、ビジターが用いる言葉をベースにしている構造である。従って、まずはキーワードリサーチを実施しよう。

キーワード収集ツールを利用する前に、現在同じ分野で上位にランクインしている競合する10個のウェブサイトをリストアップして、用語に関する評価を行おう。どのフレーズが一般的に用いられているのだろうか?どのような疑問が投げ掛けられているだろうか?どのような答えが与えられているだろうか?答えはどのように表現されているだろうか?最も重要視されているフレーズ/トピックは何だろうか?最も軽視されているフレーズ/トピックは何だろうか?

すぐに何かしらのパターンに気づくはずだが、より詳しい分析を行うため、フレーズとコンセプトをスプレッドシートに落とし、頻度を特定することを私は薦める。

重要なコンセプト、フレーズ、そして、テーマを発見したら、キーワードリサーチツールにかけて、競合者が見逃している可能性のある類義語や関連するコンセプトを発掘する。

キーワードのコンセプトをグループ分けする上で役に立つ無料のツールがある。それは、グーグルアドワーズのエディター機能である。「キーワードを整理する方法」の中で説明したグループ機能の「generate common terms」(一般的な用語を生成する)オプションを使って、キーワードのグループを自動的に作ることが出来る。

グーグルのコンテクスチュアルターゲティングツールも便利である。

過去の検索アクティビティに対する自分のサイトの記録を確認してみよう。関連するニュースサイト、フェイスブックのグループ、業界サイトやフォーラムをくまなく探し、ターゲットのオーデェンスが用いるフレーズの用語集を作成してもらいたい。

そして、今後はサイトの階層のベースとして、ビジターが利用する言葉を使うように心掛けてほしい。

ビジターが使う言葉をベースとしたサイトの構造

次に主なコンセプトとキーワードをテーマ別のユニットにグループ分けする作業に入る。

例えば、フルーツに関するサイトなら、「りんご」、「梨」、「オレンジ」、「バナナ」等のテーマのユニットに分類することが出来る。

それぞれのテーマのユニットをサブテーマとつなげる。例えば、ターゲットにする具体的な用語に応じて、「オレンジ」のユニットなら、「オレンジの健康上のメリット」や「オレンジを使ったレシピ」等のページへのリンクを掲載することが可能である。こうすることで、キーワード用語をサイトの構造に統合することが出来るようになる。

以下に実例を掲載する:

左側のナビゲーションの下のカテゴリー別にリストアップされた製品は、キーワードを基に並べられているようだ。例えば、「Medical Liability Insurance」のリンクをクリックすると、このカテゴリーに関連するキーワードが含まれたナビゲーションリンクのグループが表示される。

証拠を基にしたナビゲーション

「cape cod real estate」(ケープコッドの不動産)に関するウェブサイトを運営していると仮定する。この用語をキーワードリサーチツール(グーグルキーワードツール)にかけると、複数のコンセンプトのパターンが浮上する。例えば、Edgartown、Provincetown、Chatham等の場所、もしくは、賃貸、商業利用、ウォーターフロント等、施設に対する検索が主に行われていることが分かる。

理に適った結果である。

しかし、欠けているコンセプトがあるのではないだろうか?

まず、価格別の不動産の検索である。一部の不動産サイトは、価格ベースの階層への便利なナビゲーション構造を提供している。

家の値段ごとの検索は重要ではないと言っているわけではないが、家の価格でサイトの情報を整理する方法は、SEOフレンドリーなサイトの構造にとって、必ずしも良いベースとは言えない。代わりに検索ツールにこの機能を統合するべきである。

サイト構造をSEOの原則を介して調整する上で、場所/設備のタイプ別にサイトを整理する方針は効果が高い。なぜなら、検索ビジターの関心にマッチするためだ。こうすることで検索エンジン経由のビジターにとって、より関連性の高いサイトに生まれ変わるだろう。

サイトナビゲーションを統合する

サイトナビゲーションは通常「ホーム」、「問い合せ」、「製品」等のコンセプトで構成され、機能別に情報を分ける幾つかのハイレベルのタブやボタンが用いられる。

このアプローチに特に問題があるわけではないが、ウェブのコアの機能に拘ると、SEOを考慮したナビゲーションのコンセプトは大幅に広がってしまう可能性がある。ティム・バーナーズ・リー氏はリンクをウェブの中心に配置した。リンクはある文書から別の関連する文書に移動する手段だからだ。そして、今もなお、リンクは最も一般的なナビゲーションツールである。

そこで、コピー全体に「ナビゲーション」を意図したリンクを散りばめるべきである。コピーを読んでいる際に、それが興味のないトピックである場合、読者は「戻る」をクリックするか、- もしくは過去のビジターの行動を十分に研究していたなら – コピー内のリンクをクリックして、サイトの別の場所に向かうかのいずれかを選択する。

サイトの全てのページの本文に、具体的なキーワードを含むナビゲーションを統合することが出来る。この取り組みは、クリックバックではなく、クリックスルーを高める可能性があり、その結果、リンクジュースをサブページにもたらして、孤立するページが現れないようにする効果が期待できる。

パンダ & ペンギンに負けないためのサイトの構造

この2種類の動物は、様々なニュアンスを持つが、その多くは不快なものである。

パンダアップデートは部分的にユーザーエクスペリエンスに焦点を絞ったアップデートである。グーグルは恐らくインタラクションのメトリクスを用いていると思われる。そして、グーグルがポジティブなビジターとのインタラクションではないと判断すると、ページまたはサイトはダメージを受ける。

それでは、グーグルはどのメトリクスに注目しているのだろうか?まず、直帰率が考えられる。だからこそ関連性が重要なのだ。顧客のことを知れば知るほど、そして、戻るをクリックさせるのではなく、サイトの奥にクリックして進むための関連するリンクの選択肢を増やせば増やすほど、パンダに捕まる可能性は低くなるだろう。

ユーザーが関連性していないと考えるページを持っているなら、関連性を高める努力をするか、いっそのこと削除してしまおう。

ペンギンアップデートは、主にアンカーテキストを基に動いている。一つのページに対して同様のアンカーテキストのキーワードを利用しているなら、ペンギンに捕まる可能性がある。ペンギンは、例えば「cape cod houses」、「cape cod accommodation」、「cape cod real estate」のようにキーワードをミックスしていても、発動される可能性がある。このレベルのキーワードの多様性は過去では許容レベルとされていたが、今は違う。

具体的なアンカーテキストを作り、具体的な固有のページにリンクを張る必要がある。重複する、もしくはほとんど内容が変わらないページは削除するべきである。ページは、キーワードの利用に関してだけではなく、コンセプトに関しても全て固有である必要があるのだ。

パンダおよびペンギンが暴れた後の世界では、ウェブマスター達は、検索エンジンのユーザーが最も関連すると考える情報が何かを特に注意する必要がある。ビジターが求めるページに似ているものの、実際には異なるページは、グーグルに対して自ら「破壊して下さい」と言っているようなものだ。

インフォメーションアーキテクチャに関連性を構築していってもらいたい。


この記事は、Getting Site Architecture Right」を翻訳した内容です。


「SEOのためにサイト構造を変える必要があるのか?」と非難されがちな考え方ともいえますが、SEOのためのサイト設計とは、ユーザーの立場になってユーザー視点で探している情報を見つけやすいサイトにすることでもあり、検索エンジンからの集客のみならず、その後のユーザーアクションの確率自体を高める結果にもつながるのではないでしょうか。 — SEO Japan [G+]

Googleが検索キーワードよりも関連トピックを優先する可能性

Googleのハミングバードアップデートの機能として、検索キーワードをこれまでのように重視せず、それを意味するトピックを考慮するようになった点があります。とはいえ、実際にそれがどのように検索結果に反映されいるかということをピンポイントで指摘することは色々な要素が絡んでいる今日の検索結果において難しい部分もあるのですが、SEO by the Seaが具体例や最新の特許を元にトピックの重要性について考えた記事を。 — SEO Japan

本日、私が作成していた記事の例が、シンプソンズにハイジャックされてしまったようだ。シンプソンズは、Judas Priestをデスメタルバンドと呼んだことを謝罪している。以下の画像は謝罪に関するGuardianの記事に掲載されていたものだ。「Judas」で検索をかけると、この記事は上位に表示される。検索結果のスクリーンショットも掲載しておく:

Bart Simpson writing on a bulletin board that Judas Priest is not a death metal band.

私は、Googleがキーワードよりも記事のトピックのマッチングを土台にしていると思われる検索結果を探していた — 2013年の大晦日にGoogleに付与された特許によると、トピックのマッチングは、動画やメディアが豊富な検索結果の関連性を改善する可能性があるようだ。そして、この特許が、Judasの検索結果を例として用いていたのだ。

Search results on a search at Google for Judas.

トピックベースの検索結果

特許に掲載されていた例を紹介する。この例を参考にすると、SEO関係者の大半がマークしていない行動をGoogleが取っていることが分かる — その関係者の中には、Googleが具体的なキーワードよりも、コンセプトを重視するようになることを指摘する者もいれば、また、ハミングバードアップデートにおいて、クエリ内の全てのキーワードにマッチしていない検索結果が返されていることを把握している者もいる。

例えとして、ワード「Judas」を含む検索クエリについて検証していく。このワード「Judas」は、「Born This Way」や「Lady Gaga」等の特定の領域のトピックに関連付けられる可能性がある。「Born This Way」とは、楽曲「Judas」が盛り込まれた人気の高いアルバムのタイトルであり、「Lady Gaga」は、このアルバムを作り、「Judas」のパフォーマンスを行った人物である。

従来のキーワードベースの検索エンジンでは、ワード「Judas」を含む結果のみを返していたはずだが、今回公開されたトピックベースの結果には、ワード「Judas」を含まなくても、関連する結果が組み込まれる。

例えば「Lady Gaga」や「Born This Way」等のワードが、この関連する結果に含まれることもあり得る。

従って、トピックベースの検索結果は、この関連する楽曲のタイトルをユーザーが意識していなくても、同じアルバムや同じアーティストの結果を盛り込むと考えられる。

Googleがトピックベースの検索を実施したため、「Judas」の動画は検索結果に表示されているのだろうか?それとも、ページランクや関連性等に応じてもともと返していたのだろうか?

確実に特定することは出来ないものの、この特許は、詳しく検証し、考察する価値があると言えるだろう。

複数のソースでトピックを特定

ランキングのアップデートに関する特許を読み、特許で描かれているメソッドが実際に利用されているかどうかを特定するのは、とても難しい。

今朝、Freebase Google Plus ページに投稿された論文に記されているようなアルゴリズムに対して、Googleがトピックを完全に導入することを阻む技術的な制約が存在しても不思議ではない。

当該の論文「信頼しても、検証は欠かさず: ナレッジベースの創出と取集に対する作品の質を推測」(pdf)(是非目を通してもらいたい)のリンクを提供しようとした際、ある一節を読んでいると、トピックをウェブページのランク付けに利用する取り組みに対して、Googleがどの程度準備が出来ているのか気になった:

このような結果は論文では報告されていないものの、開発段階で、どのコンセプトスペースや専門の描写が最も有益なのか精査を行った。分析の結果は、タクソノミーと述語のコンセプトスペースは、大きなトピックのコンセプトスペースよりも有益だと示唆していた。

トピックのコンセプトスペースは、あまりにも多くのカテゴリーが存在するため、トリプル(主語、述語、目的語)を提供しないユーザーに対しては、専門性を広めると薄くなりすぎてしまうためだ。

この論文は、Googleがユーザーの寄与をFreebaseに統合する仕組みを分かりやすく説明しており、トピックベースの寄与は、その他の寄与ほどは有効ではないと見られている。Freebaseは、Googleのナレッジベースで用いられる情報を供給しているものの、Googleは、Open Information Extraction(公開情報抽出)等、その他のソースを参考にしている可能性もある。

それでは当該の特許を紹介していく:

トピックベースの検索クエリの結果
考案: Jianming He、Kevin D. Chang
付与先: Google Inc.
米国特許番号: 8,620,951
付与日: 2013年12月31日
申請日: 2012年6月1日

概要

開示されるトピックに応じて、クエリに対する結果を返すシステムとメソッド。動画、あるいは、関連するテキストの情報が、通常、その他のタイプのコンテンツと比べて薄い他のメディアのコンテンツを検索する際、特にこのシステムは有効である。

クエリに関連するテキストは、クエリ内の1つ、または、複数のワードを、クエリを前提として領域のトピックの条件付き確率を基に、1つ、または、複数の領域のトピックに振り分けることで、各種の領域のトピックに意味的に関連付けられる。一連の結果は、領域のトピックを前提として結果の条件付き確率を基に特定される。

当然だが、ナレッジベース経由のトピックベースの情報は、この時点でも必要とされているかどうか問う必要がある。

Googleはこの情報を別の場所で得ることが出来るのだろうか?

Open Information Extractionのアプローチは、この手の情報を見つけるメソッドの一つである。Googleは、自動化した情報を得る方法、そして、Freebase等の場所にユーザーが寄与するようなクラウドソース化した手法を利用していると思われる。双方のタイプのソースがお互いを足掛かりにしている確率は極めて高い。

クエリに対するトピックと確率ベースの結果に対するトピック

この特許は、トピックの特定を重視する方法は、トピックに関連する確率の計算に左右され、また、複数のステップやタスクに分類される可能性があると指摘している:

まず、領域のトピックは、クエリベースで特定されることがある。次に、この領域のトピックを代表する結果が、示される。このタスクは、過去のクエリに関連する適切なスタッツを分析する、そして、各種の条件付き確率を計算する等の作業によって、達成される。

本特許は、詳細を提供しており、追加の情報が用いられる仕組みにも触れている。

クエリと前提とした領域のトピックの条件付き確率 P(T|Q)は、領域のトピックをクエリに関連付けるために用いられると推測される。領域のトピックを前提とした結果の条件付き確率、P((R|T)は、トピックベースの結果を特定するために用いられると考えられる。この2つの確率、P(T|Q)とP(R|T)は、ここで詳しく説明する様々な手段によって決められる。一部の例では、P(T|Q)とP(R|T)の片方もしくは双方の特定の条件付き確率を決定するための特定の確率が、外部の要素によって決められ、可能な場合、この外部で生成された確率が用いられることもあり得る。

先日、私は、Googleが関連する投稿を特定するために用いているかもしれない方法を「ウェブサイトとのエンティティの関係と関連するエンティティ」の中で説明した。

この特許は、Googleが、同用の方法でトピックをより正しく理解する試みを行っている可能性がある点を指摘している — つまり、「astronomy」(天文学)に対するクエリが、「Hubble images」(ハッブル 画像)を含むトピック(画像を見せびらかす動画を含む)の範囲内として認識される — たとえワード「astromy」がHubbleの画像を掲載するページに表示されていなくても(これも特許で用いられていた例)。

ビューや(YouTube)のグッド等の人気

ランク付けに影響を与えるアイテムとして「いいね!/グッド」に触れるGoogleの特許を今まで一度たりとも見たことがない。しかし、トピックベースの特許はこの話題に触れている。ここで言及される「いいね!」が、Facebookのいいね!ではなく、YouTubeの「いいね!(グッド)」である確率が高いが、明確に記されているわけではない(この特許は両者を特に区別しているわけではない)。

「トピックベースの~」特許は、astronomyに直接触れることなく、Hubbleの動画が、検索結果に反映される可能性がある理由を挙げている:

(1) 「astronomy」と「Hubble images」が関連しているコンセンプトとして定着しているため。
(2) 特定の兆候を示すスタッツにより、人気の高さが証明されているため(ビュー数、いいね!の数等)。

「ビュー」は、動画の結果においては確かに有効かもしれないが、この特許の請求範囲のセクションでは、アプローチを動画に制限していない — しかし、特許の記述には、動画等のアイテムに関連するテキストは、限定されている傾向があるため、動画はこのアプローチの対象として適切だと考えられると明記している。

教訓

この特許で描かれているプロセスは、今のところまだ実施されていないものの、今後、採用される確率は高い — 実施するかどうかと言うよりも、いつ実施するかと言うレベルである。

今後、実際のクエリにはキーワードは含まれていないものの、トピックにおいて関連性が見られる結果を、私は注意して探していくつもりだ。


この記事は、SEO by the Seaに掲載された「Will Keywords be Replaced by Topics for Some Searches?」を翻訳した内容です。

後半の特許は中々レベルが高かったですね。いずれにしても単なる検索キーワードだけでなくそれが該当するトピックを考慮して検索結果を返す傾向は、今後検索のモバイル化やそもそも検索する以前に結果を返すレコメンデーションシステムの進化と共に増えていくと思われます。SEO的にはこれまでのようにテクニカルにキーワードを意識しすぎなくてよくなりラクといえばラクなのかもしれませんが、SEOで他サイトを密かに出し抜くことは難しくなるかもしれませんね。今の間にテクニカルなSEOも活用しつつサイトのオーソリティを築いていくことが重要そうです。 — SEO Japan [G+]

SEOビジネスを製品化するレバレッジ手法

日本のSEO業界といえば、大半のリンク中心のサービスベンダーか少数のコンサルベンダーにわかれていましたが、GoogleのSEO取締り強化やコンテンツマーケティングの普及に伴い、その図式も大分崩れてきました。今後のSEOビジネスのあり方に関して悩んでいる方も多いのではと思いますが、今回はSEO Bookによるサービス中心のSEOビジネスを製品化してレバレッジを図ろうというSEO業者向けの記事を。 — SEO Japan

クライアントにサービスを提供しているなら、「サービス」から「製品」を作ろうと試みた際に、私が直面した問題と同じ課題に悩まされているのではないだろうか。製品がデジタル形式で提供されるこの業界では、「製品」と「サービス」と言うワードは、どちらも同じように扱われることが多い。

SEO、あるいは、その他のデジタルマーケティングサービスに対する価格設定は、人気の高いトピックの一つではあるが、最適な価格を明確に答えることが出来る人は少ない。

価格設定に関して、明確、もしくは、半明確な答えがあるとは私は思っていないが、ビジネスの多くの領域を自動化し、容易に管理するための明確な進路を決めることは出来る、と私は確信している。私はこの取り組みをビジネスの「製品化」と呼んでいる。

始めにすること

製品によっては、価格設定を簡単に行うことが出来るものもある。時間(コンサルティング)を売っているなら、当然ながら、時給制を採用することが可能だ。実は、SEOコンサルタントの「未来」は、既に到着していると私は思っている。多くのSEO業者は、次のようなデジタルの領域に進化している:

  • テクニカルSEO
  • CRO(コンバージョン率の最適化)
  • 競合者分析
  • 分析
  • 広義のオンラインマーケティング戦略および実施

有料検索、eメールマーケティング等、その他の領域も存在するが、上述した領域は、SEO業者がそれぞれのサイト、そして、クライアントのサイトで行ってきた取り組みのほとんどを網羅している。クライアントにサービスを提供し、そして、エージェンシーを始める人が増えるにつれ、一から出直すことが重要になる。.

大きなエージェンシーを運営しているなら、分析の面で大きな違いはあるが、ここでは、一般的なフリーランサーと小さなエージェンシーに焦点を絞って、話を進めさせてもらう。それでは、私が推薦する手順を紹介していく(マーケットやブランドのメッセージ等を既に特定していると仮定し、ここでは価格設定/製品のみを取り上げている):

  • 維持可能な純利益を特定する。基本となる収益を幾ら入手したいだろうか?
  • 求めるスタッフの人数、および、予想される下請けのコストを基に、受け入られる利鞘を特定する。
  • 純利益を達成するために必要な粗利益を特定する。

この方針を採用する理由

純利益は、個人的にとても重要であるため、私は上述した取り組みを行う。量が増える度に、利鞘が薄くなるような、デジタルマーケティング業界のウォルマートにはなりたくない。

例を用いて、この考え方を説明していく。まずは、次のシナリオを想像してもらいたい:

ロードアイランドでの酪農業を引退し、新たに会社を作って、年に150万ドル稼ぎたい。

この場合、会社に所属する唯一のメンバーとして、自営業者税の支払いが求められるため、従来のW-2「従業員」のカテゴリーよりも、多くの税金を支払わなければならない(ここでも出来るだけ状況をシンプルにするよう心掛けている)。公認会計士は、会社の状態に応じて、様々な選択肢を調査するものの、基準となる収益を特定する点に関しては、基本の計算は同じである。

「収益」のみにこだわると、全体像を見ることが出来ない。短期、中期、そして、長期においてビジネスを運営する上で欠かせないのは、健全な利鞘である。それでは、再び例を挙げて、説明する:

ジャックが運営するSEOエージェンシーは、2011年に100万ドルの純利益を得た。総売上は500万ドルであった。2012年、この会社は150万ドルの純利益を上げ、総売上高は、1000万ドルであった。

一方、ジルが経営するSEOエージェンシーは、2011年、50万ドルの純利益を得た。総売上は200万ドルであった。2012年、ジルの会社は、150万ドルの純利益を上げ、総売上は、400万ドルであった。

この場合、利鞘を基本的な計算((純利益/総売上)で割り出すと、次のような結果になる:

  • ジャックの2011年の利鞘は20%であった。
  • ジャックの2012年の利鞘は15%であった。
  • ジルの2011年の利鞘は25%であった。
  • ジルの2012年の利鞘は38%であった(純利益はジャックと同額)。

1000万ドルの15%は、必ずしも恥ずかしい数字ではないが、現在のウェブマーケティングの状況下では、私ならジルのケースを望む。利鞘38%は、競合者への対応、アルゴリズムの変更、そして、値上がりする質の高い人材を確保するために必要なコスト等を考慮すると、全体的なビジネスの存続性を確保する上で有効に働く。

この例では、年間150万ドルを「稼ぐ」点だけに執着すると、考えを誤る可能性が高い。すべてのスタッツを計算して初めて、望む利鞘を割り出し、価格モデルにある程度フィットする「製品/サービス」を「考案」する作業に取り掛かることが出来る。

製品を作る

SEO業者の関係者の多くは、様々な領域に身を置き、直接関与している。少なくとも、ほとんどのSEO業者は、具体的に参入して、「ボタンを押す」方法を知らなくても、特定のタイプのサービスを実行する「方法」を心得ている。

SEO業者は、すべてのタイプのサービスを網羅しようとする傾向が見られるものの、まずは、コアの強みを調べ、製品として提供する上で、何が最も理に叶っているのか特定すると良いだろう。これからビジネスを始めるなら、白紙の状態から、この取り組みをスタートさせることが出来るが、特に大きな違いはない。

やがて、直接的、間接的なものを含め、幾つかのタイプのコストに遭遇することになる。ここでは、分かりやすさを優先し、フリーランサー、または、一人で事業を行うと仮定する。その場合、サービスを売る際に、2つの主なコストが存在する:

  • 直接的なコスト(タスクを完成させるために、外部の業者を利用することで発生するタスク)
  • 間接的なコスト(自分自身の人件費、オフィスの利用料、保険、ツール、マーケティングのコスト等)

正確に利鞘を特定する上で、マーケティングをプロジェクトの一環としてコストに含めるべきか否かに関しては、賛否両論がある。私は賛成派だ。コストとして計上することで、具体的な数字をより正確に出す効果が見込めるためだ。

製品を以下の領域に絞ったと仮定しよう:

  • テクニカルなSEOの評価
  • SEOの競合者分析の評価
  • コンバージョンの最適化
  • コンテンツマーケティング

その場合、次のツールを用意していると考えられる:

  • Screaming Frog SEO Spider(米国では、約158ドル/年の利用料を支払う)
  • Majestic SEOの購読料金(シルバープランの年間購読料金は588ドル)
  • Ahrefsの購読料金(プロの年間購読料金は約948ドル)
  • Visual Website Optimizerの購読料金(スモールビジネスプランの年間購読料金は約588ドル)
  • 競合者分析、コンテンツマーケティング戦略の計画および実行、SEOの評価を実施するために利用するRaven SEO Tools(年間1188ドル)
  • 接触、および、その他のリンク候補調査作業に用いるBuzzstream(年間1188ドル)

他にも加えることが可能なツールはあるが、上述したツールを使えば、品質の高い製品を作り上げることが出来る。ツールに費やす年間のコストは4,658ドル、そして、月間のコストは389ドルになる(四捨五入)。

必要と見なしたその他のコストにも、同じ公式を当てはめることが出来るが(年間および月間のコストの金額)、ここでは、分かりやすく「その他のコスト」に389ドル支払うと仮定する。

知識 + ツール = 勝利

ツールは、2部構成の数式の1部分である。知識を持っていない状態では、ツールは役に立たない。知識の取得にも、様々なコストが必要になってくる:

  • テストサイトを作る
  • カンファレンスに参加する
  • メンバーシップサイトに登録する

知識を獲得するためのコストは、個人個人で大きく異なる。 上の全てのコストが合理的だと考える人もいれば、1つ、または、2つのみだと考える人もいるだろう。迷ったら、自分が持っているスキルに関連する選択肢を検討し、自分のビジネスにとって合理的なコスト(年間)を特定すると良いだろう。特定したら、この金額を先程推薦したツールのコストに足す。

製品リストを分類する

次に、提供している、そして、製品化している各種のタイプのサービスを詳しく見ていく。自分の人件費と外部の業者に費やすコストではなく、自分の人件費だけで済む可能性が高い。しかし、コンバージョンの最適化とコンテンツマーケティングには、恐らく、自分自身の人件費に加え、次のようなコストが加算されていくだろう:

  • ユーザーテスト
  • コンテンツの作成
  • コンテンツのデザイン
  • プロモーション支援
  • インタラクティブなコンテンツのプログラミング

製品を作る際、私は以下の表を利用する:

  • GIは総収益
  • 税金はGI x (税率)
  • NIは純利益
  • GMは粗利益(E2/B2)
  • NMは売上純利益率(G2/B2)

この例では、150ドルを時給に設定し、評価を40時間に推定している。直接的なコストと価格を調節し、求める利鞘を導き出すことが出来る。

間接的なコストに関しては、現在のプロジェクトに分散することが出来る点を覚えておいてもらいたい。

つまり、時折、価格表を見直し、現在のクライアントのリストを基に間接的なコストを修正することが出来る。この例では、現在、クライアントは抱えておらず、私のサイトは収益は上げていないため、この評価は、利鞘に対して、すべての間接的なコストを使い果たすことになる。

しかし、それぞれのビジネスに都合が良いように製品を作ることが可能である。通常、私は自分のビジネスに有効な基準を見つけるようにしている。先程仮定した領域では、私なら各セクションからサブ製品を作る試みを行うだろう:

  • サイトのサイズと範囲に応じた評価(合計のページ数、eコマースサイト、動的かどうか等)
  • 現行の作業の合計時間に応じたコンバージョンの最適化、および、初回の評価およびフィードバックに対する複数の異なる価格
  • 各種のアセットに分類する必要があるスケールに応じたコンテンツマーケティング(動画、インタラクティブなコンテンツ、インフォグラフィック、レポート等)
  • 現行の作業に必要な時間数に応じたSEOの競合者分析、および、初回のリサーチ(または単発の概説)の範囲に応じた各種の価格

各サービスにそれぞれ多くの変数があり、ここで全てをリストアップすることは出来ないが、概念は同じである。マーケットから始め、ターゲットのマーケットの「大半」を網羅する「取り組み」に分類すると良い。

より効率良く仕事を管理する

自分自身の時給を間接的なコストとして挙げたのは、稼ぎ出したい金額を手に入れる上で、月に働く基準となる時間数を設定するためである。獲得したい金額と働きたい時間数を組み合わせると、最低の時給額を導き出し、求める収益に応じて、調節して、最適な価格を打ち出す際に役に立つ。

特定の製品を作る際に時給を用いると、特定の製品に必要な時間数を簡単に割り当てることが可能になる。各製品に時間数を割り当てる際は、次のように、仕事量を管理する上で効果的な複数の取り組みを実施することが出来る:

  • 新しいプロジェクトの見積もりを行う際に、現行のプロジェクトを基に、新しいプロジェクトに対する余裕があるかどうかすぐに判断することが出来る。
  • 事前に多忙が予想され、外部の支援を必要としていることが分かっているなら、提案の中に追加のコストを含め、事前に外部の支援を得る準備を進めることが出来る。
  • プロジェクトを引き受け、合計の時間数が必要な時間に足りている、または、超過していることが分かれば、後のプロジェクトで調整を行うことが出来る。

各製品に必要とされる時間数を割り当てることで、仕事量を管理し、ピークの時間を円滑に過ごすことが出来るようになる。サービスに対する需要のピーク、そして、谷間の期間は確実に生じるため、ストレスを抑え、より多くの利益を得られるようにピークを過ごすことが出来れば、金銭面において、深い谷間を作らずに済むかもしれない。

製品化が有効に働くその他の領域

すべてのプロジェクトを個別に見積もる作業は、この上なく面倒だと私は感じる。

見積もりを終えた後、署名する必要のある契約書、手配する必要のある請求書、そして、達成する必要のあるタスクのプロセス等が現れる。

販売中の製品があるなら、遥かに自動化を行いやすくなる:

  • 送信する提案書のテンプレート
  • 契約書類
  • 請求書の手配
  • CPM/PMシステムへの新たなクライアントの案内
  • 完了し、割り当てる必要があるタスク
  • 会計ソフトで記録するクライアントごと、もしくは、仕事ごとの分野と仕事の設定

時間のかかるプロセスではあるが、サービスを製品化すると、様々な領域でビジネスの役に立つ。


この記事は、SEO Bookに掲載された「Productizing Your SEO Business」を翻訳した内容です。

SEOに関わらずウェブマーケティング関連のサービスベンダーには事業をスケールさせる上で参考になる点が多い記事だったと思います。製品化というか、サービスを上手くシステム化できると様々な面で効率化が可能ですし、結果事業を成長させるきっかけになりますよね。私自身もSEOではコンテンツマーケティングやインフォグラフィック、CROではLPOに励んでいますが、日々勉強することばかりです。。 — SEO Japan [G+]

あなたのサイトのトラフィックを激増させる15種類のコンテンツ

釣り気味のタイトルで恐縮ですが筆者が米国を代表するウェブマーケッター(流行言葉でいえばグロースハッカー?)のニール・パテルとなればその内容は見逃せません。集客に効果があると思われるコンテンツを分類してその方法と注意点まで紹介してくれた、グロースハックを実践してきた彼ならではの経験に裏打ちされた納得感ある記事です。 — SEO Japan

content types

コンテンツマーケティングは、ブログで記事を投稿するだけではない。 その取り組みは遥かに広範に及ぶ

コンテンツマーケティングを始めたばかりなら、まずは、ブログを立ち上げ、記事を作成していこう。

続いて、ブログがある程度認知され、成果を上げるようになったら、新たなタイプのコンテンツを投入していく。すぐに違いが現れるはずだ — 新たなトラフィックがもたらされ、ターゲットのビジターが訪れ、コンバージョン率は上がり、SEOは改善されていく。

トラフィックを増やす15タイプのコンテンツを紹介する前に、幾つか知っておいてもらいたい点を挙げていく:

  • すべてのタイプを試す必要はない – フィットするコンテンツのタイプは、ブランドのタイプによって、そして、方法によって異なる。あるタイプが合わないと思ったなら、それで構わない。このリストは、絶対に必要な取り組みを並べたものではなく、可能性のあるアイテムを紹介することを意図している。
  • 恐れずに新たなチャレンジを行う – 時間がかかり過ぎる、難し過ぎる、あるいは、絶対にうまくいかないと思い、新しいコンテンツのタイプの利用を控える人達がいる。心配する気持ちは分からないではないが、とにかく試してもらいたい。 例えば、動画から着手したいなら、グリーンスクリーン、編集ソフトウェア、あるいは、プロ級のカメラを買う必要はない。iPhoneとYouTubeのアカウントを利用しよう。小さなことから始め、徐々にスケールアップしていけば良い。
  • 1つ選んで、スケジュールに組み込む – コンテンツマーケティングのスケジュールを組むなら、次回の編集カレンダーに以下のリストから1つか2つ組み入れておこう。計画しないなら、実行もしないだろう。 1つ選んで、今後4週間以内に試してもらいたい。
  • これは完全なリストではない – コンテンツのタイプではなく、アイデアとして検討することを薦める。 コンテンツが採用する形式よりも、アイデアが重要である。まずはアイデアを練り、続いて、採用する形式を検討しよう。コンテンツの種類は無限にある。独自のコンテンツのタイプを編み出すことだって可能だ。

それでは、コンテンツのタイプを15点紹介していく… 続きを読む あなたのサイトのトラフィックを激増させる15種類のコンテンツ

BtoBのSEO対策におけるキーワード選定の3つのコツ

今回はwebマーケティング、SEO事業を行っている株式会社アルコの黒須敏行さんに記事を寄稿いただきました。 株式会社アルコの黒須と申します。 普段自社のブログやITメディアなどでウェブマーケティングについて記事を書いてい [...]

オーガニック検索におけるクリックスルー率の方程式

検索結果ページのクリック率が表示されるタイトルや説明文で大きく変わる想像はつきながら、順位だけが圧倒的に注目されてきてしまったSEOの歴史。今回はっ検索結果ページでのクリック率を上げるための様々な要素について考えてみた記事をサーチエンジンランドから。 — SEO Japan

中学生の頃、カール・セーガン博士のコスモスを本で読むのも、テレビで見るのも大好きだった。10回以上は確実に本を読んだはずだ。そして、テレビシリーズが地元のPBS局で放映される度にテレビにかじりついていた記憶がある。

コスモスで一番記憶に残っているパートは、ドレイクの方程式だ:

The drake equation

ドレイクの方程式は、銀河系の地球外生命体の数を推測する方法であり、(惑星を持つ星の割合f(p)や生命体を維持することが可能な惑星の割合f(l)等)パラメータに分類し、その後、まとめて掛けることで算出する。

セーガン博士がドレイクの方程式を説明する動画をユーチューブで視聴することが出来る。セーガン博士は悲観的にNを10と決めるものの(80年代前半はあまりよい時代ではなかった)、1分後には“数百万”にアップグレードしていた(短期記憶もまたいまいちであった)。

数週間前にSMX イーストで誰かと話していたとき、オーガニック検索のコンバージョンの計測が、次のようにドレイクの方程式と同じように表現することが出来ることに気づいた:

SEO Drake equation

この方程式では、Cはコンバージョンの数であり、N(k)はキーワードを検索している人の数(またはキーワードのグループ)、f(I)は自分のサイトのリンクが表示されている検索が表示される割合(インプレッションとも呼ばれる)、f(CTR)は検索エンジンの結果のクリックスルー率、そして、f(conv)はクリックした後にコンバートする人の割合を示す*。

そして、注目の多くは次の3つの要素に振り分けられると思った: N(k)はキーワードのリサーチに、f(I)はSEOの主要な目標、そして、f(conv)はユーザビリティとグラフィックデザインの領域だ。

クリックスルー率の改善はその他の要因の効果を倍増させるにも関わらず、その他の三つの用語と比べ、クリックスルー率に寄せられる注目、または最適化は軽視されがちである。CTRに影響を与える要因の大半は、直接コントロールすることが可能である点、そして、ウェブサイトのユーザビリティに全く影響を与えない点を考慮すると、奇妙と言わざるを得ない。

そのため、オーガニックの検索からユーザーをコンバートする要因として十分に活用されているものの、過小評価されていおり、しかも直接管理することが出来るアイテムと考えるなら、CTRに影響与えることが可能な様々な方法を詳しく調べ、コラムを1つや2つ綴る価値はあるはずである。

この記事の残りは、検索結果のタイトルとスニペット、そして、この2つがクリックスルー率に影響を与える仕組みの説明に割く。来月のコラムでは、もっと多くのポイントを説明する予定だ。

検索結果の基本的な構成要素は、バネッサ・フォックス氏が綴った記事で網羅されているので、気分を切り替えたいなら、もしくは用語の幾つかがよく分からないなら、目を通してもらいたい。

タイトル & メタデスクリプション

 

典型的な検索エンジンの結果の最も分かりやすく、そして、最も大きい構成要素は、タイトルとスニペットである。タイトルは、通常、ページのHTMLタイトルタグが採用される。スニペットは、複数のソースから採用されるが、巧みに綴られたメタデスクリプションタグから採用されるのが理想である。

タイトルタグとメタデスクリプションは、通常、ブラウザで閲覧する際は見えない点に注意してもらいたい(開くタブの数が多い場合は尚更)。この2つの要素は、検索エンジンの結果に大きな影響を与えるが、注意していないと思わぬしっぺ返しに遭うので気をつけよう。

タイトル & メタデスクリプションを無効にする検索エンジン

上の例のスニペットは質が高い。よく説明されており、その結果、私はクリックして、ドレイクの方程式の記憶を手繰り寄せたのだ。

しかし、私がソースコードをチェックして、スニペットがメタデスクリプションから採用されたかどうかを確認しようとすると、次のコードが出てきた:

 

Non-ideal meta description

 

つまり、タイトルはページから直接抜粋されているものの、メタデスクリプションは明らかに異なる。これはページのテンプレートの残されたボイラープレートテキストである。このテキストはサイトの様々な場所で掲載されているため、ページのコンテンツとは明らかに関係ないため、そして、あまりにも短く過ぎるため、グーグルはページ上のスニペットをこの結果のために生成した。

通常、これは良い結果とは言えない。だからこそ各ページのメタデスクリプションに注意する必要があるのだ。以下に同じクエリのその他の結果を幾つか掲載する。ページの内容が伝わってくるメタデスクリプションは一つもない:

Bad snippets generated by Google

 

コンピュータにアドワーズの広告を書いてもらっても、コンピュータにサイトのスニペットを作らせるのは避けるべきである。

クライアントのために評価するサイトの中で、タイトルとメタデスクリプションが重複していたためにグーグルやビングに無視されるサイトは多い。そのため、それぞれのページにこの2つのアイテムを作成することが肝要だ。

リッチスニペットに関するSMX イーストのセッションで、グーグルのジャック・メンゼル氏は、グーグルが検索結果でタイトルを無効にするその他の理由を挙げていた:

  • タイトルが“クエリを基準として不明瞭”である(タイトルに重要なキーワードが欠けていると私は理解した)。
  • タイトルに企業名やサイト名が欠けていると、グーグルは後回しにする可能性がある。
  • タイトルがキーワードで“必要以上に最適化”されていると、グーグルはそのうちの幾つかを削除する可能性がある。

メンゼル氏は、グーグルはユーザーの役に立つ場合のみタイトルを修正すると慎重に指摘していたが、ページが検索結果に表示される仕組みを出来るだけ自分で管理しておきたいところだ。

タイトルと生成されるスニペットが同じケースも重複の問題点の一つである。このケースが発生すると、グーグルは1つの結果のみを表示し、残りを抑制する。そして、以下のメッセージを検索結果の下に掲載する:

Google deduplication message

これは、クエリに対してランクインしているページがあるにも関わらず、グーグルがその他のランクインしているページと区別することが出来ないために表示してもらえない点を指摘する憂鬱なメッセージだ(このメッセージは、サイトのページネーションに問題がある点を示唆する可能性があり、その場合はしかるべき対応が必要である)。

タイトル内にキーワードを掲載

ユーザーが検索結果に目を通し、クリックするサイトを決める際、じっくりと腰を落ち着けて、ワインを片手にユリシーズを読み、古典について深く考えを巡らすと言うよりも、猿が果物を探して木を見渡すような行動を取る。

つまり、検索者は記憶の中に存在するキーワードをスキャンしているのか、もしくは“一部の人達のセオリーによると”キーワードの全体の形をスキャンしているのだ。

この見解と、この指摘この指摘この指摘のように、典型的な検索エンジンの結果ページ上に残される視線追跡調査を組み合わせると、重要なキーワードはモンキースキャナー達に見てもらえる可能性の高いタイトルの冒頭に配置するべきだと言う結論に達する。

(キーワードを左側に配置するアイデアを否定する議論を耳にしたことがあるが、私よりも心理学にのめり込んでいる人達にこの議論は任せておこうと思う)

大きなサイトに対するスケールについて

無数のページを持つサイトにおいては、一つ一つ固有で、意義深いタイトルを作成する戦略は現実的ではない。

ページに関するアイテムに対するメタデータを使って、クリックスルーを強く促すような方法で自動生成しても問題はない。

以下に先日私が見かけたタイトルの例を掲載する:

私がウィロウグレンで家を探していたなら、この結果をクリックしたくなっていたはずだ。アプリケーションデータベースで自動的に生成された点は明白だが、固有であり、クリックスルーを促すことが考慮されている。

今後のコラムでは、URL、ブレッドクラム、構造化されたメタデータ、アンカー、ソーシャルシグナル、文字コード、月の相等、クリックスルー率に影響を与えるその他の要因を取り上げていく予定だ。

*このエントリを書き終えた後、バネッサ・フォックス氏が綴った書籍「マーケティング・イン・ジ・エイジ・オブ・グーグル」で紹介されているサーチャーペルソナのワークフローに似ていることに気づいた。さらにこの概念を詳しく知りたいなら、この書籍を読んでもらいたい。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「The Clickthrough Rate Equation In Organic Search」を翻訳した内容です。

最後の説明文の自動生成はECサイト等で導入しようと思えばすぐにできることですが、日本では意外と何もされていないままのサイトが多いようです。タイトルが矯正書き換えされてしまう最近の進化しすぎたGoogleではありますが、意図的な上位表示・順位争いに限界が来ている今日のSEO、改めて検索結果上のクリック率に着目してみる良い時期かもしれません。 — SEO Japan

SEOとデザインシンキング

シリコンバレーで最近話題らしいデザインシンキングのプロセスをSEOに適用して考えてみたSEO Bookの一歩上を進んだ記事を。企業やサービスに新たなイノベーションを興す手法として注目されるデザインシンキングを学べる記事でもあります。 — SEO Japan

分析データばかりを参考にすると、未来を想像する際に、過去に囚われてしまうことがある。過去のパフォーマンスは、とりわけグーグルの気まぐれな変更に関しては、今後の成功を示唆するわけではない。

問題を特定し、解決策を策定するべきである。しかし、過去を計測し、最高のソリューションを考案して、未来を予測しようとすると、明白なチャンスを失ってしまう可能性がある。

デザインシンキング

1972年、心理学者であり、建築家であり、そして、デザインの研究者の肩書きも持つブライアン・ローソンは、問題をベースに問題を解決する人と解決策をベースに問題を解決する人の違いを理解するため、科学的な調査を実施した。ブライアン・ローソンは、建築学部の4年生、そして、理学部の大学院生の2つのグループの学生を調査の対象に選び、色のついたブロックで1階建ての構造物を作るよう求めた。建物の周りには、出来るだけ赤か青のブロックを利用する必要があったが、配置やブロックの関係に関する具体的なルールは示されなかった。
この調査の結果、次のことが分かった:

科学者タイプは、一連のデザインの手法を試していた。このグループは、出来るだけ早く、出来るだけ多くの異なるブロック、そして、ブロックの組み合わせを用いていた。そのため、許される組み合わせに関して、提示された情報を出来るだけ活かそうと試みていた。許容されるブロックの組み合わせを左右するルールを見つけることが出来れば、デザインに関して、必要とされる色を出来るだけ活用する配置を求めることが可能になる。反対に、建築学部の学生は、適切に色が並ぶようにブロックを選んでいた。組み合わせとして受け入れられない場合、次に理想的な色のブロックの組み合わせが考案されていき、受け入れられる解決策が見つかるまで、この作業が繰り返し行われる。

ローソンの調査に関して、ナイジェル・クロスは、「科学的な問題の解決は、分析によって行われ、一方、デザイナーは演繹的な推理を用いて問題を解決しようとする」と結んでいる。

デザイナーの考え方は、問題ではなく、解決策を先に検討する傾向が見られる。問題ベースの考え方をする人達は、問題に対する一つの解決策を見つけることに力を入れるものの、デザインを意識する考え方を持つ人達は、共通するテーマに関する各種の解決策を提供する傾向がある。このように、2つのグループには、考え方の違いが見られる。

グーグルでデザインを統括していたダグラス・バウマンは、グーグルは、決定を下す際にあまりにもデータを気にし過ぎると批判していた:

エンジニアばかりが会社に集まると、問題の解決にエンジニアリングが用いられるようになる。各決定を単一の論理的な問題に例えるようになる。主観性をすべて排除して、データだけを見る…そして、このデータは、すべての決定に対する支えになり、会社を麻痺させ、デザインに関して勇気ある決定を下すことが出来なくなる…

もちろん、データに基づいたアプローチに問題があるわけではない。しかし、このような考えに偏ると、機会を見逃してしまう可能性がある。「どうだった」よりも、「どのようになるのか」を想像すると、機会が自ずと姿を現す。もちろん、グーグルもこの点を理解している。だからこそ、同社は、未来を想像することに専念する部門、その名もグーグル Xを抱えているのだ。

キーワード取集ツールには、必ずしも表示されていないものの、ユーザーが利用している可能性がある検索のワードは何だろうか?当該の分野で、半年後にウェブユーザーは、どんな検索ワードを利用するのだろうか?ああするよりも、こうする方が、消費者は、頻繁に連絡を取るようになるだろうか?コピーは顧客の共感を得ているだろうか?それとも、検索エンジンにしか認めてもらえないだろうか?グーグルが、検索リファラーのデータを伏せていることを考えると、キーワードを狙いに絞る取り組みは難しくなる。そのため、デザインシンキングが心強い味方になる。

デザインシンキングのツール

Designing For Growth」の著者、ジーン・リエドツカとティム・オーグルビは、作品の中で、データベースの方法以外で、機会、そして、ビジネスについて考えるためのツールを紹介している。直感に基づく、デザイン主導のアプローチの有名な支持者と言えば、まず名前が挙がるのは、スティーブ・ジョブズである。

フォーカスグループを使って製品をデザインするのは難しい。実際に見せるまでは、何を求めているのか消費者自身が分かっていないためだ。

iPhoneやiPadは、過去だけを考慮して作られたわけではない。この製品は、ジョブズが、消費者が何を求めているのか理解する才能を持っていたため、生まれた。ジョブズの判断が正しかったことは、売り上げを見れば分かる。

デザインは、共感を得ることから始まる。そのためには、消費者の立場になって考えなければならない。つまり、実際に問題を抱える実際の人達を特定する必要がある。

そのため、過去のデータをひとまず忘れ、消費者を観察し、消費者の声に耳を傾け、そして、消費者に語りかける必要がある。この取り組み簡素化させたいだろうか?それなら、消費者は、思いがけない方法で問題を表現することがあるため、キーワード、そして、事業に関するアイデアを豊富に用意すると良い。

例えば、禁煙を、医学的な問題ではなく、健康問題のように、目標の設定の課題に挙げる人は多い。そのため、医学用語やキーワードをベースとした広告のコピーは、目標の設定や健康をベースとしたコピーほどの効果は期待できない可能性がある。このワードの違いによって、全く異なる広告コピーの世界、さらには、キーワードの世界が生まれる。分析データ、そして、キーワードのトレンドのみに頼っていたら、この異なる枠組みを利用しようとは思わないかもしれない。しかし、顧客候補に話しかけるだけで、割と容易にこの枠組みを見つけることが出来る。

4つの問い

問題に対処し、新たな機会を見出す斬新な手法を探しているものの、データ優先の考え方に行き詰っているなら、「Designing For Growth」を読むと良いだろう。特に目新しいコンセプトが提示しているわけではなく、また、時折、「最新の業界用語」として、ありきたりの考え方が紹介されているものの、基本的なアイデアは説得力がある。事実、幾つかのアイデアをSEOの問題に直接適応する価値はある、と私は思う。

Designing For Growthは以下の問いを投げ掛けることを薦めている。

何?

何が現状を形成しているのか?ターゲットの消費者が解決を試みる問題は何か?Xeroxは、ファックスを発明した際、顧客自身が分かっていない問題を解決することに成功した。ポラロイドカメラにも同じことがいえる。電子レンジも同じカテゴリーに属する。消費者は、実際のこのような製品を見て、理解するまでは、問題を説明することは出来なかったかもしれない。しかし、消費者が直面している問題を観察していれば、問題があることは明白であったはずだ。例えば、消費者は、一般的なタスクを早く、そして、簡単に完了する手段を求めていた。

現状について、業界について、消費者が、最も嫌悪感を抱いている点は何だろうか?消費者は、どのぐらいの頻度で質問を投げ掛けているだろうか?

この情報をフローチャートを使って、描写することが出来る。ユーザー体験の現状を、問題に直面する時期、キーワードの想像、検索、結果の確認、結果のクリック、サイトの発見、サイトの利用、理想的な行動に至るまで、描いていこう。結果やステップを改善することは可能だろうか?

ユーザビリティテストは、同じ方法を用いている。可能ならば、実際の消費者の行動を観察すると良いだろう。数名にインタビューを行い、質問を投げ掛け、消費者が用いる言葉に耳を傾けてもらいたい。データを収集することで、この情報の一部を拾うことが出来るものの、とりわけ、消費者がクリックしない場合、つまり、行動が起こされないケースは、分析データには、有益な形で表れない。そのため、直接観察した方が、遥かに多くの情報を得ることが出来る。

もしも…?

「もっと見た目が良い」デザインを考えてみよう。

実用的なデザイン、そして、ある行動を妨げる制約について考えるのではなく、実用性と制約を度外視した場合の、理想的なソリューションのデザインを想像してもらいたい。

例えば、絵を描く模型を作る、ストーリーを伝える手が考えられる。想像力を掻き立てることが出来るなら何でも構わない。感情、空想、そして、感覚を利用しよう。このようなプロセスを経ることで、スプレッドシートを睨むだけでは作ることが出来ないつながりを作ることが可能になる。

大勢のユーザビリティテストのテスターが、ペルソナを作り出す。ペルソナとは、実際の顧客、もしくは、顧客候補をベースとした架空のキャラクターであり、顧客が探しているもの、解決しようと試みている問題、そして、サイトに期待するアイテムを理解するために用いられる。このキャラクターは多忙を極めているのか?教養を身につけているだろうか?インターネットを多用しているだろうか?自分のために買い物をしているだろうか?あるいは、代行しているのだろうか?感情的に反応する傾向があるだろうか?それとも、論理的に行動するタイプだろうか?このキャラクターはどんなインセンティブに反応するだろうか?

実際の消費者に基づいている場合、ペルソナは特に有効である。じっくり見て、観察しよう。関連するケーススタディを調べてもらいたい。顧客から送られてきたeメールを遡って確認する手もある。絵コンテンツを使って、消費者が取る可能性のある行動や考え方を記録すると良いだろう。ストーリーは、モチベーションと思考を理解する上で、大いに役に立つ。

競合者はどんな取り組みを行っているのか、どの点において、自分の会社よりも優れているのか?制約のない、最高の世界では、どのように表現されるのだろうか?

何が感動を導くのか?

「何が感動を導くのか」は、今後のソーシャルメディアとSEOにおいて特に重要である。

質の低いサイトに関するマット・カッツの発言について考えてもらいたい:

このようなサイトは、価値を加えていない。コピーしているわけではないが、新しい情報をもたらしているわけではない。このタイプのサイトが行ってきた取り組みに問題があるわけではないが、上位にランク付けされるなどと期待するべきではない。
このような結果には、大きな違いがないため、グーグルは、そのうちの一つだけ表示する。そうすることで、検索結果に別のタイプのサイトを提供することが出来るためだ。

グーグルのスパム対策を統括する立場にあるマット・カッツは、新たな価値の創造を強調している。サイト Aが、サイト Bとほぼ同じ情報を提供している名合、重複とは見なされなくても、大きな価値を加えているわけではない。その結果、新しいサイトが、「ほぼ同じ内容」として、格下げされる可能性がある。

これは、Zygnaが歩んだ道のりとは正反対である:

SF Weeklyに次のような一節が記されていた。「イノベーションなんか求めていない。競合者よりも賢いわけではないんだから、競合者の真似をして、同じ成果を得られるまで、真似を繰り返していればいいんだ」とZyngaの元従業員は、ピンカスCEOに話したそうだ。

一般的に、有望なサイトは、深さ、そして、新たな見解を加えることで、オーディエンスを熱狂させることに焦点を絞るべきである。つまり、発言に値するアイテムを持つ必要がある。このアイテムこそが、ソーシャルメディア全体で言及され、リンクを増やしていくためだ。

確実にこのような成果を得られるのだろうか?グーグルに関して言えば、確実なことなど存在しない。グーグルは、自由にサイトを下位に沈める権限を持つ。しかし、老舗のサイトと同様のコンテンツとリンクの構造を用いて、真似するだけよりも、オーディエンスを感動させる方が見込みはある。このような老舗のプレイヤーもまた、現在得ている注目、そして、ランキングを得るために、オーディエンスを感動させなければならなかったのだ。型破りな行動を取っていたはずである。要するに、同じ穴を深く掘るのではなく、新しい穴を掘り始めるべきである。

SEOの世界では、変化は実験に基づいている。SEOは、繰り返し行う取り組みである。私達は、今後、どのような手法が有効なのか理解しているわけではなく、過去のデータがどんなに多くても、知りたい情報が得られるわけではない。それでも、テストを行い、効果のある手法を特定しようと試みる。サイトが上位にランクインしていないなら、上位にランクインするまで、別の手法を試すことになる。

その結果…

何がうまくいくのか?

検索エンジンのユーザーは、積極的に行動を起こしているだろうか?広告のクリック、登録、または、購入等、取って欲しい行動を取っているだろうか?

SEOは、この段階で、ほぼ目標を達成していると言える。数値化が困難な分野での実験 – アルゴリズム – は、SEOと切っても切れない関係にある。

難しいのは、場所によって効果が異なる点であり、また、現代病と同じように — グーグルは、アルゴリズムで巧みに遅延を行っている:

肥満、薬物乱用、喫煙等、多くの現代の病気は、共通する特徴を持っている: 病気を患う人達は、結果と原因が、大きな時間とスペースによって隔てられている点を理解することに失敗している。タバコを吸う度に腫瘍ができるなら、喫煙を始めにくくなり、反対に、タバコを簡単に止められるようになるはずだ。

あるサイトのランキングが、他のサイトよりも安定しているのは、秘密を特定するのが難しく、同じリンクを手に入れるとペナルティーを与えられるためだ。同じ戦略とリンクが、別のサイトでは、うまくいくこともある。

ユーザーの行動の変化は、SEOよりも、より直接的、そして、より早急に計測することが出来る。

変化の実験を、顧客候補のユーザーと会話を始めるための機会と考えてもらいたい。つまり、「今回の変更を気に入りましたか?気に入った点を教えて下さい」と問いかければ良いのだ。プロンプトを使って、チャットを開始する、あるいは、調査に参加して欲しいと要請することも可能である。エンゲージメント(参加を介した交流)は多くのメリットを持つ。 すると、すぐに「戻る」をクリックされずに済み、ターゲットのオーディエンスが用いるワード、そして、問題点表現する形式が判明し、顧客について深く学ぶことが出来るようになる。その結果、顧客のニーズに敏感に反応し、共感を持つことが可能になる。

デザインシンキングの向こう側にあるもの

デザインシンキングには、他にもいろいろな要素があるものの、基本的には、常識に基づいている。顔のないデータに囲まれて身動きが取れなくなっているなら、新たな構想を加えると良い。

デザインシンキングは万能薬ではない。シックスシグマがプロセスであるように、デザインシンキングもプロセスである。どちらも現代の企業において、それぞれ居場所がある。効率を求める取り組みは、今も行われている。事実、不況下においては、厳格に節約する機会を探す方針は、賢明である。

このタイプの考え方の一番のメリットは、戦略の問題とデータの問題を分類し、顔を与える上で役に立つ点である。

この世界では、デザイナーは今後も並外れた価値を創り出すことが出来る。デザイナーは、問題を解決するために必要な右脳と左脳、世界が何を求めているのか耳を傾けるために必要な嗅覚、そして、長期間に渡り、大きな軌道を描くために必要なデータベースを持っている(あるいは、持つことが出来る)。デザイナーは、方向性を明確に示し、分かりやすく、住みやすい世界を生み出す能力を持っている。


この記事は、SEO Bookに掲載された「Design Thinking」を翻訳した内容です。

過去のデータも重要ですが、それだけに囚われないアプローチも時に必要ですよね。SEO限らず全ての企業活動の参考になる内容でした。 — SEO Japan [G+]

Googleのパンダアルゴリズムに言及する特許?

先日紹介した「Googleのパンダの生みの親に付与された特を改めて詳細に検証してみた記事をSEO by the Seaから。 — SEO Japan

Googleに最近付与された、ナブネート・パンダ氏が考案者に名を連ねた特許は、本当にパンダアップデートに言及しているのだろうか?

検索の品質 vs ウェブスパム

私が取り上げたGoogleの特許の多くは、ウェブスパムの問題、そして、検索エンジンが行動を起こして、あるいは、アプローチに従って、検索結果の操作を防ぐ仕組みを説明している。Googleの対応の初期段階の例として、2003年に申請された「操作された記事を特定するメソッドとシステム」が挙げられる。

Is this Google's Panda?

しかし、その一方で、取り上げた特許の大半は、検索エンジンのユーザーが目にする検索結果の品質を改善する技術に触れている。

例えば、Googleの初期の特許(ページランクはスタンフォード大学の特許であり、Googleが所有しているわけではない)は、クエリに対する検索結果の上位に注目し、同じクエリで上位に格付けされている結果からリンクが張られている場合、一部の結果を上位に押し上げる仕組みを説明している。この特許「ローカルの相互的なつながりを基に結果のランクを変更」は、上位のランキングの結果の品質を改善することを目標に掲げていた。

Googleのフレーズベースのインデックス(日本語)に関する特許は、特定のクエリに対して、共起、もしくは、現れる傾向のある意味を持つワードやフレーズに注目し、このフレーズが掲載されているページを押し上げる、もしくは、関連性のある共起する用語の一部を用いたアンカーテキストを介してもたらされる重要度を高める仕組みを描写していた。この2点の特許は、検索の品質をメインに取り上げている。

フレーズベースのインデックスを採用する特許は数多くあり、少なくともそのうちの1つは、1つのページで、統計的に異常な数のワードが共起しているかどうかをチェックして、ウェブスパムの問題に対処している。つまり、フレーズベースのインデックスのアプローチには、ウェブスパムを検知する技術も含まれることになる。

品質に焦点を絞る

ナブネート・パンダ氏とウラディミール・オフィトセロヴ氏に付与された特許「検索結果のランク付け」は、サイトにペナルティーを与える、もしくは、検索結果を操作する試みを特定するよりも、検索結果を改善することに重点を置いている。

この特許は、当該の手法に従う「利点」を1点のみ紹介している:

低い品質のリソースを特定する検索結果は、ユーザーのクエリに対応して返された検索結果の順位において、格下げされることがある。するとユーザー体験は改善される。なぜなら、上位にランク付けされた検索結果は、ユーザーが求める情報のニーズをより多く満たしているためだ。

パンダアップデートが導入される前、Google検索で表示される検索結果の品質を批判する声が多く上がっていた。

幾つか例を紹介する:

2009年12月13日 — 食器洗い機、Googleが自分の尻尾を食べる経緯: ポール・ケドロスキ

Googleは自らのキーワードのテールを喜んで飲み込む蛇になってしまった。利益になる検索 — 電化製品、中皮腫の訴訟、カヤックのレッスン — を特定し、安価に、そして、定期的にコンテンツを量産するだけで良い。ウェブでは、コンテンツを大量生産していても、誰にも気づかれない。

2009年12月13日 — コンテンツファーム: メディア、ブログ、Googleが注意するべき理由: リチャード・マクマナス

Demand Media等のサイトを分析したところ、この手のコンテンツは、どれも表面的であり、深みに欠けていた。wikiHowの創設者、ジャック・ヘリックのように、「魂が欠ける」とまでは言わないものの、確実に熱意、そして、時にトピックに関する知識さえも欠けていることがある。マイケル・アーリントンによるファーストフードの例えは秀逸だ — コンテンツが、手早く、オーダーが入ってから作られる。

2011年1月2日 — Googleがますます役に立たなくなっていく..: アラン・パトリック

今年は、検索結果の1ページ目に表示される結果は、何らかのSEOスパムに該当するようになり、Googleのシステムのスパムが深刻化している — (「関連する」と主張する)広告を提示しつつ、何を売り込むわけでもなく、別のサイト(同じことをしているサイトが多い)を紹介するだけのサイトが目立つ。また、関連するWikipediaのエントリの一部をコピーし、大量の広告を表示する詐欺サイトも多い。

2011年1月3日 — Google家の問題: ジェフ・アットウッド

皆さんと同じように、私もこの戦いではGoogleを応援しており、Googleがアルゴリズムを少しいじって、この記事の主張を杞憂に終わらせてくれることを願っている。それでも、2000年以降、検索の品質が初めて低下する現象が起きており、やや邪な考えが私の中で湧き起っている。アルゴリズムベースの検索が、戦略として失敗した兆候が初めて現れているのだろうか?次世代の検索は、アルゴリズムへの依存を軽減し、ソーシャル化に舵を取るのだろうか?

受け入れるにはあまりにも恐ろしい考えだが、アルゴリズムの心臓が壊れているのかもしれない。

2011年1月27日 — Googleの検索の品質が低下、それとも、エリート主義?: AJ コーン

Googleなら行動に移すことが可能だ。立ち上がって、Demand Mediaのファーストフードコンテンツは、SERPで上位に掲載しないと言うことも出来る。ファーストフードではなく、高級料理を選ぶことが出来る。

しかし、「ユーザー」がこの方針を求めているのだろうか?

品質の改善

引用した上のブログにも表れているように、Googleの結果が壊れ、品質の高い結果を返すよりも、クエリにマッチさせる点をGoogleが重要視していた感は否めない。

このような批判は、Google本社ですら行われ、そして、2011年2月、Googleは、公式ブログで「検索でより質の高いサイトを見つけるため」を投稿し、アップデートの告知を実施した。この変更の影響は、多数の検索に及び、高品質のサイトを浮上させることを明らかに目標に掲げていた:

最終日、または、その前後に、Googleはランキングに大きな変更を加えました — この変更は、クエリの11.8%に影響を与えると見られています — そこで、ユーザーの方々に現状をお伝えしたいと思います。このアップデートは、品質の低いサイト(ユーザーにとって価値が低く、その他のウェブサイトからコンテンツをコピーするサイト、あるいは、単純に有益ではないサイト)のランキングを格下げするために導入されました。同時に、調査、詳細なレポート、意義深い分析等、オリジナルのコンテンツや情報を持つ品質の高いサイトをより上位にランク付けするようになります。

パンダアップデートを確認し、フォーラム等でパンダの影響を受けたサイトに関するスレッドを読み漁り、そして、確実に影響を受けたサイトの調整に取り掛かった後、ナブネート・パンダが申請した特許が、このアップデート、そして、検索結果の品質を改善する試みを説明しているのかどうか、私は大いに気になった。

以下に、この特許に記載されたメソッドをまとめていく:

  • 複数のリソースのグループに対して、グループ内のリソースに向けれた独立したリンクの本数を特定する。
  • 複数のリソースのグループに対して、言及するクエリの数を特定する。
  • 複数のリソースのグループに対して、個別のグループ特有の修正要因を特定する。ここで言うグループ特有の修正要因とは、それぞれのグループの独立したリンクの本数と言及するクエリの数に応じて決まる。
  • 複数のリソースの各グループを、当該のグループに対するそれぞれのグループ特有の修正要因と関連付ける。ここでは、それぞれのグループ特有の修正要因は、受信した検索クエリに応じて、グループ内のリソースに対して生成された最初のスコアを修正する。

このように、この特許は、連動する複数のパーツで構成されていると言えるだろう。

1つ目のパーツは、サイトのページに向けられたリンクの本数を確認し、当該のサイトと提携している(共同で所有、または、共同で管理)と見られる被リンクを削除する。もしくは、サイトワイドのリンク等に対して、ページへの独立したリンクの本数を削減する。当該のサイトのページに向けて、どれぐらいの関係のないページやサイトがリンクを張っているのかを把握するために、このプロセスが設けられている可能性は高い。より多くのソースから、より多くの独立したリンクが向けられているページは、質が高いと見られるかもしれない。

2つ目は、ページが、特定の言及するクエリをターゲットにしているかどうかを分析するプロセスである。SEOを実施しているサイトは、サイトの全てのページをランディングページ化する試みを行うこともあるが、コンテンツファームと呼ばれるサイトの多くは、全てのページを使って、収益性の高いクエリ、および、このタイプのクエリの組み合わせをターゲットにする。つまり、コンテンツファームの類のサイトは、多くのクエリを言及する試みを行うページを多く持っていると考えられる。

当該のサイトが分類される異なるグループに対する、独立したリンクのカウントと言及するクエリのカウントは、比率として検討され、独立したリンクの本数と言及するクエリの数の比較が行われる。独立したリンクが多く、言及するクエリの数が少ないと、数値は1を超える。一方、独立したリンクが少なく、言及するクエリの数が多いと、1を下回る。

この数値は、リンクの本数とクエリの数に応じて、各ページが、クエリの用語やフレーズに対するナビゲーションタイプの結果と見られているかどうかで修正されるスコアで乗じる。ナビゲーションタイプの用語やフレーズに近ければ近いほど、この部分のスコアは高くなる。最終的なスコアは、一部の結果のランキングスコアを押し上げる場合もあれば、押し下げる場合もある。

ページよりもグループ

この特許は、多くのランキングアルゴリズムのように特定のページやサイトをターゲットにするのではなく、リソースの「グループ」に注目すると指摘している。グループは、複数の方法で決定されるようだ。グループ内のリソースは、単一のグループのみに盛り込まれる。

グループは、アドレスをベースに決められ、グループ内の全てのリソースが、– http://www.example.comのように、同じドメイン名を持つ可能性がある。あるいは、http://host1.example.comやhttp://host2.example.comのように、ドメインのホストの名前でグループが形成されることもある。

リソースのグループは、各グループに対する言及するクエリの数で分割されると見られる — そのため、各区画には、言及するクエリの数が同程度のリソースのグループが集められると推測される。

このアプローチでは、あるウェブサイトが、複数のグループに分割される、もしくは、複数のウェブサイトを含むグループの一部になると考えられる。グループ内でページをランク付けするため、独立したリンクの本数:言及するクエリの比率は、ナビゲーショナルのシグナルを伴うスコアで乗じ、最終的なランクの特定を行う。

独立したリンクの本数

この特許が、質の高いページを高くランク付けすることを目標に掲げているなら、ページ、または、ページのグループに向けられた独立したリンクの本数に注目する可能性がある。

本特許は、リソースの各グループに対して、– 全てのリンクではなく — グループに向かうリンクの本数をカウントすることもあり得ると指摘している。また、本数がカウントされるリンクは、エクスプレスリンク(クリックして、別のページに導かれる)とは限らず、インプライドリンク(サイテーションと呼ばれることが多い)の本数もカウントされる可能性がある。エクスレプレスリンクは、ある場所へ導くタイプのリンクであり、一方のインプライドリンクは、クリックしても、ユーザーはリンクのターゲットに向かうことが出来るわけではない。

ここで、この特許が、なぜページランクに触れていないのか、と言う疑問が湧いてくる。この計測基準もページランクも、本来ならば、質のシグナルになるはずだが、Googleの全てのシグナルにページランクを盛り込む必要はない。独立したリンクへの依存は、同じサイトから大量のリンクを得るメリット、もしくは、所有者や管理者が同じサイトからリンクを得るメリット、あるいは、他のサイトからサイトワイドリンクを得るメリットを打ち消す効果がある。

独立したリンクとは、リンクのソース、そして、ターゲットが、互いに独立しているケースを指す。また、リンクが掲載されているソースのグループ、そして、ターゲットのグループに対して、互いに独立しているかどうかを確認することが出来る。

あるグループから別のグループへのリンクが独立していないことを特定するには、同じ個人/団体によって所有されている、ホスティングされている、もしくは作られている等、リソースのグループが関連している確率が高いかどうかを判断する試みが含まれると考えられる。

リソースが、似ている、もしくは、同一のコンテンツ、画像、フォーマット、あるいは、CSS等を持っている場合、この類似性は、リソースが独立していない点を示すシグナルになることもあり得る。

あるリソースから、ターゲットのグループに複数のリンクが向けられている場合、このうち独立したリンクとしてカウントされるのは、1本のみである。特許の中では明記されていないものの、こうすることで、サイトワイドリンクが複数回カウントされるのを防ぐ効果が見込まれる。

言及するクエリ

別の言及するグループへ向けられたリンクの本数を分析する試みに加えて、このプロセスは、サイトのページ、そして、各ページがターゲットにしている可能性があるクエリを精査すると見られている。ページがクエリをどの程度満たしているのかを特定する取り組みが行われるのだ。

例えば、用語「example.com」を含む場合、そのページは、このサイトのホームページを言及していると推測することが出来る。検索エンジンのユーザーが、サイトのページを言及するためによく利用する用語が含まれる場合、当該のページを示唆する、言及するクエリを持つと言うことが出来る。この特許は、その他の言及するクエリの例を挙げている:

…example sfとesfが、ユーザーによって、URL「http://www.sf.example.com」を持つリソースを言及するために頻繁に用いられているなら、すなわち、クエリ「example sf news」やクエリ「esf restaurant reviews」は、URLが「http://www.sf.example.com」のリソースを含むグループに対する言及するクエリとしてカウントされる。

ナビゲーションクエリ

記事「ナビゲーションクエリとリソースをGoogleが特定する方法」の中で、Googleが文書を識別するアプローチを使って、クエリに織り込まれた製品やサービスの公式ホームページ等、特定のページを見つけることを望み、ユーザーが入力したクエリのためのページかどうかを特定する仕組みを私は紹介した。

このタイプの問い合わせは、アミット・シンガル氏が、Googleの公式ブログの記事「良質なサイトを作るためのアドバイス」で投げ掛けていた問いと、ある程度、共通していると言えるだろう。このような問いは、例えば、この特許が作成された時点で、分析に組み込まれていた可能性はあるが、特許では、特に触れられていない。

それでは、パンダアップデートを描写する可能性が高い特許を紹介する:

検索結果のランク付け

考案: ナブネート・パンダ、ウラディミール・オフィトセロヴ
付与先: Google
米国特許番号: 8,682,892
付与日: 2014年3月25日
申請日: 2012年9月28日

概要

検索結果をランク付けするための、コンピュータの保存メディアにエンコードされたコンピュータプログラムを含む、メソッド、システム、および、機器。

メソッドの一つは次のような特徴を持つ:

  • 複数のリソースのグループに対して、グループ内のリソースに向けれた独立したリンクの本数を特定する。
  • 複数のリソースのグループに対して、言及するクエリの数を特定する。
  • 複数のリソースのグループに対して、個別のグループ特有の修正要因を特定する。ここで言うグループ特有の修正要因とは、それぞれのグループの独立したリンクの本数と言及するクエリの数に応じて決まる。
  • 複数のリソースの各グループを、当該のグループに対するそれぞれのグループ特有の修正要因と関連付ける。ここでは、それぞれのグループ特有の修正要因は、受信した検索クエリに応じて、グループ内のリソースに対して生成された最初のスコアを修正する。

見解

Googleが、パンダアルゴリズムを導入した数週間後、もしくは、数ヶ月後にこのアルゴリズムを調整し、また、ベータ期間を通して、多数の変更を加えてきた可能性は強い。

先週、「Googleのパンダの生みの親に付与された特許」(日本語)を投稿して以来、パンダアップデートを描くこの特許に関して、否定的な意見に私は何度も遭遇している。このような意見は、実際に関係するプロセスを詳しく調べることなく、特許で記述されているリンク分析の存在を理由に、この特許は、パンダではなく、ペンギンのアプローチを描いていると主張するものばかりであった。

しかし、独立したリンク、そして、言及するクエリに関連するリンク分析は、サイトの被リンクプロフィールよりも、サイトの品質を計測するための試みに近い。 アミット・シンガル氏による23の問いのような課題を対象にしている可能性がある「ナビゲーションクエリ」の分析もまた、ページの品質を理解する試みの一環だと言えるだろう。

私はこの記事のタイトルで、この特許が本当にパンダアルゴリズムを取り上げているのか問い掛ける形式を採用した。しかし、個人的には、パンダアルゴリズムに言及していると確信している。ただし、実装され、テストされるにつれ、パンダアップデートが、若干異なる方向に進んだ可能性に関しては、否定するつもりはない。


この記事は、SEO by the Seaに掲載された「Is This Really the Panda Patent?」を翻訳した内容です。

当時流行っていたコンテンツファームに検索結果を占有させないためのパンダ導入の意味合いもあったわけですが、サイト全体でクエリーの内容まで見ているのは流石ですね。さらにリンクの評価方法も相当複雑化しており中途半端な人口リンクは一瞬にして見抜かれる気配です。Googleのアルゴリズムはパンダに続いてペンギン、ハミングバード、そしてペナルティ強化と、今となってはテクニカルなリンク構築を気にする必要性は余りない状況ではありますが、SEOマニアには気になる内容でした。 — SEO Japan [G+]

ソーシャルメディアとSEOの短い歴史&輝ける未来

コンテンツマーケティングが新たなSEOという話は良く聞きますが、ソーシャルが新たなSEOというこの記事、ソーシャルメディアが普及し出した頃に良く聞いた話題ではありますが、改めて着目する意味は。 — SEO Japan

social media new seo

2014年の1月、Googleのスパム対策を統括するマット・カッツ氏が、「ソーシャルシグナルは、検索結果のランク付けにインパクトを与えない」と動画の中で明言した。以前から、SEOの関係者は、インパクトを与えると仮定した取り組みを行っていた。本当にソーシャルシグナルが、検索ランキングに影響を与えないなら、今後、何をすればいいのだろうか?

今回の投稿では、ソーシャルシグナルが新たなSEOになる理由を説明していく。しかし、まずは、カッツ氏の発表を考慮して、私達が存在する新たなソーシャル/SEOのテリトリーについて説明していく必要がある。

それでは、ソーシャルメディアとSEOにおける変化を見ていこう。

その前に、ソーシャルシグナルに対するGoogleの矛盾したスタンスを、過去を振り返って簡単に紹介していく。

ソーシャルシグナルに対するGoogleのスタンス

まず、2010年5月、カッツ氏は、検索結果の要素として、アルゴリズムがソーシャルシグナルを利用していないと発言した。

続いて、同年10月、同氏は、アルゴリズムが、実はソーシャルシグナルを検索結果の要素として利用していると述べた。

そして、2014年の1月、カッツ氏は、検索結果における要素として、アルゴリズムは、ソーシャルシグナルを用いていないと告白した。

言うまでもなく、この一貫性のない姿勢によって、検索コミュニティで混乱が生じることになる。ここ数年、SEOの関係者は、カッツ氏本人の発言、つまり、ソーシャルシグナルが、アルゴリズムのランキングの要素だと仮定して、取り組みを行ってきた。

スタッツは、この仮定の正しさを証明しているように見えた。ソーシャルメディアの支持者が多ければ多いほど、SERPのパフォーマンスが良くなると思えるのだ。この証拠を参考にする限り、所謂「ソーシャルシグナル」が、SEOの主力であると考えられた。

しかし、今、ソーシャルシグナルは、格付けの要素ではなくなってしまったのだろうか?

もしそうなら、大勢のSEO関係者とソーシャルメディア担当者は、見当違いをしていたことになる。私達は、フォロワー、ファン、プラス、リツイート、そして、いいね!を増やして、SEOを改善するために、多額の資金と多くの時間を費やしてきた。

しかし、この取り組みは、SEOのメリットをもたらさないようだ。ソーシャルシグナルは、SEOにインパクトを与えない。

カッツ氏の発言を以下にそのまま掲載する:

FacebookのページとTwitterのページは、ウェブインデックスで、その他のページと同じように処理される。そのため、TwitterやFacebookで何かが起きた際に、Googleがクロールすることが出来るなら、検索結果に反映させられる。しかし、私の知る限り「Twitterのフォロワーの多さ、そして、Facebookのいいね!の多さ」を伝える特別な取り組みに関しては、Googleは、現時点では、ウェブ検索のランキングアルゴリズムにおいて、このようなシグナルを採用していない。

とりあえず、カッツ氏が正しいと仮定して話を進めることにする。

何をするべきなのか?

この情報を受けて、私達がするべきことが幾つかある。まずは、するべきではないことから伝えていく。

ソーシャルを無視する

この記事の最大のテーマは、ソーシャルが重要である点を伝えることだ。ソーシャルは新たなSEOだと言っても過言ではない。時間、労力、そして、マーケティングの資金を費やす上で、最も重要な取り組みの一つに数えられる。

私達が愛してやまないこの「シグナル」は、効果がないのかもしれない。「それがどうした?」と私は言いたい。ソーシャルは、宣伝、コンテンツ、配信、バイラル化、そして、シェアにおいて、今も有益なチャンネルであることに変わりはない。Googleが数多く抱えるアルゴリズムのランク付けの要素として登録されていないとしても、検索にとって重要な領域である。

ソーシャルを隅から隅まで把握するべきである。この点に関しては、後程詳しく説明させてもらう。とりあえずは、「頼むから、絶対にソーシャルを軽視するな」と声を大にして伝えておく。

「SEO」の考え方を変えてソーシャル検索エンジンを盛り込む

SEOは、Googleに対する最適化とほぼ同じ意味を持つ。SEOのアドバイス、上位のランキングを獲得するためのヒント、そして、SEOに関する指導を行う際、Googleは何を好むのか、Googleは何をするのか、Googleはどのようにクロールするのか、そして、なぜGoogleはこのような行動を取るのかが、話題の中心となる。

しかし、SEOには、ソーシャルメディアの検索エンジンで起きる検索も含まれることを、理解しなければならない。

検索エンジンはGoogleだけではない。Bingも、Yahoo!も、Askも、そして、AOLも検索エンジンである。 しかし、これらの検索エンジンが処理する検索の量は、Googleと比べると、取るに足らない。

以下に、典型的なトラフィックのソースを表す円グラフを掲載する:

google traffic

この円グラフを見れば、Googleが検索エンジンのトラフィックの大半を占めていることは一目瞭然である。

このグラフには、あまり話題にならない意外な現実が隠れている。

それは、ソーシャルも検索エンジンに該当する点である。

ソーシャルのリファラーは、上の円グラフには盛り込まれていない。なぜなら、ソーシャルの検索ユーザーは、(追跡ツールを用意した)会社のウェブサイトではなく、会社のソーシャルページに到達するためだ。

ソーシャルネットワーク自体が、有効であり、尚且つ、幅広く利用される検索エンジンとしての役目を果たしているため、ソーシャルは新たなSEOだと言える。

これから、大きなソーシャル検索エンジン、そして、その機能を紹介していく。

YouTube

YouTubeは、Googleに続く、世界で2番目に大きい検索エンジンである。Googleは2006年にYouTubeを買収したが、YouTubeは、今でも異なる検索エンジンのアルゴリズムを持つ、異なるサイトとして存在している。 一秒当たり1140回の検索が、YouTubeでは行われている。

YouTubeでは、大量のコンテンツがインデックスされている。毎分100時間に相当する動画がアップロードされ、インターネットユーザーの50%がYouTubeにアクセスし、毎月60億時間もの動画が視聴され、月間ユニークビジターは10億に達していることを考慮すると、YouTubeを無視する方針は適切ではない。

そして、YouTubeは、ソーシャルメディアである。

YouTubeは動画共有サイトであり、共有するアクティビティが存在するため、ソーシャルに該当する。

YouTubeを利用していないなら、検索トラフィックの貴重なソースを見過ごしていることになる。トラフィックがホームページに到達しなくても、ソーシャルメディアでの存在感を強める効果はある。

その結果、多くのコンバージョンが寄せられ、ブランドアウェアネスが高まり、そして、従来のGoogleのSEOでは得られないソーシャルの成長をもたらす可能性がある。

Facebook

Facebookは、高度な検索エンジンである。Facebookの検索エンジンは、Googleの検索エンジンと大きく異なる目的を持つ。Facebookは、コンテンツ、そして、個人および会社のアイデンティティの設定をインデックスするためだ。

Facebookの人物検索機能では、検索の設定を調整して、知り合いの可能性のあるユーザーを探すことが出来る:

facebook search

これはユーザーの人間関係を直接活用するため、重要な検索情報の源になる:

facebook people

また、具体的に絞り込むことが出来るため、自分が求めている結果を正確に反映させることが可能だ:

facebook filters

Facebookの検索バーは、あらゆるトピック、団体、個人、あるいは、アイデアで検索を実施することが出来る。毎日、大量の検索が行われており、利用方法を心得ている企業や事業に多くの的が絞られたリードを送り込んでいる。

これは全てGoogleとは関係がない。

Twitter

Twitterも検索エンジンである。そのスケールはとてつもなく大きい

Statisticbrainのレポートによると、2014年1月1日の時点で、Twitterの検索エンジンは、21億クエリ/日を処理していたようだ。これは驚くようなデータではない。検索エンジンのエキスパート達は、数年前からTwitterの検索スタッツに注目していた。

以下に、「google algorithm」をTwitterで検索した際の結果を掲載する。

twitter search

1つ目の結果は広告である。このツイートは考慮しなくても良い。2つ目の結果では、Search Engine Roundtableでバリー・シュワルツ氏が投稿した「Top news story」が表示されている。これは最新のトピックであり、1時間前に投稿されたばかりであった。

この類の検索には、個人的に魅力を感じる。なぜなら、最新の結果を得ることが出来るためだ。さらに、絞り込みをかけることも可能だ:

twitter filter

それでも結果に満足できない場合は、「高度な検索」機能を用いる手もある。

twitter advanced search

これは、通常、Googleの結果には反映されないレベルの検索である。

それでも、検索エンジンが違うだけであり、検索エンジンを意識した最適化には変わりはない。また、毎日21億回の検索が行われているため、多くのトラフィックを獲得するポテンシャルを秘めている。

当然ながら、Twitterの検索で返される結果はTwitterのみである。Twitterの検索結果で上位にランクインするためには、次の取り組みを実施しなければならない:

  • ホットなトピックをツイートで取り上げる。
  • ハッシュタグを使ってツイートを投稿する。
  • 定期的にツイートを投稿する。

Google+

Google+は、新たなソーシャルSEOにとって、恐らく、最高峰に位置するソーシャルネットワークだと言えるだろう。既にGoogle+は、既存のサークルのネットワークに属する人物、企業、団体、そして、グループに関して、パーソナライズされた検索結果を提供している。

google contacts

パーソナライズされた結果に加えて、Googleのオーサーシップランキングも浸透している。Googleのオーサーシップは、Google+のネットワークを介して、ソーシャルと結びつきがあり、結果のランク付けと結果のクリックスルー率に既に大きな影響を与えている。

google results

Google+は、検索への影響力を高め続け、「ソーシャルは新たなSEO」と言う指摘を裏付けていくのではないだろうか。

Googleはソーシャルページをクロール & インデックスする

つまり、フォロワーの人数は、アルゴリズムにとっては重要ではないのかもしれない。それでも、ソーシャルページのコンテンツは、インデックスされる。と言うことは、ソーシャルネットワークのページは、Googleに重要視されていることになる。

動画の中で、マット・カッツ氏は次のように発言していた:

FacebookのページとTwitterのページは、ウェブインデックスで、その他のページと同じように処理される。そのため、TwitterやFacebookで何かが起きた際に、Googleがクロールすることが出来るなら、検索結果に反映させられる。

若干、曖昧な表現である。「何かが起きた際に」と言うフレーズでは、何が起きるのか、そして、ソーシャルネットワーク上のどのようなページがインデックスされるのか分からない。

このレスポンスを基にして、私はカッツ氏の発言を次のように解釈した — 「Googleは一部のソーシャルページをクロールし、その結果の一部のみを返している」

自分自身で行った調査では、Googleは実際に個人のFacebookのページ、Twitterのアカウント、そして、LinkedInのページを検索結果に返していることが分かっている。 Facebookの場合、ページの特定のセクションを公開する設定にしている場合のみ、ユーザーのアカウントはSERPに表示される。

また、GoogleのSERPに関して言えば、会社のソーシャルページを用意することで、メリットが生まれる点も調査で明らかになった。強固で最適化されたソーシャルアカウントを持っている企業は、GoogleのSERPにソーシャルメディアのアカウントが掲載されることで、より大きな検索のメリットを得られる。

例えば、World Wildlife Fundの場合、クエリ「World Wildlife Fund」と「Wildlife Fund」で検索を行うと、Facebookのアカウントが1ページ目に掲載される。

google results

Googleで「Quicksprout」を検索すると、このサイトのFacebookのアカウントとTwitterのアカウントがSERPの2番目と3番目に表示される。

google results quicksprout

これも毛色は異なるものの、SEOの一種である。

まとめ

SEOにおけるソーシャルメディアの役目を説明するカッツ氏の動画は、未来の検索結果には、ソーシャルの結果がより緊密に統合されるようになる可能性があると示唆している。ウェブは、どう考えても、極めてソーシャルな場所である。

ソーシャルネットワークのフォロワーの規模は関係ないのかもしれない。しかし、検索に関しては、ソーシャル世界の存在感は、とても重要度が高い。

アルゴリズムは、巧みなSEOの手法を駆使して、操作し、騙し、丸め込むことが出来るほど、単純でもなければ、精彩を欠いているわけでもない。今こそ、ソーシャルウェブの大きなインパクトを理解する必要がある。

ウェブは、データだけでなく、人物、組織、グループ、大義、アイデア、そして、人材によって構成されている。Appleによって音声検索(Siri)の普及が進み、そして、Googleがハミングバードアップデートを導入したことで、検索のスタイルおよびシンタックスでさえ、人間味、または、会話の要素(日本語)を持つようになった。

ソーシャルを軸とした新しいSEOの時代に向けて、ソーシャルネットワークで、活発に行動を続けることが肝要だ。ソーシャルに注意を払い、管理し、改善し、強化し、そして、この有益なリソースにつながる状態を維持するべきである。

ソーシャルメディアのSEOにおける役割について、皆さんの意見を聞かせてもらえると嬉しい。


この記事は、Quick Spourtに掲載された「Why Social Is the New SEO」を翻訳した内容です。

ソーシャルとSEO(Google)の短い歴史も踏まえた上で示唆に富んだ良い記事でした。ソーシャルメディア上の情報発信が結果ウェブページからのリンクも増えることにつながり、インターネット上でのプレゼンスを高めていくことになりますし、ソーシャルが今後のSEOに重要なのは間違いなく。さらに情報発信といえばコンテンツが大事になってくるわけで。ソーシャル、コンテンツ、共に今後のSEOと切っても切れない関係です。 — SEO Japan [G+]

ハミングバードとオーサーランクとオーソリティの関係

10年前から存在したハミングバードらしきアルゴリズムの次は、最新のハミングバードについて勉強を。オーサーランクにオーソリティまで難解?なキーワードが出てきますが、内容は意外と理解できます。ハミングバードがどう動いているかを理解できる記事。 — SEO Japan

In-Depth Articles、そして、今後のオーサーランク等の機能において、オーサー(作者)の専門分野を理解する上で、ハミングバードは重要な鍵を握っているのだろうか?コンセプトベースのナレッジベースを利用して、オーサーのコンテンツが考慮されるため、その可能性は十分にあり得る。

Googleの検索エンジンに大きな変更を加えたハミングバードアルゴリズム(日本語)の目標は、スマートフォンに音声で入力するタイプの長く、複雑なクエリを正確に理解することだけではない。ハミングバードは、ウェブページ、Google+の投稿、投稿に掲載されたコメント、ツイート、ステータスアップデート等のソーシャルシグナルの中で、そして、メッセージに対するコンテキストの情報が少ない、短いテキストベースのメッセージの中で、記述され、そして、議論されたコンセプトとトピックを正しく理解することも目標に掲げている。

以下のスクリーンショットには、Probaseのコンセプトを基調としたナレッジベース(確率的ナレッジベースを用いた短文テキストの概念化から抜粋)を使って、ツイートを分析することで得られるコンセプトが記述されてている:

A breakdown of concepts that appear in specific tweets, according to the Probase knowledge base

Googleは、とりわけ固有名詞を含むクエリが入力された際、検索結果の隣にナレッジパネルを提示している。例えば、[Jerry Lewis](ジェリー・ルイス)を検索すると、Googleは、ウェブ上のページから抜粋したJerry Lewisのデータを表示する。この中には、Wikipediaに掲載されている情報、Jerry Lewis(コメディアン)が出演するイベント、出演したことがあるテレビ番組や映画、そして、Jerry Lewisを検索した際に、検索されることが多い人物 — Dean Martin、Bob Hope、Tony Curtis、Milton Berle等が含まれる。

Kanye Westで検索を行うと、データ、作詞を担当した曲の名前、パフォーマンスを行った曲の名前、リリースしたアルバム、そして、Kanye Westを検索した際に、検索されることが多い人物名等、同様の結果が表示されるが、Jerry Lewisの名前は盛り込まれていない。

A knowledge panel at Google on a search for kanye west

どちらのケースにおいても、Googleは、クエリ内の固有名詞を認識し、ナレッジベースでリサーチを行い、ナレッジパネルを表示している。また、表示するウェブ検索結果にもこの情報を利用する。しかし、Googleは、エンティティ(固有の人、物、物事)を調べているだけではない可能性がある。ユーザーが検索したことがあるクエリを検討する際に、エンティティのコンセプトと属性も探すと見られている。エンティティ、その属性、コンセプト、そして、キーワードを含むナレッジベースは、検索されたクエリを拡大して、上のProbaseの例のように、広範な関連する検索結果を表示する上で有効である。

Googleがコンセプトベースのナレッジベースを構築する仕組み

ハミングバードを深く理解するため、最近、私はMicrosoftのコンセプトベースのナレッジベース「Probase」について、2本の投稿「あなた、あなたの会社、または、製品はナレッジベースに存在しますか?」と「コンセプトベースのウェブ検索」の中で精査した。コンセプトを基盤としたナレッジベースを構築し、クエリの内容を正確に理解する各種の方法に関する特許が、昨年、Googleに付与されていた。また、Microsoftが発表したレポート「確率的ナレッジベースを用いた短いテキストの概念化」も同様の領域を取り上げている。以下に、その一部を抜粋する:

このレポートでは、コンセプトに関して、(世俗的な知識に関して、人間の知能と同じぐらい)豊かな情報を持つ確率的ナレッジベースを使って、テキストの理解度を改善する仕組みを紹介する。その後、ワードと短いテキストを概念化するための、ベイジアン推論メカニズムを開発した。我々は、テキストの用語の概念化において広範な実験を行い、Twitterのメッセージのような短いテキストを分割した。

潜在的なセマンティックのトピックのモデル化等、純粋に統計的なメソッド、もしくは、既存のナレッジベース(WordNet、Freebase 、Wikipedia)を用いるメソッドと比べて、我々のアプローチは、クラスタリングの精度を反映し、短いテキストの理解を大幅に改善する。

今後、短いテキストのメッセージを正確に理解するため、そして、オーサーが作成する記事のトピック、および、ウェブのページ上で議論されるトピックを理解するために用いられる、コンセプトベースのナレッジベースを作る仕組みを描いた、Googleに付与された複数の特許を私は調べていくつもりだ。

オーサーシップ & トピックの専門性の特定

Googleのオーサーシップは、ウェブ上、および、Google+やウェブのその他の場所で、自分が作成したコンテンツにデジタル署名を行うプログラムである。Googleは、オーサーが作成したメッセージ、ブログの投稿、そして、記事を理解し、取り上げるトピックに応じて、計測を行い、採点する手法を研究していると考えられる。「GoogleがGoogle+やソーシャルネットワークでユーザー生成コンテンツをランク付けする仕組み」の中で、私はGoogleが、このようなユーザー貢献(評価)スコアを作成する仕組みを描写した特許を取り上げていた。

評価と専門知識を、様々なトピックにおける各種のスコアと併用して、ランキングシグナルとして利用するためには、Googleは、ユーザーが作成した作品のコンセプト、そして、コンセプトと各種のトピックとの関連性やフィット感を理解するスキルを必要とする。「In-Depthの検索結果での表示」に関するページで、Googleは次のように説明している:

オーサーシップのマークアップは、アルゴリズムが、関連するオーサーとエキスパートを見つけ、検索結果で提示する上で有効である。

オーサーが特定のトピックで専門知識を持っているかどうかを判断するためには、Googleは、作品の内容を理解して、関連するトピックを取り上げている他のオーサーと比べて、どの程度の専門知識を持っているかを判断することが出来る必要がある。Pubcon 2013のキーノートプレゼンテーションで、オーサーのオーソリティについて、Googleのマット・カッツ氏は次のように語っていた:

Googleは、オーソリティを検知し、押し上げることにも注目している。 医学の分野を例にとって説明していこう。 医学分野でオーソリティとして認められている人物なら、そのことをGoogleに伝え、医学分野のクエリが現れた際に、上位に押し上げてもらいたいはずだ。これは手動の作業ではなく、個別のトピックの領域を選択しているわけではない。事実、数多くの様々なトピックに適用される。

そのため、ユーザー側は、特に何もする必要はないが、あるトピックのオーソリティなら、オーソリティの確立を続け、提供するコンテンツの量を増やしていくべきである。リソース、そして、オーソリティになるべきであり、実際にオーソリティになることが出来たなら、特定の変更によって、上位に押し上げられる確率は高くなる。

結論

ハミングバードを介したGoogleによるアルゴリズムの書き換えにおいて、コンセプトを中心としたナレッジベースが、オーソリティのトピックを計測する上で、Google+のスレッドやコメント等のソーシャルシグナルをより良く理解するために用いられる可能性は高い。

Probaseに関するMicrosoftのレポートに掲載されていた上のスクリーンショットは、このようなナレッジベースを使って、短いテキストのソーシャルメッセージから、コンセプトを抽出する仕組みを描いている。この仕組みは、固有のエンティティだけでなく、エンティティに関連する属性、そして、短いテキストで特定されたコンセプト、さらに、ナレッジベースにエンティティ/属性/コンセプトの関連性が存在しない場合には、キーワードとも連動すると考えられる。

Googleが積極的にナレッジベースを構築しており、ナレッジベースが拡大していくにつれ、異なる要素に絡む関連性が生まれていく点を覚えておいてもらいたい。


この記事は、SEO by the Seaに掲載された「Hummingbird and Author Rank Authority」を翻訳した内容です。

他の記事への言及が多かったですが、ハミングバードが機能するにはナレッジベースの充実が必須であり、オーソリティの認識にも利用される、ということをまず理解しておきたいですね。 — SEO Japan [G+]

プロが教えるサステイナブルなSEO戦略の秘訣

先日、サステイナブルじゃない企業の話を紹介しましたが、今回はサステイナブルなSEOについてのお話を。SEO業界といえば、Googleのアルゴリズムが今日レベルで進化する以前においては、SEO業者が有象無象に表れては消え去っていく過去10年間の歴史がありましたが、もちろん長期的に生き残られるサステイナブルなSEOはもちろん存在します。今回は10年以上に渡ってSEO業界で活躍してきたエキスパートがサステイナブルなSEOの極意を伝授してくれた記事を。 — SEO Japan

先月、私はSMX Westの「Long-Term SEO: How To Win For Years, Not Days」(長期的なSEO: 数日間ではなく、数年間に渡って成功する秘訣)セッションに参加した。私は1995年から検索業界で働いており、現れては、消えていくSEOのトレンドや手法を間近で見てきた。また、その一方で、根本的な世界共通のコンセプトが、時間の経過と共に強くなっていく経緯も見てきた。

私が知りたかったのは、現在流行している戦略、そして、時の試練に耐えることが出来る戦略であった。ウェブページに関する情報の手掛かり、そして、内容に関するヒントを得られるのだろうか?リンクの獲得に力を入れるべきだろうか?そもそもこの戦略は維持可能なのだろうか?それとも、SEOの過去の遺物に成り下がってしまったのだろうか?

そして、検索エンジンのエキスパート、ダニー・サリバンが巧みに表現していたように、「常にアルゴリズムを喜ばせる試みを行っているのだろうか」?

これから、サステイナブル(維持可能)なSEOに関する、パネリストの見解を紹介していく。

Sustainable SEO

長続きするSEOのコンセプトは、時の試練に耐える戦略、手法、そして、実装で構成される。

Outspoken Mediaのリア・ドライズデールCEOは、「最初から最後まで、サイトを管理するのは自分次第だ。選択する戦略と手法…その全てが最終的に自分に返ってくる」と冒頭で発言した。

ドライズデール氏は、「ウェブサイトのオーナーは、短期的な「見せ掛けの目標」(個人的にこの表現を気に入っている)を掲げるのではなく、もしくは、リスクを評価せずに近道を選ぶのではなく、全体像にスポットライトを当てるべきである。ブランドに傷をつけないように注意し、リスクを関係者に伝えるよう心掛けるべきだ」と力説していた。

また、同氏は、「人間の行動が、アルゴリズムをアップデートさせる」と指摘していた。ドライズデール氏は、主張を裏付ける証拠として、マット・カッツ氏のブログに投稿された記事「SEO目的のゲスト投稿の腐敗と衰退」を挙げていた。

私は、数年前に行ったページランクスカルプティングに関する警告を思い出した。大勢の熱心なSEOの関係者やウェブサイトのオーナーは、SERPのビジビリティを確保するためには、手段を選ばない。長期的な視点で考えると、このような短期間の戦略は、有害無益となる。

TruliaでSEOディレクターを務めるマーク・マンロー氏は、長期的なSEOに総合的にアプローチする: 組織全体にSEOの情報を組み込み、ブランドの評判を高めていく。「リンクは消えるかもしれないが、評判は永遠に残る。」とマンロー氏は述べていた。

(過去、そして、現在の)ブランドの評判を築く方法を幾つか紹介する:

  • リンクの交換とリンクネットワーク
  • ウェブディレクトリと分野に特化したディレクトリ
  • リンクの購入
  • プレスリリース
  • アーティクルディレクトリ
  • インフォグラフィック
  • ソーシャル
  • コンテンツマーケティング

一部の戦略は既に廃れているものの、適切に実施すれば、検索エンジンのトラフィック、そして、信頼を得る方法として妥当であり、頼りになる。例えば、リンクの交換は、大昔のSEOの手法のように思えるかもしれない — スパム行為として、ペナルティーをもたらし、インデックスから排除される可能性がある。しかし、例えば、米国の家庭内暴力のシェルターがお互いにリンクを張った場合は、どうなるのだろうか?すると、家庭内暴力の被害者は、近いシェルターを見つけやすくなる可能性がある。

さらに、ドライズデール氏とマンロー氏は、プレスリリースがPR(パブリックリレーション)の手法として息絶えたとは考えていない。プレスリリースは、最適化の目標を支える効果のある配信手段である。要は、SEOの近道を適切な観点で考える必要があるのだ。

マンロー氏は、「最高のリンクは、頼んで、得るリンクではない。そのため、リンクを張りたくなる理由を作り出す必要がある。だからと言って、リンクを求める行為を慎む必要はない。リンクに値する優れたコンテンツを持っているなら、適切な人物に接触し、リンクを求めたって構わないのだ。リンクの自発性を維持し、アンカーテキストはリンクを張る側に一任しよう。」と呼び掛けている。

次にStone Temple Consultingのエリック・エンゲCEOが登場した。エンゲ氏は、「ターゲットのオーディエンスに信頼してもらうためには、オーディエンスのことを、オーディエンスのニーズ、考え方、サイトを利用する方法を理解しなければならない。」と指摘していた。

「SMX Westのキーノートで、アミット・シンガル氏が話していたように、Googleは、ユーザーに徹底的に焦点を絞っており、パブリッシャーにも同じ姿勢が求められる。今後の数年間において、どのような変化が展開されていくのか予測するのは難しいが、変化がやって来ることは間違いない。そのため、パブリッシャーもユーザーに焦点を当てる必要がある — Googleが探し出し、重視しているのはユーザーだからだ。これこそ堅実なSEOへのアプローチである。」

それでは、エリック・エンゲ氏による、長期的なSEOに関する気の利いた教訓をリストアップしていく:

  1. エキスパートになれないなら、諦める。中途半端な姿勢では、信頼を築くことは出来ない。
  2. 信憑性は誤魔化しにくい。
  3. 究極の差別化を試みる。お決まりのコンテンツでは、前に進むことは出来ない。
  4. リンクは結果であり、目標ではない点を理解する。
  5. 評判とブランドに(最優先課題として)力を入れる。自分に票を投じることは出来ない。
  6. プレスリリースの本当の価値: メディアに好奇心を持ってもらう。
  7. 自然に見えるのではなく、自然になる必要がある。
  8. 強固なソーシャルメディアの存在感は、内蔵型PRチャンネルに等しい。
  9. インフルエンサーは、反応を加速させる力を持つ。
  10. 他の人達のために問題を解決する行為こそが、エンゲージメントであり、この行為は記憶に残る。
  11. 良いリンクだと説明しなければならないようなリンクは、良いリンクではない。
  12. 管理する会社によって、自分の評価が決まる。

エリック・エンゲ氏は、この長期的な戦略を連動させる仕組みを図の中で分かりやすく説明している(下のSlideShareの30ページ目のスライドを見てもらいたい)。

「SEOは、ここ数年の間に大きく変わり、Googleがますます検索の品質を重視し、ナレッジグラフを導入し、そして、検索の質を改善するにつれ、変化はますます増えていくだろう。パブリッシャーは、SEO戦略を「現時点で効果のある取り組み」ではなく、Googleが「向かおうとしてい場所」に定める必要がある。その上で、ターゲットのオーディエンスの評判を築く取り組みこそが、最も有効である。」とエンゲ氏は主張している。

さらに、エンゲ氏は、質の高いサイトの条件に関して、マット・カッツ氏にインタビューを敢行している。このインタビューの中で、カッツ氏は次のように述べている:

評価を高める取り組みを行っているなら、適切なアクティビティを行っていると言えるだろう。これこそが、Googleが発見し、最も重要視することを望むシグナルである。

「SEOの情報を組み込む取り組みが、SEOのチームとなる。そこで、チームメンバー同士のコミュニケーションを促し、重役の支持を取り付け、グループ間の相乗効果を求めよう — ユーザー体験(UX)、インフォメーションアーキテクチャ(IA)、コンテンツの最適化、テクニカル等々」と言うマンロー氏の発言に全てが集約されている気がする。

そして、「全ての取り組みが連動する世界を私達は必要としている — その連係役を務め、メリットを得るのがSEOである。」とエリック・エンゲ氏は結んでいた。

長期的にSEOのトラフィックを得たいなら、力を合わせて、関係者全員(ブランド、ユーザー、そして、検索エンジン)がメリットを得られるように、同じ目標を目指す必要がある。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「Long-Term SEO: Sustainable Tactics, Strategies & Solutions」を翻訳した内容です。

SMXのセッションを元にした内容でしたが、プレゼンも人それぞれで興味深かったですし、内容も納得できるものでした。「全てのウェブ運営の取り組みの連係役を務め、またメリットも得るのがSEO」というのはナルホド、と思いました。責任者がSEOの重要性と他作業との関係性を理解し、SEO担当者が高いレベルでそれを実施できることがカギにはなってきますし、中々の難易度の話ではありますが、やっているところはやって効果を上げています。 — SEO Japan [G+]

10年前に存在したGoogleのハミングバードアルゴリズム

ハミングバードアルゴリズムの特徴の1つが、検索されたキーワードの意味をGoogleが推測し、検索結果を返すこと。Googleのエンティティ検索の技術が活用されたアルゴリズムともいえますが、実は、同じような技術が既に10年前にGoogleによって取得されていたらしい?!そんな気になる話題をSEO by the Seaから。 — SEO Japan

9月(2003年)、Googleは、検索エンジンのユーザーが投稿したクエリを書き直すアルゴリズムを導入したと発表した — このアルゴリズムには、「ハミングバード」と言うコードネームが与えられていた。当時、私はハミングバードとの関連性がとても高いと見られる特許に関する記事を作成していた。この特許は、長く、複雑なクエリを書き直し、その一方で、クエリ内の全てのワードに注目する取り組みに焦点を絞っていた。そのため、私はこの記事に「Googleハミングバードと思われる特許を分析」(日本語)と言うタイトルをつけた。

Hummingbird Image from the Department of Forestry

野草に関する記事の画像 — US Forest Serviceのビル・メイ博士

Googleには、クエリの書き直し(クエリの拡大やクエリの拡張と呼ばれることもある)に関する複数の特許が与えられている。これは、ユーザーがニーズを満たすために必ずしも最適なキーワードを選択していなくても、検索エンジンが、ユーザーが求めている結果に近い結果を提供する確率を高めるための取り組みである。また、最近、私は、Googleが、クエリを書き直す仕組みに関する特許を取り上げたが、Googleは、ページのランク付けの可能性を正しく理解するために、検索の情報のやり取りに注視する枠組みを作っているように思えた。

検索のスペリシャリスト、ダニー・サリバン氏は、ハミングバードの変更点をよくある質問集形式(日本語)でまとめており、その中に、次の質問と回答が掲載されていた:

新しいエンジンは古いパーツを利用しているのか?

どちらとも言えない。一部のパーツは今でも問題なく動くため、捨てる理由はないが、頻繁に交換が行われるパーツもある。グーグル曰く、ハミングバードは、既存のパーツと新しいパーツで構成された新しいエンジンであり、10年前のテクノロジーを用いて10年前の需要に応えるためではなく、現在の検索の需要に応えることを念頭に置いて、整備されている。

以前から、クエリの書き直しに関する特許の作成にGoogleが取り組んでいたことを知っていた私は、この難題にチャレンジすることに決めた。ハミングバードの仕組みを描写した、約10年前に申請された特許を見つける決意をしたのだ。私は真剣に捜索を行い、その結果、Googleの検索の品質を統括し、先日のハミングバードの告知にも関わっていたアミット・シンガル氏が、考案者に名を連ねる特許を探し当てることに成功した。この特許で描かれているテクノロジーは、よく似ているものの、遥かにシンプルであり、モバイルデバイスのユーザーが、会話型の検索に対応する際に抱えるニーズに焦点を絞っているようには見えなかった。当該の特許は、次のようにこのテクノロジーを説明している:

ユーザーが入力する検索クエリは、通常、ユーザーが求める情報を表現する多くのクエリのうちの1点のみである。例えば、車の交換部品を探している場合、検索クエリ「car parts」を入力すると推測される。しかし、検索クエリ「car part」、「auto parts」、もしくは、「automobile spare parts」は、関連する結果を返す上で、「car parts」と同程度、もしくは、それ以上に有効だと見られる。通常、ユーザーのクエリには、ユーザーが適切と見なす文書を返す上で有効な複数の代わりのクエリが存在する。

従来、1つ目のユーザーのクエリに関連する追加のクエリは、検索用語の異なる形式に応じて(例えば、「part」や「parts」)、あるいは、検索用語の類義語に応じて(例えば「car」の代わりに「auto」)、検索エンジンによって自動的に作られる。こうすることで、検索エンジンは、ユーザーの検索クエリとは完全にマッチするわけではないものの、同じように関連する文書を見つけられるようになる。

面白いことに、この過去の特許は、2003年に申請されていたものの、付与されたのは2011年であった。

クエリの意味の情報に基に検索クエリを改善
考案: アミット・シンガル、メヘラン・サハミ、ジョン・ランピング、マーシン・カスケル、モニカ H. ヘンジンガー
付与先: Google
米国特許番号: 8,055,669
付与日: 2011年11月8日
申請日: 2003年3月3日

概要

検索エンジンに対する検索クエリが、検索クエリから得られる情報を考慮して、当該の検索クエリの用語に意味が近い代わりの用語を盛り込むことで、改善される可能性がある。ここでは、検索クエリ内のもともとの用語の意味が近い一連の代わりの用語の初期のセットが作られる。

初期の代わりの用語のセットは、もともとの検索クエリから得られる情報と比較される可能性がある。例えば、1つ目の検索クエリを使って行われた検索に対する文書の情報が挙げられる。もともとの検索クエリから得られる情報との関係を基に、もともとの検索クエリに1つ、または、複数の代わりの用語が、加えられることもあり得る。

この特許は、クエリの書き直しには、複数の方法が存在すると指摘している。また、2つのメソッドを紹介しており、クエリ内の一部の用語を使い、もともとのクエリ内のワードの一部を変形するために「語幹解釈」を用いるか、もしくは、類義語辞典でワードを調べるかのいずれかが採用されるようだ。語幹解釈は、同じ語幹を持つワードに注目し(例えば、congressとcongressional)、同じワードのバリエーションを用いてクエリを書き直す。類義語辞典の利用は、「car」を「automobile」等の類義語で置き換える仕組みを用いていると考えられる。

2013年に付与された特許は、この2つのアプローチの問題点を次のように説明しているs:

語幹ベース、および、類義語ベースの手法を使って、追加の検索クエリを探そうとすると、同じ状況では、同じような意味を持つものの、異なる状況では意味が異なる2つのワードを処理する際に、大きな問題が生じる。例えば、「automobile」は、クエリ「Ford car」においては、「car」に近い意味を持つものの、クエリが「railroad car」の場合は異なる。その結果、このアプローチを採用すると、無関係の結果を返す検索クエリを作り出してしまうことがある。また、クエリ「jaguars」が、語幹「jaguar」から生じる場合、クエリの意味が、動物から、人気の高い自動車メーカーに変えられてしまうこともある。

私が「ハミングバードの特許」と呼ぶ最近の特許は、語幹解釈や類義語、あるいは、Googleが研究してきた類義語を特定する手法には全く触れていない。しかし、どちらの特許も、クエリとして用いられる各用語に対して、検索結果内で、もしくは、クエリのログファイル内で、同時に起こるワードを、クエリを書き直すために用いる類義語の候補として、特定する仕組みを描いている。2003年に申請された特許もまた、もともとのクエリの「クエリのコンテキスト」を理解して、意味の通るクエリを書き直す試みを取り上げている。

もともとのクエリ全体のコンテキストを考慮している新しい特許は、クエリを書き直すために用いるプロセスを、より分かりやすく説明している。従って、新しい特許は、このタイプのクエリの前処理の仕組みについて精査を重ねた後で、作られた可能性がある。特許「共起する用語をベースとした類義語の特定」では、このプロセスにおいて、クエリのコンテキストは重要な鍵を握ると指摘していた:

基本的に、この特許で描写されているテーマにおいて斬新な点は、検索クエリに含まれている特定のクエリに対して、前後以外のコンテキストを使って、類義語の候補を評価するメソッドに表れている。特定のクエリの用語の前後以外の検索クエリに含まれる追加の用語に応じて、候補の類義語が、当該のクエリの用語にとって、類義語なのか、もしくは、代わりの用語なのかを特定するため、評価が行われる。例えば、検索クエリに複数の用語が含まれる場合、検索クエリの始めに位置するクエリの用語内の特定のコンテキストが、最後に位置するクエリの用語によって定義されることがある。クエリの用語に対するコンテキストを利用すると、「候補の類義語 = 当該の特定のクエリの用語に対する類義語」である点に関して、自信を持つことが可能になる。

現在のテクノロジーと10年前のテクノロジーでは、共起する用語を探して、クエリのコンテキストをより正確に理解するシステムを基に、セマンティックを分析する精度が改善されたように思える。

結論

ここ数週の間に、ハミングバードをより分かりやすく説明しようと試みるブログの記事が多数投稿されていた。

中には、ハミングバードを、Googleのナレッジグラフベースを活用して、クエリやページを説明する固有のエンティティを理解するためのアルゴリズムと説明するブログがあった。しかし、ハミングバードの告知では、検索の90%が影響を受けると指摘されており、特定の人物、場所、事象のクエリだけが影響を受けるとは考えにくい。また、今回紹介した特許で挙げられていた例には、固有のエンティティは含まれていなかった。

schema.orgのマークアップ等、セマンティックをベースとしたアプローチが、ハミングバードの仕組みにおいて重要な鍵を握っているのではないか、と問われたことがあるが、私は否定的な見方をしている。schema.orgのマークアップは、インデックスするページの内容を検索エンジンが理解する上では役に立ち、リッチスニペットにつながる可能性はあるものの、クエリを書き直し、コンテキストを正確に理解する取り組みとは関係がない。

ハミングバードを考慮して、キーワードリサーチの方法やコンテンツの作成を変えた方が良いのだろうか?キーワードを調べている際にコンセプトに焦点を絞っているなら、変える必要はないだろう。「キーワードリサーチの代わりにコンセプトリサーチを行うべきか?」の中で、私は次のように指摘した:

何らかのトピックに関して記事を作成している時、あるいは、キーワードリサーチを行う時は、利用することに決めたワードが、ワードをつなげただけではなく、様々な側面を持つ特定のコンセプトを表現するように心掛けるべきである。

ハミングバードを考慮して、リンク構築を変えるべきだろうか? Googleのランク付けにおいて、ページランクは今でも用いられており、また、リンクをページに集める取り組みは、引き続き実施する必要があると思われる。しかし、ハミングバードアルゴリズムでは、各種の検索エンティティの間の関係に関して、データが集められる方法を正しく理解することが、検索結果のランキングに影響を与えるようになると推測される。検索エンジンのユーザーが、特定のクエリに対して、特定のページをクリックして、長時間留まる傾向があるなら、クリックして、滞在するページは、ハミングバードの下で、上位に押し上げられる可能性がある。

追加: 2013年11月10日 – 2013年11月5日、同じ特許(クエリの意味の情報を基に検索クエリを改善)の続きがGoogleに付与されていた。新たに付与された特許では、請求項が、実に興味深い内容に、大幅に書き直されていた。新しい特許は、クエリ内のもともとの用語に代わりの用語を用いて、逆文献頻度をカウントし、修正されたクエリの結果のセット、および、もともとのクエリの結果のセットにおいて、代わりの用語が表示される回数を確認する手法を描いている。この特許の更新が行われたタイミングに、実に興味をそそられる。以下のリンクは、本特許の古いバージョンへと導くので、お望みなら、請求項を比較してもらいたい。


この記事は、SEO by the Seaに掲載された「Google’s Hummingbird Algorithm Ten Years Ago」を翻訳した内容です。

当時からハミングバードレベルの発想があったかはともかく、ユーザーの利便性を考えても意味ある技術とは思いますし、流石Googleという感じですよね。。2003年といえば、検索マーケティングに一切関わっていなかった読者の方も多いのではないでしょうか?そして記事で紹介されていた特許以上に最後の「特定のページをクリックして、長時間留まる傾向があるなら、クリックして、滞在するページは、ハミングバードの下で、上位に押し上げられる可能性がある」の一文もより気になる内容でした。最強のSEOはユーザー滞在時間が長いページ&サイトを作ること、まさにコンテンツの中身が問われる時代ですね。 — SEO Japan [G+]

有効と答えた人はたったの13%!?リンク否認ツールに関するアンケート調査

検索エンジン関連のニュースやフォーラムの注目スレッドなどの記事を、ほぼ毎日配信しているSearch Engine Roundtable。ファウンダーのBarry Schwartz氏から記事掲載の許可をいただきましたので、今後もSEO Japanで紹介させていただきます。

記念すべき第一回目の記事は、リンク否認ツールの効果についてのアンケート調査です。ペナルティ解除のために不可欠なこのツール。実際の効果はどの程度あるとWebマスターは感じているのでしょうか???– SEO Japan

「Googleの否認ツールは有効か、それとも有効ではないか?」昨年、我々は否認ツールに関するアンケートを行い、上記の質問を投げかけた。

御存知の通り、2012年の10月にGoogleはリンクの否認ツールを公開した。それ以降、WebマスターとSEO担当者はこぞってこのツールに夢中になり、常に使用し続けてきた。

しかし、否認ツールは有効に作用しているのだろうか?否認ツールを使うことで、検索結果のランキングの上昇や、ペナルティの解除というような結果を得ることができているのか?もちろん、事実として、否認ツールがペナルティ解除に役立っていることは知っている。しかし、常にランキングの上昇にも貢献しているのだろうか?毎回というわけではない。

我々が行ったアンケートに対し、670人以上の回答を得ることができたが、有効だと答えた人数は全体の13%に過ぎなかった。37%の回答が、「有効であるかどうかわからない」であり、50%の回答が、「全く影響がないこと」に自信を持っているようだ。

以下にグラフを掲載する。

否認ツールの有効性に関するアンケートの調査結果グラフ

*免責事項:こちらの結果に対する結論を出す前に、以前私が投稿した、こちらの記事を参照して欲しい。

今件についてのディスカッションはBlack Hat Worldのフォーラムで引き続き行われている。

*注:本日私は休暇を取っており、今記事は事前にアップされるように設定をしていたものだ。そのため、コメントに対する返信などが遅れると思うが、先にお詫びを申し上げておきたいと思う。


この記事は、Search Engine Roundtableに掲載された「Only 13% Claim Google’s Disavow Tool Worked For Them」を翻訳した内容です。
低品質なサイトからのリンクがランキングの下降やペナルティの原因となり得ることは周知の事実です。故意にしろ、無意識にしろ、こうしたリンクへの否認リクエストは確実に処理して欲しいところですね。皆様の中にも否認ツールを使用した方がいらっしゃると思いますが、今回のアンケート結果と比べ、自身の効果はいかほどだったでしょうか???– SEO Japan [G+]

検索マーケティングはセクシーじゃない?

21世紀で最もセクシーな職業といえばデータサイエンティスト(私じゃなくて米国でそういわれているという話です)ですが、しばらく前まで最も旬な職業といえば検索マーケッターだったはず?(そうでもないか)検索広告、SEOが中心だった2000年代に比べソーシャルの普及とDSP、DMP等アドテクの台頭で若干存在感が薄くなった感もある検索マーケティング。米国の最新のカンフェレンスから検索マーケティングの今を探る。 — SEO Japan

私は検索の魅力に関するこの記事を、カリフォルニア州のマウンテンビューにあるコンピュータ歴史博博物館の「緑の間」で書き始めた — この情報があるだけで、私がギークである点は、私のことを知らない方でも、容易に推測することが出来るはずだ。

なぜこの博物館にいたかと言うと、LiveRamp 2014カンファレンスがこの博物館で開催されたためだ。データテクノロジー会社が主催したこの毎年恒例のイベントで、私はざわつく会場を去り、一人で考え事をしたくなった。30年以上この業界で活躍するパトリック・コノリーCMO(現在はWilliams-Sonomaのマーケティングを担当)と和気あいあいと会話を交わした後、あるアイデアが頭から離れなくなった。それは、「検索は今もセクシーなのか?」と言う疑問だ。

LiveRampのマーケティングカンファレンスは、デジタルマーケティングの最新のトレンドと未来をテーマに掲げていた。「オーディエンスの精度」等のトピックに関する素晴らしい話し合いが行われ、また、DSP、DMP、SSP、そして、RTB等の頭字語が飛び交っていた。しかし、その中にSEOは含まれていなかったのである。

LiveRampカンファレンスの参加者は重役が多く、私の知る限り、1000名以上が参加していた。サンプルとしては大きな規模ではないものの、重役がSEOに対する興味を失いつつあることを示唆していると言えるだろう。

もともとSEOはセクシーではなかった

しかし、2012年に行われたAltimeter Groupの調査によると、魅力に関して、もともとSEOは下位に沈んでいたようだ。この調査は、56名のインタビューで構成されていた — 25名のフォーチュン 500に名を連ねる世界的な企業に勤める人物、そして、31名のマーケティングエージェンシーの従業員、コンサルタント、そして、ソートリーダー(革新的なアイデアを示すことが出来るエキスパート)がこの調査に参加した。SEOの人気がいかに低いか確認してもらいたい。

Content types

この2012年の調査では、ディスプレイとリターゲティングは姿を見せず、また、ソーシャルやモバイルも上位に位置づけられていなかった点は、注目に値する。

現在に話を戻すと、マーケッター達は、この2つのマーケティングの手段に大いに注目しているように見える。 また、カンファレンスのセッションでも証明されたように、オーディエンスの分割のテクノロジーとリマーケティングにおける改善は、ディスプレイとリマーケティングが2014年に重要度を増すことを物語っている。

当然だが、これはとても理に叶っている。マーケティングも良いが、ターゲットを絞ったマーケティングはもっと良い。ターゲットのオーディエンスを理解する取り組みは、昔からマーケティングの基本中の基本であり、現在、スタイルと方法を大幅に変えて、再びその姿を現している。

現代のマーケティングのプロのデータには、オンラインおよびオフラインで向かう場所を含む、一般のウェブサーファーの行動に関するあらゆる情報が反映されている。実に頼りになる 情報だと言えるだろう。

効果的な、統合的なSEO/SEMのプロセスの仕組みを見ていこう:

私には2014年にSEOを優先する方針は、人気がなく、その他のターゲットを絞った有料メディアが注目を集めているように思えるが、チャンネル間マーケティングに関する大々的で、セクシーな議論から、SEOを除外する行為は、重役陣にとって適切とは言い難い。

例えば、有料検索、とりわけパフォーマンスマーケティングは、従来、広告費用対効果(ROAS)を重要視する傾向があるため、アウェアネス(認識)関連のキーワードはコストが高くつく。しかし、ここでSEOが心強い味方となる。さらに、SEO戦略では、コストの高いCPCの用語に対する自然なポジションを上げる以上のメリットをもたらすことがある。

見過ごされがちなSEOと他のマーケティングチャンネルの統合戦略

  • 需要またはコンバージョンの観点で、インパクトを与えるハイコストのCPCのキーワードをリストアップする。
  • このリストをキャンペーンに分類して、各種のオーディエンスのパーソナリティに訴えかける戦略に応じて、それぞれのオーディエンスのタイプに狙いを定める(コホート)。
  • このデータを、SEOチームに渡し、それぞれのプロフィール/パーソナリティにおいて、Googleで上位にランク付けされているウェブサイトを特定する。
  • それぞれのハイコストのキーワードを検索する消費者に接触している(SEOおよび有料の結果で)上位のウェブサイトを特定する。このSEOのランキングの結果を使って、ディスプレイの内容に関する戦略を改善する。
  • ディスプレイ戦略の一環として、マーケッターは、有料ソーシャルキャンペールでのターゲティングを改善するために、追跡を展開することも出来る。
  • eメールの情報を入手すると、eメールキャンペーンの関連性を改善することも可能になる。

今週行われたSMXで、この戦略を得意とするティム・メイヤー氏と話をする機会を得た。現在、同氏はTrueffect.comでマーケティングの取り組みを統括している。SEOとその他のマーケティングの手段 — 特にディスプレイ — を組み合わせる方針について、メイヤー氏の意見を求めた。以下にメイヤー氏が指摘してくれたポイントを幾つか加えていく:

ディスプレイと広告を提供する場所で検索のクリックを加えると多くのアドバンテージが生まれる:

1. アトリビューションと最後にクリックした場所を正確に解明することが出来る。つまり、最後のクリックが検索のクリックであった際にCPAを広告ネットワークに支払うことも、そして、PPCをAdWordsに支払うこともなくなる。広告スポンサーは、様々な領域で検索とディスプレイを実施し、コンバージョンに2度料金を支払ってしまうことがよくある。!

2. 第一者のクッキーを追跡メカニズムとして活用する。また、広告アクティビティの長い文字列を作り、コンバージョンのイベントの前に起きた多くの接触のインパクトをより正確に理解することが可能になる。すると、ディスプレイ等の[セールスファンネル]の上部のアクティビティのインパクトを証明する上で役に立つ。

3. AdWordsの広告グループのIDをタグ内で継承する取り組みも有効である。なぜなら、カスタマージャーニー/顧客のストーリーをデータを使って、再現する上で役に立つためだ。

ご覧のように、SEOのデータは、有料ソーシャルキャンペーン、ディスプレイキャンペーン、そして、eメールキャンペーンでターゲットを絞る方法を改善することで、有料検索のROIを高める取り組みに活用することが出来る。 統合型パフォーマンスマーケティングに対する全体的なアプローチではあるが、私の知る限り、誰も取り上げていない。

私には理由が分からない。これは、SEOをとてもセクシーにする取り組みであり、何とかして、SEOに魅力を取り戻そうと私は試みている。

チャートの画像: Altimeter Groupから許可を得て使わせてもらった。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「Is Search Marketing No Longer Sexy?」を翻訳した内容です。

タイトルを見て多くの人が思ったように、そもそも検索マーケティングはセクシーでもなんでもなく元々ゲリラ的であり労働集約的な作業も多い地味なマーケティング手法だったわけですが、、、記事にもあるように、そのせいか効果の割にそこまでマーケッターや手法が脚光を浴びることもなく、どちらかというと毛嫌いか無視され(どこまで自虐)、結果、他のマーケティング手法とシームレスな連携がされていない状態で今まで来てしまっている点はありますよね。実際にウェブで成功しているサービスの多くは検索マーケティングを最大限に有効活用し、他のマーケティングやサイトとも連動し相乗効果を上げているわけですが。ソーシャルやアドテクとの連携で検索マーケティングの効果を激増させることはまだまだ可能ですし、検索マーケティングが本当にセクシーになる時代は実はこれからなのかもしれません。 — SEO Japan [G+]

Googleハミングバードを乗り越えるこれからのSEO

本質的なアルゴリズムの変更すぎるせいか?短絡的なSEOにつながらないためか余り話題にGoogleのハミングバード。今後のGoogleの根幹を担うアルゴリズムだけに、きちんと理解はしておきたいですよね。今回、サーチエンジンランドがハミングバードを意識したSEOのコツをまとめた分かりやすい記事を紹介していたのでここに翻訳。 — SEO Japan

Google-Wall

Googleは、ここ数年の間に、ウェブサイトをランク付けする仕組みに大きな変更を加えてきた。その中でも特に新しい部類に入る、2013年の夏に導入されたハミングバードアルゴリズムは、検索につむじ風を起こし、広範な影響を与え続けている。

アルゴリズムのアップデートに際して、企業は、もともとの検索ランキングを再び得るために、ウェブマーケティング戦略、そして、SEOの取り組みを修正し、Googleに贔屓にしてもらう必要がある。

私が得た見解、そして、この新たな環境の中で成功を得る上で、求められる取り組みを知りたい方は、読み進めていってもらいたい。

今まで分かったこと

Googleの検索アルゴリズムの進化に対応して、クライアントのサイトを見直し、そして、両者を同期する戦略を実施することで、私は貴重な見解を直に得ることが出来た。

私達のSEOプログラムは、現在のクライアントの評価を優先することで、うまくいっている試み、そして、うまいくいっていない取り組み、さらに、常に変化するデジタル世界で継続的に成功を収めるために、労力を集中させる必要がある場所に関して、明確で、新たな見解を得ることに成功した。

ハミングバード後の評価の結果には、差が見られる。一部のクライアントの検索ランキングは、競合者が、Googleの変更に対応しきれず、ランキングを落としたため、直後に改善していた。一方、自然な検索結果のランクを確立するための日常的な取り組みの成果として、ランキングを維持、または、押し上げることに成功していたクライアントもいた。

一部のクライアントは、若干、ランキングを落としていたものの、今のところ大きなダメージを負ったサイトは見当たらない — これは、弊社のSEOの取り組みが、Googleの方針と既に一致していたことが要因だと考えられる。若干ランキングを下げたクライアントに対しては、評価を行うことで、再び軌道に戻すために必要な修正を行う場所、そして、方法を把握することが可能になった。

変わったこと & 変わっていないこと: 求められる取り組み

SEO Strategy - changes coming!評価では、誰もが期待する項目を主な要素として精査している。ハミングバードを活用するためには、既に力を入れている構造と同じ構造に対する取り組みを強化する必要がある。しかし、それぞれの構造を実装する方法に違いが見られる。

技術的なサイトの構造

サイトのビジターが、サイトを自由に動き回ることが可能な、内部リンクの構造とアーキテクチャは、必要不可欠である。ページが早く読み込まれること、さらに、画像とサイトマップが最適化されていることは、全てエンドユーザーの体験にプラスに働くため、重要度が高い。

オンページの要素

基本的なオンページの要素は、SEOのランク付けにおいて、もはや重要ではなくなった、と主張する人達がいるが、この風説は事実とは異なる。タイトルタグ、ウェブページのURL、ALT imageタグ、そして、適切なH1タグの重要度は、さらにレベルアップしている。実際に、一部のクライアントは、このようなアイテムに力を入れるだけで、検索結果のランキングを大幅に改善することに成功していた。

コンテンツ

「コンテンツは王様」論を聞き飽きた方もいるかもしれないが、コンテンツは、今まで以上に重要な存在になっている…また、この傾向がすぐに変わることはない。コンテンツが重複していないことを確認し、常に質が高く、関連性があり、そして、オーディエンスの役に立つコンテンツを提供してもらいたい。

最終目標

ハミングバードの導入後、上位にランク付けされるウェブサイトは、一貫して、正確に顧客中心のUXを提供しているサイトである。つまり、サイトの全てがビジターのメリットを考慮し、この目標が、Googleにとって明確であり、分かりやすくなければならないのだ。

目標を達成するには

ハミングバードに対応するため、まずは、上述した要素を、全て適切に実施する必要がある。続いて、以前効果があり、今もなお効果のある特定の戦略が存在するので、検討してもらいたい。

以下に、主な推奨事項を幾つか挙げていく:

- 自然なコンテンツ

会話のように読めることが、コンテンツの条件である。特定のキーワードをねじ込むために、ぎこちなさ、または、無理やり感が生じるようでは、Googleに認めてもらえない。提供する製品/サービスをビジターに容易に理解してもらうことが、最終的な目標である。

- ウェブサイトの標識のような感覚でページのURLを利用する

普通に読めるだけでなく、導かれるページの内容がビジターに伝わるようなURLを利用するべきである。チンプンカンプンな特殊文字や判読不可能なURLのフォーマットは避けよう。

- 正確なタイトルタグを用いて、直帰を回避する

タイトルタグとメタ記述は、クリックスルーを増やすためにユーザー欺くのではなく、ページの内容を正確に反映しなければならない。地域に特化した会社なら、地理に言及すると、良い結果を得られるだろう。

- サイトアーキテクチャを簡素化する

サイトアーキテクチャは、ビジターが、必要としている情報を探す際に迷子にならないように、直感的なUXとナビゲーションを提供する必要がある。

- モバイルウェブを活用する

モバイルデバイスに完全に対応しなければならない。モバイルユーザーは、デスクトップユーザーを今年中に上回ると見られており、このマーケットは今後も右肩上がりに拡大していくはずだ。モバイルのオーディエンスを囲い込むことが出来ないなら、今後、トラフィックが大幅に減る可能性が高い — 現時点で減っていても不思議ではない。

結論

ハミングバードは「全ての面で新しい」アルゴリズムだと考えている人は多い。しかし、私達は、Googleの進化における自然なステップと見なしている。ハミングバードが、今まで行われた全ての変更をベースとしており、さらにレベルアップさせることは明白である。

SEO戦略とマーケティング戦略をGoogleのアルゴリズムの変更に合わせて調整しているサイトは、やがて、勝者として君臨することになる。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「A Complete Guide To The Essentials Of Post-Hummingbird SEO」を翻訳した内容です。

書いてあることは、どれも当たり前の横道な話ばかりでしたね。逆にいえば、ハミングバードの導入・進化と共に、従来にテクニック寄りのアルゴリズムの裏をかいたようなSEOは通じなくなっているということでもあるのですが。その意味で「ハミングバードを気にしないSEO」というのはGoogleの進化の証明でもあり、結果「ハミングバードを意識したSEO」にもなるのでしょう。 — SEO Japan [G+]

4人のエキスパートが教えてくれたSEO改善の20の秘訣

あの次世代メディアサイトのThe Next WebがSEOのアドバイス記事を掲載していたので思わずご紹介。業界のエキスパートがウェブマーケッターに向けにSEOのテクニックを厳選して語ってくれた日本のウェブマーケッターにも参考になりそうな内容です。 — SEO Japan

SEO (検索エンジン最適化)は、大部分のスタートアップにとって、とても味気ないが絶対不可欠なトピックであるため、私は、様々なSEOエキスパートからの率直で簡単なアドバイスをまとめた。

Autotraderの検索マーケティングマネージャー、Dewi Nawasariは、GoogleやYahooなどの検索エンジンを使ってあなたのサービスを検索している関連性のある顧客を引き付けるためにあなたのウェブサイトを最適化するプロセスとして、SEOを定義している。

彼女はまだスタートアップ向けのSEOは実施したことがないが、以下は、あなたが手始めにすべきこととして彼女が勧めていることだ:

1) 良いナビゲーションリンクを作る。

自分のウェブサイト内での顧客の旅を出来る限り簡単かつスムーズに作ることを考えるのだ。顧客があなたのコンタクト情報を見つけたり、登録したり、購入を完了させたりするのに必要なステップが短ければ短いほど、あなたが受け取る成功の確率は高くなる。検索エンジンは、あなたのナビゲーションリンクを介してウェブサイトをクロールするため、顧客が満足して閲覧しているならば、検索エンジンもそうである可能性が高い。

2) ページの宣伝文句を関連性があって記述的なものにする。

例えば、Google検索に入力すると、大きなフォントサイズのタイトルとそのタイトルの下に説明の要約が表示され、それがあなたのマーケティングの第一層としての役割を果たす。あなたは、ホームページのタイトルとあなたが提供するサービスの種類を簡潔に説明したディスクリプションを含めるべきだ。

3) サイト内にコアコンテンツを含める。

あなたが何を提供するのか?、あなたは確実で信頼がおけるのか?、簡単にあなたと連絡がつくのか?などの質問に回答する。

4) ローカル検索エンジンおよびディレクトリのリストに載せてもらう。

Google Plus LocalやYahooディレクトリやYalpのような主要プレイヤーから始めて、その後で自分の地域のビジネスや地方自治体のリストに至る。より多くのリストに入れば、見込み客があなたを見つける可能性は高くなる。

5) 出来る限り多くのレビューとテスティモニアル(証言広告)を奨励する。

レビューは、ローカル検索エンジンおよびディレクトリ内のリスティングで許可されるが、顧客がどのメディアに慣れていようと使えるようにあなたのサイト上でもレビューできるようにするべきだ。

6) 関連のあるソーシャルメディアサイトに存在する。

ソーシャルメディアサイトは、顧客がレビューを残すことのできる場所をたくさん追加し、それは顧客のたくさんの友人の前にさらされることになる。紹介を介してビジネスを獲得するのに素晴らしい場所だ。

7) 無料サンプルを提供する。

あなたが知っているのは、優れたオントピックのイベント?最高のアドバイスやハウツー?第二のサービス/販売でお金を儲ける?必ずそれを自分のサイト上に投稿し、それをFacebookページで触れ、それをローカルニュースサイトで公開するのだ。優れたオントピックのコンテンツが、オントピック検索における検索エンジン結果に表示される高いチャンスをあなたに与える。

8) モバイル最適化したウェブサイトを作る。

モバイルの使用は飛躍的に増加しているため、今こそゲームで先手を取る時だ。

SEOは検索エンジンが満足するためのプロセスだけではなく、最高のカスタマーサービスを顧客に届けるためのプロセスであるということを常に頭に入れておくこと。

また、MiintoのSEOマネージャー、Ned PoulterもSEOのアドバイスをくれた。

9) Googleアナリティクスを設定して、誰が自分のサイトを使用しているのかを理解すること。

必要不可欠なSEOの細目ではないが、あなたが最初にすべきことは、Googleアナリティクスをインストールして、それが全てのページにインストールされていることをチェックすることだ。ユーザーの具体的なデータへの幅広いアクセスが、デジタルと従来のマーケティングを区別する。これを自分の有利になるように利用するのだ!

10 ) Googlexウェブマスターツールを設定して、検索エンジンがどのように自分のサイトとやり取りしているかを理解すること。

多くの人は、GoogleがGoogleウェブマスターツールという形で提供している素晴らしいツールに気付いていない。検索エンジン自体があなたのサイトをどのように見ているかの詳細情報を提供することを可能にするために、ウェブマスターツールを使って自分のサイトを検証すること。そして、以下のような重要な問題を理解すること:

- Googleはあなたのサイトをクロールしているか?もしそうなら、何ページを発見しているか?

- どの内部リンクが認識されているか?

- どの外部リンクがあなたのサイトに向けられているか?

検索エンジンがあなたのコンテンツに手を伸ばすのに苦戦している時には、これを使って認識を手助けするのだ。

11) XMLサイトマップを作る。

ウェブマスターができる最も簡単な行動の1つが、XMLサイトマップを作ることだ。素人の言葉では、‘ウェブサイト上の全てのURLのリスト’として広く理解されている。これをGoogleウェブマスターツールに登録することによって、自分のサイト上でアクティブな全てのページを確実に提供し、Googleがあなたのコンテンツを発見しインデックスしようとする時に幸先の良いスタートを与えるのだ。

- このようなツールを使用してXMLサイトマップを作成する。

- Googleウェブマスターツールにサイトマップを登録する

12) ドメイン名の一本化

301は、カノニカル(例:http://example.com/)をあなたのサイトのカノニカルされていないバージョン(例:http://www.example.com/)にリダイレクトする。さもなければ、検索エンジンはhttp://www.example.com/とhttp://example.com/のどちらが正しいページなのかを解読するのが困難なため、混乱を引き起こす可能性がある。また、ブラウザがリクエストされたURLをサーバー上に見つけることができずに、それが複数の問題を引き起こすこともある。もしユーザーがあなたのホームページを見つけられなかったら、ユーザーにとっては悪い体験を引き起こすため、立ち去って二度と戻って来ないかもしれない。

このことを頭に入れて、あなたは、カノニカル(http://example.com/)からノンカノニカル(http://www.example.com/)への301リダイレクトを導入すべきだ。もしこれがテクニカルすぎるのであれば、Nedに連絡すると助けてくれるかもしれない。

もっと欲しい?ここからは、Morgan Online MarketingのフリーランスSEOコンサルタント、Steve Morganからのいくつかの指摘を紹介する:

13) ウェブサイト間の相互リンク

もしあなたが複数のスタートアップもしくは複数のサイトを運営しているのなら、それらがすべてお互いにリンクしていることを確認すること。それがブログロールからであろうと、フッターリンクからであろうと、他のどこかのページ(例:Aboutページ)からであろうと構わない。それは、通常、あなたが自分自身で導入できて100%あなたの管理下にあるてっとり早い成功だ。

14) ソーシャルプロフィールからリンクする

Facebook、Twitter、LinkedIn、YouTubeなどの企業プロフィールを作る際には、必ず自分のサイトへのリンクバックを含めること。どれだけ多くの人々がこれを見逃すか、単に忘れている(例えば、忙しくて)ことには驚かされる。ソーシャルプロフィールのリンク自体からはたくさんのSEO価値は得られないかもしれないが、それらは他の場所で発見されるかもしれない(例:Twitterディレクトリに載ることは、Twitter自体に存在することよりもたくさんのSEO価値を手渡す)。

15) ネットワーク(オフライン)!

外に出て、人に会うのだ―本当に!地元のネットワーキングイベントに行き、自分の近くにスタートアップコミュニティがあるか確かめるのだ。人々と知り合いになると、ゲストブログや記事投稿やPRのようなチャンスが突然に劇的に増え、それらは全てあなたのSEOにプラスとなるはずだ。

16) 自分のGoogle Placesxのリスティングを整理する

Google Placesの結果リストが、あなたのキーワードで登場するなら(例:相当する結果と地図)、Google Placesのリスティングをすぐに整理すること。それは無料だし設定も簡単だ。特に競争の激しくない分野では、リスティングの作成が、さらなる最適化を必要とせずに上位表示に結びつくことがある。

17) 賢くドメイン選択をする

スタートアップは、突拍子もない奇抜な名前(およびドメイン名)を選択することで有名だが、ドメイン名の選択に関しては賢くなること。例えば、Fantastic Monkey という名前のケーキ店なら(もしその名前が欲しい人がいれば、それは無料だ!)、fm-uk.coよりもfanastic-monkey-cakes.co.ukの方が、“cakes”が含まれているために、ブランド検索だけでなくキーワード検索においても、あなたにとってメリットがあるかもしれない。もちろん、SEOはオンラインマーケティングチャンネルの最大の目的ではないが、ドメイン名のようなもので、最初から良い選択をすることは理にかなっている。

最後に、DistilledのSEOコンサルタント、David Sottimanoが、レベルごとにアドバイスを分類している:

SEOの初心者向け

自分のサイトが検索エンジンによってアクセス可能であることを確かめる。Javascriptや動画や画像など、検索エンジンがインデックスに苦労するテクノロジーに対してはメタデータ、もしくはHTMLテキストを使用する。

新しいサイト向けの一般的な経験則では、1ページに100個以上のリンクを入れないこと、3層以上の構造にしないこと、アンカーテキストを使用してホームページから重要なページへとリンクすることだ。最後に、全てのページタイトルは、ユニークで、説明的で、70文字以下にし、ターゲットキーワードを含めること(できれば始めの方に)。

中級者向け

サイトがアクセス可能であると仮定して、あなたはいくつかのコンテンツを作成し、検索トラフィックを獲得するために最適化する必要がある。Googleオートコンプリートのようなツールや、Ubersuggestや顧客の質問を使用することによって、自分のオーディエンスがあなたのウェブサイトを見つけるために検索するキーワードのリストを思い付くことができる。

このリストが完成したら、それぞれのトピックをターゲットにした非常に優れたページを作成する必要がある。例:Yahooには素晴らしい無料のオンライン画像最適化ツールがあるが、キーワードのターゲッティングが理由であなたはそれを検索で見つけることはできない。

上級者向け

Googleアルゴリズムにおいて、リンクは未だにランキングの最も重要な外部要因であり、全ての人がマーケティングの貢献者である文化を受け入れる価値はある。友人、顧客、ビジネスパートナーからのリンクを要請し、従業員にどんな場所であろうとできれば(例えばソーシャルメディアプロフィール)会社サイトを紹介することを奨励するのだ。

非常に優れた、自然にリンクする価値のある資産をサイト上に作ることに関して、2つの原則を忘れないこと:“あなたは、時間とお金と才能のうち、少なくとも2つを必要とする”、そして、“予算がなくても優れたコンテンツを生み出すことはできる”。質の低いシンジケーション、記事マーケティングからのリンクを含めたり、リンクを購入したりするようなてっとり早い成功は避けること。これらは持続可能ではないし、Googleのウェブスパムチームからターゲットとされるからだ。

さあ、SEOのアドバイスを手に入れた今、あなたは来年に向けて忙しくなるぞ!

画像クレジット:DAMIEN MEYER/AFP/Getty Images


この記事は、The Next Webに掲載された「How to improve your site’s SEO: 4 experts share their priority checklist」を翻訳した内容です。

一読して新たな気づきがあれば実践してみる価値はある現場のエキスパートに活用されているティップス集でした。しかし最後の「あなたは、時間とお金と才能のうち、少なくとも2つを必要とする」には思わずナルホドでした。。。 — SEO Japan [G+]

Googleの広告を買うとランキングが上がる…なんて嫌だ

Googleアドワーズ広告の利用金額が多いとオーガニックの検索結果が上がるかもしれない、、、そんな検索マーケティング業界の都市伝説が実は隠された真実だったかもしれない?!Googleが最近取得した特許で判明した事実とは。 — SEO Japan

2011年の1月、Googleのスパム対策を統括するマット・カッツ氏は、Googleの公式ブログで、「Googleの検索と検索エンジンのスパムについて」を投稿し、次にように指摘していた:

ここ数週間、Googleの広告を掲載しているサイトのスパムコンテンツに対しては、Googleがインデックス内で大目に見ると言う誤った考えが浸透しているようだ。この際、ハッキリさせておこう:

  • Googleは、Googleの広告を掲載しているかどうかに関わらず、品質ガイドラインを違反するサイトに対しては、行動を起こす。
  • Googleの広告を表示しても、サイトのランキングにプラスに働くわけではない。
  • Googleの広告を購入しても、Googleの検索結果のランキングを押し上げる効果はない。

この原則は常に適用されているが、今でも適用されている点を改めて強調しておくことも重要である。

しかし…

Making Money at the US Treasury

米国債で金儲けに走る

かつて、Googleが、広告のデータを確認して、ページをランク付けする際に考慮していたとしたら、カッツ氏は何と言うつもりなのだろうか?カッツ氏の上のコメントのような発言を何度も耳にすると、なかなか尋ねる勇気は湧いてこない。

そんな中…

本日、米国特許商標局からGoogleに付与された特許には、この主張を覆す技術が記されていた。

当然ながら、マット・カッツ氏本人も以前指摘していたように、Googleが、何らかの技術に対する特許を取得したからと言って、現在、その技術を利用しているとは限らない。事実、本日Googleに付与された特許は、サイトのランキングおよびGoogleの広告に関する発言とは、矛盾しているように思える。

あるサイトが検索結果で広告している用語に関する情報を使って、Googleがサイトに関する詳細、そして、サイトにとって重要な用語を学んでいると仮定してみてみよう。

さらに、Googleがサイトで掲載されている広告に注目し、検索結果のランク付けを目的として、内容を特定していると考えてみてもらいたい。

この2つのトピックは、2003年に申請されたこの特許で取り上げられている:

広告のデータを使って検索のランキングを改善するメソッドおよびシステム
考案: Monika Henzinger、Alexander Mark Franz
米国特許番号: 8,676,790
付与日: 2014年3月18日
申請日: 2003年12月5日

概要

公開されている広告データを使って、検索ランキングを改善するシステムおよびメソッド。

ある実施例では、検索エンジンは、検索クエリを受け、検索クエリに関連する複数の記事を特定し、検索クエリに関連する広告を断定して、少なくとも一部において広告のデータを基に記事のランク付けを行うメソッドを実施する。

考案者のMonika Henzinger氏は、Googleのリサーチ部門の設立者であり、この部門を数年にわたり統括していた。同氏は、また、検索に関連する様々なテーマに取り組んできた。

もう一人の考案者、Alex Franzは、複数の論文、そして、特許の作成において、Henzinger氏に協力していた。両氏は、Googleの発展に大きな影響力を持つ。この特許の考案者に両氏の名前が掲載されていることで、その重要度がうかがえる。

たとえGoogleで広告を表示する行為、あるいは、Googleの広告を購入する行為が、サイトのランキングを改善につながらないとしても、この特許は、少なくとも、広告の情報を特定のクエリとページに利用するアイデアを、Googleが真剣に考えており、優秀なリサーチャーの時間を割いている事実を反映している。

この特許は、広告の情報がページのランク付けに用いられる様子を描いた画像を提供している。繰り返すが、これはGoogleが実際にこのメソッドを実装している証拠にはならないものの、このような取り組みが考慮されたことを示唆している。

事実、2003年の時点では、広告の情報が、Googleがページの内容をより良く理解する上で役に立った可能性はある。

それでも、このような目的で利用されないことを心から祈るばかりである。


この記事は、SEO by the Seaに掲載された「Has Advertising Information Been Used by Google in Ranking Pages in Search Results?」を翻訳した内容です。

正に記事通りの感想ではあるのですが、順位を上げるまでとはいわずとも何らかのランキング付要素に広告データが利用されている可能性は0ではないとは思いますし、少なくとも実装されたかはともかく検証はされていたでしょうね。ローカル検索やユニバーサル検索等、自然検索結果と広告の境目が限りなくグレーゾーンに近づいていますし、いずれにせよ確実に広告の方が露出があるのは事実なわけで、最近の広告への「広告」レーベルの付与も含め、今日のGoogleはこんな議論のはるか上を良くも悪くも進んでいる気もしますが。 — SEO Japan [G+]

コンテンツマーケティングとSEOを組み合わせてトラフィックを増やす7つの方法

出張明けのSEO Japan記事第一弾は、SEOとコンテンツマーケティングを組み合わせてトラフィックを激増させようという時代のトレンド真っ只中の記事をQuick Sproutから。カリスママーケッターが自ら実証してきたその極意とは? — SEO Japan

peanut butter jelly

コンテンツマーケティングとSEOは、ごはんと梅干のような関係だ。別々に食べても十分に美味しい…

しかし、一緒に食べたらどうなるだろうか? お互いの良さを引き出すはずだ。だからこそ、オニギリの具の中で、梅干しは圧倒的な支持を受けているのだ。一緒に食べると、最高のハーモニーが口の中に広がっていく。

ごはんと梅干のコンビは最強であり、何度も何度も、口の中に運ぶことになる。

質の高い検索トラフィックを増やそうとしているなら、コンテンツマーケティングとSEOの取り組みを組み合わせる必要がある。別々のキャンペーンとして実装しているようでは、組み合わせて実装する場合と比べて、増加することが出来るトラフィックの量は限られてしまう。

また、大企業の場合は、コンテンツマーケティングとSEOが一つの部門で取り扱われるように、組織を改編しなければいけなくなる。

それでは、コンテンツマーケティングとSEOを組み合わせる7つの賢い戦略を紹介していく:

作戦その1: Wikipediaでもリンクを張りたくなるぐらいのコンテンツを作成する

Wikipediaはインターネットで最大規模の情報源である。Googleでは、ほとんどの用語で上位にランク付けされており、ウェブで最も人気の高いサイトの一つに数えられる。「Comedy Central」によるマーケティングのプレゼンテーションを見るまでは、私はWikipediaの実力をよく理解していなかった。

Wikipediaは、どれぐらいのトラフィックを生成しているのだろうか?10万人/月を超えるビジターをもたらす。実に衝撃的なデータである。

さらに、Comedy Centralは、Wikipediaからリンクを張られたページには、その他のサイトからリンクがもたらされる傾向があることも把握していた。

それでは、どうすればWikipediaからリンクを獲得することが出来るのだろうか?一番手っ取り早いのは、Wikipediaの被リンク構築を介する方法だ。

Wikipediaはリンク切れを把握しており、これは代わりのページを探すきっかけとなる。

Googleでこのタイプのリンクを発見する方法を伝授しよう:

site:wikipedia.org キーワードを挿入 “リンク切れ”

wikipedia dead link search

次に、検索結果をクリックして、ページで「リンク切れ」を探す。

wikipedia dead link

その後URLをArchive.orgに貼り付けて、同じようなページを自分のサイトで作る — ビジネスに関連しており、ビジターがコンテンツに価値を見出すことが前提。

同じようなページを作ったら、Wikipediaのエントリに戻り、右上の「編集」ボタンをクリックする。

edit wikipedia dead link

編集を行う際は、最初にユーザーアカウントを作り、その他の記事を編集する必要がある。Wikipediaは、ユーザーに自分のサイトへのリンクを追加するだけではなく、その他の記事も編集し、コミュニティに価値を継続的に提供してもらいたいと考えている。

最後に、とっておきの上級者向けのテクニックを教えよう。まず、リンク切れのURLをコピーして、Ahrefsに貼り付けて、リンク切れのページにリンクを張っている全てのサイトを把握する。その後、各サイトに接触し、リンク切れの記事を自分のサイトの記事に置き換えてもらうよう交渉することが出来る。

broken dead link building

この戦略を最大限まで活用したいなら、キーワード、そして、ビジターの視点において、関連性の高いページを作成することに力を入れるべきである。被リンク構築では、貪欲になってしまいがちだが、リンクを幾つか増やすために、大量の関連性の低いページを作る行為だけは絶対に避けてもらいたい。

作戦その2: キーワードのデータに基づいてコンテンツを作成する

キーワードのためにブログの記事を作成するべきではない。ビジターが読みたい記事、そして、ターゲットにしたいキーワードを基に記事を作成するべきである。

検索データの大半が「not provided」でも問題はない。3つのGoogle Analyticsのレポートで提供されているデータを使って、トラフィックをもたらすキーワードを把握することが出来る。

3 google analytics report

ターゲットにするキーワードの一覧を作ったら、このキーワードに関するコンテンツを作成していく — トピックがビジターにメリットを与えることが前提。

実際に自分が運営するサイト「Quick Sprout」で私はこの戦略を実施したことがある。Analyticsでは、Instagramに関連するキーワードが、常連のユーザーを生み出すと言うデータが出ていたため、Instagramのマーケティングに関するブログの記事を作成した。

この記事を投稿してから30日以内に、Instagram関連のキーワードで上位にランクインするようになり、全体的なトラフィックにおいては、マンスリービジターが12万増加した。

instagram traffic

このモデルで大量のトラフィックを獲得する際には、Google Trendsを使って、コンテンツのトピックとなるキーワードを相互参照する取り組みが鍵を握る。 私自身、トレンドになり、サイトと関連するトピックのみを取り上げるようにしている。下火になっているトピックを取り上げても、得られるトラフィックは減少していくだけである。

instagram traffic trend

このような結果を必ず得られるわけではないが、この戦略を丹念に利用していれば、いずれ報われるはずだ。

ただし、この戦略を利用する際に、キーワードを詰め込む行為は避ける必要がある。ランキングに悪い影響が出る恐れがあるためだ。

作戦その3: 大量生産を狙う前に質の高い記事を作る

Googleが生まれたばかりの頃、どんなコンテンツを投稿しても、大勢のビジターを獲得することが可能であった。最終的に、Googleは賢くなり、アルゴリズムは、質の高いコンテンツを上位に格付けし、質の低いコンテンツを沈めることが出来るようになった。

そのため、深く掘り下げた質の高いコンテンツの作成に力を入れるべきである。なぜなら、Googleの検索結果ページの1ページ目に掲載されるコンテンツは、平均で2000ワードを超えるからだ。

word count

事実、Mozは、被リンクが多ければ多いほど、通常は、高くランク付けされるため、分析を行い、被リンク数とワード数との間の相関関係を調査している。

word count moz

以下の図表には、ワード数ごとに、記事に寄せられるリンクの本数が記されている:

link count moz

ご覧のように、ワードの数と被リンクの本数には、明確な相関関係が存在する。このように、上位へのランク付けに貢献するため、詳細な記事を作成する方針を検討してもらいたい。

また、詳細なコンテンツを作成することで、GoogleのIn-depth Articles機能を介して、トラフィックが増える効果も見込める。事実、このサイト(Quicksprout)は、In-depth Articlesを活用して、検索エンジン経由のトラフィックを13.5%増やすことに成功している。

平均で2183ワードの記事に対しては、検索トラフィックが増加し、1000ワード以下の記事には、変化は見られなかった。

質の高い詳細な記事を書くことが出来るようになったら、量を増やすことに狙いを定めよう。それまでは、深く掘り下げた記事を書くことに力を入れるべきである。

作戦その4: FAQを考慮する

QualarooSurvey Monkeyを使えば、訪問者が顧客にコンバートしない理由が明らかになる。以下のような問いを投げ掛けるだけでよい:

  • このページで他にどんな情報があったら良いと思いますか?
  • 製品の購入を見送る理由は何ですか?
  • 製品やサービスに関して、気になることはありますか?

このような問いを尋ねることで、コンバートを妨げる障害を把握することが可能になる。さらに、サポートチームに要請、もしくは、サポートに寄せられたeメールをチェックして、その他の障害を明らかにする手もある。

ビジターが抱える懸念や疑問をリストアップしたら、当該の問いに答えるFAQセクションを作成する取り組みを検討してもらいたい。すると、製品に関するロングテールの用語で、上位にランク付けされるようになる。

大量のトラフィックが転がり込んでくるわけではないものの、得られるトラフィックは、非常に関連性が高く、コンバートする可能性が高い。Crazy Eggのサポートセクションでも同じ手法を利用したところ、ビジターが4108名/月増加した。そのうち、82名が顧客へとコンバートした。

作戦その5: 業界のブログを狙ってゲスト投稿を行う

リンクが多ければ多いほど、ランキングは高くなる。コンテンツマーケティングチームに関連する業界のブログをターゲットにさせることで、適切なトラフィックをもたらす適切なリンクを構築することが可能になる。

私はマーケティングをテーマに掲げる49サイトのブログで、61回ゲスト投稿を行った。 ゲストとして投稿した記事の中で、関連性がある際は、Quick Spourt(自分のサイト)の内部のページにリンクを張った。ただし、アンカーテキストにキーワードを詰め込まないように注意してきた。すると、リファラーのトラフィックが増えるだけでなく、検索トラフィックも増加する効果が見られた。

この取り組みをスタートさせてから3ヶ月も経たないうちに、リンクを張った記事の検索トラフィックが22.7%増加した。

適切なトラフィックを増やしたいなら、以下の取り組みを検討してもらいたい:

  • 関連するサイトのみでゲスト投稿を行う。
  • 自分のサイトにリンクを張って、検索エンジンを操作する試みには手を染めない。読者にとってメリットがある時のみ、リンク張る。
  • キーワードリッチなアンカーテキストの利用を避ける。

上記の取り組みに加えて、Googleのガイドラインの範囲内でゲスト投稿を行う方法を説明する動画を見てもらいたい。この動画を見たら、次に、ゲスト投稿の機会を得るためにブロガーに接触する方法に関する動画を確認しよう。

作戦その6: 間接的なコンバージョンに力を入れる

SEOの取り組みを、コンバートしやすいキーワードでトラフィックを得る試みのみに集中させると、得られるトラフィックを自ら制限することになる。理想的な顧客候補のビジターが、ブログを通して問題を解決することが出来るように手を貸すと、すぐにはコンバートしないものの、ブログのトピックに関連するランダムな検索用語からトラフィックを得られるようになる。

例えば、KISSmetrics(私が運営するサイト)では、1000万ドル以上の年間収益を上げるインターネットマーケッターを理想的な顧客としてターゲットに定めている。KISSmetricsでは、分析製品を製品しているものの、ビジターの方々は、SEOやソーシャルメディアマーケティング等のその他の製品にも時間と資金を費やす傾向が見られる。 これは、KISSmetricsブログでは、「競合者のソーシャルメディアのフォロワーを盗む方法」等のトピックをビジターに伝授しているためだ。

その結果、毎月、Googleから新たに34万9335名のビジターを獲得することに成功している。

kissmetrics blog traffic

ビジターの大半はマーケッターであり、通常、すぐにはコンバートしない。通常、3回訪問すると、KISSmetricsの製品を試す決断を下す。なぜなら、このブログのコンテンツを気に入っているためだ。毎月のリードの49 – 72%は、このようにして生まれている。

他のサイトでも同じような現象が起きているようだ。Mozもトラフィックの多くをブログのコンテンツから得ており、間接的に製品の購入へとコンバートさせている。

作戦その7: 相互リンクを忘れずに行う

サイトにコンテンツを加えるだけでは不十分である。コンテンツを相互にリンクしなければならない。TechCrunch、Mashable、そして、Gawker Media等のブログのコンサルタントを務めていた頃、オンページの課題を解決することで、検索トラフィックを増やすことに私は成功した。

相互リンクが行われているページが、最も大きな問題であった。大量のページを持っているなら(やがて持つことになる)、全てのページが確実にインデックスされるようなサイトアーキテクチャを作ることは不可能である。だからこそ、ページを相互にリンクさせる必要があるのだ。

私はMashableでこの取り組みを実施し、内部ページを相互にリンクさせた。今でもMashableは、この手法を利用しており、「Twitter」等の用語でGoogleの1ページ目に掲載される原動力となっている。

twitter rank

ページを相互リンクしておけば、誰でも同じような成果を得られる。ただし、アンカーテキストにキーワードを詰め込むと、ダメージをもたらすことがあるので注意してもらいたい。Mashableが、Twitterのページに対して、「ここをクリック」等のテキストを使わずに、アンカーテキスト「Twitter」のみを使ってリンクを張っていたら、現在ほど高い位置にランクインすることは出来なかったかもしれない。

結論

優れたコンテンツマーケッターは、SEOのエキスパートとは異なるスキルを持っている。しかし、一緒に実施することは可能である。事実、コンテンツマーケティングの取り組みとSEOの取り組みを組み合わせると、より早いペースで良質な検索トラフィックを集めることが可能になる。

今回紹介した手法の中で、個人的に特に気に入っているのは、FAQを活用する方法である。割と容易な作業であり、どんな会社も用いることが出来る。また、プログラミングの知識がなくても構わない。このWordPress FAQプラグインを使えば、楽に作ることが可能である。

コンテンツマーケティングとSEOを組み合わせる方法を他に知っているなら、是非、紹介してもらいたい。


この記事は、Quick Sproutに掲載された「7 Smart Ways to Combine Content Marketing with SEO for More Qualified Search Traffic」を翻訳した内容です。

作戦1のニッチながら効果がありそうな手法、誰もがいわれてみれば分かるけど実際にやる人はほとんどいない、でも効果はありそな手法に筆者のオタク度、でなく凄さを感じましたね。残りの内容は定番といえば定番ですが、コンテンツマーケティングとSEOを組み合わせるということ、特に目新しいことでもないですし、本来やるべきことをきちんとできるかという話です。

しかし最初の「おにぎりと梅干」の組み合わせ、アメリカ人がこんなことを?と思いましたが、原文はピーナツバターとゼリーでした。ピーナツバターとイチゴの赤いゼリーが入ったサンドイッチ、アメリカに長年いた私が最後まで理解できなかった食べ物の一つだったので翻訳者の日本人にも腹落ちする改訳はグッドジョブでした。こういう細かなユーザーへの気遣いがコンテンツマーケティング x SEOには大事? — SEO Japan [G+]

Googleがサイトスピードをランキングシグナルに利用する特許と理由

数年前にGoogleが導入した「サイトスピード」というランキングシグナル、実際の順位にはさほど影響はないということで、SEO的には余り重要視されてきたわけではありませんが、今回サイトスピードと検索順位に関するGoogleの特許が認められた、ということで、その内容を改めてチェック。特許関連の記事となればもちろんSEO by the Seaから。 — SEO Japan

2009年4月9日、Googleのウェブマスター向けブログで「ウェブ検索ランキングにおけるサイトスピードの利用」を読んだ後、多くのサイトのオーナーが、ウェブサイトをスピードアップすることに関心を持つようになった。

Early race car driver Bob Berman, who raced in the first Indy 500 in 1911.

同日、Googleのマット・カッツ氏は、自身のブログで「Google、検索ランキングでサイトスピードを導入」を投稿していた。この2本の記事では、Googleが利用するランキングシグナルとして、サイトスピードが挙げられていた。

カッツ氏は、大地を揺るがすようなシグナルではないと指摘している。また、大半のランキングにおいては、影響を与えない可能性もあるようだ。しかし、同氏は、スピードは、ユーザー体験の改善を含む、ランキング以外のメリットがある点を強調していた。

どちらもの記事も、Googleがサイトスピードにおいて注目している点、そして、Googleがサイトスピードをページのランク付けに利用する方法を詳しく説明しているわけではなかった。しかし、2月4日にGoogleに付与された特許には、もっと詳しい情報が掲載されていた。

それでは、Googleは、ページが読み込まれるスピードをランキングシグナルとして、なぜ利用することに決めたのだろうか?

分かりやすく説明すると、この特許は次の点を指摘している:

ある検索クエリに対して、同様の関連度の2つのリソースがあったとすると、ユーザーは、読み込みにかかる時間が短いリソースへの訪問を望むと考えられる。

Googleは、PageSpeed Insightsツールを含む、サイトに関連する問題を調べる上で有効なツールをサイトのオーナーに提供している:

Google's PageSpeed Insights tool online interface.

PageSpeed Insightsツールは、ブラウザにページが読み込まれるスピードに関する複数のルール(経験則)をどの程度満たしているかに応じて、サイトにスコアを与える。特許では触れられていないものの、このツールは、サイトのスピードアップを試みる人達にとって、心強い味方となる。

ルールに関する情報、このルールが用いられる理由、実装される仕組みに関する情報も豊富に用意されている。専門的な情報が多く、開発者、もしくは、サイトのスピードの最適化を実施したことがある経験者に助けてもらう必要があるかもしれない。

読み込み時間の比較

それでは当該の特許を紹介する:

リソースの読み込み時間を検索結果のランク付けに利用
考案: Arvind Jain、Sreeram Ramachandran
付与先: Google
米国特許番号: 8,645,362
付与日: 2014年2月4日
申請日: 2010年11月12日

概要

リソースの読み込み時間を検索結果のランク付けに利用する、コンピュータ保存メディアにエンコードされたコンピュータプログラムを含む、メソッド、システム、そして、機器。

一形態において、検索クエリを特定のユーザーのデバイスから受けるメソッドを含む — 当該の検索クエリに対応するそれぞれの複数のリソースに対して、それぞれ第一スコアを受け、それぞれの複数のリソースに対して、リソースの読み込み時間の計測値を指定する読み込み時間のデータにアクセスし、読み込み時間の計測値を基に、複数のリソースのそれぞれの第一スコアを調整して、複数のリソースの一つ一つに第二スコアを生成する。

オンラインリソースの読み込み時間は、ページまたはリソースが閲覧される複数のデバイスに対するサンプルの読み込み時間の統計的な計測値に応じて決まる。

この特許は、ブラウザでの読み込み時間に影響を与える要因として、次のアイテムを挙げている:

  • リソースの大きさ
  • リソースに含まれる画像、または、参考文献の数
  • リソースに対応するウェブサーバー
  • リソースの読み込みに対するネットワーク接続のインパクト

Googleが、2つのページやリソースを比較するために読み込み時間を計測する際は、(1)同じ国に存在し、(2)同じユーザーエージェント(例: 同じブラウザ)を用いるデバイスに制限すると見られる。

読み込み時間のデータは、ウェブブラウザ、ウェブブラウザのアドオン、あるいは、特定のユーザーのデバイスに関連するモニタリングソフトウェアから集められる可能性がある。

教訓

この特許は、クエリに対して、2つの異なるページまたは結果が存在し、1つは比較的早く読み込まれ、もう1つは比較的遅い場合、早い結果は、表示される順番において優先され、一方の遅い結果は格下げされ、その結果、早いページの方が検索結果の上位に掲載されるようになる可能性があると指摘している。

一部のページの読み込み時間を「推測」する手法等、この特許には、その他にも詳しく描かれている技術がある。モバイルの読み込み時間のデータは、「この類のデバイスにおけるリソースに対するリクエストの待ち時間が長いため」含まれないと記載されている。

このタイプの読み込み時間の情報は、「一部のリソースは、特定の場所やデバイスから十分なトラフィックを得ておらず、特定の特徴を共通点として持つデバイスで得られた読み込み時間の計測値が、有益な値だとは限られないため、一部は用いられない可能性がある。特許は、次のような例を挙げている:

フランス国内のユーザーのデバイスからは、中国語のリソースに十分な量のアクセスが行われていないと見られるため、フランス国内のデバイスのみを利用した読み込み時間の計測値は、意味を持たない可能性がある。また、立ち上げられたばかりのウェブサイトもまた、リソースに関連する読み込み時間のデータが十分に得られていないと考えられる。

サイトのスピードを改善することが出来るなら、それに越したことはない。関連性や、ページランク等のシグナルほど強力ではないかもしれないが、2つの似ているページがあり、1つのページはもう1つのページよりも読み込みが遥かに早い時、大きな影響を与えるポテンシャルを持つ。

追加: 2014/02/14 Go Fish Digitalで協力したデビン・ホームズ氏(優れたデザインを提供してくれた)が、今日の午後、「Google、バックグランドでJavaScriptをコンパイルしてChromeをスピードアップ」を紹介してくれた。この記事を読めば、Googleがウェブのスピードアップにいかに真剣に取り組んでいるかが分かる。この特許は、異なるユーザーエージェント等を考慮して、サイトを比較する取り組みを取り上げており、これはGoogleがユーザーエージェントに注目する理由に1つに数えられる。 Googleが、2つの異なるリソースの読み込み時間を比較するなら、同じバージョンのChromeでウェブサイトが読み込まれる時間を検討する可能性がある — 例えば、Chromeに対するGoogleの最新の修正には、ページの読み込みをスピードアップする効果が見込まれている。


この記事は、SEO by the Seaに掲載された「Google’s Patent on Site Speed as a Ranking Signal」を翻訳した内容です。

特にモバイルデバイスの普及&ウェブのグローバル化で必ずしもネットワーク環境が日本程良くないGoogleのサービスエリアは格段に増えていくと思いますし、Googleにとってもより重要な要素になっていくのでしょうか。SEO関わらずUX的にサイトスピードは大事なのは当たり前の話ですし、この記事をきっかけに再度あなたのサイトのスピードチェックをしてみては? — SEO Japan [G+]