スタートアップのためのSEOガイド完全版

SEOブログの割にスタートアップ関連の記事も多いSEO Japanですが、今回、スタートアップのためのSEOガイドというまさにSEO Japanのための?!記事をサーチエンジンランドが書き下ろしてくれたので早速のその内容をご紹介。会社設立から人材雇用、製品開発にマーケティングまでただでさえ忙しいスタートアップ、SEO位は押さえるべき部分のみに特化して少しは作業を効率化させたいものです。ということで、早速。 — SEO Japan

スタートアップ企業は、様々な取り組みに追われ、多忙を極めている – 人材の採用、営業、経理、ペーパーワーク、開発、テスト、資金調達 – その他にもまだまだ仕事はある。スタートアップは、所属する業界に関わらず、基本的に不安定なビジネスであり、起業したばかりの頃は、多くの仕事に進路を阻まれ、前に進めないことが多い。

Focus Your SEO on Revenue and Profit

イメージ: Shutterstock

起業家は、それぞれの分野ではエキスパートである。中には、インターネットビジネスの運営を心得ている人もいる。しかし、SEOにまでは気が回らないケースが多い。ただし、ウェブサイトを最適化するために、SEO専用の予算やマーケティングチームを結成する必要はない。その代わりに、早い段階でSEOのベストプラクティスを導入しておくことで、ビジネスが成長していくにつれ、利益を得られるようになる可能性がある。

新しいウェブサイト(そして会社)を作る際は、適切にSEOを実施して、会社名を検索した人が、そのウェブサイトを見つけられるようにしてもらいたい。SEOを強化すると、製品やサービスを検索するユーザーに、競合者のサイトではなく、自分のサイトを訪問してもらえる確率は高くなる。SEOにおいて最大の成果を得るには、数ヶ月間に渡って最適化を行う必要があるため、最低限の取り組みであっととしても – 後ではなく、早い段階で始めておきたいところである。

以下に、スタートアップの新しいウェブサイトにとって、欠かせないSEOのアドバイスとタスクをまとめたチェックリストを掲載する。数分間で済むものもあれば、開発者の助けが必要なものもある – いずれにせよ、サイトに大きなメリットを与えるものばかりである。

一般的な設定

キーワードリサーチ

  • 提供する全ての製品とサービスのリストを作る。自分のウェブサイトで、どのように紹介しているのか確認してもらいたい。顧客、そして、消費者は、どのように製品やサービスに言及しているだろうか?フレーズの組み合わせを出来るだけ多く挙げていこう。
  • グーグルのキーワードプランナーの「新しいキーワードと広告グループの候補を検索」を使って、キーワードのアイデアを増やす。

Google Keyword Planner

キーワードプランナー

  • 十分な量のキーワードの組み合わせが浮かんだら、全てのキーワードをキーワードプランナーに入力して、パフォーマンスを確認する。

Google Keyword Planner

キーワードプランナー

  • 比較的ボリュームが多く(大勢のユーザーが検索している)、尚且つ、比較的入札単価の低い(競争が激しくない)フレーズを探して、候補を絞っていく。残ったフレーズがターゲットのキーワードになる。
  • ターゲットのキーワードを意味が似ているフレーズごとに分類し、それぞれのグループにウェブサイトの該当するページに振り分けていく。グループにフィットするページが見当たらないなら、今後のブログの記事で当該のキーワードを利用する計画を立てる。

オンサイトの最適化

  • ページに割り当てたターゲットのキーワードの中から1つ、または、複数のフレーズを使って、各ページに対するタイトルタグを作成する。タイトルタグ内には、会社名を盛り込むべきである。タイトルタグは60文字以内に抑える必要がある。
  • ページに割り当てたターゲットのキーワードの中から1つ、または、複数のフレーズを使って、各ページに対するメタディスクリプションを作成する。タイトルタグは155文字以内に抑える必要がある。
  • 各ページのURLにターゲットのキーワードを盛り込む。
  • ページにH1タグを一つ(のみ)与える。その際、なるべく、ターゲットのキーワードを使ってもらいたい。妥当な場合、追加のヘッダー(H2 – H6)をページの下に向かって、順番に加えていく。
  • ホームページから、ウェブサイトの全てのページにクリック三回以内でアクセスすることが出来るようにする。三回以上クリックしなければ到達出来ないページ(またはセクション全体)があるなら、メインのナビゲーションからもしくは、適切なカテゴリーリンクからリンクを張る手法を検討してもらいたい。
  • サイトの別の場所からリンクを張る際は、アンカーテキストとしてリンクを張るページに関連するターゲットのキーワードを一つ利用する。
  • ウェブサイトでイメージを多用しているなら、イメージにALTタグを加えて、ユーザーが見ている視覚的要素を検索エンジンに理解してもらう。

コンテンツ

  • サイトの全てのページに、サイト内(外)に存在しない300ワード以上のコンテンツを掲載する。
  • ドメインでブログを開設し、出来るだけ頻繁にコンテンツを配信する(最初は月に二回を目指す)。個人的に興味があり、読みたいと思う記事を作成する。
  • テキストにこだわらずに、動画、ポッドキャスト、オンラインセミナー、インフォグラフィック、イラスト、PDF等を作成する。
  • 製品やサービスに対する主なオーディエンスのタイプを2-3特定し、それぞれのタイプに対して、固有のコンテンツを作成する。オーディエンスのニーズを最も反映する、困っている点、または、特徴を特定しよう。
  • 毎回宣伝ばかりする行為を避け、オーディエンスの興味を引く関連するトピックを取り上げる。サイトに何度も戻って来てもらうことで、コンバートする確率は高くなる。

リンク構築

  • ライバルのサイトを2つ挙げ、Mozのオープンサイトエクスプローラーに入力する。「Only External」(外部サイトのみ)、を選び、「Inbound Links」(被リンク数)をチェックし、オンラインでライバルのサイトに言及しているサイトを確認する。特に信頼のできるサイトを探し、自信のある製品やサービスの宣伝を行う。

Moz Open Site Explorer

Mozのオープンサイトエクスプローラー

  • ブログの読者が多い、あるいは、ソーシャルメディアでフォロワーが多い、所謂、業界の「インフルエンサー」を特定する。接触し、コンテンツをアピールするチャンスが生まれるまで、当該の人物の動向を追う。
  • PR活動を活用し、全ての宣伝にサイトへのリンクを盛り込む。リンクのアンカーテキストに会社名を用いることを心掛けてもらいたい。
  • 関連会社、地方自治体、業界団体のウェブサイトのリスティングを使って、手っ取り早くリンクを獲得する。

上のプロセスを余裕で終えた方々へ

やる気満々の皆さんのために、ボーナスのラウンドを紹介する。

Google Authorship Markup

グーグル オーサーシップマークアップ

これで、自然なリードをもたらす準備は整ったはずである。マーケティングランドの来月のコラムでは、「スタートアップ必見 ソーシャルメディアの確認リスト」を提供する予定だ。

今回のリストに加えたいSEOのタスクがあるなら、コメント欄で発表するか、もしくは、@theashleykemper宛てにつぶやいてもらいたい。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「SEO Checklist For Startup Websites」を翻訳した内容です。

スタートアップ用に最小限の内容がまとめられた記事のはずなんですが、それでもそれなりの量でした。。。ここに書かれていることを全部実行しなくとも、各項目でできる部分から実践していくだけでも、やるとやらないでは大違いですし、時間が許す範囲でスタートアップサービスにもSEOを頑張ってほしいですね。半年、1年地道に頑張ればきっと効果を実感できるはず。 — SEO Japan [G+]

Googleハミングバードに対するSEO業界の反応

先日行われたGoogleのハミングバードアップデート、Googleの根本的なアルゴリズムを変更したGoogle的には画期的なアップデートだったようですが、SEO的には意外と影響がなかったということで、余り話題に上がっていない気もします。とはいえ、中長期的にはじんわりとSEOにも影響があるのでは?ということで、サーチエンジンランドが業界の賢者にハミングバードのSEOに与える影響についてインタビューした記事を。 — SEO Japan

google-hummingbird2-featured先週、設立後15年周年(9月27日)のイブにあたる9月26日、グーグルは、最新のアルゴリズム「ハミングバード」の発表を行った。より精度の高い結果をより早く提供することを目指したこのアルゴリズムの特徴は、セマンティック検索をベースとして構築され、個別の検索用語ではなく、ユーザーの意図に注目する点である。

当サイト、サーチエンジンランドのダニー・サリバンは、「Googleの最新アルゴリズム「ハミングバード」徹底解剖」(日本語)の中で次のように説明している:

ハミングバードは、クエリ内の各ワードに注目して、特定のワードではなく、クエリ全体 – 文全体、会話、または、意味 – を考慮する。この取り組みのゴールは、たった2、3のワードにマッチするページよりも、意味がマッチするページの方が、有益になる状態である。

ハミングバードの公式発表が行われたのは先週だったが、多くのレポートを参考にする限り、このアルゴリズムの導入は一ヶ月前に行われていたようだ。既存のアルゴリズムに対するアップデートであったペンギン(日本語)やパンダアップデートとは異なり、ハミングバードでは、アルゴリズムが完全に交換されている。グーグルの検索部門を統括するアミット・シンガル氏は、グーグルのアルゴリズムがここまで大幅に書き直されたのは、2001年以来だと弊社のダニー・サリバンに明かしていた。

ハミングバードが初めてリリースされてから一ヶ月以上が経過したことを踏まえ、私は、正式にハミングバードと言う名前が与えられた、この新アルゴリズムに関する意見を数名のSEO業界の関係者に尋ねてみた。

「ハミングバードは、検索インターフェースのレベルでグーグルのセマンティック機能を大幅に拡大する。とりわけ、次の2つの点で顕著に表れる。まず、複雑な検索クエリに対応する能力が高まり、ウェブドキュメント内のエンティティをインデックスする取り組みが改善されている。そして、検索クエリとウェブドキュメントを関係を考慮して結びつける能力が大幅に改善されている。その結果、ナレッジグラッフが大幅に強化されたはずである。」と、Google Semantic Searchの著者であり、検索エンジンの専門家として名高い、デビッド・エマーランド氏は指摘している。

また、同氏は、グーグルのセマンティック検索に対する試みにより、SEOの取り組みにメリットがもたさられると主張している:

ハミングバードの導入によって、戦略の面で、企業とウェブマスターには、多くのチャンスが到来する。現実的な観点で考えると、自分の会社のセールスポイントを特定し、それぞれの分野で認められる(信頼される)存在になることが、継続的にSEOで成功を収める上で、重要な鍵を握っていると言えるだろう。また、製品やサービスの情報に対するインデックスに関して、アルゴリズムに統合された比較の要素により、セマンティックマークアップを用いたサイトは、アドバテージを得られるようになる可能性がある。

エマーランド氏は、知名度の高いインフルエンサーによって、コンテンツが、ソーシャルネットワークを介して共有されることが重要だと力説している。「これは即座に行われるプロセスではない。インフルエンサーと関係を構築し、当該の人物のネットワークにとって価値のあるコンテンツを共有してもらうまでには、時間がかかり、相当の努力が必要とされる。手っ取り早いSEOは、確実に過去の遺物になった。」

Leap Interactiveでマーケティングおよびメディア部門を統括するクリスティー・ベルデン氏は、グーグルが、ハミングバードを介してセマンティック検索に力を入れており、SEOは今後も正しい方向に導かれると主張している。「グーグルは、以前から、セマンティック言語を話題に上げており、また、検索の裏側にある意味を理解する取り組みを行ってきた。モバイルデバイス、そして、音声で検索を行うユーザーが増えているため、ハミングバードの導入は理に叶った方針だと言えるだろう。」

また、ベルデン氏は、ハミングバードが導入されてから一ヵ月が経過するものの、クライアントの検索結果の順位に大きな変動はないと述べている。「現在の取り組みを大きく変えるつもりはない。質の高い、説得力のある、共有することが可能で、リンクを張るに値するコンテンツをどのように作るのかがポイントである。この点は、弊社のSEO戦略の中核を担いつつある。」

SEOコンサルタントであり、Archology社で重役を務めるジェニー・ハラズ氏は、検索用語のデータを「100% not provided」化する決断、そして、ハミングバードアルゴリズムとの関係を指摘している。「キーワードよりも、クエリの裏側にある意図が重視されつつある。この方針は、最近の変更の全てに反映されており、特にハミングバードでは色濃くこの狙いが表れている。キーワードのデータが提供されないことで、消費者の意図を把握する取り組みは多少難しくなるものの、積極的にソーシャルメディア等でターゲットの消費者と交流するなど、このデータの手掛かりを得る手段は他にも多くある。」

ハラズ氏は、SEO業界は、キーワードに過剰に注目し、誤った情報に焦点を絞っていると主張し、「多くのSEOの関係者は、データのリバースエンジニアリングに力を入れているが、これはあまり実用的ではない」と述べている。さらに、同氏は、SEO業界は、キーワードのデータに執着するのではなく、消費者のエンゲージメント(関与をベースとした交流)に力を入れるべきだと指摘している。

「ページの直帰率に注目し、直帰した人と検索クエリをマッチさせようとする人達は、全体像を見ていない。ビジターが利用した特定のキーワードではなく、ページで何を探していたのか方が重要である。ページは、ビジターが求めていた情報を提供していたのだろうか?直帰したため、提供していなかったはずである。それでは、ページ、もしくは、全体的なインフォメーションアーキテクチャに関して、何がいけなかったのだろうか?」

ノルウェーのMetronet社で、シニアSEOストラテジスト & パートナーとして活躍するトロンド・リンゴ氏は、ハミングバードの導入を歓迎し、2012年12月から今回のアルゴリズムのアップデートを予告していた。「ハミングバードの導入はプラスに働く。グーグルは、クエリの裏側にある意図を探し出し、解決策を提供しようと試みている。ナレッジグラッフの拡大と共に、ハミングバードがどのように進化していくのか楽しみで仕方がない。特に、モバイルデバイス経由のローカル検索において、グーグルがどのように目標を達成していくのか非常に興味深い。」

リンゴ氏は、昨年の12月にSEOnomics.comで投稿した記事の中で、信頼が最も重要になったと指摘し、「セマンティック検索の主な目的は、SERPから無関係の情報を取り除くことである」と力説していた。

この記事が投稿されたのは、ハミングバードの発表が行われる10ヶ月前であったが、このアルゴリズムのリリースを考慮すると、同氏が提供したSEOのアドバイスは、的を射ていると言えるだろう:

• 会社/事業は、セマンティック検索とナレッジグラッフを理解し、適応しなければならない。

消費者が探している答えを提供しなければならない。

意図、ニーズ、そして、問題を特定する。解決策と答えを提供する。クエリに注目し、消費者が本当に必要としている情報を特定する。クエリの裏側にいる消費者が求めているものを与える。

ハミングバードに関する詳細は、今週、ニューヨークで行われるSMX East Search Marketingで明らかにされる。このカンファレンスでは、「セマンティック検索」のみを取り上げるコーナーを用意しており、2日目には、「やがて訪れるエンティティ検索革命」セッションが予定されている(10月2日)。

とりあえずは、ハミングバードアップデートに対する次のツイートに目を通しておいてもらいたい:

 

 


この記事は、Search Engine Landに掲載された「Google’s Hummingbird Takes Flight: SEOs Give Insight On Google’s New Algorithm」を翻訳した内容です。

思った以上に深い内容でしたね。ナレッジグラフセマンティックについては既に秀逸な記事が書かれていますので興味ある方は是非ご一読を。ナレッジグラフ、セマンティックというと難しく聞こえますが、これまでも検索エンジンを意識したコーディングや検索キーワード、ユーザーを意識したライティングはSEOの常とう手段として行われてきたわけですが、今後はその対応レベルをこれまで以上に深堀する必要があるという話しです。基本に忠実に、さらに徹底的なSEOが求められる時代になりつつあります。 — SEO Japan [G+]

Googleの最新アルゴリズム「ハミングバード」徹底解剖

長期出張中の私ですが、先週Google市場、最大級のアルゴリズム更新が行われたようですね。その名も「ハミングバード」ということで、サーチエンジンランドが徹底検証したその内容をFAQ形式でわかりやすく解説。SEOというより根本的なアルゴリズム改善のようですが、果たしてSEOに与える影響は?検索の未来はどうなるのか?とりあえず読んでおきたい。 — SEO Japan

Hummingbird

グーグルが、新しいアルゴリズムを導入した。グーグルは、このシステムを用いて、検索が行われる際に全ての情報を調べ上げ、見つけた答えをユーザーに提供する。このアルゴリズムには「ハミングバード」と言う名称が与えられている。それでは、ハミングバードについて分かっていることをこれから紹介していく。

「検索アルゴリズム」とは何か?

検索アルゴリズムとは、この業界の専門用語であり、グーグルが、無数のウェブページ、そして、同社が持つその他の情報を調べ、最適な答えと思われるアイテムを返すために利用する、所謂、レシピのような存在である。

「ハミングバード」とは?

ハミングバードは、グーグルが利用している最新の検索アルゴリズムの名称である。グーグルは、ハミングバードの導入によって、より良い結果を返すことが出来ると指摘している。

ハミングバードが導入されたことにより、「ページランク」アルゴリズムは姿を消したのか?

ページランクは今も健在だ。ページランクは、ハミングバードのレシピに加えられる200点を越えるメインの「材料」の1点に過ぎない。 ハミングバードは、ページランク(ページへ向かうリンクの重要度)、そして、例えば、ページの品質、さらには、ページ上で用いられているワードを含む、様々な要素に注目する(詳細は、SEOを成功させるための周期表で確認してもらいたい)。

ハミングバードと呼ばれる所以は何か?

グーグルによると、「正確であり、早い」ことが、ハミングバードが名称として選ばれた理由のようだ。

いつ、ハミングバードは導入されたのか?今日、発動されたのか?

約一ヶ月前からハミングバードの導入は行われていたが、本日まで発表は行われなかった。

ハミングバードを例えると?

1950年代に作られた車をイメージしてもらいたい。この時代に作られた車は、優れたエンジンを搭載していても、燃料噴射ノズル等の部品がない、あるいは、無鉛燃料を利用することが出来ない等の欠点を抱えている。グーグルは、ハミングバードに切り換えることで、この古いをエンジンを捨て、新しいエンジンを搭載したのだ。また、速やかにエンジン交換が行われた結果、誰も変化に気づかなかった。

グーグルが、前回、このような形式でアルゴリズムの交換を行ったのはいつか?

グーグルの現職のスタッフでさえ、このタイプのメジャーな変更が行われた時期を思い出すのに苦労していた。2010年に導入されたカフェインアップデートは大きな変化であった。しかし、カフェインは、情報を探し出すよりも、情報を集めること(インデックス)に焦点を絞っていた。グーグルの検索部門を統括するアミット・シンガル氏は、これほどの規模でアルゴリズムが書き直されたのは、同氏がグーグルに入社した2001年以来ではないかと話していた。

ペンギン、パンダ & その他の「アップデート」は、アルゴリズムに変更を加えなかったのか?

パンダペンギン、そして、その他のアップデートは、以前のアルゴリズムのパーツに対する変更であり、アルゴリズム全体を交換するものではなかった。ここで再びエンジンの例を用いて説明していく。パンダやペンギン等のアップデートは、新しくオイルフィルターを加える、もしくは、改良されたポンプを搭載する行為に似ている。ハミングバードは、全く新しいエンジンではあるものの、ペンギンやパンダを含む以前のパーツと同じパーツを継続して利用している。

と言うことは、新しいエンジンは古いパーツを利用しているのか?

どちらとも言えない。一部のパーツは今でも問題なく動くため、捨てる理由はないが、頻繁に交換が行われるパーツもある。グーグル曰く、ハミングバードは、既存のパーツと新しいパーツで構成された新しいエンジンであり、10年前のテクノロジーを用いて10年前の需要に応えるためではなく、現在の検索の需要に応えることを念頭に置いて、整備されている。

ハミングバードはどのようなタイプの「新しい」検索に有効なのか?

この質問に対して、グーグルが示してくれた例の中で特に重要なのは、会話型検索(日本語)であった。検索が音声で行われる場合、会話形式の方が便利である。

例えば、クエリ「家から一番近いiPhone 5sの変える場所は?」に対して、従来の検索エンジンは、「買える」と「iPhone 5s」等のワードを持つページとのマッチングを最優先していた。

ハミングバードは、ワードの裏側にある意味に巧みに着目すると言われている。このアルゴリズムは、ユーザーがグーグルと場所の情報を共有している場合、家の実際の位置を特定し、「場所」が現実の店を意味していることを理解し、さらに、「iPhone 5s」が、特定の店で販売されている特定の電子機器である点を把握することが出来るようだ。このような意味を理解すると、グーグルが、ワードのマッチング以上の取り組みにステップアップする上でプラスに働く可能性がある。

とりわけ、ハミングバードは、クエリ内の各ワードに注目して、特定のワードではなく、クエリ全体 – 文全体、会話、または、意味 – を考慮する。この取り組みのゴールは、たった2、3のワードにマッチするページよりも、意味がマッチするページの方が、有益になる状態である。

グーグルは会話型検索を既に実施していると思っていたのだが…

確かに既に実施している(詳細はGoogleの新しい会話型検索サービスを徹底解明(日本語)で確認しよう)。しかし、この取り組みでは、ナレッジグラフ内の答えの提供に限定されていた。ハミングバードは、ナレッジグラフのデータに加えて、ウェブ上に存在する無数のページに対して、この意味を理解するテクノロジーを適用し、その結果、さらに質の高い結果を返すことを意図したアルゴリズムである。

本当にうまくいくのか?ビフォア & アフターで証明してもらいたい

うまくいくかどうかに関しては、何とも言えない。また、今となっては、ビフォア & アフター分析を実行することは不可能である。基本的に、「結果は改善されている」と言うグーグルの言葉を信じるしかない。それでも、グーグルは、ハミングバードが実際に結果を改善したことを証明するビフォア & アフターの例を幾つか用意している。

例えば、「acid reflux prescription」(酸 逆流 処方箋)で検索をかけると、以前のグーグルは、多くの医薬品をリストアップしていた(例えば、このページ)。このページは、必ずしもこの病気を治療する上で、とりわけ役に立つとは言い難い。しかし、グーグルによると、現在、このクエリに対する結果から、 リスティングの一つとしてこのページのように、実際に薬が必要かどうか等、治療に関する総合的な情報を得られるようになったようだ。

クエリ「pay your bills through citizens bank and trust bank」(請求書をCitizens BankとTrust Bankを介して支払う)では、かつては、Citizens Bankのホームページを返していたが、現在は、請求書の支払いに関する具体的なページを返すようになった。

また、「pizza hut calories per slice」(ピザハット スライス当たり カロリー)と言う検索に対して、グーグルは、以前、このような答えを提供していたものの、ピザハットのページではなかった。現在、グーグルは、答えとして、ピザハットのこのページを直接提供している。

ハミングバードによって、グーグルは改善されるのか?

ほぼ間違いなく改善されるだろう。残念ながら、実際に質が高くなったと言い切ることは出来ない。しかし、(本当にハミングバードが一ヶ月前から用いられていると仮定して)、グーグルの質が突然落ちたことを指摘するユーザーからのクレームが、ここ一ヶ月の間に激増していないこともまた事実である。質が落ちた場合、ユーザーはこぞって批判するが、改善された場合は、気づかないことがない。

ハミングバードはSEOを滅亡に導くのか?

グーグルは、ハミングバードの登場後も生き残る(日本語)。事実、グーグルは、SEO業者やパブリッシャーが、心配するべき、新しい、もしくは、異なる要素が増えるわけではないと明言している。アドバイスの内容は、今までと同じであり、オリジナルの、質の高いコンテンツを提供することが求められている。今まで重要であったシグナルは、今も重要である。ハミングバードは、あくまでも、グーグルが、新しく、そして、希望的観測ではあるが、より優れた仕組みで、シグナルを処理するために利用されているに過ぎない。

ハミングバードによって、グーグル経由のトラフィックは減少するのか?

ここ一ヶ月間、無事なら、ハミングバードの監視を無傷で切り抜けたことになる。一ヶ月前に発動されているため、問題を抱える可能性があるなら、既に問題に直面していなければおかしい。

全般的に、ランキングが落下したことを嘆くパブリッシャーは今のところ現れていない。この事実は、ハミングバードが、クエリごとに影響を与え、大幅なトラフィックの変動をもたらす、所謂クエリの「ヘッド」をつつくのではなく、特定の検索(とりわけ複雑な検索)の結果を改善すると言うグーグルの主張を裏付けている。

…って言うけど、実際にトラフィックが減った

ハミングバードが原因なのかもしれないが、グーグルは、常に変更、調整、そして、改善が行われているアルゴリズムのその他のパーツの影響を受けた可能性もあると強調している。はっきりしたことは分からない。

どうして、こんなことが分かるのか?

今回提供した情報の一部は、本日行われた報道向けのイベントでグーグルが公表していたものだ。また、会見の後、私はグーグルの2名の重役、アミット・シンガル氏とベン・ゴメス氏から詳しい話を聞く機会をもらった。近いうちに、この二名の重要人物との会話で知り得た変更点に関して、もう少し詳しい情報を提供したいと思う。それまでの間は、この会話を基に作成した質疑応答集が、皆さんの役に立つことを願っている。


この記事は、Search Engine Landに掲載された「FAQ: All About The New Google “Hummingbird” Algorithm」を翻訳した内容です。

9月26日に行われたこの発表、導入自体は既にされていたということですし、パンダ、ペンギンのような特定のSEO施策への耐性強化とは違う、アルゴリズムを根本的にアップデートした更新ということで、特別SEOに影響があるわけではなさそうな雰囲気です。会話型検索の強化というのは、通常のウェブ検索に慣れしたんだ私たちの大半にとっては、意味あるのか?という気がしなくもないですが、スマホやグーグルグラス等でGoogleがよりパーソナルアシスタント的に機能していく過程では重要になってくるテクノロジーでしょうし、それを先取りした実装なのかもしれません。

実際、私も海外出張中で初めての土地に来ていますが、一番便利なのがGoogle Now出勝手に表示される天気予報や地図、道のり諸々の情報だったりしますし、ここに洗練された会話型検索(もはや検索といっていいものか?)が組み込まれてこれば、さらに便利というかさらにGoogle漬けになってしまいそうです。ソーシャルではFacebookやTwitterに一歩先を行かれているGoogleですが、検索を軸に圧倒的な技術力を活かしたこれらの試みに、Googleの未来を感じます。 — SEO Japan [G+]

リンク構築2.0

すみません、9月中旬から出張が複数続いて記事の更新が全くできていませんでした。今も出張中なのですが、このペースで書かないとさぼり癖がついてしまいそうなので、頑張って復活します。。。ということで、リンク構築に関する興味深い考察を最近人気のSEOマスター、ロス・ハッジスから。 — SEO Japan


Please Exit the Gift Shop. Starring Banksy. Watch it.

これほど嫌いなSEOの専門用語には出会ったことがない。新たにブログやツイートに目を通すたびに、有料リンクコンテンツは最も重要だ、SEOの時代は終わったと告げるメッセージに遭遇する。そして、今度は“リンク構築”(一週間に5本程度のリンクを獲得する行為を表現する)だ。 それぞれの言葉が、私の心臓に次々と突き刺さり、ストレスをもたらし、そして、白髪を増やしていく。リンク構築自体は、ストレスをもたらすタイプの用語ではないが、それでも、その言われ方、そして、行われる手法を考慮する限り、この“リンク構築”と言う用語、そして、この用語がもたらす連想は、必要以上に融通の利かないイメージを作ってしまう。

リンク構築と言う言葉を聞くと、鉄の板を抱えて、ぐらつきながら階段をよじ登る、四隅にセメントを敷き詰める、釘を打ち付ける、やたらと汗をかく、弁当箱を持ち込む、仕事の悪口を言う、そして、このパターンを永遠と繰り返す、建設現場の労働者を思い描く。リンク構築は、大企業がオフィスを構える高層ビルを作る上で必要な、全く同じ、終わることない作業を、何度も重い足取りで行わなければならない「建設現場」を連想させる。そして、リンク構築は、ギークがコンピュータの前に陣取り、「送信」ボタンをクリックする、電話に出る、理由もなくSERPを行ったり来たりする、15分間をeメールのピッチの作成に費やす、理由もなくSERPを行ったり来たりする、15分間をeメールのピッチの作成に費やす、そして、構築した5本のリンクのレポートを週の終わりに提出して、満足するプロセスである。

これがリンク構築であり、つまり、私はリンク構築を行っているわけではないことになる。

ニューヨークタイムズとソーシャルブックマーキングサイトのレデイットのリンクグラフを確認してもらいたい。本気で、社内の誰かが“リンクの構築”を行っていると思うだろうか?リンクを求める営業の電話、あるいは、次から次へとeメールで宣伝を行っていたのだろうか?このような行為は行われていない。それでも、ファラオが900万人の奴隷にeメールや電話攻勢を命じたかのような勢いで“リンクが構築”されている。

私は間抜けではない。とりわけ難易度の高い分野では、手動の取り組みが必ず行われていることは分かっている。しかし、リンク構築と言う用語は、遅く、重い足取りで丘を繰り返し登り、拡大することが出来ない取り組みを連想させてしまう。これは、(リンク構築のエキスパートではなく)SEOのエキスパートとして、受け入れることの出来ないコンセプトである。例えば、食材を揃えるために彼方此方走り回っているにも関わらず、歩いていたと友達に告げられたら、私はその表現に不満を持つだろう。私がCEOであるにも関わらず、単なる社員として、ナタリー・ポートマンに紹介されたら、全く相手にされないはずである。私達 – つまり、SEO業界の関係者 – は、どれだけ質が高く、どれだけ関連性が高くても、週に5本リンクを獲得していれば問題ないと言う基準を卒業するべきである。

リンクプロスペクティング(リンク元候補の調査)

浅はかなSEOマネージャーの管理下にあり、その支援を受けている、レベルの低い「リンク構築スタッフ」は、グーグルに向かい、適当に「キーワード リンク」、「キーワード リソース」で検索を行い、連絡先のeメールアドレスを探し、キーワードを変えて、別のeメールアドレスを探し、グーグルのツールバーにランダムにクエリを入力し、ページンランクを確認し、リンクのページンランクの高さを自慢する。そして、このパターンをひたすら繰り返す。

生産率を拡大することは可能だろうか?9名の女性に妊娠してもらったら、一ヵ月後に子供は生まれるだろうか?さすがに無理がある。しかし、少なくとも疑問を投げ掛けたこと自体は評価できる。これが、優秀なSEOのエキスパートの特徴である。規模の拡大が物理的に不可能になるまで、そして、労働力を加えても、比例して成果が現れなくなる、人月の神話 – 人材を増やしても、これ以上生産力が上がらないポイント – の壁にぶち当たるまで、どのように拡大することが出来るのか、疑問を持つのだ。

15分間でeメールのピッチを作成する作業、営業電話、そして、5行のリンク構築レポートの作成が日課なら、この目標を達成することは出来ないだろう。

Dilbert

優秀なSEOのエキスパートは、SERPに目を通して、同じサイトを何度も何度も閲覧する行為に、多くの時間のロスが生じている点を理解する。優秀なSEOのエキスパートは、取り組みの規模(通常はとても大きい)を理解している。また、リンクプロスペクティングは、手作業ではなく、創造力が必要になるまで – 出来るだけ自動に近づけるべき取り組みである点を心得ている。

優秀なSEOのエキスパートは、次のような作業を介して、リンクプロスペクティングを実行する:

  • 事前に総合的な競合者分析を行う
  • 競合者をリスト内で分類して、OpenSiteExplorer.orgを使って、被リンクをエクスポートする
  • ウェブサイトに対して適用可能/関連する用語のマインドマップを作成する
  • 関係のある一連のキーワード全体で、最大で100点のグーグルの結果を入手する。当該のドメインをマスターリンクリストに追加する。
  • すべてのウェブサイトの被リンクリストを統合し、すべてのリンクを1つの文書にまとめる。
  • 今後、さらにリンクを増やし、整理することが出来るように、競合者が獲得したリンクにラベルを張る/色をつけて区別する。
  • Xmarks.comを使って、キーワード検索を行い、関連する追加のドメインをまとめて、マスターリストにリンクをエクスポートする。
  • Ontoloのリンクプロスペクティングツールを使って、各アセットのタイプに対する検索クエリを全てエクスポートする。可能な手段をすべて使って、入念に被リンクのグループを記録し、整理する。最初のマスターリンクリストの本数が、50000本を超えるまでは妥協しない。
  • OpenSiteExplorer.org からOntoloのツールを使って、関連性がある場合、もしくは、被リンクのリストにエクスポートする価値がある場合、追加のリンクをエクスポートする(Moz SERPのオーバーレイが役に立つ)。
  • DistilledMikeCPSEO用エクセルガイドを使って、重複するページとドメインを削除して、時間のロスを回避する。
  • 先程紹介した手法と同じ手法を使って、リンク先候補に対して、価値の提案をマッチさせる
  • 自力で連絡先を見つけなければならない場合、グーグルクロームを使って、効率を高める。CTRL+Fと「連絡先」検索を速やかに入手することが可能だ。ファイヤーフォックスとは異なり、クロームでは検索のツールバーは右上にあり、URLの入力から、左下までスクロールする際に発生する時間のロスを防ぐことが出来る。
  • 上の「自力で連絡先を見つけなければならない場合」の方法と同じように、OntoloのURL Reviewerを用いて、複数のURLを一度に開いて、タイムロスを最小限に抑える。

優秀なSEOのエキスパートは、ウェブは常に動いていることを理解している。優れたSEOのエキスパートは、マスターリンクリストのスタティック版を保存して、必要に応じて、オリジナルの状態で利用する。オリジナル版を色で区別すると、既に連絡を取ったリンクと重複することを恐れずに、リストを見直して、新しいリンクを加えることが出来るようになる。色で区別することで、新しいバージョンと古いバージョンを容易に見分けることが出来る。

優秀なSEOエキスパートは、被リンクリストを見直す(必要がある)際に、Yahoo! Site Explorer(閉鎖)を使って、競合者の被リンクの増加を確認する(最も新しいリンクグラフ)。この情報を使って、競合者の被リンクを見直すタイミング、徐々に上位にランクインしていくタイミング、そして、現在のリンクグラフでは、SERPを圧倒することが出来ないポイントを特定する。

優秀なSEOのエキスパートは、チャンスの中には、時間の制約を受けるものもあり、すぐに着手しなければならないことを理解している。また、グーグルアラートを当該の業界において特に関連性が高いクエリに対して設定し、eメールのアカウントに加え、「週」および「関連性高」でソートし、不要な情報を最低限に抑えている。そして、月に一度のペースでアカウントを確認し、陳腐化を防いでいる。すると、関連性の低いリンクプロスペクトに時間をかけずに済む。その結果、クエリからクエリへと移動して、生産性を落とす過ちを回避することが出来るようになる。

優秀なSEOのエキスパートは、リンク候補のウェブサイトのローディングが遅いと、集中力の損失、および、生産性の低下が発生することを理解している。 気づいていないかもしれないが、SEOの作業の中で、ウェブサイトのローディングを待つ時間が最も生産性が下がる。行動を起こすことが出来る時、そして、行動を起こしたい時の間の時間が、スタッフをソーシャルブックマーキングサイトやツイッター等に向かわせてしまう。そのため、優秀なSEOのエキスパートは、複数のタスクを同時に進行させ、生産性を最大限に高める、もしくは、出来るだけ多くのタブを開いて、生産性、そして、ページが読み込まれる間に、関係のないウェブサイトやアクティビティに手を出してしまう確率を低くしている。

リンクの獲得

レベルの低いSEOのエキスパートは – 名刺の肩書きに「リンクビルダー」と記し、作成に10分間かかるeメールを手動で送信する。eメールアドレスを手動で探し、また、独自のウェブサイトを褒めるコメントは、適切だと考えている(“素晴らしいリンクのリストですね”等)。その上、リンク構築戦略で事実上「営業電話」に当たる行為は全て実施する価値があると考える。

そんなわけはない。もっと良いオプションがあるはずであり、本気で勝ちたいなら、切り替えるべきである。妥協するのではなく、あくまでもトップを目指すべきである

Sheen SEO

優秀なSEOエージェンシーのエキスパートは、次の取り組みを通して、リンクを構築していく:

  • アマゾンのMechanical TurkElance、または、その他の安価なアウトソースサイトを使って、リンクプロスペクティングで作成したマスター被リンクリストから、連絡先のeメールアドレスリストをまとめる。
  • Textbrokerやその他のコンテンツクリエイターサイトで安価なコンテンツを購入し、質を徹底的にテストした後、マーケットの需要を考慮して、最低限の金額で、質の高いコンテンツライターと契約を結ぶ。
  • 社内の開発者と協力して、件名、ドメイン名、eメールアドレス等を自動的に入力するシステムを作り、スパムフィルターの動作を防ぎつつ、時間のロスを出来るだけ抑える。
  • 一度に多くのリンクを開く方法をSEOのスタッフに教えて、生産性の低下を防ぐ。クロームを利用し、および、イメージの読み込みを無効にして、ウェブサイトの読み込みを大幅にスピードアップする方法を伝授する。
  • eメールのテンプレート、コンテンツアウトリーチのテンプレート、ウィジェットのテプレート用のコード、インフォグラフィックのテンプレート用のコード等、様々なウェブサイトで有効なリンク獲得テンプレートを作成する。
  • 既にリンクを吸い上げた、あるいは、友好な関係の構築に成功している、注目するべきターゲットのリストを積極的に作成し、新たにリンク構築キャンペーンを始める度に見直す。
  • 初期のリンク構築の作業/ディレクトリ/クエリの一連のセットを用意し、速やかにリンク構築を実施する。最初に獲得するリンクは、シンプルなタイプのリンクが多くなる。
  • eメールの自動送信と、プロセスの90%の自動化は同じではなく、99%の価値を作り出す10%のプロセスを手動に回す。

優秀なSEOのエキスパートは、ウェブサイトごとにリンクを構築していく:

  • 優れたコンテンツアウトリーチ計画(ウィジェット、インフォグラフィック、外部サイトにホストするコンテンツ)を実行するマーケットの規模を特定する。
  • X=マーケットの規模、Y=提供するコンテンツの大体の強さとして、X=Yの状態でリンクの獲得が成功すると仮定し、Y分のXでROIを計測する。答えが1から遠く、0に近いなら、その“リンクベイト”キャンペーンを諦める。

優秀なSEOのエキスパートは、400本のeメールを連続で送信する作業は、継続することが出来ない点を心得ている。一度のバーストに対して、一定の本数を決め、 リクエストを送信する際は、この本数に固執する。すると、スタッフの疲労を軽減し、このプロセスを継続しやすくなる。管理するスタッフに関してもこの点を心得ており、各種の時間の制約を受けないタスクを与えて、モラルと生産性を最大限に高める。さらに、集中力を遮るアクティビティには、生産性を伸ばす効果がある点を理解し、外部サイトのコンテンツの閲覧やツイッターの利用を薦めて、eメールの送信作業を一時中断させる。

The pressure to build five links is on..

リンクの報告と管理

リンク構築自体は、より多くのリンクを獲得するプロセスの一部に過ぎない。リンク構築を拡大するためには、さらに多くの時間を費やす必要がある – そして、そのためには、報告および計測基準の管理に費やす時間を抑えなければならない。報告に注ぐ時間を短縮すると、代わりにリンクの獲得に多くの時間を費やすことが出来るようになる – つまり、プラスの効果をもたらすプロセスに集中することが可能になる。しかし、クライアントのために作業をしているなら、報告を怠ることは出来ない。また、たとえ自分のサイトに対して作業を行っている場合でも、効率を高めるためには、一定の測定基準を維持する必要がある。

優秀なSEOのエキスパートは、次のようにリンクの報告および管理を行う:

  • Raven SEO等の自動報告ツールを使って、リンクの報告、ランキングの報告、そして、リンクデータの報告を自動化して、リンクのデータをページごとに手動で入力する作業を回避する。
  • Raven SEOを用いて、自動生成したデータを確認し、リンクの獲得、アンカーテキスト、リンクの価値、そして、その他の要素を比較して、予算、アンカーテキストの詳細、そして、全体的なSEO戦略に適切な調整を行う。
  • Yahoo! Site Explorer(閉鎖)の最新のデータを使って、手動(または、システムを作ることが出来るなら、自動)で競合者および自分のサイトのリンクの増加を計測する。このデータを使って、競争に勝つために必要なリンクの量をその場で判断し、その後、戦略を調節する。
  • また、Yahoo! Site Explorer(または、Majestic SEO)のデータを使って、台頭しつつある競合者をチェックし、リンク構築を行う期間、そして、競合者のリンクの増減に合わせて、リンク構築の作業を増加させるタイミング、あるいは、減らすタイミングを把握する。重要な内部のページ、そして、競合者のサブページに対するリンクの量を記録する。
  • Yahoo! Site Explorerは、個別のリンクを張るドメインごとにリンクを追跡しているわけではないため、ランキングの変化が起きたタイミングを把握する必要がある。また、ランキングの変更が起きた際、競合するサイトのリンクの量を確認して、大体の「引き金点」を見出す。すると、1位をがっちりと維持している際に、リンク構築を再開しなければならない時点を特定することが可能になる。
  • Yahoo! Site Explorer(閉鎖)のデータをグラフ形式で表し、手っ取り早く分析することが出来るように工夫する。自分のサイトよりもランキングが低い競合者を月に一度評価し、強固なリンク構築を行っている“眠れる虎”を見つける。
  • 細かい点まで管理することなく、レポーティングソフトウェアで個別のユーザーアカウントを開設し、しばらく週に一度のペースで評価を行って、従業員の生産性を検証する。信頼が深まったら、月に一度のペースに変える。

優秀なSEOのエキスパートは、会議が生産性を落とすことが多い点を心得ている。報告および会議の時間を減らすために努力しつつ、総合的なSEO戦略に対して提供されたデータを優れた仲間や上司に評価してもらうことで得られるメリット、そして、全体的なモチベーションおよびモラルに対するその他のメリットを維持する。

リンク構築を卒業し、拡大する取り組みを

週に5本のリンクを得る戦略が、効果的ではないことに気づいた状態で、このパラグラフを読んでいることを私は期待している。私は何度も「拡大」と言う用語を使い、オフィスで冗談のネタにされているが、うまくいっている兆候だと確信している。日頃から「拡大」と言う用語が頻繁に出てこないようでは、次の3つの問題の一つに直面することになる:

  • A) 収益の面で効率がよくない
  • B) 上位にランクインすることが出来ない
  • C) AとBの双方

プログラマーが裕福なのは、拡大を常に心掛けているからだ。拡大を意識しないことが、SEO業界の平均的な専門家が、裕福ではない理由である。 「リンク構築」と言う考えを完全に捨てろと主張しているのではない。事実、この取り組みをうまく表現する用語が思い浮かばない。また、リンク構築と言う用語を変えようとするのは、バチカン市国に「ロス(私)の田舎のお城」と名前を変えるよう要請するようなものだからだ。

さすがに無理がある。

しかし、個人的には、週に5本が十分な量である点を受け入れることを止め、リンク構築が“手動”から、より優れた、拡大することが可能な、そして、遥かに多くの利益をもたらす取り組みへと進化させるべきでと考えている。


この記事は、Siege Mediaに掲載された「Please Exit The Link Building」を翻訳した内容です。

原題は「リンク構築を脱却せよ」という意味だったのですが、内容的にはリンク構築をより高いレベルで行う方法について書かれていたのであえてリンク構築2.0としてみました。「***2.0」は既に言い古された言い方ではありますが、英語圏では未だに普通に使うこともあるようなので。

内容自体は極めて真っ当で参考になる点も多い記事だったと思います。というか、そもそもここまでプロアクティブなリンク構築作業を行っている日本のサイトは皆無に近いと思いますし、ここに書かれている手法の一部だけでも取り入れてみるだけでも、あなたのリンク構築がかなりパワーアップするかもしれません。 — SEO Japan [G+]

Googleのリンクの否認ツールに関するデマを一刀両断

日本でもGoogleのリンクペナルティが普通に発動されるようになった今日、過去の負のリンク遺産の処理とペナルティ解除に頭を悩ませているウェブマスターさんも多いと思います。その際、課題となるのが、どうしても削除できない一部のリンク群。Googleもリンクの否認ツールを用意して対処できるようにはしてくれていますが、否認ツールで削除できないリンクを提出すれば即ペナルティ解除というわけにもいかないのが現実です。今回はGoogleの担当者自らがリンクの否認ツールに関して語ってくれた様々な情報をまとめた記事をサーチエンジンランドから。否認ツールを使う前に一読しておきたい内容です。 — SEO Japan

google-webmaster-hangout

ウェブマスター向けのグーグルハングアウト

先日行われたウェブマスター向けのグーグルハングアウト・オンエア(動画)では、リンクの否認、ペナルティ等を分かりやすく説明する試みが行われた。この投稿では、グーグルのウェブマスタートレンドアナリストであり、世界中のウェブマスターの心強い味方である、 ジョン・ミューラー氏の公式のコメントを紹介していく。

背景

先月、私は、技術者のようにリンクを整理する5つのステップを発表した。この投稿には、多くの興味深いコメントが寄せられ、今月は、不明な点を幾つか解説していく計画を立てていた。

この記事では、技術者のように、チェックするべきページの徹底的なリストを作成する方法に焦点を絞っていた。リンクの削除に関しては、記事の最後に、ドメインのオーナーに連絡を取り、リンクを削除してもらう、または、nofollowにしてもらうと述べる程度であった。

実際に適切な連絡先の情報を手に入れ、ドメインのオーナーに連絡する価値があると思うなら、その通りにしてもらって構わない。グーグルは、ウェブマスターが、粗悪なリンクを一掃するために努力していることを知りたがっている

とは言ったものの、削除したいリンクの大半は、次の3つのカテゴリーのうちの一つに当てはまるのではないだろうか:

  1. サイトのオーナー、または、自分が料金を支払った。 このタイプのリンクは対応がしやすい – 料金の支払いをやめて、リンクの掲載を中止するか、リンクの掲載が終わるまで待つ、もしくは、サイトのオーナーに連絡を取り、リンクを削除、または、nofollowにしてもらうかのいずれかを選択する。
  2. アーティクルディレクトリ(あるいは、リンクディレクトリ、プレスリリースのディレクトリ、または、その他の何らかのタイプのディレクトリ)。 通常、「削除」するためのリンクが投稿ページ、または、リンク自体に用意されている。ここでは、リンクが削除されることを友好的に伝えるページに導かれるか、あるいは、「リンクを削除してもらいたいなら、ペイパルで200ドルの処理費用を払え」と要求するページにリダイレクトされることになる。どちらの場合でも、スプレッドシートに記録しておくべきである。
  3. ブログのスパム、コメントのスパム、フォーラムのスパム、あるいは、料金を支払って投稿してもらった、何かしらのガラクタ。99%の確率で、リンクの否認ツールを利用する以外に選択肢はない。なぜなら、連絡先の情報も知らなければ、連絡を取ったところで、誰にも対応してもらえない、もしくは、削除料金を要求されるだけだからだ。繰り返すが、相手の対応をスプレッドシートに記録しておこう。

リンクの削除に関して、よくある思い込み

まずは、ウェブマスターハングアウトで判明した点を挙げていく。幸いにも私は10名のメインの参加者の一人に選ばれ、前回の記事を投稿した後に寄せられた疑問をミューラー氏に直接ぶつけることが出来た。

一般的な見解: 再審査リクエストを複数行うと、SERPに再び含めてもらえる確率は下がる。

不正解。ジョン・ミュラー氏は、各リクエストは、個別に審査され、複数回リクエストを行うと、イメージが悪くなると言う噂を一蹴した。

一般的な見解: グーグルはウェブマスターが実施したリンクの否認の記録を保存している。 

不正解。グーグルは、記録を破棄している。ミューラー氏は、リンク否認のファイルを投稿する度に、当該のリンクに対して、新たに対応すると指摘している。そのため、既に否認したリンクを再び削除する必要はない。

一般的な見解: ドメイン全体ではなく、ドメインの特定のページのみ否認するべきである。

困難なケース。ドメイン全体を否認すると、信頼性のあるリンクまで失う可能性があるが、一つのページを否認するだけでは、十分ではない可能性がある。このようなページは、サイトの別の場所で重複していることが多い。個人的には、site: コマンドを使って、リンクの全てのコピーを検索することを薦める。以下に例を挙げる:

site:website.com "anchor text"

(ここでは、「anchor text」はサイトにリンクを張る特定のテキストが該当する)

また、同じ方法でブランド(会社)の名前を検索して、漏れなくページを抽出するべきである。リンクがコメントスパム、あるいは、妥当なサイトのリンクではないなら、ドメイン全体を否認する方が無難かもしれない。

一般的な見解: テキストベースの否認ファイルのみを投稿するべきである。

ケースバイケース。ジョン・ミューラー氏は、グーグルのスプレッドシート、もしくは、リンク先に連絡を取る努力(あるいは、リンク先の連絡情報を見つけることに成功)を示す同様のアイテムにリンクを張ると、有効だと指摘している。

サンプルのスプレッドシートが必要なら、Archologyで私が利用しているスプレッドシートを参考にしてもらいたい – ただし、グーグルに投稿する前に会社の名前を削除してもらう必要がある ;-)

一般的な見解: リンクの複数のソースを確認する必要がある — グーグルウェブマスターツールだけでは不十分である。

どちらとも言えない。ミューラー氏は、目安としてウェブマスターツールのリンクに焦点を絞るべきだと答えていたが、リンクがサイトに向かうパターンが判明したら、調査を進めて、同じパターンを持つリンクが他にあるかチェックするべきである。

また、同氏は、再審査リクエストに対して、グーグルが提供する例を少し詳しく掘り下げることがあると述べていた – ウェブマスターが良いと思っていたことが、実際には認められていない点を示すためだ。

ミューラー氏の回答を参考にする限り、特定のページ、または、ページのセクションに向かうリンクを探す取り組みは、ウェブマスターにプラスに働くと言えるだろう。

一般的な見解: プレスリリースに単一のhttpのリンクを残しても問題はない。

不正解。ジョン・ミューラー氏は、安全を期するため、nofollow処理することを勧めていた。私は「グーグルはプレスリリースを特定して、価値を減じることは出来ないのか?」と尋ねた。

すると、ミューラー氏からは、アフィリエイトリンクを削除する試みを既に行っているように、この取り組みも既に行っているものの、アルゴリズムが機能せずに、リンクを取り逃がすことがあると言う答えが返ってきた。さらに、同氏は、プレスリリース内で過剰にアンカーテキストを利用しているパターンが見受けられると、グーグルはそのパターンに気づき、対応をウェブマスターに求めると述べていた。

私は粘り、「例えば、2008年のように、古いリンクの場合は、グーグルはどのように対処するのか?」と尋ねた。すると、予想通り、リンクには賞味期限がない、と言う答えが返ってきた。最後に、コンテンツをいつか否認することが出来るようになるのか訊いてみた。例えば、大量のアンカーテキストが詰め込まれ、無数のサイトに配信されているプレスリリースを持っている場合、このプレスリリースを丸々否認することが出来る日はやって来るのだろうか?

ミューラー氏は、この質問に関心を持ち、メモに取っていた。そのため、いつかこの機能が提供されることを願おう。

一般的な見解: robots.txtを使ってページをブロックすると、被リンクの価値をゼロにすることが出来る。

不正解。ミューラー氏は、検索エンジンは、ブロックされたページをクロールすることが出来ないため、インデックスを拒否しているかどうかを把握することが出来ないと指摘していた。同氏曰く、ページからのリンクの価値を削除したいなら、当該のページの冒頭にrobots=”noindex”を盛り込むと良いようだ… しかし、このチャットの終了後、このnoindexでは、ページランクの流はブロック“されない”旨を記すメモが加えられていた。初耳であった。

経験上、ページランクの流れを止めるには、当該のページをどうでもいい別のドメインに301リダイレクトし、次にメインのサイトの別のページに302で戻す方法が有効だと思う。スマートな解決策ではないが、アフィリエイトのリンク等、仲介するページに向かう大量のリンクを抱えているなら、この方法は有効に働くのではないだろうか。

もっと良いアイデアを知っているなら、コメント欄で教えてもらいたい。

実際にハングアウトを視聴する

このハングアウトでは、リンク以外にも多くのトピックが取り上げられていた。そのため、実際に動画を全て視聴することを薦める(有意義な一時間を過ごすことが出来るだろう)。あるいは、今後のハングアウトに参加することも出来る。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「Demystifying Link Disavowals, Penalties & More」を翻訳した内容です。

実際に否認ツールでリンクリストを提出する際に、具体的に参考になるアドバイスは限られていましたが、少なくともGoogleの対応についてある程度知識が深まる内容でした。妙なデマに惑わされず、ある種の安心感と信念を持って、地道にペナルティ解除に向けて取り組むしかありません。– SEO Japan [G+]

レスポンシブWebデザインがユーザー体験に最適化できていない5つの実例

スマホの普及で導入サイトも増えているレスポンシブWebデザイン。作り手からするとまだまだ目新しいですし、ブラウザサイズを変えてサクッとデザインが柔軟に変わるのはそれなりに自己満足度も高く時代の最先端を走っている気分になれる仕組みではあります。一方、デバイスやスクリーンサイズにデザインが最適化できたとしても、それがそのデバイスを使っているユーザーに本当に最適化できているかというと、全くの別問題。Google先生も大推奨中ということで、今後さらに導入が進んでいくと思われるレスポンシブWebデザインですが、今回はそんなレスポンシブWebデザインが抱えるユーザー視点の問題点や課題を真剣に考えてみた記事をご紹介。流行だから、スマホが普及しているからと、安易なレスポンシブWebデザイン導入を決断する前に一読する価値ありです。 — SEO Japan

レスポンシブウェブデザインに関しては、意見が大きく分かれる。先月投稿した、レスポンシブウェブザインの問題点に関するコラムに対して、賛成意見、そして、反対意見を発表してくれた方々に、この場を借りて感謝の意を表したい。既に大半の反対意見には回答したものの、グーグルのジョン・ミューラー氏から最近寄せれたコメントは、注目に値すると思ったので、紹介させてもらう。

ルーク・ウロブルウスキ氏が、グーグル+で発表した、レスポンシブウェブデザインを導入したことで成功を収めたサイトの成果をミューラー氏が取り上げた際、私はレスポンシブウェブデザインが有効に働くサイトもあれば、働かないサイトもあることをグーグル、そして、レスポンシブウェブデザインの支持者に伝えようとした。

john mueller responsive googleplus

先月の投稿で、私はグーグルの公式の意見を求めていたこともあり、これは願ってもないフィードバックであった。また、グーグルのスタッフからの今回の意見は、レスポンシブウェブデザインが、ユーザーにとって問題を引き起こす可能性があり、万能ではない点を示唆する効果があると考えている。

それでは、ジョン・ミューラー氏が指摘していたように、そして、その他の大勢のレスポンシブウェブデザインの支持者が考えているように、このような極端な例は、大半のサイトには当てはまらないのだろうか?データをチェックし、確認していこう。

SEOの担当者、そして、ウェブマスターにとって残念なのは、この点を確認する上で役に立つであろう、インフォメーションアーキテクチャが、消費者の要望と一致していないサイトが多数網羅されたリストが存在しないことだ。

そのため、次の2点の証明を行うため、私は.Netマガジンのトップ 25レスポンシブウェブサイトリスト 2012年版から、Starbucks.com、Microsoft.com、そして、Disney.comを例として採用した。未来志向のウェブデザインの鏡として、この3つのサイトが相応しいなら、私の指摘が特別なケースではないこと、そして、すぐに解決する必要がある極端な問題ではないことの証明にはなるはずである。

1. 多くの上位のレスポンシブサイトはインフォメーションアーキテクチャがお粗末

先月のコラムで、私はMerecedsのモバイルサイトで行った調査に言及した。この調査により、トランスコード化されたページが、モバイルの検索結果に表示されなくなる、サイトアーキテクチャの問題が見つかった。同じコンテンツがレスポンシブウェブデザインでも用いられているため、この問題は、旧式のサイトを無理やりレスポンシブデザインに変えたサイトにも存在するはずである。やはり、Microsoft、Disney、そして、Starbucksは、レスポンシブへのデザイン変更(大半の場合、旧式のサイトをそのままレスポンシブ化している)では解決することが出来ないインフォメーションアーキテクチャの問題を抱えていた。

例えば、Starbucksは、検索のデータが示す通り、ユーザーの多くは、とりわけモバイルデバイスでサイトを閲覧している場合、地域の店舗を探していることが多く、ウェブサイトのローカルの領域を強調する取り組みを巧みに行っていると言えるだろう。

Starbucks does a nice job at highlighting the Store Locator given their users' tendency to search for a store near them, but their information architecture has other problems when it comes to searchers.

ユーザーが近場の店舗を探している傾向がある点を考慮すると、スターバックスは、店舗検索機能を巧みに強調しているものの、検索に関して、このサイトのインフォメーションアーキテクチャには、その他の問題点が見られた。

ウェブサイトのその他のセクションは、検索エンジンのユーザー、そして、サイトのユーザーにとって、使いやすいと言えるだろう。しかし、下のデータにも表れているように、検索量を基にした優先順位は、モバイルサイトの各機能と一致しているとは言い難い結果となっている。

Comparing Starbucks responsive site architecture to searcher interest reveals potentially profitable gaps.

スターバックスのレスポンシブサイトのアーキテクチャと検索エンジンのユーザーの関心を比較すると、収益面に影響を与える可能性があるギャップの存在に気づく。

このチャートのメソッドに関しては、詳細をマーケティングランドで以前説明したが、簡単に言うと、一ヵ月の検索回数の合計が1000回を超えるブランドのキーワードを分類して、サイトの機能と比べている。

検索の意図が、ウェブサイトの特徴と一致しているケースもあるが、大方、一致していない。例えば、ホームページにクーポンは掲載されていないが、検索を介して、期限切れのクーポンを見つけることが出来る。また、店舗とクーポンを除けば、スターバックスの仕事に関する情報は、最もユーザーに求められているものの、この情報は、ページの一番下に置かれている。サイトに掲載する情報を決める際には、検索量以外にも様々な要因を考慮しているはずであり、ビジネス上の理由で、他の機能を優先しているのだとは思うが、カロリー計算機や推奨する注文等の情報が、このビジネス上の理由に当たるとは私には思えない。

先月のコラムでも指摘した通り、このような問題は、レスポンシブかどうかに関係なく、しっかりとデザイン変更を行うことで、解決できる可能性がある。いずれにせよ、レスポンシブサイトは、検索エンジンの視界から消してしまう、インフォメーションアーキテクチャの問題を抱えていることが多い。そのため、「レスポンシブデザインがSEOに向いている」と主張しているものの、実際に大きなインフォメーションアーキテクチャの問題を抱えているなら、矛盾していると言わざるを得ない。

MicrosoftとDisneyのサイトに対しては同じ調査を行っていないものの、検索の行動とインフォメーションアーキテクチャを一致させる取り組みに関しては、難しい課題を抱えているはずである。

例えば、Disneyは、ゲームのコンセプトに関して、改善が必要である。先日の投資家向けのイベントで判明したように、Disneyのビジネスにとって、ゲームは重要なカギを握っている。しかし、サイトを見る限り、その点は伝わってこない。検索エンジンで[disney games]と入力すると、このページに導かれる。このページで、Disneyは、Mickey Delivery DashやPhineas and Ferb等のゲームで遊ぶよう促している:

Disney's responsive site entices mobile users to play a game that they have no chance of playing.

Disneyのレスポンシブサイトは、遊ぶことが出来ないゲームを遊ぶようユーザーに呼び掛けている。

しかし、実際にゲームで遊ぼうとすると、次のようなメッセージが表示される:

For a site to be responsive, it should work everywhere. Not so for this critically-acclaimed responsive site.

レスポンシブサイトなら、どんなデバイスでも利用することが出来るとユーザーは期待する。この評価の高いレスポンシブサイトでは、ユーザーの期待は裏切られる。

また、次のような現象に遭遇することもある:

Sometimes responsive sites provide less than responsive user experiences.

レスポンシブサイトは、レスポンシブとは言い難いユーザーエクスペリエンスを提供することがある。

Gamesページに戻り、フッターのOnline Gamesをクリックすると、ページのトップにリダイレクトされ、フッターのVideo Gamesをクリックすると、次の画面が表示される:

Our quest to play games on a responsive site ends with this, as would quests from the majority of mobile searchers.

レスポンシブサイトでゲームを遊ぶ試みは、この画面で終了した。モバイル検索経由の試みの大半もこの画面から先には進めないだろう。

携帯電話ではゲームを遊ぶことは出来ないのだろうか?

これは、受賞経験のある、時代の最先端を行くウェブサイトである。しかし、グーグル、ビング、あるいは、ヤフー!で、毎月3万回行われる[Disney games]の検索を実際に実行したことがある人は、そこまで高く評価しないはずだ。また、どのプラットフォームを利用しているにせよ、ニーズに対してレスポンシブなサイトだとは思えない。

Microsoftでもユーザーは同じような状況に直面する。同サイトで、人気の高いカテゴリーの一つに挙げられるDownloadsにアクセスしても、実際に何かをクリックすることが出来るなどと期待するべきではない。右上にある3本の線と3つの点がメニューだと気付いたら、次のようにDownloadsのカテゴリーが表示される:

Microsoft's responsive web site offers free downloads to mobile searchers that mobile searchers can never receive.

Microsoftのレスポンシブサイトは、モバイルのユーザーが利用することが出来ない無料のダウンロード製品をモバイルユーザーに提供している。

Windowsのダウンロードは、私が持つアンドロイドの電話機とは関係がないため、Free downloadsをクリックしたところ、次のページに導かれた:

This page was presented when I clicked on Free downloads in my mobile web browser, not my PC.

このページは、PCではなく、モバイルウェブブラウザでFree downloadsをクリックした際に表示された。

私のPCを最大限に活用するとは、何のことだろうか?そもそも、なぜPCが出てくるのだろうか?私は無料のダウンロード製品が手に入るページにアクセスしているつもりであった。自分のニーズに対して、レスポンシブなサイトだと思っていたが、私は何か勘違いしていたのだろうか?質の低いユーザーエクスペリエンス、そして、プラットフォームを限定しているものの、レスポンシブと偽る行為は、検索エンジンのユーザーにとっても、SEOにとっても、マイナスである。

このように、レスポンシブ化した、3つの大きな企業のウェブサイトを詳しく調べ、3つ全てのウェブサイトに問題があることに気づいた。よって、このインフォメーションアーキテクチャの問題は、一部の専門家の推測よりも、幅広く浸透しているのではないかと言う結論に至った。

また、これでもレスポンシブウェブデザインはSEOに最適だと主張する人達には、今回取り上げた3つのサイトが、高い評価を受けているサイトであるものの、検索エンジンのユーザーのユーザーエクスペリエンス、そして、SEOには、何のメリットもない点を伝えておきたい。

2. 上位のレスポンシブウェブサイトは、モバイルならではのキーワードを用いていない

モバイルデバイスにユーザーが入力している新しいキーワードを活用する方法を誰もが理解しているわけではない。これは割と新しいトリックであれ、まだ、活かして切れていないサイトがあっても不思議ではない。このテーマの知識が浅い方々のために、私は詳細な案内書を提供している。

この取り組みのメリットを理解しているなら、主にモバイルデバイスで検索されるStarbucksのキーワードを見れば、すぐに機会を特定することが出来るだろう。マスターキーワードのリストをモバイルの比率を基にまとめ、モバイルデバイス経由が70%を上回っているキーワードに注目すると、大勢のユーザーが移動中にStarbucksのサイトにアクセスしていることが分かる。

Amazingly 46 people a month ask their desktop computer to help navigate them to a Starbucks.

なんと、デスクトップのコンピュータを使って、Starbucksへのルートを探していたユーザーは一ヵ月にたった46人であった。

地域で店を経営する多くの会社は、リードを店に導くことで、収益の大半を得ていると指摘している。そのため、Starbucksの店舗を探す、このようなキーワードは、ウェブサイトが得られるリードの中で、特に価値が高いと言えるのではないだろうか。 しかし、レスポンシブデザインでは、チャンスを逃してしまう。

この検索の多くは、グーグルのルートを紹介するページに導かれ、Starbucksのウェブサイトは蚊帳の外である。[drive thru starbucks]のようにルートが表示されないケースもある:

Some queries with local intent don't include maps in mobile results.

ローカルの意図を持つ一部のクエリでは、モバイルの結果に地図が盛り込まれていないものもある。

もっとひどいのは、[24 hour starbucks]のように誤った情報が表示されるケースだ(私はシカゴ在住) :

Not going to walk to San Francisco from Chicago for a latte, Google.

ラテを飲むために、さすがにサンフランシスコまで歩くつもりはない。

Starbucksは、このような情報を求めているユーザーに対して、もっと有益なユーザーエクスペリエンスを提供して、価値の高いリードをウェブサイトにもたらすことが出来るはずである。

それでは、実際に何をすればいいのだろうか?24時間営業の店舗とドライブスルー可能な店舗を別々のリストで紹介する、クロール可能なページを作成する手が考えられる。現在、このサイトは、検索の絞り込みに依存しているため(クロール不可。問題 No.1を参照)、このようなページは提供されていない。このページを作って、HTML5を使って、電話機のGPSを活用すると、クリックしてページに導かれると、すぐにもっとも近い店舗をユーザーに伝えることが出来るようになる。

ところが現実のサイトでは、Starbucksは、検索エンジンのユーザーをStore Locatorページに送り、このページでユーザーは小さな漏斗のような形の記号が絞り込みを行うためのアイコンであることを学び、興味を持っているStarbucksの店舗のタイプを選択し、Applyをクリックする必要がある。このボタンをクリックすると、地図に戻り、ズームインするか、範囲のボタンをヒットして、自分の場所を探し出し、近場の店舗を表示してもらうことを願うしかない。

しかし、Starbucksは、1度のクリックでユーザーが求めている情報を与えることが出来るにも関わらず、なぜ、最も価値の高いリードに、このようなややこしいプロセスを踏ませているのだろうか?レスポンシブデザインで同じ機能を提供することが出来るかもしれないが、レスポンシブウェブデザインの支持者は、モバイルのコンテキストには反対の立場を取っていることが多い。また、そもそも、このようなチャンスは求めていないため、デザインには反映されない可能性が高い。優秀なSEOのエキスパートは、同じ過ちを回避し、自然な検索から、コンバートしやすいトラフィックをより多く獲得するだろう。

Disneyもまた、ゲーム、アプリ、そして、壁紙等のモバイルコンテンツで、この類のキーワードを持っている。Disneyは、モバイルアプリをサイトにリストアップしているものの、上の画像をご覧になれば分かるように、キーワード「mobile games」は言及されておらず、また、レスポンシブウェブサイトには、mobile wallpaperを掲載せず、また、wallpaper自体を用意していないように見える。 gamesやwallpaperに対する検索は非常に多いものの、Disneyのこの“レスポンシブ”なサイトでは、全く取り上げられていないため、SEOの大失敗だと言わざるを得ない。

Non-branded games searches have as much search volume on mobile devices as many of Disney's most popular brands.

会社名なしの[games]のモバイルデバイスでの検索量は、Disneyの最も人気の高い作品と同じぐらい多い。

この3つのサイトには、モバイルのキーワードだけでなく、モバイルデバイスを利用する状況では、意味がなくなりつつあるキーワードに関しても、問題が見受けられる。DisneyとMicrosoftのサイトの例を見れば一目瞭然である。しかし、Starbucksもまたコンテンツの適応の問題を抱えている。

[Starbucks coupons]をモバイルデバイスで検索すると(1ヶ月に8500回検索されている)、求めている情報を得られないだけでなく(何かしらビジネス上の理由があるかもしれない)、Print Coupon Buttonをクリックして、存在しないクーポンを取得するよう求められるのだ:

 

Starbucks responsive web site asks you to print out a coupon from your mobile phone, and gives you how-to instructions that you'll never be able to follow.

Starbucksのレスポンシブウェブサイトは、携帯電話からクーポンを取得するようユーザーを促し、絶対に従うことが出来ない方法を説明している。

これは泣きっ面に蜂のようなものである。コンテンツの意味、そして、クエリの関連性を変えてしまう点を理解せずに、サイトをレスポンシブウェブデザインにしていることが原因である。

レスポンシブウェブデザインを採用することで、この問題を全て解決することは出来るのだろうか?その可能性はある。しかし、レスポンシブウェブのデザイナーとSEOは、現在この問題の解決には関心を寄せていないため、エッジケースとして扱われる可能性がある。

3. レスポンシブウェブサイトは遅い

前回のコラムへのコメントで指摘して頂いたように、確かに、レスポンシブウェブサイトは、適切にデザインすれば、スピーディーに動く。その通りである。しかし、問題は、完全に矛盾しているわけではないにせよ、「遅いレスポンシブウェブサイト」は、エッジケースではない点である。

この点を指摘しているのは私だけではない。事実、この点に反論した人達の多くが、これはレスポンシブウェブではなく、ディベロッパーに責任があると主張していた。しかし、SEOの担当者としては、責任の所在は重要ではない。遅いことが問題なのだ。レスポンシブウェブサイトが遅いなら、実際にその多くは遅いのだが、検索エンジン経由のユーザー、そして、SEOにとってマイナスに働く。

コメント欄でも指摘したよううに、この問題は様々なサイトで発生している。Akamaiに所属し、パフォーマンスを熟知するガイ・ポドジャーニー氏は、「この事実を無視することは出来ない。理想的だと思われたレスポンシブウェブサイトは、 モバイル専用のサイトよりも遅い。と言うよりも、平均的なレスポンシブウェブサイトは、平均的なモバイルサイトよりも遅いと言った方が正確かもしれない」と指摘している。要するに、遅いレスポンシブサイトは、珍しくはないと言うことだ。

4. レスポンシブウェブサイトはグローバルモバイルトラフィックの10%以上を失っている

マーケッターなら、15800万人のビジターと980億のページビューに是が非でも接触したいと望むはずだ。これは、2012年の12月の時点で、Operaのブラウザーを利用するフィーチャーフォンのユーザーのデータである。

モバイルウェブの現状レポートの最新版によると、Operaは、Opera MobileまたはOpera Miniのいずれかのブラウザーから、2億2900万人のビジターと1430億のページビューを得ているようだ。また、同社は、ビジターの68%がスマートフォン以外のデバイスから寄せられていると報告している。計算すると、上のスタッツになる。

Operaが15.4%のマーケットシェアを獲得している点を考慮すると、世界のモバイルウェブマーケットのシェアの10.63%に当たると推定される。

世界のモバイルウェブのトラフィックの10%を、無視しても構わないと判断することも出来るが、異常値と言うには、あまりにも莫大なトラフィックである。

先月、コメントで指摘して頂いたように、まずは、モバイルサイトを作り、その後、レスポンシブデザインを使って、フィーチャーフォンのユーザーに対応する手が考えられる。しかし、この方法には次の2点の問題がある:

  • グーグルはこの手法を薦めていない。グーグルは、サイトを分けるか、フィーチャーフォンとスマートフォン上で有効なサイトには、ダイナミックサービングのみを推奨している。
  • 最初にモバイルを構築する方法は確かに未来志向だが、既存の大勢の主要なデスクトップのユーザーにそっぽを向かれてしまう。

Weather Channelのように、モバイルを優先しそうな企業の多くにとっては、あと数年間は、この戦略は現実的には映らないだろう

5. 全てのレスポンシブサイトはモバイルのみの機能でユーザーのひんしゅくを買う

レスポンシブデザインは、対応するデバイスに応じた機能を追加することではなく、同じコンテンツを全てのプラットフォームで提供することを信条としているため、この問題は極端なケースに当たらないはずである。

先月のコラムでも説明したように、マーケッターは、GPS、カメラ、加速度計等、モバイルに特化した機能を使って、ネイティブアプリに匹敵しつつ、プラットフォームを問わずに全てのユーザーに見てもらい、楽しんでもらう、アプリのようなユーザーエクスペリエンスをウェブで提供することが出来る。

この取り組みを行うことなく、なぜサイトをレスポンシブ化しよとするのか、いまだに理解不能である。ONE ウェブは、滑り出しとしては悪くないが、それだけ満足しないでもらいたい。

私は、先月、Thunder Techのユーザーエクスペリエンスチームとブログで話しをする機会があったが、同チームのメンバーは、このようなユーザーエクスペリエンスは、ウェブサイトではなく、アプリのものだと主張していた。しかし、この点に関しては、ユーザーエクスペリエンスの担当者とSEOの担当者の間では、意見が分かれる。SEOのスタッフは、ユーザーが魅力的だと思えるユーザーエクスペリエンスを出来るだけ明白に表現することにこだわる。また、ネイティブアプリとは異なり、ウェブは、100%の接触範囲を持つことも大きな意味を持っている。

HTML5を使えば、アプリのようなユーザーエクスペリエンスをウェブ上で提供しやすくなり、このタイプのコンテンツは、理想的なトラフィックをサイトにもたらすだけでなく、リンク、共有、そして、グーグルがサイトの信頼性を判断するために利用する、その他の全てのシグナルを入手することが出来るかもしれない。サイトをレスポンシブにするために、このようなシグナルを諦めるようでは、SEOの名が泣く。

ウェブでアプリのようなユーザーエクスペリエンスを作る取り組みが、どれほど浸透しているのかは知らないが、ダイナミックサービングを介して、アプリのようなモバイルウェブエクスペリエンスを構築した後、パフォーマンスが改善したサイトの例を見つけた。 このサイトの方針を採用する会社が増えることを願っている。

According to Nielsen and Business Insider, consumers spend more time in apps than on the mobile web. While games and social networking are part of the story, how much are webmasters to blame for not making web experiences more app-like?

NielsenとBusiness Insiderによると、消費者はモバイルウェブよりも、アプリでより多くの時間を過ごしているようだ。ゲームやソーシャルネットワークも含まれているが、ウェブのユーザーエクスペリエンスをアプリ化、そして、改善することに二の足を踏むウェブマスターは、どれぐらいの責任を負っているのだろうか?

この記事を最後まで読んだなら、先月、私が発見した5つのポイントが、事実であり、極端なケースではないことは、様々な例を通して、理解してもらえたのではないだろう。それでも、グーグルには、稀なケースと見なされるかもしれないが、検索ユーザーが立ち往生し、混乱し、そして、コンバートすることに失敗しているなら、その問題を解決することで、ビジネス、そして、ユーザーの双方にプラスに働くはずである。

そのため、レスポンシブウェブデザインは、必ずSEOに良い影響を与えると主張する人に出会ったら、実際には、多くのレスポンシブなサイト(その一部は、評価が高い)が、全くSEOの役に立っていないことを思い出してもらいたい。レスポンシブウェブデザインだけで、満足するべきではないのだ。

まとめ

レスポンシブウェブサイトが、SEOを含めた多くの問題を抱えているケースが目立つ。その理由を挙げていく:

  • 複数の評判のとても良いレスポンシブなウェブサイトは、インフォメーションアーキテクチャの大きな問題を抱えており、検索エンジン経由のビジターは、タスクを完了することが出来ず、また、企業はリードから利益を得ることに失敗している。
  • レスポンシブデザインを採用したウェブサイトは、モバイルの検索ユーザーにとって特に重要なキーワードを見逃しており、企業、そして、ユーザーの双方が損害を被っている。
  • レスポンシブサイトは、読み込みにかかる時間を短縮するポテンシャルを持っているが、大半のサイトは、このポテンシャルを活かしていない。
  • フィーチャーフォンのトラフィックを獲得する件において、グーグルは、レスポンシブデザインを推奨していない。ちなみに、フィーチャーフォンユーザーのトラフィックは、モバイルのウェブトラフィック全体の10%を超える。
  • レスポンシブサイトは、基本的に複数のプラットフォームに対応していないコンテンツには、対処することが出来ない。そして、このような複数のプラットフォームに対応するコンテンツは、ユーザーを助け、サイトが自然なリンクを獲得し、そして、収益を得る上で効果的である。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「How Common Are SEO Problems With Responsive Web Design?」を翻訳した内容です。

サーチエンジンランドの記事故、SEO上の問題として語られていますが、実際はユーザー体験全般、つまりウェブマーケティングやウェブサイトの成功に直接関わってくる大きな問題を考えた記事でした。レスポンシブWebデザインというと、まだまだデザインのみが注目される面が大きいですし、現実問題、デザインをレスポンシブ化すると同時に、モバイル体験まで最適化するというのは、例えばモバイルユーザーにモバイルならではの機能を提供することになれば、デザイン上もシステム上も作業負荷が一気にアップしますし、簡単にできることではないことは重々承知していますが、レスポンシブWebデザインが普及していく上での大きな課題であることは間違いありません。

レスポンシブWebデザインというと、「デザイン」と言葉が入っているだけに、どうしても機能やユーザー体験よりはデザイン最適化のみの話に陥ってしまいそうですし、その意味では、ユーザー体験や機能まで含めてWebサイトのレスポンシブ対応を考えた新しい言葉があった方が良いのかもしれませんね。あ、単純に「レスポンシブWeb」でいいのか。

呼び方はともかく、今回の記事がレスポンシブWebデザイン、Webサイトのレスポンシブ化についてより深く考えるきっかけになれば幸いです。 — SEO Japan [G+]

上級者向けSEOガイド8/9 : 外部リンクを構築する15の手法

上級者向けSEOガイドも後2記事となりました。前回、コンテンツを活用した外部リンク手法についての解説がありましたが、今回はより具体的なリンク構築手法を一挙15種類紹介した記事を。英語圏で普及しているツールベースの手法が中心でかなりマニアックな内容が多いですが、その用途・意味を考えれば日本でも応用できるものばかり。これからのリンク構築に勝ち抜きたい人は一読の価値あり。軽く一読して気になる内容を読むだけでも学べる点は多そうです。 — SEO Japan

このチャプターの1つ目のセクションでは、単純にサイトを投稿する(そして、followedリンクを獲得することが可能な)場所をリストアップしていく。このチャプター全体では、15通りのリンク構築の方法を手順を追って説明する。そこで、皆さんには、これから紹介する方法を採用するか、あるいは、自分でアイデアを出していってもらいたいと思う。


1. サイトをfollowedリンクを使って投稿する

このセクションでは、followedリンクを容易に獲得することが可能な有名なサイト、そして、知名度の低いサイトを紹介していく。

全てのサイトが今でも有効だとは限らないので注意してもらいたい。このガイドを作成する時点では有効であったが、インターネットの世界は変化が早く、皆さんが利用する頃には役に立たなくなっている可能性もある。

http://9rules.com/

http://associatedcontent.com/

http://barrywise.com

http://bibsonomy.com/

http://blog.fiberdreams.com

http://blog.ruski.co.za

http://Blogengage.com/blogger

http://bloggeruniversity.blogspot.com

http://bloggingzoom.com/

http://blogoria.com/

http://bluehatseo.com

http://blueverse.com

http://bumpzee.com/

http://businessfinancemag.com

http://buzzmarketingwithblogs.com

http://clipclip.com/

http://corank.com/

http://current.com/

http://currybet.net

http://deardrmoz.com

http://digg.com/

http://dotcommogul.net

http://edopter.com/

http://extremejohn.com

http://flickr.com/

http://google-adsense-templates.co.uk

http://graphicdesignblog.co.uk

http://gravitycube.net

http://grokdotcom.com

http://growsmartmaine.org

http://harry.sufehmi.com

http://howtowakeupearly.com

http://IncSub.org

http://Indiano.net

http://justaddwater.dk

http://kikolani.com

http://kirtsy.com/

http://kthread.com

http://lillieammann.com

http://linguisticszone.blogspot.com

http://linkagogo.com/

http://linkedin.com/

http://links.org.au

http://memestreams.net/

http://mister-wong.com/

http://mixx.com/

http://moreearnings.com

http://mybloglog.com/

http://mylinkvault.com/

http://nowpublic.com/

http://OddBlogger.com

http://phpcafe.net

http://polygeek.com

http://postonfire.com/

http://pqinternet.com

http://propeller.com/

http://radpixels.com

http://randomhacks.net

http://realestatetestblog.com

http://seobythesea.com

http://seolutions.net

http://socialmediapower.com

http://technorati.com/

http://thejunglemarketer.com

http://uncommonphotographers.net

http://wallpaperstop.com

http://wassupblog.com

http://weblogtoolscollection.com

http://wordpressmax.com


2. ブランドの言及からリンクを獲得する

このメソッドは、とりわけ、有名なブランドや影響力の強い人に向いているかもしれない。しかし、知名度が低くても、ブランドの言及が行われ、実際にはリンクが与えられなくても、最終的にリンクを獲得するメリットを受けられるだろう。

グーグルアラートと/RSS & IFTTTを利用する

メンション(リンクなしの言及)が行われた際にすぐに通知してもらえるようにグーグルアラートを設定する。ここでは、私のブランドのメンションに対して、グーグルのインデックスをモニタリングしていく。以下にクエリの例を幾つか挙げていく:

-site:quicksprout.com -site:crazyegg.com -site:kissmetrics.com "neil patel"

-site:quicksprout.com -site:crazyegg.com -site:kissmetrics.com quicksprout

-site:quicksprout.com -site:crazyegg.com -site:kissmetrics.com crazyegg

-site:quicksprout.com -site:crazyegg.com -site:kissmetrics.com kissmetrics

次に以下の通りにアラートを設定していく。

結果をeメールで受信すると、リンクを得ている点を確認することが出来る。スクリーミングフロッグを介して、結果のリスト全体をまとめてチェックすることも可能である。

おまけのアドバイス: RSSやIFTTTを使ってモニタリングする

デフォルトの状態では、グーグルアラートは、当該の検索に付随する新しいコンテンツを見つけた際に、eメールで通知を行う。しかし、もっと早く通知してもらいたいはずだ。または、より長期的なスパンで結果を分類したい状況も考えられる。

そこで、メンションが発生した時点でテキストメッセージを送信してもらう設定を行う。

まず、アラートをRSSフィードとして作成する:

アラートを確認し、グーグルリーダーのリンクをクリックして、グーグルリーダーでアラートを開く。

グーグルリーダーから、‘view details’にアクセスする。

フィードのアドレスをコピーする。

次にIFTTT.comを訪問し、新しいレシピを作成する。RSS リーダーをトリガーとして利用する。

SMSをアクションとして選択する。すると、ブランドのメンションが行われる度にテキストで通知してもらえるようになる。

また、オンラインでメンションを受けた際に、全てのメンションをデリシャスでブックマークすることも可能である。ブックマークの目録を作ることも、もしくは、1週間または2週間に1度、まとめてメンションを確認することが出来る。

RSS フィードをトリガーに設定し、デリシャスをアクションとして選択する:


3. ScrapeBoxを使って、ブログにスピーディーにコメントを投稿するホワイトハットな手法

ScrapeBoxは、通常、ブラックハットのツールと見なされることが多い。しかし、ホワイトハットなリンク構築ツールとして利用することも可能である。このセクションでは、完全にホワイトハットなアプローチで、- 効率を上げることを意識して – ブログに速やかにコメントを投稿する賢明な方法を手順ごとに説明していく。

このメソッドでは、ScrapeBoxの“Comment Poster”を“manual poster”モードで利用する。

主にScrapeBoxの右下のセクションを利用することになる。

ステップ 1 – テキストファイルを開く

ScrapeBoxを使ってテキストファイルを参照し、次のコメントのフィールドを埋めていく:

Name – コメントを投稿する際の名前のリスト

Websites – ウェブサイトのリスト(名前からリンクを張る)

Emails – 名前と連動するeメールアドレスのリスト

Comment – 作成したコメント

Blog Lists – コメントを投稿するために収集したブログのリスト

続いて:

Openをクリックする。

各フィールドに対するテキストファイル(予め作成したもの、もしくは自分で作ったもの)を選択する。

選択した状態のイメージを掲載する:

[E]をクリックすると、編集ウィンドウが表示され、ScrapeBoxで直接編集することが出来る。


4. DMozからリンクを獲得する

Dmozは、よくご存知の方もいるかもしれないが、ページランクが高く、また、ウェブに存在する期間が長いため、非常に価値が高い。

しかし、Dmozが多くのサイトにかすめ取られている点はあまり知られていない – つまり、リンクを獲得すると、リンクをかすめ取られ、他の場所で利用されてしまう可能性があるのだ。

リンクを得る場所を選ぶ

カテゴリを選ぶ際に重要なファクターが2つほどある。

1. 関連性 - Dmozは、それぞれのカテゴリーに対して数名のエディターを配置しており、そのため、自分のサイト/ビジネスにフィットする異なるカテゴリを複数選び、それぞれのカテゴリに投稿することが可能である。反応が早いエディターもいれば、遅いエディターもいる。

2. ページランク - この点を考慮する人は少ない。Dmozだからと言って、全てのページが有益だとは限らない。

それぞれのページのページランクのレベルをチェックし、当該のページのリンクの本数で振り分けよう。ページランクが高く、外部へ向かうリンクが少ないページが理想である。

例: 「Travel」のカテゴリを探していると仮定しよう。このURLの構造を使って、Travelのカテゴリを全て確認する:

http://www.dmoz.org/search?q=travel&start=0&type=more&all=no&cat=

次のような結果が表示されるはずだ:

リンクの本数が少ない、関連するカテゴリを探す。Travelは100本を超えるカテゴリが多いため、100以下を探す。

有力なカテゴリが2つ見つかった。

どちらのページもPRは4であり、ODP(オープンディレクトリプロジェクト)としては良好な部類に入る。

リンクの本数が55本のみの“Specialty Travel: Family”のカテゴリは、役に立ちそうだ。

ODPのページの有益なカテゴリに手っ取り早くアクセスしたいなら – opensiteexplorer.orgを利用し、内部ページでレポートを実行する手もある。

1.  www.opensiteexplorer.orgにアクセスする。

2.  http://www.dmoz.orgを選択する。

3. ‘Top Pages’ のタブをクリックする。

4. 上位のページを速やかに分析するには、レポートを.csvにエクスポートする。

投稿

2つの上位のカテゴリを選択したら、以下のプロセスに従って投稿しよう。

1. 最適なカテゴリのページを選び、投稿を行う。

        a. リンク希望するカテゴリのページで、‘submit a URL’をクリックする。

        b. 指示およびガイドラインに従う。

2. 2ヶ月待つ。

3. 2ヶ月間経ってもリンクが手に入らないなら、第二希望のカテゴリに投稿する。

4. 誰にも対応してもらえないなら、希望するカテゴリに対して、交互にこのプロセスを数ヶ月おきに繰り返そう。リンクを得るには、忍耐力、そして、一貫した取り組みが求められることがある。

5. 8-12ヶ月経過してもリンクが得られないなら、3つ目のカテゴリを試すべきである。諦めないでもらいたい。粘り強く、そして、我慢強くこのプロセスを続けていれば、リンクを獲得することが出来るだろう。


5. Disqusを使ってリンクをコメントに組み込む

ブログのコメントは、リンクがnofollowed扱いされるため、そして、コメントのリンクはグーグルから重要視されないため、価値は高くはないものの、- メリットがゼロと言うわけではなく、事実、リファラーのトラフィックも獲得することが可能である。

Disqusのコメントシステムを使って、サイトを容易に探す方法を伝授する。

Disqusの長所は、利用方法が容易な点と、そして、コメントがすぐに表示される点である。

1. まず、Disqusでコメントを獲得する予定のカテゴリに対して登録する。

ユーザーネームはリンクのアンカーテキストとなる。アンカーテキストとしてキーワードを幾つか試したくなるかもしれないが、調子に乗り過ぎないように気をつけてもらいたい。

2. 次に、Disqusを使って当該のカテゴリのブログを検索する。次のタイプのクエリは有効である:

"powered by disqus" travel photography

何かしらのSERP分析ツールを用意しておこう – MozのSERP分析ツールまたはSEOQuake等。

3. ページランク、またはDA/PAが高い結果を選択する

4. コメントを投稿する。

ソースの多くはコメントが0本である。そのため、投稿するコメントが1本目に表示される可能性があり、リファラーのトラフィックが得られる確率は高くなる。

おまけのアドバイス: 最近のリンク

1. グーグル検索を絞り込む

検索を過去1週間に絞り込み、すぐにコメントを投稿すると効果がありそうな結果を選び、投稿を読む人が最も多いタイミングでコメントを投稿しよう。

2. グーグルアラートを作成する

検索またはカテゴリの動きの頻度に応じて、このようにアラートを設定しておく。

また、コメントを投稿する機会が生まれた瞬間に把握するため、複数のアラートを作成しておくことを薦める。


6. リンク切れリストの構築

ステップ 1. 基本のアイテムを用意する

このタイプのリンク構築には、以下のような基本のアイテムが必要になる:

  1. グーグルのクエリブックマークレット - http://www.onlinesales.co.uk/google-results-bookmarklet/
  2. TextWrangler等のテキストエディタ
  3. スクリーミングフロッグまたはXenu Link Slueth
  4. Wayback Machine - www.archive.org
  5. コンテンツを作成するウェブサイト

上述した全てのツールにアクセスすることが出来るなら、次の段階に進む。

ステップ 2. グーグルのクエリを特定する

最適なクエリを探し当てるまでに、異なるクエリを幾つか試す必要があるかもしれない。旅行業界、特にホテルの分野のサイトに対するリンクを構築していると仮定する。その場合、.eduか.govのサイトからリンクを獲得したいはずだ。

次のようなクエリを試してみる:

site:.edu intitle:"hotel industry" -inurl:pdf -inurl:doc -inurl:ppt

site:.gov intitle:"hotel industry" -inurl:pdf -inurl:doc -inurl:ppt

site:.edu intitle:"hotel management" -inurl:pdf -inurl:doc -inurl:ppt

site:.gov intitle:"hotel management" -inurl:pdf -inurl:doc -inurl:ppt

200-5000の結果を持つクエリを探す。これで、大き過ぎず、小さ過ぎないターゲットを設定したことになる。

ステップ 3. URLを抽出する

クエリを獲得したら、URLを抽出して、テキストエディタに落とす。

1. 検索の設定を100に設定する。

再び検索を実施し、100点の結果を表示させる。

ブックマークレットを実施し、Plain Listingsをコピー & 貼り付けする。

.txtファイルとして保存する。

ステップ 4. スクリーミングフロッグ(またはXenu Link Sleuth)を介してURLをチェックする

ここでとっておきの技を使う。スクリーミングフロッグを使って、1度に100本のURLをチェックし、リンク切れを探す。その方法を紹介する。

スクリーミングフロッグをList Modeに設定する。

作成したばかりのテキストファイルを選択する(URLのリスト)。

非常に重要なステップ - 適切な設定を行う。

スクリーミングフロッグをcheck external links とsearch depth 1に設定する。

Startをクリックする – 全ての外部のページをチェックし、クロールするまで、ある程度時間がかかる。

ステップ 5. 関連性に関して、URLのリンク切れを調べる

見つかった外部リンクを確認する。

結果をCSVにエクスポートする – URLをエクスポートして、保存し、行動を起こしたアイテムを記録していく。

ステップ 6. 失われたコンテンツを調べる

スクリーミングフロッグで直接、リンク切れのコンテンツ(404)にリンクを張っているページを確認することが出来る。

自分のサイトに関連するページを見つけたら、 www.archive.orgを訪問して、リンク切れのページの過去の姿を確かめ、既に持っているコンテンツかどうか、または、作り直すことが出来るかどうか確認する。

その後、コンテンツを作り直し、当該のサイトに接触しよう。


7. 簡単なコピー & 貼り付けの埋め込みコードを加える

コンテンツ内で、そして、リンク構築として、インフォグラフィックを利用したことがある人は大勢いるはずだ。その際、誰でも分かるHTMLの切り取り & 貼り付けコードを忘れずに掲載しただろうか?その方法を紹介する。

それでは、KissMetricsのインフォグラフィック「How Do Colors Affect Purchases?」を例にとって説明していく –

http://blog.kissmetrics.com/color-psychology/

ページ上に簡単に切り取り & 貼り付け可能なHTMLを加える方法を手順を追って紹介していく。

ステップ 1 – HTMLモードに切り換える

HTMLを入力するので、HTMLのエディタで作業を行う準備をしておくと便利である。

ステップ 2 – ページでイメージを表示させる

エンベッドボックスを作る前に、イメージがその他のコンテンツと共にページ上に表示される点を確かめる必要がある。

ステップ 3 – <textarea>を設定する

<textarea>ラッパーには、HTMLでエンベッドボックスを表示する効果がある。また、コードが配置される場所でもある。

以下にコードを掲載する:

<textarea rows="5"  cols="70" onClick=select() >

</textarea>

  1. “Rows” & “cols”は高さと幅を調整する。
  2. onClick=select()は、自動的にボックス内部でコンテンツを選択する便利なJavaScriptである。

ステップ 4 – コンテンツを<textarea>内に配置する

この作業には2つの重要なポイントがある。

1. イメージの参照とイメージへのリンク – 読者がページにコードを貼り付けると、実際のイメージがページに掲載されることになる。つまり、イメージを視覚的に読み込む段階である。しかし、重要なポイントは、あくまでもリンクとアンカーテキストの獲得である。

2. ここでインフォグラフィックから大きな被リンクの価値を得られる。自分自身のリンクとアンカーテキストをコードに配置することになる。

以下にコードを掲載する:

<textarea rows="5"  cols="70" onClick=select() >

<p>

<a href="http://blog.kissmetrics.com/wp-content/uploads/2010/08/color-purchases-sm.png">

<img src="http://blog.kissmetrics.com/wp-content/uploads/2010/08/color-purchases-sm.png" alt"how do colors affect purchases?" />

</a>

</p>

<p>

<a href="http://blog.kissmetrics.com/color-psychology/">Color Psycology Infographic</a> by <a href="http://www.kissmetrics.com/">KISSmetrics</a>

</p>

</textarea>

このコードを利用する際は、忘れずにリンクとイメージのソースを変更すること。

ステップ 5 – ページのプレビューを見る

ページをチェックし、問題がない点を確認しよう。

テキストエリアに適切なコードが全て表示されているなら、問題ない。


8. ツイッターのプロフィールを使ってリンク構築を行う

このメソッドは効果が高く、また、簡単に実行に移すことが出来るものの、美的な好みに左右される可能性がある。また、単純ではあるものの、見過ごされていることが多い変更を行う必要がある。

ツイッターにアクセスし、プロフィールの編集画面を表示させる。

次のように、URLおよびツイッターのハンドルをBioに加える:

その際、ツイッターをデータのソースとして利用している、ツイッターリスト等のその他のサイトは、リスティングにこの2本のリンクを最終的に掲載することになる。つまり、ツイッターのプロフィールとウェブサイトに対して、自動的にリンクを構築する。

サイトの一部を以下に挙げていく:

www.tagwalk.com

www.crowdreel.com

www.snpros.com

www.twitperts.com

www.retweetrank.com

www.favorious.com

www.twtbizcard.com

www.favstar.com

www.tweetlevel.com

www.listorious.com

www.twitaholic.com

www.twittercounter.com

www.twellow.com

tweet.grader.com

www.klout.com

各ツイッターのサイトにアクセスし、プロフィールを作成、または獲得すると、リンクに対する最適化を強化することが可能になる。


9. Tyntを使ってリンク構築を行う

Tyntは、コンテンツがコピーされ、ウェブ中に貼り付けられる度にリンクにトラフィックをもたらすツールだが、利用している人は多くはない。

1.  www.tynt.comにアクセスする。

2. フォームに記入し、無料で登録を行う。

3. JavaScriptが表示される – まずはこのJavaScriptをカスタマイズしていく。

Customize Scriptをクリックする。

4. Customize Address Tracking Barをクリックする。

5. Address Bar Trackingを有効にして、保存する。

6. 次にAttributionをカスタマイズしていく。

7. ここで設定を少しカスタマイズし、一味加える。ツイッター/フェイスブックのプロフィールを追加する。タイトル、URL、または双方をリンクのアンカーテキストとして選択することも出来る。

8. 保存する。すると、メインの画面に戻る。

9. JavaScrpitのコードをクリップボードに貼り付ける。

10. 締めの</head>タグの直前にコードを貼り付ける。ワードプレスを利用しているなら、Appearance->Editor->Header.php の順にアクセスしていく(次のスクリーンショットを参考にしよう)。

11. 一番下に用意されているコードを使って、コードをテストする。


10. リンクに値するドメインを探す

2012年、どのようなドメイン名が求められていただろうか?恐らく、次のような特徴を持つドメイン名は人気が高かったはずだ:

  1. 比較的短い
  2. 言いやすい
  3. スペルが簡単(一度だけ説明してもらえば分かる)
  4. unique
  5. 低価格で購入可能
  6. 描写的で明白

2012年においては、被リンクを獲得する上で、ドメイン名は非常に重要視されていた。ペンギンが行われる前は、キーワード主体のアンカーテキストが求められていたが、現在は、ブランド中心のアンカーテキストが必要とされている。そのためには、固有のブランド名とドメイン名がどうしても必要になる。例えば、Bagsterと言うブランドは、ゴミ収集業者、そして、 www.bagster.com - バイク関連の業者が利用している。

以下に優れたドメイン名を考え出す上で役に立つツールとテクニックを挙げていく。

ステップ 1 – ワードを幾つか集める

好きなワードを20-30点集めたリストを作る。生産性ツールを販売しているソフトウェア会社を例に挙げて説明する。まず、類語辞典を調べ、 “productive”と“productivity”を入力する。そこから、(最善の)ワードを得る:

prolific

inventive

creative

useful

fruitful

effective

efficiency

work rate

output

yield

helpful

次に、イメージ – 名詞で会社を連想するワードを考える。生産性ツール製品の多くは、machineを連想させるので、類語辞典に「machine」を入力する:

appliance

device

engine

tool

automation

これで候補のワードを幾つか手に入れることが出来た。早速、実際に利用していこう。

ステップ 2 – Bustanameを使って、ドメインをチェックする

複数のワードを組み合わせて、一度に利用状況を確認することが可能な  www.bustaname.comと呼ばれる素晴らしいツールが存在する。まず、基本的な設定を行う。ここでは良質なアイデアを得るための魅力的な設定を提案している。

次にステップ 1のリストのワードを貼り付ける:

リスト内に結果が表示され、利用可能なドメインが明らかになる。

カーソルを次のように合わせると、さらにアイデアを得ることが出来る。

「readability」(読みやすさ)でソートする機能は便利である。

次に、気に入った名称を右側にある3つ目のリストに加え、購入、あるいは、後で確認するため保存することも出来る。

ステップ 3 – Domain Makerを利用する

同じウェブサイトで、「Domain Maker」と呼ばれるツールが用意されている。このツールの基本的な設定も紹介しておく:

設定およびワードで色々試し、優れたドメイン名のアイデアを得てもらいたい。

固有の名称が必要である点を思い出してもらいたい。.com、.org、.net、さらには.bizの全てのgLTDが利用可能なドメイン名を見つけたいところだ。全てのgLTDを確保し、ブランドを守るためである。

そのための設定を次のように実施する:

ステップ 4 – Knowemを使って、ソーシャルメディアをチェックする

例えば、yieldy.comが素晴らしい名前だと思ったなら、- ソーシャルで使われいるかどうかを確認する必要もある。

 www.knowem.comを使って、確認しよう。

先客がいたようだ。

ソーシャルネットワークでも利用することが可能な名前が見つかるまで、調査を続けよう。

また、Knowemには、ドメイン名と商標を同時に確認する機能も備わっている – この機能を使って、商標登録されたことがあるものの、期限が過ぎているため、取得可能な商標をチェックすることが出来る。


11. 失ったリンクを取り戻す

ブランドの言及のモニタリングに似ているが、捻りを加える必要がある。この方法では、URL自体の言及(メンション)を監視することになる。例えば「Neil Patel」の代わりに、「quicksprout.com」に注目する – リンクを受けることを意図して独特のドメイン名を利用している場合、より効果が高い。

このメソッドでは、アラートが役に立つが、同時に、過去に遡って検索を実行しておきたいところである。URLのメンションが過去に行われているものの、気づいていない可能性があるからだ。

1. 高度な検索を実行する

手始めにintext:quicksprout.com -site:quicksprout.com を実施する。

大きなサイトを運営している場合、検索をさらに絞り込むことを薦める。“past year”と“order by date”で絞り込みをかけてみよう。最近のメンションを使うと、成功する確率は高くなる。

良好な結果が表示されるようになったら、このガイドで再三紹介しているSERPs Reduxブックマークレットを使って、URLをエクスポートする。

結果をコピーし、テキストエディタに貼り付ける。

スクリーミングフロッグを開く。リストモードでURLにクロールを実行する。

次にCustomのフィルターを設定する – 幾つかのフィルターでno linkをトラップし、残りのフィルターでlinksをトラップする。

スパイダーを実施する – そして、結果の一部を確認する:

役に立たない結果も幾つか混じっているかもしれないが、以下の結果は有望である。

やはり、financialpost.comはリンクを張ることなく、quicksprout.comを言及していた。


12. セカンドレベルのリンク構築

自分のサイトに対するリンク構築に関しては、既によく理解してもらえたのではないだろうか?他のサイトに対するリンク構築からも – 適切に利用すれば – メリットを得ることが出来る。ホワイトハットな方法、そして、あまりホワイトハットではない方法の2通りの方法でこの取り組みを実施することが出来る。

コンセプト

まず、追跡可能な状態でウェブサイトを運営する必要がある。eブックを販売している人もいれば、ワードプレスのテーマを配布している人もいれば、あるいは、eメールの登録を目標にしている人もいるだろう。いずれにせよ、このようなコンバージョンを活性化するページを選出する必要がある。

次に、コンバージョン率の高いページへのリファラーの訪問を特定する。

最後に、セカンドレベルのリンクを構築することで、リファラーのページをSERPで上位にランクインさせる。

その方法

ステップ 1 – サイトでページを特定する

大半のサイトは、容易に特定することが出来るはずだ。例えば、Quicksproutでは、次のページがそのページに当たる:

http://neilpatel.com/?utm_source=sidebar&utm_medium=michaelarrington&utm_campaign=ads

追跡用のURLもまた、トラフィックのソースを見わける上で役に立つ点に注目してもらいたい。

ステップ 2 – コンバージョンしやすいリファラーを特定する

分析ソフトウェアを使って、トラフィックを分割し、ランディングページに向かう、通常よりもコンバージョン率の高いトラフィックを特定する。

例えば、Search Engine Journalのこの記事が、コンバージョン率の高いリファラーのトラフィックをもたらしていると仮定する:

http://www.searchenginejournal.com/brand-name-seo-title-tags/10269/

ステップ 3 – リファラーのページのランキングを調べる

セカンドレベルのページにリンクを張る取り組みの目標は、当該のページのランクを高めて、より多くのトラフィックを自分のサイトにもたらすことである。

ここでは、タイトルタグ内のブランド名が重要であり – フレーズ「brand name in title tag」は良質な基準になるだろう:

ご覧のように、Search Engine Journalのページは、現在、この用語で3位にランク付けされており、その結果、より多くのトラフィックが私のランディングページに寄せられている。

ページを特定したら、自由に利用することが可能なリンク構築のメソッドを使って、普段通りにリンク構築を行おう。


13. セカンドレベルのリンク候補

ファッション関連のウェブサイトを運営していると仮定する – その場合、elle.comやvogue.comからリンクを手に入れたいはずだ。いずれ手に入れることが出来るかもしれないが、このようなサイトのリンクのオーソリティを出来るだけ早く活用したい場合は、どうすればいいのだろうか?

これらのサイトがリンクを張っているサイトからリンクを獲得しよう。それでは、候補のサイトを速やかに発見する方法を紹介していく。

1. グーグル検索を微調整する

このテクニックは紹介済みである。グーグルを使って、候補の第一リストを作成する。しかし、今回のケースでは、今後、リンクを獲得することになるオーソリティの高いサイトをリストアップしていく。

ファッション関連のブログを運営していると仮定する – その場合、elle.comやvogue.comからもたらされたリンクを獲得しておきたいところだ。

次のような検索を実行する。

この検索に関する重要なポイントを幾つか挙げていく:

- ブログ検索を利用する

- ホームページを表示させる設定を用いる

- intitle:オペレータを利用する

これで、細かい絞り込みを行い – BESTの結果のみを表示させることが出来るようになる。

2. SERPs Redux ブックマークレットを使って、トップ 10の結果をテキストファイルに落とす

ここでもSERPのスクレイパーツールを使って、結果をテキストファイルに落とし、スクリーミングフロッグにインポートする。

3. スクリーミングフロッグを使って10本のURLをクロールする

このステップでは、何よりも設定が重要である。

スクリーミングフロッグを、コアのリストから1レベル離れた外部のサイトをクロールさせる必要がある

- 検索の深さを1に設定する

- External Linksをチェックする

- 外部のnofollowedリンクをクロールする

すると次のようなリストが提供される:

重要な調整を幾つかリストに加えていく:

- HTMLを表示する設定に変更する。イメージ、JS等を含める必要はない。

- 外部リンクを閲覧していることを確認する :)

- inlinkでソートする。被リンクが多ければ多いほど、サイトにもたらせれているオーソリティは高くなると考えられるためだ。

最後にエクスポートする。


14. 被リンクの評価を実施する

サイトで積極的にリンク構築を行ってきたにせよ、あるいは、新しいサイトを運営しているにせよ、また、古いサイトを運営しているにせよ、自分のサイトに寄せられたリンクの情報を把握する方法を知っておく必要がある。ここでは、高度な方法およびツールを紹介する。それでは、このプロセスを細分化し、手順ごとに説明していく。

パート 1 – リンクのデータを集める

オープンサイトエクスプローラ(OSE)

SEOmozのオープンサイトエクスプローラ - www.opensiteexplorer.orgは、ウェブ上のリンクの情報に関して、最も範囲が広く、そして、最も多くのデータを得られるツールとして名高い。このガイドで紹介する機能の多くは、有料のSEOmozのメンバーに提供されているものだが、無料のメンバーシップを選んだとしても、大半の機能にアクセスすることが出来るだろう。

1. OSE エクスプローラ – 準備とCSVレポートのダウンロード

 www.opensiteexplorer.orgにアクセスし、ログインする。

4つのレポートを実行し、エクスポートする:

  1. 被リンク
  2. 上位のページ
  3. リンク先のドメイン
  4. アンカーテキスト

quicksprout.comを例にとって、リンクを評価するプロセスを実演する。

被リンク

まずはサイトのURLを入力し、Searchをクリックする。“inbound link”レポートはデフォルトの状態だが、少し調整を加えていく。

Inbound Linkの設定を次のように変更する:

  1. Only external(外部リンクのみ)
  2. Pages on this root domain(このルートドメイン上のページ)

Filterをクリックして、CSVファイルをダウンロードする。

CSVをダウンロードする。OSEがビジー状態になっている場合、数分間要することもある。

上位のページ

次にTop Pagesのレポートをダウンロードする。

この手順は割と単純であり、設定を行う必要はない。Top Pagesタブをクリックして、CSVをダウンロードする。

リンクを張るドメイン

Linking Domainsのレポートにおいては、「Pages on this root domain」(このルートドメイン上のページ)のみに絞り込み、リンクを張るドメインのサイト全体の情報を漏れなく手に入れる必要がある。

Filterをクリックして、CSVにエクスポートする。

アンカーテキスト

最後にアンカーテキストのレポートを実行する。

  1. アンカーテキストの設定をphraseのままにしておく。
  2. all pages on this root domainのリンクを表示させる。

Filterをクリックして、レポートをエクスポートする。

2. OSE – 4つのCSVを全て開く

クロームには、4つのレポートを一度に表示させる便利な機能が存在する。

ブラウザの一番下に4つのレポートが全て表示されているはずであり、右側には「Show All」と記されたボタンが用意されている。「Show All」をクリックして、4つのレポートを開く。

マイクロソフトのエクセルを使って、4つのCSVを全て開く。

3. OSE – 4つのCSVを組み合わせ、一つのエクセルのスプレッドシートにまとめる

新しいスプレッドシートを作成する。

各CSVシートのタブを新しいエクセル文書にドラッグする。つまり、4つのタブを新しいエクセルのシートにドラッグする。

全てのタブを集めたら、次のように表示されるはずだ

4. OSE – ヘッダーとフレームの固定

幾つか最終的な準備をエクセスに加えて、分析を容易に行える環境を作っておきたい。自分で考えて設定を行うことも勿論可能だが、とりあえず個人的に好きな設定を紹介していく。

一番上の列をボールド表記に変える。

ウィンドウ枠を固定する。

セルA2を選択する。

Window->Freeze Panesの順にアクセスする。

これで一番上の列(ヘッダー)は、スクロールしても固定される。

同じ作業をその他のシートでも行う:

  1. ヘッダーをボールド体に変える
  2. ヘッダーを編集する
  3. ウィンドウ枠を固定する

これで、4つのレポートが完成し、OSEのデータを調査する準備が整ったことになる。

Majestic SEO

オープンサイトエクスプローラほど多くのデータが得られるわけではないものの、Majestic SEOのインデックスはとても新鮮であり、また、過去のデータを見ることも出来るため、特定のタイプの分析の役に立つ可能性がある。

無料のアカウントを試してみよう(アカウントを作成し、ログインする必要はあるが、料金を支払う必要はない)。

サイトに入る:

まずは、[historical]インデックスを見たいのか、または[fresh]インデックスを見たいのかを確認する:

最初に「historical」のデータを見ていく:

サイトを所有しているなら、無料でレポートを作成することが出来る(所有していない場合、料金を支払う必要がある)。

有料版の方が多くのデータを提供するものの – 無料版でも十分に多くの情報を集めることが可能だ。

例えば、Top Pagesのレポートにアクセスしてみる:

一番下までスクロールし、「download CSV」を探す:

OSE + Majesticのマッシュアップ

最後に、MajesticとOSEのデータを並べて表示させる方法を伝授する。

ファイルを作成する。2つのエクセルシートをここでは用意する:

Majesticの上位のページのレポートを利用する。最新のレポートを持っていないなら、OSEでレポートを作成する:

CSVにエクスポートし、エクセルで開く。次に2つのCSVを1つのシートにまとめる:

vlookupを使って比較する際は、2つのカラムが同じでなければならない点に注意してもらいたい。Majesticは、URLの最後のスラッシュがない状態でデータをエクスポートする。一方、OSEはスラッシュ付きでエクスポートする。

通常のFind関数を使って、スラッシュを削除し、テキストエディタに置き換える:

$はTextWranglerでは、「列の最後尾」に対するグレップのコマンドである。

エクセルに再びコピーする:

vlookupを利用する:

=VLOOKUP(A2,ose!A2:I26,2)

vlookupに慣れていない方のために、簡単に説明しておく:

A2 – 配列とマッチさせるセル

ose! – データを引き出す別のスプレッドシート

A2:I26 – マッチを探すテーブル配列の範囲

2 – 1つ目のカラムの後にデータを引き出し、1つ目のシートに持ち出す2つ目のカラム

次に、テーブルの残りに引き下げるために、各カラムの文字およびセルの番号の前に絶対符号(ドルマーク)を加える必要がある。

vlookupは次のように表示される:

=VLOOKUP(A2,ose!$A2:$I$26,2)

全ての行に引き下げる:

右側の各カラムで同じ作業を繰り返す – 最後の数字を変更し(1ずつ増やす)、ソースのシートから次のカラムを手に入れる。

全体を埋めると、MajesticとOSEのデータを組み合わせた優れたスプレッドシートが完成し、分析に用いることが出来る。

Link DetectiveとOSEを使ってリンクのデータを分析する 

Link Detective - www.linkdetective.com - は新しい無料のツールである。 このツールは、OSEの被リンクのデータを視覚化する上で大いに役立つ。Link Detectiveは、基本的に、ブログロール、フッター、ブログのコメント等のグループに全てのリンクを振り分けるツールである。不明なリンクが幾つか現れるはずだが、自分(または競合者)が獲得しているリンクのタイプを把握することが出来るようになるだろう。

 www.linkdetective.comにアクセスする。

ユーザー名とパスワードを作成する。

すると新しいプロジェクトを作成することが可能になる。

プロジェクトの名前を決める。次にOSEのCSVファイルをアップロードする。このファイルは「inbound link」タブのCSVでなければならない。

確認のメッセージが表示される。レポートが終わると(通常、10-60分間)、eメールが届く。

eメール内のリンクをクリックして、レポートを確認する。基本的に2通りのレポートを見ることが出来る – リンクのタイプとアンカーテキスト。

リンクのタイプのレポート


15. 拡大可能な接触のアプローチ

大規模な接触を効率良く行う上での鍵は、オートメーション – 自動化である。小規模な取り組みの場合、自力を主体としたメソッドでも対応することが出来るかもしれないが、取り組みの規模を拡大し、最大の効果を得るためには、やはり自動化が必要になる。

接触のアプローチに対して、ある程度、自分で管理し、コミュニケーションを個人に特化させたい場合は、「セミオートメーション」に留めることも可能である。

幸いにも、このプロセスを支援するツールが幾つか存在する。ツールをざっと確認し、巧みに利用するコツを紹介していく。

ツール:

  1. GメールのCanned Responses
  2. Rapportive
  3. Boomerang
  4. Tout
  5. BuzzStream
  6. ThankThankNotes
  7. Send and Archive
  8. FollowUpThen

GメールのCanned Responcesを利用する

まず、GメールでCanned Responsesが有効になっている点を確認してもらいたい。

次に設定を行うため、まずは新しい草稿を作成する。署名は全て削除する - 完全に空白にしておく必要がある。

通常の接触するタイプのeメールの草稿を作る。

次にCanned Responseとして保存する。

接触用のメールで利用する準備が整ったら – 新しい草稿を始める。

FollowUpThenを利用する

http://followupthen.com/ は新しいツールである。Boomerangに似ているが、機能がより充実している。

このツールは次のようなケースにうってつけである:

  1. 数週間以内に返信したいeメールがあるものの、受信箱から取り出す必要がある場合
  2. リードに一ヶ月後に再度接触する場合
  3. 返信がない場合に、自分自身と受信者に自動のリマインダーを送信する場合

有料のプロバージョンjには、テキストメッセージとカレンダーを介してリマインダーを受信する機能が用意されているが、ここでは無料版を使って説明する。

自動のリマインダーを受信者に送信する。

CC: cc欄にアドレスを入力すると、自分と受信者の双方に向けてリマンダーが送信される。

3days@ – リマインダーが3日後に再び送信されることを意味する。

1ヶ月後にリードに再び接触する。

候補のサイトに接触したものの、「今はリンク/記事/ストーリー等は不要なので、1ヶ月後にもう一度尋ねて欲しい」と言うリアクションが返ってきた場合 – このリマインダーが役に立つ。

Bcc: 送信者のみがリマインダーを受け取る。

1month@ – 一ヶ月後に再び接触用のメールを送信する。


ここまで到達したなら、サイトにトラフィックが続々と押し寄せているのではないだろうか?残すところ、チャプターはあと1つだけだ。チャプター 9では検索のバーティカルを取り上げる。動画、イメージ、ローカルを利用しているなら、是非、目を通してもらいたい。

上級者向けSEOガイドの記事一覧はこちらから


この記事は、Quick Sproutに掲載された「Chapter 8: Link Building Techniques」を翻訳した内容です。

冒頭にもあった通り、リンクサイトやツールの紹介が中心でしたし(SCRAPEBOXは英語圏スパマー向けのツールなので不用意に使わない方が無難かと・・・)、個別の手法を見ていくと今の時代にここまでやる意味ある?というものもありますが、仮にここに書かれている(ようなこと)の半分だけでも実施すればサイトのトラフィックは嫌でも上がるでしょうね。全て行うかはともかく、この徹底ぶりに見習う点は限りなく多いと思います。– SEO Japan [G+]

SEO会社を成長させるための17の秘訣

Googleのペナルティ発動が当然のこととなり、従来の安易な外部リンク頼みのSEOが通用しなくなっている今日この頃。そろそろビジネスを鞍替えしようか、はたまたより高度な内部コンサルやリンク構築サービスにSEOを発展させようかと悩んでいるSEO会社も多いと思います。そんなあなたにピッタリかもしれないSEO会社を成長させるための17のアドバイスをSEO Bookから。とある本を元に筆者がSEO会社視点でコメントを付ける形で書かれていますが、SEOのみならず、ウェブマーケティング、ウェブコンサル、代理店等、ありとあらゆるサービス系会社に参考になる内容になっています。 — SEO Japan

SEOビジネスの売り方に関する徹底的な討論がメンバーズエリアで展開されている。ブログの読者の中にも、このトピックに興味がある方がいるはずなので、SEOであれ、他の業種であれ、ビジネス(事業)を売却する上での一般的な問題を検証していこうと思う。とりわけ、売ることが出来るようにビジネスを構築していく方法を中心に見ていく。

サービスベースのビジネス

サービスベースのビジネスは、容易に開設することが可能であるため、魅力的なビジネスだと言えるだろう。

誰がサービスを売ることが出来るのだろうか?答えは簡単だ – 誰でも売ることが可能である。サービスと言う形で、料金を支払ってでも欲しい、あるいは、料金を支払ってでも教えてほしい、スキル、知識、そして、経験を誰もが持っているためだ。サービスの売却は、際限がない — 収益を増やす必要がある人、または、収益を増やしたい人、家で働いている人、もしくは、フルタイムの事業を始め、運営している人なら、年齢、職歴、あるいは、現在の資金に関わらず、誰でもサービスを売ることが可能だ。

サービスをベースとした事業の欠点は、簡単に始めることが出来る点である。つまり、お金を出す価値のあるサービスの分野は、すぐにライバルで一杯になってしまうのだ。障壁の壁が低いため、妥当な価格でサービスを売ることが難しくなる。

コンサルティングの販売

売りやすさは、業者によって異なる。SEOコンサルティング等のエージェンシー事業に関しては、とりわけカスタマイズに力を入れている場合、売りにくい。

売るために作る: 自分がいなくても繁栄するビジネスを作る」の中で、ジョン・ワリロー氏は、その理由、そして、対策について説明している。この本は、デザインエージェンシー事業を8年間に渡って運営してきた結果、嫌気が差し、売る決断を下したものの、事実上、全く価値がないことに気づいた設立者が直面する問題を取り上げている。この人物は、ロゴの作成、SEO、ウェブデザイン、パンフレットの作成等を手掛けており、その試練と苦難は、このサイトの読者にとって、馴染み深いものばかりである。

優秀な経営者は、しばらくは売る気も、退く気もなかったとしても、売るために会社を構築していくべきだと考えている。

米国には2300万の会社があるが、1年に売却されている会社は、数百社に過ぎない。経営者に売る意思がないからだろうか?そのケースもある。しかし、構造の問題により、売ることが出来ない会社が多い。 売り手にとって何らかの価値があったとしても、他の人には何の価値もないのだ。

事業を買うとしたら、自分の事業を買いたいと思うか?

買い手の立場になって考えると、SEO関連のビジネスに何を求めるだろうか?何にリスクを感じるだろうか?

まず、売り上げを確認する。売り上げは好調だと仮定しよう。次に顧客のリストを確認する。顧客のリストも悪くない。延取引(一定の期間をおいてから決済する)が行われている。事業の経営者は、信用を重要視している – 信用は、定量化することが出来る資産として、定評がある。

しかし、信用は、過大評価されていることが多い。その理由を説明する:

一瞬で消えてなくなるからだ。

現時点では、顧客と従業員は共に満足し、周りからの評判も高い。しかし、次の週には評価がガラリと変わっているかもしれない。例えば、アップデートゼブラが、翌月に展開され、長年構築してきたSEOの取り組みが水の泡になってしまう。 それでも関係者は皆満足しているだろうか?クライアントは今でも満足しているだろうか?スタッフも今でも満足しているだろうか?今後は満たすことが出来ない、パフォーマンスを保証しているだろうか?SEOビジネスの最大の難点は、重要な納入の面が、自分達ではどうすることも出来ない点である。

信用は主観的であり、一時的であるため、会社の評価を行う際、多くの投資家は、完全に差し引いて考える。信用と評判に価値がないわけではないが、一時的な特徴を持つため、買い手は、売り手よりも、信用を低く評価している。信用を売りにしているなら、希望する価格で販売するのは、難しいかもしれない。

….信用が投資家にもたらすのは、継続企業価値のみである。継続企業価値には、現在保持する資産の価値、組織の知識、まだ製品名によって確保されていない評判の価値、そして、条件の良い場所等が含まれる。これはすべて競争上の優位な点、そして、持続可能な結果をもたらし、ヒットする商品を作り出し、平均以上の収益を達成する力を会社に与える。

信用のほとんど、または、すべてを買い手が割り引いて考えるなら、何が残るのだろうか?従業員である。しかし、従業員は会社を去る可能性がある。契約期間は、いつまでだろうか?どれぐらいの価値があるのだろうか?延長されるのだろうか?契約を破棄することは可能だろうか?エージェンシービジネスの価値の多くは、このような延契約に代弁される。顧客が、個人的なレベルで創設者を気に入り、それが取引のベースとなっている場合はどうなるのだろうか?そのサービスビジネスが、創設者の注目を要求する少数の顧客に依存し、同様のサービスを提供する多くの競合者が凌ぎを削っている状態だとすると、ジョン・ワリロー氏の言葉を借りるなら、事実上、価値はゼロだと言わざるを得ない。

しかし、価値を高くするために、変更を加えることは可能である。

製品に関してサービスの提供を考える

ワリロー氏は、統一したサービス製品を作るなら、ビジネスの価値は高くなると主張している。パッケージサービスを、設立者に頼ることなく、従業員が取り組むことが出来る、一貫性のある、リピート可能なプロセスにすることが可能である。収益を繰り返し得られるように、顧客が定期的に必要になるサービスを提供するべきである。

サービスを提供する会社ではなく、製品を提供する会社の視点で考えることが鍵を握る。

良質なサービス会社は、独自のアプローチ、そして、優秀なスタッフを抱えている。しかし、アプローチをカスタマイズして、顧客の問題を解決している限り、拡大することは不可能であり、事業の運営はスタッフに左右されることになる。 人材がビジネスの主なアセットであり – 入れ替わる可能性があるなら、あまり価値があるとは言えない。

サービスビジネスを高く売ることは不可能ではないが、理想的な金額で売ることは難しく、アーンアウトが絡むことが多い。アーンアウトとは、売り手は、最初に支払い価格の一部を受け取り、その後、収益の目標を達成しなければ全額を払わなくてもよいシステムである。数年間連続で目標を達成することが、条件にされる可能性もある。この期間に何かが起こることも、あるいは、買い手側が、目標の達成を難しく、または、不可能にする可能性もある。必ずしも悪意からこのような判断が下されるのではなく – ないとは言い切れないが – インセンティブが一致しないことも原因になり得る。

サービスから製品へ業種を変えた起業家の実例は存在するが、このプロセスは、この本の主人公の経験ほど、単純にことが運ぶとは限らない:

コンサルティングから製品の販売に切り替えたい起業家は大勢いるはずだ。ベルギーの起業家、イング・ヘーデンはこの転向を行った。サービスの提供から製品の販売への転向を見事に成し遂げたのだ…製品は全く異なる業種である。カット出来ないコストを出費することになる。サービスを提供する会社では、経営者が望めば、従業員を減らし、基本的にコストゼロで運営することが可能だ。製品を販売する会社では、この荒業を実施することが出来ない。ホスティング、開発、アップグレード、バグの修正、サポートが存在する。これは全てどうやってもカットすることが出来ないコストである。例えば、開発者は、コンサルタントよりも遥かに早いタイミングで新しいPCを欲しがるはずだ。

この本は、サービスベースのビジネスを調整して、拡大可能なサービスにする17点の秘訣を提供している。この秘訣の中には、さらに素晴らしいアイデアが溢れている。この秘訣の紹介が、この本を購入するきっかけになってくれると嬉しい – 私は手数料をピンハネするわけではなく、純粋に、いつか売ることを考えて、ビジネスを始める/経営している人達に参考になると思って紹介しているだけだ。

SEOに関連するビジネスを考慮して、この秘訣を見ていく。

1. 専門家

小さな会社が、万能型になるのは難しい。

大きな会社は、多くのスペシャリストを抱えており、容易に多くのサービスを提供することが出来る。小さな会社が、同じような方針を試みると、一人のスタッフが様々な仕事を担当しなければならなくなる。万能型のスタッフが、スペシャリストほど卓越したスキルを手に入れる可能性は低く、その結果、違いを確立し、ライバルに勝つのが困難になる。

SEOは、既に十分に特化された分野である。容易に真似することが不可能な地域の利点を持っていない限り、SEO、ウェブデザイン、パンフレット等、様々なサービスを提供している会社は、売ることに苦戦するはずだ。

しかし、万能型にも長所はある。特に、エコシステムが変化する場合、万能型が有利に働く:

ビジネスの世界では、専門家の動きが進んでいるが、出世する従業員は、万能型タイプが多い – 原因は、新たな職場に順応する才能、経歴、そして、社風の変化だけではない。「2012′s Evolutionaries」の著者、カーター・フィップス氏によると、万能型タイプは、“浅く広く知る”スキルが重宝される会社の体質において、成功するようだ。つまり、専門家に属するのか、万能型に属するのかが大きな鍵を握っている。

これは、会社よりも個人に当てはまると言えるだろう。

2. 収益の15%以上を特定のクライアントが占めないようにする

あるクライアントに過剰に依存していると、リスクは高くなる。当該のクライアントを失うと、ビジネスの価値の大半が消えてしまうからだ。

通常は1年契約を結ぶものの、その契約が切れると、従業員を解雇する際に絡む修羅場 – つまり、退職金も、失業手当も、差別や迷惑行為、あるいは、元従業員が元雇用主を訴えるその他の多くの理由で訴えられるリスクもない状態で、クライアントは自由の身にになる

3. プロセスを所有すると、宣伝し、コントロールしやすくなる

総合的なサービスと比べて、細かく設定されたソリューションは、売る際に苦労し、時間がかかる。詳細に設定されたサービスは、拡大するためには専門的なスキルを持つ、高給取りのスタッフを迎える必要があるため、拡大する面でも不利である。

SEOにおいては、一般的な、リピート可能なプロセスを実施するのは容易ではない。アジャイルで用いられているアダプティブプロセスに焦点を絞る戦略も考えられる:

信頼度の高いプロセスは、インプットではなく、アウトプットに焦点を絞っている。信頼度の高いプロセスを使って、スタッフは、たとえインプットが大きく変わっても、一貫して目標を達成する方法を特定する。インプットが変化するため、あるプロジェクトと同じプロセスや取り組みを次のプロジェクトで一度も利用することが出来ない可能性がある。信頼性は、結果によって決まる。再現性は、インプットに左右される。

4. 設立者ありきの会社を作らない

ヤフー!は設立者がいない状態でも、同じように運営を続けるはずだ。グーグルとマイクロソフトにも同じことが言えるだろう。創設者は、自分がいるかいないかに関わらず“動く機械”を作る必要がある。

小さなコンサルティング会社は、設立者中心に構築されることが多く、これが必要以上に売るのを難しくしている。顧客が設立者に対応してもらいたい、あるいは、監督してもらいたいと希望するなら、買い手は、設立者が会社を去った後、どれぐらいの顧客が残るのか気になるはずである。これは、アップルのように大きな会社にも起きる可能性がある。ただし、アップルの場合は、後任がイノベーションを導くスキルを持っているかどうかに注目が集まっているのだろう。

会社に戻ることがなくても、引き続き、会社は営業を続けることは可能だろうか

以下の質問を自分自身に問い、すべての質問に「はい」と答えることが出来るなら、良い準備が出来ていると言える:

  • 自分、もしくは、重要なメンバーが、長期間、もしくは、永遠に仕事に復帰することが出来なくなった場合を想定した戦略を持っているか?
  • その戦略を記録し、会社全体と意思の統一を行っているか?
  • 資格のある、適切なトレーニングを受けたスタッフが、現在の管理者や重要な従業員が引退した際に引き継ぎ、営業を続けることが出来るか?
  • この戦略を記録に残し、関係する重要なスタッフに伝えているか?
  • ビジネスに対する“ビジョン”を持っているか?そのビジョンは、会社の’価値’と従業員の行動に容易に結びつけることが出来るか?
  • その‘ビジョン’は、社内に十分に伝わり、浸透しているか?
  • 明確に特定した現実的な未来に対するビジネスの計画を説明することが出来るか?
  • この計画を明確に伝え、記録し、組織内の重要なスタッフと連絡を取り合っているか?

5. キャッシュの吸い上げを避ける

基本的に、給与の前借のことである。これはサービスよりも、製品を販売するビジネスにおいて、実施しやすい行為だ。事前に得るのではなく、進捗状況により請求を行うシステムを薦める。いずれにせよ、キャッシュフローを常に黒字にしておく必要がある。

キャッシュフローが芳しくない状況は、危険である。特に売ろうとしている場合、このようなキャッシュフローは、買い手の目にはマイナスに映る。キャッシュフローにネガティブな数字が並んでいる場合、正確に今後の収益を予測するのは難しい。

6. プロジェクトを堂々と却下する

仕事を却下するのは容易ではないが、既存のプロセスにフィットしない場合、新たな人材・資金を探して、穴埋めしなければならなくなる。何よりもコアの分野から外れてしまうと、競争上の有利な点を失ってしまうリスクがある。

カボチャ栽培計画の中でも、この点を私は取り上げている:

- 新たな機会と呼ばれることが多い – 気をそらすプロジェクトに現を抜かすべきではない。早い段階で引っこ抜く必要がある。

7. 時間を割いて、何人の顧客候補が売り上げに結びつく可能性が高いか調べる

コンバージョン率を確認しよう。これは、買い手がマーケットのポテンシャルを特定する上で役に立つ。買い手は、ビジネスを買った後も、同じペースで売り上げが発生するのかどうかを知りたがっている。

8. 営業は一人よりも二人の方が良い

営業は、自然に競争する意識が芽生えるため、お互いに切磋琢磨してもらうべきである。すると、最終的に会社にメリットがもたらされる。

営業は、もともとも競争する意識が強い。これは明らかであり、また、必要な性質でもある。営業は最前線に立ち、収益を得る機会を会社に持って帰ってくる。営業社員は、基準と計測によってパフォーマンスの評価を受け、見返りと特典によって、やる気を起こす。 多くの会社は、販売強化活動や競争を実施し、パフォーマンスのレベルを数量化し、優秀な社員を特定する取り組みを行っている。

9. サービスではなく、製品を売ることが得意な人材を雇用する

サービスから製品への鞍替えに苦労しているなら、営業社員に対して、顧客の希望に合わせて製品を順応させる取引には応じさせないように注意しておく必要がある。製品が希望に沿わないなら、それまでだ。サービス精神旺盛な営業スタッフが、売り上げが重要だと言う理由で、会社が提供していないソリューションを販売し、あとは“バックオフィス”が何とかするはずだと丸投げしたと言う話を私は聞いたことがある。

製品ベースの営業スタッフは、別の製品を望む顧客をターゲットから外し、会社の製品が役に立ち、今後、さらに製品を求めるであろう顧客の獲得に力を入れる。

10. 製品の再編を断行した年の収益を無視する

リピート可能なプロセスや製品に向けた再編により、赤字になる可能性が高い。いずれにせよ、将来の買い手は、かつてのサービスビジネスではなく、新しい製品ビジネスを買うのであり、今後の収益が判断材料になる。

11. 再編したビジネスを反映する2年分の財務諸表が必要

10を参考にしてもらいたい。

12. 経営陣を構築し、忠誠心に見返りを与える長期的なインセンティブを与える

設立者に依存するビジネスが理想的ではないように、買った途端に経営陣が去るような会社は、買い手にとって好ましいターゲットではない(買い手が、自分達の経営陣に総入れ替えするつもりなら話は別だが)。

13. 自分の会社が顧客として最大でもなければ最少にもならないアドバイザーを探す

ワリロー氏は、ブティック型のM&A企業の採用を薦めている。会社の価値が500万ドル以下の場合、ブローカーが売却に対処するだろう。

1995年から2006年にかけて、買収を行う企業の1/4はブティック型銀行を買収のアドバイザーとして雇用していた。ブティック系のアドバイザーは、業界に特化していることが多く、また、通常、総合的な銀行よりも、規模が小さく、自立している。この新聞は、ブティック型銀行とフルサービスの銀行のアドバイザーの選択、そして、その選択が取引に与える影響を調査している。複雑な取引では、売り手および買い手ともにブティック型銀行を採用していることが多く、ブティック系のアドバイザーのスキルと専門知識が買われていることを示唆している。

14. 一人のクライアントと取引を進めるアドバイザーは避け、(買い手側の)競争を求める

アドバイザーは、お気に入りのクライアントに対して、偵察を行っていることがある。これは、利益に相反する。なぜなら、買い手に有利になるように入札の競争を制限している、もしくは、取引を照会することで当該のクライアントから割高な手数料を取っている可能性があるためだ。

15. 大きな視点で考え、ビジネスの可能性を描写する3年計画を作成する

必ずしも現時点での能力に囚われずに、ビジネスのポテンシャルに関して考える必要がある。例えば、地域で事業を展開しているなら、全国、あるいは、世界に展開する可能性はどれぐらいあるだろうか?

様々なマーケットで定着したエージェンシーのように、自分の会社にはない資金力を買い手が持っていることもある。買い手が、既存の顧客に製品を販売したらどうなるだろうか?ビジネスの範囲は急に広がり、潜在的な価値は高まる。現時点ではなく、このネットワークを持っていたらどうなるのか想像してもらいたい。

16. 売ることが可能な製品第一の事業にしたいなら、買い手の言葉を使う

「クライアント」は「お客様」になり、「会社」は「弊社」になる。立場が変わるだけでなく、考え方と表現が変わり、その結果、買い手は正しく評価しやすくなる。

17. 買収後に重要なスタッフを確保するためにストックオプションを提供するのではなく、単純なボーナスを用意する

ストックオプションは、テクノロジー業界では浸透しているものの、ややこしくする可能性がある。ワリロー氏は、売却に関して、株主が意見を言うのは当然であり、会社の売るプロセスが複雑になると指摘し、ストックオプションには反対の立場を取っている。買い手は、この点をある程度予測しているため、大きな会社にとっては、それほど大きな問題にはならないだろう。

ストックオプションの代わりに、会社を売却した際に、主要なスタッフに現金を与える、残留ボーナスを用意することを同氏は薦めている。また、会社に残りたくなるように売却時以外のボーナスも充実させるべきである。

結論

ワリロー氏の著書には、優れたアドバイスやアイデアが多数紹介されており、今回の記事では触りを紹介したに過ぎない。このアドバイスを最大限に活かすためには、それぞれの背景に当てはめる必要があるものの、良い取っ掛かりになってもらえれば私は満足だ。

皆さんは、SEOビジネスを買った、または、売ったことがあるだろうか?是非、経験談を聞かせてもらいたい。ワリロー氏のアドバイスに賛成だろうか、あるいは、反対だろうか?遠慮なくコメントを投稿してほしい。


この記事は、SEO Bookに掲載された「Building and Selling a SEO Business」を翻訳した内容です。

特に後半はSEOビジネスの売却について考える内容になっていますが、高値で売却できるような会社イコール、ビジネスが成功している、ということですし、会社を成長させたい人、売りたい人、それなりに参考になる点はある記事だったのではないでしょうか? — SEO Japan [G+]

上級者向けSEOガイド7/9 : コンテンツによる被リンク構築

今回の上級者向けSEOガイド、待っていた方も多いのでは?と思われる外部リンク戦略について。時代を反映して「コンテンツを活用した」被リンク構築ガイドになっていますが、さて米国でも特Aクラスのリンク構築アーティストといわれる筆者が上級者向けに書き下ろした被リンク構築の秘密とは?– SEO Japan

リンク、共有、そして、トラフィックを増やす上での「質の高いコンテンツ」の重要性については、耳にタコが出来るほど聞かされているはずだ。このチャプターでは、素晴らしいコンテンツを作成する方法 – そして、適切なテクニックをコンテンツに取り入れ、パフォーマンスをさらに高める方法を手順を追って説明していく。

まず、“トップリスト”を作成してリンクを集めるアプローチを説明する。


1. 「トップ」リストを作成し、リンクを獲得する

この戦略はとりわけ新しいわけではないものの、この取り組みを手早く実行する方法に関する詳しい情報は少ない。

この手法は、基本的に、コンテンツの構築を中心に据えており – 特定分野に関するニッチな「トップ10」や「トップ20」のリスト(註:いわゆる、「まとめページ」)を作成する。例を挙げる:

http://www.webdesignschoolsguide.com/library/top-100-blogs-for-small-business-cost-cutting-inspiration.html

http://www.delish.com/food/best-of-food-blogs

http://www.socialmediaexaminer.com/top-10-social-media-blogs-the-2012-winners/

すべてのリソースが多くの被リンクを獲得している点に注目してもらいたい。しかし、全てのトップリストがこのようなパフォーマンスを実現するわけではない。それでは、その違いを見ていこう。

既に多くのオーディエンスを抱えているなら、まず、リストに含めるウェブサイトを使って、知り合い、そして、緊密なつながり持つ人達を見つけよう。

次に、ソーシャル面の強さを基準として(ウェブサイトの強さではない)、ブログを選択し、絞り込む。

既に知り合いになっているオーディエンス + ソーシャルの強さ = コンテンツは成功を収めるが成り立つ。

Simply Measuredを使って、ツイッターのフォロワーをエクスポート & 分析する

1. 次のURLにアクセスする: http://simplymeasured.com/free-social-media-tools#report-20

2. 分析するツイッターのユーザー名を入力する。

3. レポートを実行し、「pay with tweet」(ツイートで支払う)を選択する(すると無料で利用することが出来る)。注記: 分析している同じアカウントで「pay with a tweet」を行う必要はない。

4. 結果が表示されたら、エクセルにスプレッドシートをダウンロードする – ここから楽しいプロセスに入る。

まず、フォロワーのリストを、リストを作成するトピックで絞り込んでいく。ここでは、トップ10のフードブロガーリストを作成していると仮定する。

フィルターを設定する:

良好な結果が得られた。

次に、このデータをグーグルドキュメント、または、別のスプレッドシートに落とし、その他のブロガーとミックスする。

この時点で、フォロワーの人数でリストを整理し、非フォロワーを加えていくため、「フォローしよう」カラムを加える。

続いて、Followerwonkを使って、さらに際立つブロガーを加えていく。

クオテーションで ______ブロガーを囲む。「ブログ」の代わりにブロガーを利用する理由は、より多くの人(会社ではなく)を集めることが出来るためだ。クオテーションマークを用いることによって、当該のトピックで自分自身をブロガーと名乗っていることが条件になる。ブログをたまたま運営し、食べ物が好きな人は対象から外れる。

例えば:

検索の範囲を拡大する必要があるかもしれないが、まずは、このような具体的な検索から手をつけていくべきである。

その後、クロームのスクレイプ用プラグイン、または、Followerwonkのプロのアカウントを使って、データを引き出し、スプレッドシートに加える。

10,000-20,000のフォロワーを持つ人を探そう。このタイプのブロガーからは注目してもらいやすく、また、ソーシャルメディアでの影響力も強い。

                                                                                                                                                                                                                                                                                                                                                                                             

続いて、ミックスしたリストの中で、「トップフードブロガー」リストの中で取り上げるブロガーを10-20名選択する。既にフォローしてもらっている人もいるかもしれないが – リストで取り上げてもらうことに感謝して、コンテンツを共有し、リンクを張ってもらえるだろう。すると、共有とリンクの数が増加し、さらに高いレベルのインフルエンサーに注目してもらえる可能性が高くなる。

アドバイス

シリーズ化する - 1度きりで終わりにしないでほしい。1年に1度、四半期に1度、または、月に1度リストを作成することで、さらに注目を得られるはずだ。

ブロガーにコンテンツを投稿する前に、事前に知らせておこう - ツイートまたはメールを送信し、リストを承認してもらおう。事前にその存在を把握していると、投稿した際に共有してくれる可能性は高くなる。


2. PDFを使ってリンクを構築する

このガイドでは、PDFの基本的な作成方法を心得ていると仮定して話を進めていく – そのため、大量のチェックリストを提供する – ただし、具体的なプロセスや順番は皆さんにお任せする。

有益で、構成に工夫を凝らしたコピーを作成し、キーワード戦略を利用しよう。

イメージの利用: altタグを作成する。

ファイル名でキーワードを利用する。

適切に最適化されたURLのように、PDFのファイル名は重要な鍵を握る。そのため、キーワードが豊富に詰まったファイル名を利用しておきたいところだ(ユーザーにとって便利)。その際は、キーワードの間にハイフン (-)を挟もう。

メタデータを最適化する

また、通常のウェブサイトと同じように、メタデータが、重要な最適化のステップとして登場する。アドビリーダーのフルバージョン –  http://www.adobe.com/products/acrobat.html もしくは無料のウィンドウズ用のPDFエディター  http://www.becyhome.de/becypdfmetaedit/description_eng.htmのいずれかを手に入れる必要がある。

次の領域を最適化する:

タイトル – ウェブページのタイトルタグになる。

オーサー – オーサー別に分類する。また、PDFではオーサーごとにグループ分けされることが多い。

主題 – SERPのディスクリプションとして、グーグルに利用されることがよくある。また、文書の1行目の影響を受ける可能性もある。

キーワード – 5-10点のキーワードを利用する。

文書でリンクを利用する。

通常のSEOと同じように – PDF内で内部リンクを幾つか利用する。

ファイルのサイズに注意する。

ページスピードの重要性は日に日に高まっている。アドビリーダーを使って、PDFを作成しているなら – PDF Optimizer->Advanced->right-sizeにアクセスしよう。

また、“Optimize for fast webview”を使って、PDFの読み込みを1度に1ページに設定しておこう。

最善のバージョンを選択する。

バージョン 1.5または1.5以下を利用しよう。全てのユーザーが最新のバージョンを持っているわけではなく、一部の読者がファイルを開くことが出来ないリスクを避けたいはずだ。

読み取りの順序を最適化する。

アドビリーダー PDFを使って、読み取りの順番の設定を行う。

読み取りの順序を表示させ、編集を行う方法は以下の通りだ:

1. Advanced>Accessibility>Add Tags to Documentの順にアクセスする。

2. 次にAdvanced>Accessibility>Touch Up Reading Orderを選択する。

サイトのルートディレクトリの近くにPDFをアップロードする。

URLの前の方にキーワードを配置しておくと、検索において最高のパフォーマンスを実現し、また、ユーザーに覚えてもらいやすいメリットも期待できる。私のサイト クイックスプラウトで作成したPDFは、短いURLの模範である: http://www.quicksprout.com/businessmistakes.pdf

ウェブサイトの強固なページからPDFにリンクを張る。

これはユーザーにとって役に立つだけでなく、強力なオーソリティをPDFにもたらす効果も見込める。

コンテンツの重複を避ける

あらゆるページに言えることだが、PDFのコンテンツが他のコンテンツとは異なる点を確認してもらいたい。

PDFをPDFディレクトリに加える。

以下にリストを掲載する。

DocStoc.com

Calameo.com

Ebook88.com

GetFreeEbooks.com

Free-Ebooks.net

SharewareEbooks.com

E-booksDirectory.com

EbookDirectory.com

MemoWare.com

EbookJungle.com

PDFで電子書籍を作成したなら、次のサイトを試してもらいたい:

http://www.changethis.com/

http://www.free-ebooks.net/

http://www.getfreeebooks.com/

http://www.thefreesite.com/

http://www.ebookjungle.com/

http://e-library.net/

http://ebookdirectory.com/

http://www.memoware.com/

http://www.ebook88.com/

http://www.sharewareebooks.com/

http://www.ebookee.com/

http://www.feedbooks.com/

http://directory.pdf-search-engine.com/

http://www.howto.co.uk/

http://www.e-booksdirectory.com/

http://books.google.com

http://www.ideamarketers.com/bids/bookprocess.cfm


3. イメージを利用したリンク構築

イメージを使ったリンク構築に関しては、SEOmozに投稿した記事で取り上げたことがある: http://www.seomoz.org/blog/the-10-golden-rules-to-attracting-authority-linksしかし、ここでは更に高度な技術を紹介する。

先程紹介した投稿では、オンラインでイメージのライブラリを構築し、ユーザーに容易にイメージを見つけ、利用してもらい、リンクを介して出所を明らかにしてもらう方法を取り上げている。

しかし、この方法だと、ユーザーが来るまで待たなければならない。今回は、同じ方法を説明するものの、イメージを求めている可能性がある人達に接触する方法も併せて紹介する。

例えば、ニューヨーク市の写真を持っている、または、現在ニューヨークで生活し、頻繁にスマートフォンで質の高い写真を撮影しているとしよう。つまり、既にニューヨークの写真のライブラリを持っていることになり、役に立つと考える可能性がある人達(そして、リンクをくれる可能性がある人達)に写真を提供することが出来る。

次の手順を踏み、この取り組みを実施していく:

1. 写真を集め、フォーマット化する。

2. 写真を利用する可能性がある人達を探し出す。

3. 接触する価値のある人達に絞り込む。

4. 接触するための文章を作成し、連絡を取る。

ステップ 1: 写真を集め、フォーマット化する

カメラを最高の画質に設定する。質の高い写真を手に入れるには、まずは、出来るだけrawの画質に近づける必要がある。

例えば、iPhoneを使っているなら、HDRに設定する。

すると、最高の画質の写真をiPhoneで撮影することが出来るようになる。

次に – コンピュータに
速やかにアップロードする。Bump等のサービスを利用することが出来る -
 https://bu.mp/ - iPhoneのスペースバーを「バンプ」するだけで、写真をiPhoneからコンピュータにアップロードすることが可能である。

アップロードに利用する手段に関係なく、最高のファイルのサイズおよびピクセルのサイズを利用してもらいたい – iPhoneでは「実際のサイズ」と呼ばれている。

常に整理整頓を心掛けよう。写真をアップロードし、保存する度に、分類していこう – 街の写真なら次のようなカテゴリーを私は薦める:

/people

/architecture

/streets

/attractions

/events

/nature

そして、- like empire-state-building-dusk.jpgのように関連するファイル名をつけてもらいたい。

続いて、ファイルとリンクを用意する。

次に、写真に対して、容易にリンクを張ることが出来る手段を用意しておきたいところだ – 作成済みのHTMLを活用しよう。

<img src=”empire-state-building-dusk.jpg” alt=”photo by Neil Patel of the empire state building” title=”gorgeous dusk view of the empire state building”>

<br>

<a href=”http://photos.quicksprout.com/architecture/empire-state-building-dusk.jpg”>Free image</a> courtesy of Neil Patel and <a href=”http://quicksprout.com”>Quicksprout</a>

これで、クレジット、リンクを一度に提供することが出来るようになる。

ステップ 2: 写真を必要としている人達を探す

大勢の人々、そして、サイトが、ターゲットに含まれる可能性がある:

ブロガー

ニューヨーク市のビジネス

街の写真を必要としている会社

しかし、このターゲットの中で、次の基準を用いて、さらに絞り込んでいこう:

  1. オーサーが一人だけのサイト
  2. 連絡を取る相手が容易に見つけられるサイト
  3. PRまたはDAが高いサイト
  4. ソーシャルメディアの影響力が強いサイト
  5. オーサーのオーソリティが高いサイト
  6. RSSの購読者が多いサイト
  7. 良好なリンクプロフィールを持つサイト(悪質なサイトからのリンクは不要)

また – 既に知り合いになっている人達から取り掛かる手もある。良質な写真を求めているウェブサイトを運営している知り合いはいるだろうか?

それでは – 次のフォーマットを用いてスプレッドシートを作成していく:


URL

Single Author

Contact

DA

FB Shares

G+ Circles

RSS Readers

Link Profile

domain.com

Y

name@domain.com

67

545

3,200

300

4

(スプレッドシートの例)

それぞれのフィールドは次の意味を持つ:

URL = 候補に挙げているウェブサイト

Single Author = Yはオーサーが一人、Nは複数のオーサーが在籍するサイト

Contact = eメールアドレス

DA = SEOmozのドメインオーソリティ

FB Shares = ホームページのフェイスブックでの共有数

G+ circles = 人物または企業が登録されているサークルの数

RSS readers = RSSの購読者数(フィードが用意されている場合)

Link profile = 1は悪い、2は良い、3はとても良い、4は最高

次のリソースを使い、スプレッドシートをサイトおよびメトリクスで埋めていく。

それでは、接触する人達を実際に探すプロセスをこれから説明する。

利用するツールを挙げていく:

https://followerwonk.com/

http://www.socialmention.com/

http://klout.com

http://www.google.com/blogsearch

http://topsy.com

http://amplicate.com/

http://zerply.com/

http://twtrland.com/

Followerwonkを使って、デモを行っていく。良質な写真を持っていないブロガーを探す必要がある。- フォトグラファー、アーティスト、グラフィックデザイナー、または、写真を利用する可能性が高い人達ではなく – 文書に力を入れている人達が、このカテゴリに該当することが多い。

“blogger writer”等の検索は有効である。ブログを運営しているものの、ライティングに焦点を絞っており、写真を苦手にしている人達を見つけることが出来るためだ。

このような検索を実行したら、グーグルクロームのスクレイパープラグインを使って、グーグルドキュメントに落とす - https://chrome.google.com/webstore/detail/mbigbapnjcgaffohmbkdlecaccepngjd

求めている情報をダブルクリックし、Scrape Similarをクリックする。

ウィンドウがポップアップ表示され、データを新しいグーグルドキュメントのファイルに転送することが出来るようになる。

このような手法を用いることで、割と早く、良質なリストを手に入れることが出来る。リストを手に入れたなら、メトリクスを調べ、接触する上で最適なブロガーを見つけてもらいたい。

接触の取り組みにおけるベストプラクティスを利用し、連絡を取り、質の高い写真を利用することが出来るように手を貸してあげよう。


4. 3DのJavaScriptのページまたはマイクロサイトをHTML5とCSS3で作成する

この取り組みを実施しているサイトはあまり多くない。GitHubのオープンソースのコードを少し利用するだけで、3Dのプレゼンテーションやランディングページを作ることが出来る。HTML5とCSS3で構築されるため、コンテンツはクロール & インデックスしてもらえる。

以下のURLにコードが用意されている。

https://github.com/bartaz/impress.js

ステップ 1 – コードをダウンロードする

ステップ 2 – サーバーにインストールする

ファイルをローカル、テスト、または、利用中のサーバーの必要なディレクトリに貼り付けるだけで、インストールすることが可能だ。

ステップ 3 – スライドショーを作成する

スライドショーを作成するためには、インストールに含まれているindex.htmlファイルを編集する必要がある。このコードには、あらかじめ設定されたデモのスライドショーが含まれている。このコードを拝借することも、あるいは、削除して、一から自分で作ることも出来る。

注記: このコードを編集する際は、ここで表示されているパーツから上の部分を編集しないように注意してもらいたい。

次のURLでデモを見ることが出来る - http://bartaz.github.com/impress.js/#/bored

全て“impress” <div>の内側に収める必要がある。

自分でスライドショーを考案することが出来るように、関数を利用する方法を幾つか紹介しておく。

それでは、スライドショーのidのクラスとパラメータを全て挙げていく。


フィールド

説明

id – (何でも好きなものを使うことが可能だ。あるいは空のままにしておくことも出来る)

URLに表示される“ページ”やスライドの名前。空白のままにしておくと、/slide-1と表示される(1つ目のスライド)

class=”step slide”

“スライド”をスライドさせて表示する

class=”step”

スライドを“ターン”させて表示する

data-x

キャンバス上で、要素の中心から水平の位置

data-y

キャンバス上で、要素の中心から垂直の位置

data-scale

要素の拡大 例えばdata-scale=”5”はその他の要素の5倍の大きさを意味する

data-rotate

アイテムを回転させる 例えば、data-rotate=”80”は時計回りに80度回転させる

data-z

3つ目の次元、深さを調整する

footnote

この要素でコンテンツを囲むと、一番下で小さく表示される

data-rotate-x

x軸を中心に回転する

data-rotate-y

y軸を中心に回転する

それでは幾つか例を挙げていく

例 1 – シンプルなテキスト

<div id="bored" class="step" data-x="-1000" data-y="-1500">

       <q>Suppose you want to <b>spice up</b> your online presentation or microsite.</q>

</div>

例 2 – イメージ付き

<div class="step slide" data-x="1000" data-y="-1500">

       <q>You can create a <strong>stunning visualization </strong>

       <br>…and even include images

       <br>

       <br><img src="neil.jpg"></q>

</div>

例 3 – スライドのステップを拡大

<div id="title" class="step" data-x="0" data-y="0" data-scale="5">

       <span class="try">then you should try</span>

       <h1>impress.js<sup>*</sup></h1>

       <span class="footnote"><sup>*</sup> no rhyme intended</span>

</div>

例 4 – 回転

<div id="its" class="step" data-x="850" data-y="3000" data-rotate="90" data-scale="5">

       <p>This is an example <strong>of rotation </strong> <br/>

       caught mid turn <br/>

       by the screen capture software!!<br/>

       <i>(very slick)</i></p>

</div>

Had to capture it mid turn to give you the idea:

例 5 – 3つ目の次元 – 深さ

<div id="tiny" class="step" data-x="2825" data-y="2325" data-z="-3000" data-rotate="300" data-scale="1">

       <p>use <b>some fun</b> 3D elements</p>

</div>

この要素は、遠くからズームインしているように表示される(要素が置かれている「g」に注目してもらいたい)。

例 6 – 3Dのティルト

<div id="its-in-3d" class="step" data-x="6200" data-y="4300" data-z="-100" data-rotate-x="-40" data-rotate-y="10" data-scale="2">

       <p><span class="have">have</span> <span class="you">you</span> <span class="noticed">noticed</span> <span class="its">it's</span> <span class="in">in</span> <b>3D<sup>*</sup></b>?</p>

       <span class="footnote">* awesome, right?</span>

</div>

上の例をそのままコピーし、自分のコンテンツと置き換えることも、もしくは、自分で考案したレイアウトを試すことも出来る。


このチャプターでは、リンクに値するコンテンツを作成する上での正攻法を伝授した。しかし、従来のリンク構築に関するアドバイスとトリックは、まだ紹介していない。心配ご無用。次のチャプターでは、15通りのリンク構築の手法を紹介する。検索でのパフォーマンスを大幅に改善するため、サイトとコンテンツに適用していってもらいたい。

上級者向けSEOガイドの記事一覧はこちらから


この記事は、Quick Sproutに掲載された「Chapter 7: Link Building with Contents」を翻訳した内容です。

リスト記事、PDF、画像、HTML5によるプレゼンと数は少な目ながらも相変わらずどれも徹底された内容でした。リンク構築のアドバイスだけでなく、きちんと情報を拡散するためのノウハウまで(しかもかつてない程、丁寧に)出し切っている所が流石です。PDFをSEOに活用しているサイトは余り日本ではないと思いますが、一度徹底的にやってみるのもまた差別化につながるかもしれません。画像配布はアイデア自体はシンプルですが、こういうことをきちんとやっている人は限りなく少ないですよね。HTML5を活用したプレゼンテーションはSlideshareでは飽き足りないあなたにピッタリかも?次回のリンク構築戦略も楽しみな内容でした。– SEO Japan [G+]

上級者向けSEOガイド6/9 : キーワードリサーチ

いよいよ残り少なくなってきた上級者向けSEOガイド、ここにきて検索マーケティングの基本作業ともいえるべきキーワードリサーチについて。Googleのキーワードツールを終了しましたし、ある意味タイムリーな話題かもしれません。前半はどちらかというと英語圏向けの内容になっていますが、後半は相変わらずのマニアックさ全開のキーワードリサーチの方法が解説されており、キーワードリサーチマニアは一度は読んでおきたい。– SEO Japan

このガイドを読んでいると言うことは、グーグルアドワーズのキーワードツールを使ったことがあるはずだ。このガイドでは、このツールの利用方法の説明は省かせてもらう。このチャプターでは一般的なキーワードリサーチツールを通り越し、ターゲットにするべき最高のキーワードを探す上で、あまり語られることがないメソッドを取り上げていく。


1. グーグルアドワーズのキーワードリサーチを超えるツール

大勢の人達がアドワーズでキーワードのデータを獲得する。しかし、キーワードおよび検索の量に関する情報源は他にも存在する。その幾つかをこのセクションで紹介していく。

1. ビング

新しいビングのキーワードリサーチツールは、まだ成長段階にあるが、チェックする価値はある。

サインイン(またはアカウントを作成)する

基本的な設定から見ていく。ビングのキーワードツールは、グーグルのキーワードツールとは若干異なる。30日に設定すると、その期間の検索量を把握することが出来る。

データをエクスポートする。

正確な検索の量がもたらすメリットを活かし、ロングテールを特定する:

検索量の値を比較するため、グーグルアドワーズを取り込むことも可能だ:

それでは、データをもう少し絞り込んでいく。言語を英語に変更し(英語がターゲットの言語であると仮定) – そして、日付の範囲を6ヶ月に拡大する。すると、大量のデータが提供され、より良い判断を下すことが出来るようになる:

[strict mode] – ビング版の「完全一致」に設定する:

2. WordtrackerとSEO Bookのキーワードリサーチツール

ここでは無料版を紹介するが、有料のプロバージョンに登録することも可能である。

SEO Bookでレポートを実施して、CSVをエクスポートする:

Overall Daily Estimates(1日全体の推測)を使って、ウェブ全体からの潜在的なトラフィックを計測する:

3. Wordpot

意外に思うかもしれないが、Wordpotでも、キーワードに関する情報を得ることが出来る。

定義、類義語、関連するワードを見ることも出来る。

4. ユーチューブのキーワードツール

ユーチューブの動画を最適化しているなら、動画の検索量を知りたくなるだろう – 興味がなかったとしても、このツールはキーワードの発想を得る上で効果的である。

一番下にスクロールし、“add all 100”をクリックし、CSV、またはその他のファイルにエクスポートする。

また – 例えば[search marketing]で、ユーチューブで上位にランクインしたいケースを想像してもらいたい。

1. ユーチューブで用語「search marketing」を検索する。

2. 上位の動画の探す。

3. この動画をキーワードツールに入力する – すると、当該の動画の上位のキーワードが判明する。

既存のレポートにこのキーワードを加えることも、または、初めからやり直すことも出来る。

5. Local Marketing Source – ローカルキーワードツール

ローカルのキーワードのバリエーションを作る上で便利なツールである。ただし、検索の量を調べることは出来ず、キーワードのリストが表示されるだけである。

郵便番号、半径、そして、キーワードを設定していく。

リストを作成し、CSVにエクスポートする。


2. サジュエストスクレイパーツールを利用して、キーワードのアイデアを得る

ウェブは毎日データを収集している。これは実際に入力されているデータであり – ユーザーが何を探しているのかが反映されている。

検索サジェストは、実際にユーザーが入力しているワードを探す場所として最適である。この取り組みは、直接的なコンテンツのアイデア、そして、キーワードの候補をもたらすことがある。このプロセスにおいては、出来るだけ多くのアイデアを得る点が重要視される。

多くのSEOのエキスパートが、非常に便利なツールを見過ごしている。それではツールを紹介していく。

まず、サジェストスクレイパーツールをリストアップする。

http://www.ubersuggest.com

http://soovle.com/

http://tools.seobook.com/general/keyword-information/

http://www.zuula.com/

http://www.keywordbuzz.net/

役に立つツールばかりだが(ubersuggestには様々なツールが用意されている)、今回は、SoovelとKeywordBuzzを使ったトリックを幾つか伝授する。

Soovle

Soovleを2通りの方法で利用する。まず、通常のサジェストスクレイパーとして利用する方法を紹介する。

1. エンジンの数を15に設定する。出来るだけ多くのキーワードを得るためだ。

2. リサーチしているトピックに関係する基本となるキーワードの入力を始める。

3. クローム用のスクレイパーを使って、グーグルドキュメントに入力する。

わざわざ全てのワードを切り取り & 貼り付けたい人はいないはずだ。スクレイパーのxPathを少し調整するだけで、グーグルドキュメントに落とすことが出来る。

デフォルトの結果にはキーワードは含まれていない。

[4]を削除する。

再びスクレイプする(あるいはエンターキーを叩く)。

結果をグーグルドキュメントにエクスポートする。

4. 生のデータの絞り込み & 整理を行う。

この結果には、余分な情報が掲載されており、整理する必要がある。その他のdivからのデータや重複するキーワードが存在する。

1-10行を削除する。

一番下の余分な2つの行を削除する。

アルファベット順でキーワードをソートする。

次に重複するキーワードをフィルターにかけていく。セルB2で次の数式を実行する:

=if(A2=A3,true,false)

この数式は、アイテムが同じならtrueを、異なるならfalseを表示する。

角にカーソルを合わせて(十字が表示されるまで待ち)、ダブルクリックする。

これで、重複しているかどうかを判断することが可能になる。

次のステップに進む前に、true/falseをコピーし、valuesとしてそのまま貼り付けておく。すると、true/falseの表示を変えずに、公式だけを削除し、ワードを残すことが出来るようになる。

次にカラムBを下向きにソートしていく。

すると全てのTRUEが上に表示される。これが重複するキーワードである。

「TRUE」の行を全て削除する。

約100点の固有で多様なキーワードが残った。

トレンドを把握するためにSoovleを利用する

それでは、速やかにトレンドを把握したい人のために、Soovleを使って、トレンドのキーワードを手に入れる方法を指南する。

1. 星をクリックする。

その日のトレンドになっているワードが表示される。

2. ブラウザでCtrl-Fを実行する。ニッチに関連するワードを検索する。

興味深い結果を探し出す。‘lifeproof iphone 4 case’は面白そうだ(聞いたことがない)。

3. 当該のワードをサジェストスクレイパーに入力する。

KeywordBuzz

keywordbuzz.netを使った方法を1つだけ紹介する。私の知る限り、次の機能を持つスクレイパーはKeywordBuzzのみである。

まず、検索スクリーンにアクセスし、キーワードを入力する。

テキストファイルとしてダウンロードすることが出来るだけでなく、.com、.net、そして、.orgのドメインの利用状況をその場で確認することも可能である。

‘check’をクリックすると、良質なドメイン名のアイデアを得ることが出来る。

補助的なチュートリアルや情報サイトを使って、ブランドのトラフィックを増やすためのアイデアも手に入る。


3. グーグルのCorrelateツールを利用する

グーグルのCorrelate(コラレート)もまた、取り上げられることはあまりないが、キーワードリサーチ、とりわけ季節的なトレンドのキーワードリサーチに利用することが出来る –  http://www.google.com/trends/correlate/

例を使って利用方法を説明していく – ‘red wine’と入力した際の結果を以下に掲載する:

検索の量と時間の相関関係を掴むことが出来る。トレンドを調査し、枠組みにとらわれないキーワードのアイデアを得る上で、このツールは便利である – それでは実際に利用してみよう。

アドバイス #1 – トピックのアイデアを得る

例えば、食べ物をテーマに取り上げるブログを運営しており – 赤ワインに関する記事を時々作成する必要があると仮定する。その場合、赤ワインに加えることが可能なその他のトピックを知りたくなるはずである。

red wineのコラレートの結果を以下に掲載する:

大勢のユーザーが赤ワインを検索する時と同じ時間帯にチーズに関連する検索も行っていることが分かる。これはある程度予測できた結果だが、考えもしなかった、ターゲットの絞られたキーワードのアイデアが次々に現れるはずだ。また、このようなトレンドは赤ワインと隣り合っているため、季節的なトレンドを考慮し、コンテンツを投稿するタイミングを少し改善することも出来る。

さらに多くのキーワードを表示させることも、そして、CSVにエクスポートすることも可能である。

アドバイス #2 – ロケーションを考慮したアイデア

グーグルコラレートの位置情報機能は、共通の利益を持つ、具体的な地域のオーディエンスをターゲットにする上で有効である。これは季節的なアイテム、または、一年を通して検索のパターンが変化する関心事に応用することが出来る。

例えば、グリル等を販売するコマースサイトを運営していると仮定しよう。その場合、「outdoor party」を検索しているユーザーに注目するはずである。この検索のパターンは、季節、そして、顧客の関心とマッチすることが分かる。

An initial correlation shows:

“poison oak”と“boat registration”にも同じような検索のパターンがみられるが、ターゲットを絞り、ロケーションに対する相関関係を見ていく。

結果を以下に表示する:

コネチカット州とサウスカロライナ州の住民が、antigua all inclusiveに興味を持っていることが判明した。.

この情報をどのように利用すればいいのだろうか?

アウトドアでパーティーをする(そして、グリルを買う)季節になったら、この2つの州に住む顧客に対して、Antiguaへの旅行チケットを贈呈する手が考えられる。


4. 内部のサイト検索を調べる

多くのサイトのオーナーは、キーワードを得る一番分かりやすい場所を見逃している。自分のウェブサイトだ。と言っても、私は、ビジターが、サイトに到達する際に利用したキーワードのみに言及しているわけではなく、それよりも、むしろサイト内でユーザーが実行している検索について、ここでは指摘したい。

このメソッドは、eコマースサイト等の大規模なサイトを運営している場合、とりわけ有効である。多くのデータを獲得し、また、ユーザーがサイトをどのように利用しているのかを把握し、そして、考え付かなかったキーワードのアイデアを得ることも可能だ。

既にサイトに検索機能を用意していると仮定して話を進めていく。アナリティクスでの設定方法、そして、データを効果的に利用する方法を紹介する。

ステップ 1 – サイトで検索がどのように行われているかを確認する

サイトが利用しているURLのパラメータが必要になる。

例えば、私がデモを行うサイトのURLを以下に掲載する:

検索パラメータがどこにあるか分かっただろうか?

/search.php?search=search+example

“search example”が、入力されたキーワードである。

パラメータは“search”である(ヒント – PHPでは、クエッションマークの次)。

ステップ 2 – アナリティクスで設定する

アナリティクスのプロフィールページにアクセスする。

管理者の領域にアクセスする。Profile Settingsをクリックする。

プロフィールの設定画面で、「Site Search Settings」までスクロールする。

ステップ 1で見つけたクエリのパラメータをフィールドに入力する。また、Strip query parameters out of the URL(URLからクエリのパラメータを剥がす)を選択しておく。

ステップ 3 – データの利用方法

キーワードリサーチにこのデータを活用する最善の方法を伝授する。ここでは、アナリティクスを使ってこの方法を実施するが、データをエクスポートして、さらに活用することも可能だ。

まず、サイトの検索キーワードを確認する。

この作業を一度も実施したことがないなら、少なくとも6ヶ月間に縮小することを薦める。

データに複数の異なるフィルターを適用していく(より“長期的”なフィルターに対して、高度なセグメントを利用することも可能)。

この一つ目のフィルターは、頻繁に検索されるものの、大勢のユーザーが検索した後にサイトを去る検索である(自分のサイトにフィットするように数字を調整する必要があるかもしれない)。このキーワードを基に新しいコンテンツを構築していくべきである。

次のような結果が表示される可能性もある:

あるいは、対極的なフィルターをかけることも出来る。例えば、回数は多いものの、サイトに残るユーザーが多い検索を調べる手が考えられる。繰り返すが、実際の数字は、サイトでのユーザーの行動に左右されるだろう。

ステップ 4 – 行動を起こす

どちらのフィルターを利用するにせよ、今すぐに行動を起こすことが出来るリストが手に入ったはずだ。

  1. 検索回数は多いものの、ビジターがサイトを去るワード = コンテンツを作成する。
  2. 検索回数は多く、ビジターがサイトに残るワード = キーワードリサーチを行い、当該のワードを基に最適化を実施する。

5. コマンドラインから検索サジェストを取得する

ステップ 1 – 初めのJSファイルを抽出する

グーグルは、検索で提案するワードを算定する際、スクリプトを実行している。そこで、ブラウザに次のURLを入力し、JSファイルを生成することが出来る。

次のURLをブラウザに貼り付ける。

http://www.google.com/s?sugexp=pfwl&cp=15&q=<search term here>

<search term here>をキーワードに置き換える。ここでは、marketingを利用する。

http://www.google.com/s?sugexp=pfwl&cp=15&q=marketing

ブラウザに貼り付ける。

すると、自動的にJSファイルが生成され、ダウンロードされる。

JSファイルを開くと、提案される生の用語を見ることが出来る。

この状態ではあまり実用的ではない。それでは、さらに説明を続けていく。

ステップ 2 – .shファイルを作成する

このコードをコピーし、テキストエディタに貼り付ける。

#!/bin/bash
q=$(echo "$1" | sed 's/ /%20/g')
curl
-s "http://www.google.com/s?sugexp=pfwl&cp=15&q=$q" | sed 's/\[/\n\[/g' | cut -d'"' -f2 | tail -n +4

.shファイルとして保存する。単純にsuggest.shと言う名前で保存することも出来る。

ステップ 3 - ターミナル(Mac)でコードを実行する

以下のコマンドをターミナルで実施する

./suggest.sh "marketing"

すると次のような結果が生成される:

marketing jobs in wa

marketing solutions

marketing plan

marketing solutions wa

marketing jobs

marketing strategies

marketing drive

marketing mix

marketing internships

(一部の結果はローカル化されている)


6. キーワードの頻度分析を実施する

キーワードの頻度分析を実施するためのツールが数多く開発されている。無料のものもあれば、有料のツールもある。しかし、レポートを自分で実施する権限を得た方が無難である。これからその方法を一つ紹介する。

ステップ 1 - .shコードを作成する

このコードを切り取り、テキストエディタに貼り付ける:

#!/bin/bash

input=$1

IFS=$'\n'
# for keyword files...
if [ -e "$input" ]; then
   cat "$input" | sed 's/ /\n/g' >> tmp
   for word in $(cat "$input" | sed 's/ /\n/g' | sort | uniq); do
       count=$(grep -c "^$word\$" tmp)
       echo -e "$count\t$word" >> tmp_o
   done
   cat tmp_o | sort -hr
   rm tmp tmp_o
# for web pages…
elif [[ "$input" =~ "http://" ]]; then
   # check if links is installed. found solution at http://stackoverflow.com/questions/592620/check-if-a-program-exists-from-a-bash-script
    type links >/dev/null 2>&1 || { echo >&2 "This script requires 'links' but it's not installed.  Aborting."; exit 1; }
   links -dump "$input" | sed -e 's/ /\n/g;s/\(.*\)/\L\1/' | sed 's/\W//g' >> tmp
   for word in $(cat tmp | sort | uniq); do
       count=$(grep -c "^$word\$" tmp)
       echo -e "$count\t$word" >> tmp_o
   done
   cat tmp_o | sort -hr
   rm tmp tmp_o
fi

Save this as a file – anything will work, such as keyword.report.sh

ステップ 2 – スクリプトを実行する

Macでターミナルを開く

2通りの方法でスクリプトを実行することが出来る – ファイル、または、URL。

ファイル

bash keyword.report.sh keyword.file.txt

‘keyword.report.sh’は.shファイルの名前であり、‘keyword.file.txt’は分析するコンテンツ付きのファイル名である。

URL

bash keyword.report.sh http://quicksprout.com

同じように、‘keyword.report.sh’は.shファイルの名前であり、後はURLを加えるだけだ。


既にキーワード & データの強力なリストを手に入れているはずだ。これで、サイトは早く動き、クロール可能になり、セマンティイクの面でも正確であり、最高のキーワードを獲得したことになる。次は寝ている間にリンクを集めてくれるコンテンツを目標に据え、作成していく。

上級者向けSEOガイドの記事一覧はこちらから


この記事は、Quick Sproutに掲載された「Chapter 6: Keyword Research」を翻訳した内容です。

相変わらずの徹底ぶりでした。マニアックすぎてここまでやる必要あるのか、と思いたくなる手法も多かったですが、アナリティクスを活用したサイト検索のデータ取得は、サイト検索機能を導入しているウェブマスターは活用しておきたい機能ですね。– SEO Japan [G+]

リンク構築を語るなら知っておくべき53の鉄則

上級者向けSEOガイドの濃すぎる記事を連続投稿中ですが、サーチエンジンランドからそれに負けないくらい濃い記事を。Googleのペナルティ実施本格化でかつてないレベルでの丁寧なリンク構築が必要になってきた外部リンク獲得作業。そんなリンク獲得に関するノウハウを53まとめた記事を今回は紹介します。昨年、投稿したリンク構築に関する50+のアドバイスの続編的な内容ですが、単体でも十分成り立ちすぎる盛り込みすぎな記事です。 — SEO Japan

一年前、私はリンク構築にとって必要なポイントを50点以上紹介する(日本語)記事を投稿した。ここ一年の間に、リンク構築は、確実に難しくなった – 何度も名称の変更を迫られ、今まで以上に非難され、そして、大きなダメージを負った。

しかし、ウェブサイトをインターネットで宣伝する方法として、今でもリンク構築は有効である。そこで、今回の投稿では、リンク構築の責任者として、知っておくべきポイントをさらに50点ほど紹介する。

1. 悪態をつくことなく質の低いリンクを削除する方法

恥を晒したくないなら、リンクを得た経緯を考慮して、リンクを張ったサイトのオーナーに丁寧にリンクの削除を要請しよう。コメント欄に掲載されたリンクを削除したいなら、さらに低姿勢で要請を行う必要がある。リンクを入手する作業と同じように、削除する作業にも時間はかかる。そのため、相手を尊重して、リクエストを行うべきだ。

また、リンクの場所を明確に指示することも重要である – 当該のサイトのオーナーが多数のサイトにリンクを張っている場合、曖昧な指示だと、リンクを見つけるためにページを探し回らなければならなくなるからだ。

2. サイトにリダイレクトする301を介して、転送される質の低いリンクを確認する方法

関心を持つページに301リダイレクトしているURLを確認したいなら、被リンクレポートを行うべきである。次に、実際にURLを見つけたら、当該のドメインに対して被リンクレポートを実行する。注意事項に関しては、この記事を参考にしてもらいたい。

3. FTCの公表ガイドラインに従うには

ガイドラインに一通り目を通し、変更、または、追加された項目を確認するよう心掛けよう。

4. コンテンツ泥棒の裏をかく方法

スクレイパー(コンテンツ泥棒)のコンテンツが、本家のサイトよりも上位にランクインするケースは、頻繁に発生している。これは重大な問題である。大規模なサイトを運営し、コンテンツがしょっちゅうコピーされているなら、DMCA削除通知を送るだけで疲れてしまうだろう。

Copyscapeを使うと、ウェブ上のコピーされたコンテンツを検索することが出来る。また、Copyscapeが提供するCopysentryプログラムは、定期的にウェブを観察し、コンテンツを盗んでいる人がいるかどうかを、ウェブマスターに代わって確認してくれる。私はアラート(Google アラートTalkwalker アラート)も愛用している。どちらのツールも無料で提供されている。私はこのツールを使って、自分が作った記事のタイトルをモニタリングさせている。当然ながら、例えば、大量の製品に対するコンテンツを投稿しているなら、賢明な戦略とは言えない。

実際に誰かにコンテンツをコピー、または、盗まれてしまったら、行動を起こす必要がある。経験上、一度でも2、3のサイトにコンテンツを盗まれると、さらに、盗むサイトが現れる。そのため、長期戦を覚悟しておくべきだ。それでも、コンテンツを思いがけない方法で守っている人達がいるので、困ったら、フォーラムで助けを求めよう。公の場では公開されていない方法を知ることが出来るはずだ。

5. コンテンツを巧にキュレートする方法

大勢のウェブマスターが巧みにコンテンツをキュレート(収集)している。同じように賢くコンテンツをキュレートしたいなら、優秀なウェブマスターの取り組みを把握し、少しアレンジを加えよう(やはり、全く同じ記事を参照しているサイトのキュレート記事を読みたくはないはずだ)。キュレートしたリストを公開するのであれ、クライアントにeメールのニュースレターとして提供するのであれ、あるいは、業界の動向についていけるように従業員に向けて投稿するのであれ、受け手の負担を増やすだけでなく、何かしら興味を持ってもらえるように工夫する必要がある。

キュレートリストの最大の魅力は、今まで知らなかった、知名度の低いサイトの素晴らしい記事を見つけることが出来る点である。そのため、メジャーなプラットフォームでは目立たないものの、優秀なエキスパートが綴ったコンテンツを探す努力をしてもらいたい。

6. オーディエンスが求める記事を書く方法

昨年行ったプレゼンで、私はパロディのサイト/番組を使って、人気を計測する手法を取り上げた。誰も理解してくれない場合、通常、パロディーする意味はない。他の人達の主張を確認し、欠けているポイントを見つけ出し、記事にする。敢えてあまのじゃくになり、異なるアイデアを宣伝しよう。Q&Aサイト(Quora等)をチェックし、ユーザーの質問の内容を確認して、コンテンツの中で答えることが出来る。また、うまくいったことと、いかなかかったことをメモに残す習慣をつけておこう。

7. コンテンツを宣伝する方法

新しいコンテンツが投稿されているかどうか確認するために、同じサイトに頻繁にアクセスする人はいない(ウェブマスターが、とてつもない強運の持ち主なら話は別だが)。

そのため、コンテンツを作成したら、ターゲットのオーディエンスが多用するチャンネルを介して宣伝する必要がある。ソーシャルメディアでの宣伝であれ、ニュースレターであれ、口コミであれ、コンテンツに注目を集める方法を把握しなければならない。

8. リンク否認ツールの使い方

このツールを使わなければいけない状況に遭遇してもらいたくない。それでも、リンク構築の担当者は、被リンクのプロフィールでカウントしてもらいたくないリンクを適切に否認する方法を知っておく必要がある。

リンクの否認は最後の手段であり、その他のリンクを削除する方法が全て失敗に終わった段階で利用するべきだ。面倒な作業をスキップして、いきなりこのツールに頼らないでほしい。リンクの否認の一般的な間違いをバリー・シュワルツが指摘しているので、目を通しておいてもらいたい。

9. リンクのリストを手に入れる方法

簡単だと思う人が多いかもしれない。実は意外と難しい。大方、グーグルのウェブマスターツールを使って、この情報を得ることが出来ると考えているのだろう。リンクツールは、基本的にそれぞれのデータベースを利用しており、3つのツールを用いたら、3つの若干異なる結果が出る可能性が高い。また、「上位のリンク」のみが提供されるツールもあるので、注意してもらいたい。

10. サイト/ページがペナルティーを受けたかどうかを確認する方法

クライアント(そして、一部のSEO業者も)ペナルティーとランキングの落下の違いを誤解していることがある。例えば、5位から10位にランクが下がったとしても、必ずしもペナルティーを受けたとは限らない。検索エンジンがアルゴリズムのアップデートを行った、あるいは、競合するサイトがサイトを大幅に改善した可能性もある。

数日間にわたってグーグルで自分のサイトを見つけることが出来ないなら、ペナルティーを科されたと見て良いだろう。ブランド名やURLを検索して、サイトが上位にランクインしていないケースも何かがおかしいことを示唆している。しかし、実際のペナルティーであれ、一時的な措置であれ、判断は難しい。一部のページを除いて、引き続き上位にランク付けされているなら、当該のページがペナルティーを受けている可能性はある。ブランド/URLの検索以外では、サイトがどこにも見当たらないなら、最新のアルゴリズムのアップデートの影響を受け、リンクの価値が減じられていることも考えられるが、この場合、厳密に言うと、ペナルティーは受けていないことになる。

いずれにせよ、トラフィックを調べると、手掛かりを得られる。それでも、ランキング/トラフィックが少し減っただけで、ペナルティーを受けたと判断するべきではない。 グーグルは、手動による対策をウェブマスターツールに加えているので、この機能も活用しよう。

11. アルゴリズムのアップデートのダメージを被ったかどうかを判断する方法

具体的な日付のトラフィックを確認して、アルゴリズムのアップデートの影響を受けたかどうかを判断することが出来るケースもある(ペンギンやパンダ等)。しかし、同時期に大きな変更が行われていると、判断は難しくなる。

昨年、多くのサイトが、パンダやペンギンの影響を受けたかどうかを判断する方法を取り上げていた。そこで、最新の情報を確認し、自分が何を達成しようとしているのかに焦点を絞るべきである – ランキングやトラフィックが下がったなら、アップデートが“修正”した何かによって、再び上がっているかどうかを確認しよう。

12. コンテンツがアンカーとマッチしていることを確認するには

とてもシンプルな作業だが、見過ごされていることが多い。ターゲットのサイトに向かうアンカーを用意しているなら、アンカーがターゲットのコンテンツの中に存在することを確認するべきである。当然ながら、全てのアンカーがターゲット内に含まれているわけではないが、幾つかこのタイプのアンカーを利用しているなら、コンテンツとアンカーをマッチさせると、通常、ページのパフォーマンスは上がる。

13. ページランク以外に他にどのような測定基準があるのか?どこにあるのか?

グーグルのツールバーのページランク等、旧型の測定基準よりも、自分のサイトにとって意味のある測定基準を持つツールを選ぼう。

14. 今でも役に立つオペレータは?もう役に立たないオペレータは?

とても便利な+は、少し前にオペレータのリストから削除されてしまったが、他にも、時間の節約に大いに貢献するオペレータは存在する。

15. 読み込み時間 & サイトのスピードが重要な理由

読み込みに長時間を要するサイトだと、グーグルがクロールして、コンテンツをアップデートすることが出来ない可能性がある。数回同じ状況が発生すると、ランキングが落下する、または、インデックスから除外されてしまうこともある。サイトのスピードは、3年ほど前からランキングの要素の一つとして、確認されている。また、モバイルサイトのスピードに対するペナルティーも存在するため、注意が必要である。

サイトがなかなか読み込まれない場合、ビジターはサイトを去る – そのため、サイトの読み込みが遅々として進まないなら、確実に修正しておきたいところだ。

16. モバイルデバイスでリンクが有効に動くことを確認する方法

自分のサイト、そして、リンクを張っているサイトにも同じことが言える(内部リンクが問題なく動くことを確認しよう)。サイトにビジターがアクセスし、リンクをクリックしたところ、どこにも導かれないような状況は避けたい。モバイルの人気は、右肩上がりであるため、モバイルデバイスでサイトとリンクが動かない場合、多くのトラフィック/コンバージョンを失ってしまうだろう。

bad mobile

17. ゲスト投稿の機会を賢く選ぶ方法

スパム丸出しのゲスト投稿しか見当たらないサイトは回避するべきだ。適切で、質の高いゲスト投稿のみを受け入れている優れたサイトなら、記事を投稿する価値があるかもしれない。質を問わずに、誰彼かまわず記事を受けて入れているように見えるなら、見送るべきである。また、自分がゲスト投稿を受ける側にまわった際は、逆に厳正に審査しよう。

18. 世界全体で季節的なキャンペーンを実施する方法

ニュージーランドと言う、素敵な国をご存知だろうか?アメリカが夏真っ盛りな時期、この国は真冬を迎えている。

カレナ・ジョーダン氏が、フェイスブックの投稿で、マーケッターの過ちを指摘した際、季節のキャンペーンについて考えさせられた: 「最近、大きなブランドが、“夏を楽しんでいますか?”や“大規模なサマーセールを行います”と謳う、迷惑なプロモーションを目にする機会が多い。ニュージーランドは、今、真冬なのに」。

19. クラス Cが重要である理由

クラス Cは、IPアドレスの三番目の一連の数字である。同じクラス Cから多くのリンクを得ていると、リンクネットワークのように映る。リンクプロフィールが、ネットワークをベースに構築されているように見えるのは、マイナスである。

20. サイトがハッキングされたかどうかを把握する方法

定期的にグーグルでsite: 検索を行い、結果を確認する。ハッキングでよく利用されている用語(Cilalis、Viagra等)をURL/ブランド名と合わせて、アラートを設定し、出来るだけ早く、ハッキングの被害を把握するべきである。ビングおよびグーグルのウェブマスターツールには、マルウェアのセクションが用意されているため、ここも定期的に確認しておきたい。

21. 依存しているツールの代わりを探す方法

定期的にダウンタイムが発生することもあれば、一時的に利用することが出来なくなることもある。無料だったものの、有料制に切り替わるツールもある。愛用しているツールが、嫌いな会社に買収されることもある。理由が何であれ、全てのツールに対して、予備のツールを用意しておくべきである。

22. サイトがネットワークに参加しているかどうかを判断する方法

サイトで用いられている用語(メンバー、ネットワーク、名誉会員等)、バッジ等分かりやすい目安もあれば、その他の多くのサイトと同じテンプレートが用いられている、あるいは、多くのサイトで同じグーグルアナリティクス/アドセンスのIDが使われている等、若干分かりにくい目安もある。すぐ簡単に見つけることが出来るケースもあれば、なかなか見破られないケースもある。問題の多いネットワークのメンバーかどうかの判断が難しいこともあるが、よく調べれば、特定することが出来るはずだ。

23. チェーンリダイレクトとは何か?なぜチェーンリダイレクトは良くないのか?

チェーンリダイレクトは、サイトが二つ目のサイトにユーザーをリダイレクトし、その後、3つ目のサイト、四つ目のサイトへとリダイレクトしていく状態である。サーバー側のリダイレクトのタイプ、そして、リダイレクトのコーディングの組み合わせによって、チェーンリダイレクトが発生すると、過度の不可がサーバーにかかってしまう。個人的には、別のサイトにリダイレクトされる理由が全く説明されていない点が、最も許せないと感じている。通常、理に叶っていないことが多いためだ。

24. サイトをクロールして、問題を見つけるツールを使う方法

Screaming Frogは絶対に欠かせない(残念ながら、まだこのツールの代わりは見つかっていない – 見つける作業を始めるべきかもしれない)。

25. ビングもウェブマスターツールを用意している

忘れられがちだが、ビングもウェブマスターツールを用意している。しかも、実はとても便利である – 事実、グーグルが提供していない機能もビングのウェブマスターツールは用意している。SEOアナライザーは特に気に入っている。明らかに見過ごしたポイントを確認することが可能であり、また、素人でも理解できるように分かりやすく説明されているためだ。

Bing SEO

26. ツールなしで大半の作業を実施する方法

自力で500本のリダイレクトをチェックすることも、サイトのスピードをツールなしで正確に計測することも、当然不可能である。しかし、サイトを見て、リンクを獲得するに値するかどうかを判断するスキル、ツールを使わずに、リンクを張る機会を自力で見つけることが出来るスキル、そして、スケジュールを設定することなく、ツイートを投稿するスキルは、必要である。必要なスキルは他にもある。ツールは、必要としている時に、使えなくなる可能性があることを忘れないでもらいたい。

27. フットプリントとは?フットプリントがサイトを危険にさらす理由

システムを操作しようと試みる際に現れるパターンに対して、アルゴリズムの変更が行われる。他の人達と同じ手法を用いている場合、その手法が濫用されると、次回のアップデートで取締りの対象になる可能性がある。

28. どのワードがeメールのスパムフィルターを稼働させるのか

リンク構築の接触を行う際に、この知識は大いに役立つ。良質なワードの一覧をウェブ上で見つけることが出来るかもしれないが、分野によっては、どうしても避けられないワードが含まれている可能性がある。よって、最終的には、試さなければならないだろう – eメールの返信率が芳しくないなら、問題を起こしているワードがあるかどうか調べていく必要がある。例えば、私はスパムフィルターをトリガーすることを恐れ、接触用のeメールでURLを全て盛り込む行為を止めている。この変更を行った途端、返信率は大幅に上がった。

29. エバーグリーンコンテンツとは?なぜこのコンテンツは重要なのか?

エバーグリーンコンテンツとは、投稿された時、そして、投稿された後も有益なコンテンツを指す。ブックマークされ、参考にされるコンテンツである。通常、1年間は有効である。このタイプのコンテンツは、信頼されるため、リンクをもたらし、また、オーディエンスが知る必要がある事柄をテーマに据え、引き続き参照されるため、ランキングとビジビリティを継続的に改善する効果もある(このコンセプトを詳しく知りたいなら、この記事に目を通そう)。

30. クラウドソーシングとは何か?なぜ一部の人達に嫌われているのか?

クラウドソーシングは、グループで支援するシステムである。クラウドソーシングに参加する人達は、コンテンツを宣伝し、プロモーター陣に新たな力をもたらすため、素晴らしい手段だが、リンクを構築する方法としては、手抜きな部類に当たるとして、一部のリンクビルダーには嫌われている(あるいは、この専門用語自体が嫌われているのかもしれない)。

31. イベントの後に調子が良いリンクのROIを追跡する方法

そのイベントがインターネット上のイベントかどうか(新しいコンテンツ等)、直に会うイベントかどうか(会社が企画した接待)、あるいは、名刺をパーティーで10名に渡した等のイベントかどうかによって、様々な方法が考えられる。リンクを獲得するために何をしているにせよ、ROIを計測する方法を知っておく必要がある。

32. ページランクがnofollowを介して流れる仕組み

ページランク5のサイトから10本のリンクを獲得し、そのうちの5本がnofollowなら、残りの5本のリンクは、ページランクの1/10を受ける。nofollowの5本のリンクは、何も享受せず、ページランクを分割するために存在するだけである。

33. グーグルオーサーシップとは何か & なぜ重要なのか?

マット・マギー氏は、昨年、オーサーシップに関する報告を行った:

グーグルは、オーサーシップのステータスを用意する隠れたメリットがあることを認めた。ユーザーが、オーサーのタグがつけられた検索結果を一定の時間読み、再び検索結果に戻ってくると、グーグルは、前回クリックされたリンクの下に同じオーサーの同様の記事への3本のリンクを掲載する。

この他にも、オーサーシップを利用することで得られるメリットは数多くある。

34. 業界で一般的な取り組みを把握する方法

今利用している手法は、この業界特有のものである点を理解する必要がある。必要はないと思っても、念のために競合者の取り組み、そして、競合者のリンク構築の仕組みを確認しておこう。ホームページよりも深いページへのリンクを得ている傾向があるかどうか、ソーシャルメディアを多用しているかどうか等、チェックしてもらいたい。

他に誰もしていない取り組みを把握する上で、あるいは、自分だけが実施していない取り組みを理解する上で、この作業は役に立つ(ただし、当該の業界が、一般常識に反する行為を実施する傾向があっても、あるいは、グーグルのガイドラインを違反している傾向があっても、便乗しても良いと言うわけではない点を警告しておく)。

35. <meta name=”robots” content=”noydir,noodp”>

人間が実際に編集を行うヤフー!ディレクトリとDmozは、長年にわたって運営されており、掲載している情報の一部が古くなっている可能性がある。このコマンドは、検索エンジンに古いメタデータを表示しないように命令する効果がある。

36. サイトが検索エンジンにインデックスされているかどうかを調べる方法 & インデックスされていなかった場合の影響

リンクを見つける際に、リンクを求めているサイトが、検索エンジンによってインデックスされているか否かを常に確認してもらいたい。[site:url.com]検索を利用し、何も見つからなかったら、インデックスされていないことになる。グーグルに含まれていないなら、そして、数週間が経過しているなら、良くない兆しである。当該のサイトは、ペナルティーを受け、インデックスから削除されている可能性がある。

もちろん、一時的な措置かもしれないが、グーグルにインデックスされていないサイトを見つけたら、リンクを張るべきではない。リンクのリスク分析ツールも、リンクの危険度を計測する目安として、インデックスを活用しており、早い段階で問題を特定する上で役に立つはずだ。

37. ランキングから全体像を把握することが出来ない理由

要素によって、ランキングは変わることがあるため、キーワードに対するサイトの本来のランキングを特定するのは、至難の業である。例えば、グーグルにログインすると、ログインしていない場合と異なる結果が表示される。また、ランキングは頻繁に変動する。しかし、一部のウェブマスターは、一時的にランクが落ちると、たとえ24時間後に元の位置に戻ったとしても、必要以上に動揺している。

もちろん、ランキングが大幅に落下したなら、大きな問題を抱えていることを示唆しているかもしれないので、調べてみる必要がある。ただし、ランキング以外にも注意するべきポイントはたくさんあることを忘れないでほしい。

38. …それでも、適切にランキングを確認する方法

グーグルからサインアウトして、キーワードを自分で検索する手がまず考えられる。このように、決して難しくはない。ウェブマスターツールでも確認することは可能だが、平均のランキングのデータしか用意されていない。基準として活用し、トレンドを参考にする程度に留めよう。

39. リンクの配置が重要な理由

一部の場所(フッターやサイドバー)は、以前から、リンクを得るためのスパムの巣窟となっており、前後関係が存在する場所のリンクほど重要視されない。このリーズナブルサーファーに関する記事(日本語)を読めば、リンクの場所が、クリックされる確率に影響を与える仕組みを理解することが出来るだろう。

40. リンク構築は違法行為に当たるかどうか

グーグルのガイドラインが、法律に則って策定されたと考えている人達がいるが、その根拠が私にはさっぱり分からない。それでも、リンク構築が違法行為だと本気で考えている人達は実在する。念の為に、ハッキリさせておく。グーグルのガイドラインを違反すると、グーグルからペナルティーを受ける、または、インデックスから削除される。

41. サイテーションとは何か

基本的に、ブランド名もしくはURLの言及を指す。理論上は、リンクがなくても、人気の高いコンテンツでブランドの名前が言及されることは重要だと考えられている。ブランド名を見た人が検索を行うため、検索の量が増えるためだ。また、リンクなしで言及が行われると、リンクを張る機会が生じる意味でも重要だと言えるだろう。

42. 共起とは何か

共起は次の2つ状態のうちの1つに該当する:

  1. コンテンツ内のブランドの言及、もしくは、自分のサイトに向かうリンクの近くの別のリンク
  2. コンテンツ内のブランドの言及、もしくは、自分のサイトへ向かうリンクの周りのキーワード

例えば、記事の中で、業界のオーソリティサイトと一緒に引用されている場合、良い共起と考えられる。動揺に、100のサイトでリンクが掲載され、[ブランディングエージェント]や[ロゴのクリエータ]等のワードに囲まれているなら、サイトは、この用語により強く関連付けられるようになる。

43. 拡大不可能なメソッドが今でも役に立つ理由

拡大することが出来ないメソッドであっても、何度かプラスに働くことがあったなら、利用してみた価値はあったと言えるのではないだろうか?アレンジを加えて、今後は拡大することが出来る方法を学んだケースも、あるいは、単純にROIに時間を費やす価値が現れているケースもある。

44. アウトリーチを拡大する方法

アウトリーチ(接触)ツールの中で、Buzzstreamは、取り上げられる回数がずば抜けて多い。連絡を取りたいサイトを既に把握しているなら、このツールは重宝するだろう。私は、個人に特化させることが出来るため、自分でリンクを要請する手法を好むが、Buzzstreamの素晴らしさは認めざるを得ない。

45. 必要に応じてインデックスからページを削除する方法

グーグルとビングは、それぞれのウェブマスターツールでこの作業を行う機能を提供しているが、noindexメタタグを加える、あるいは、サイトマップからページを削除して、ページが除外されるのを待つ手もある。

46. インデックスから削除されたサイトを作り直すことを薦めるタイミング

ペナルティーを受けたため、1年以上をかけて、リンクの整理、否認、そして、再審査リクエストを行ったものの、いまだに検索結果に反映してもらえないサイトがある。また、私の友人のサイトは、この全ての取り組みを実施し、再びインデックスしてもらい、復活を遂げたものの、別のアップデートの打撃を受けていた。再びインデックスから除外されたわけではないものの、サイトを一から作り直さなければならないほど、ランキングが大きく落下してしまったようだ。

47. 再審査リクエストを投稿した後

通常、待ち時間は長い – そして、散々待たされた挙句、リンクプロフィールにはまだ疑わしいリンクが残っていると指摘されることが多い。サイトを奇跡的に以前の状態に戻すことが出来ると期待しているなら、がっかりすることになるだろう。/p>

48. リンクキャンペーンを受け継いだ後に行う取り組み

まずは、出来るだけ集中的にサイトの被リンクを分析するべきである。全体的な状況を説明してくれることを願っているが、前任者が、以前の取り組みを把握していない、わざわざ説明するほど重要ではないと考えている、全く気にしていない、もしくは、意図的に何かを隠そうとすることが多い。どんな説明を受けるにせよ、自分でリサーチを行い、実際にどんな取り組みが行われていたのかを把握する必要がある。

49. EMDとは何か

Exact Match Domain(完全一致ドメイン)の略である。約1年前、グーグルはフィルターを導入し、上位に君臨していた多くのEMDを陥落させていた。EMDは、上位にサイトをランク付けさせる方法として、十分な実績を残していた。URLをキーワードで構成することで、サイトが何かに特化しているとアピールすることが出来たためだ。しかし、その他の過去のうまくいった手法と同じように、濫用が進み、グーグルが対策を講じる結果となった。ただし、今でも上位にランクインしているEMDは数多く存在する。

50. Wayback Machineの使い方

私はこのツールを毎日利用している。例えば、ドロップされたドメインかどうか等、サイトの過去を探る上で有効である。ここにURLを入力し、「Take Me Back」をクリックする。次に、日付をクリックして、当時のサイトの姿を確認する。当該の日付のサイトのコードまで調べることが可能であり、とても役に立つ。

51. サイトリンクとは何か

SERPに掲載されるその他のページに対する、字下げされたエントリのことだ。サイトリンクには、サイトのエントリが、より信頼感があるように見せるだけでなく、良質な内部のページにアクセスしてもらえる効果も期待できる。

52. グーグルの構造化データツールの使い方 & リッチスニペットとは何か

レビュー、レシピ、製品等の具体的なタイプのコンテンツに用いられる、リッチスニペットは、グーグルのSERPに表示されるテキストであり、グーグルがコンテンツに関する情報をさらに集め、より有益な方法で表示することが出来るようになる。グーグルの構造化データツールでは、構造化データマークアップの詳細(グーグルのオーサーシップが適切に実装されているかどうかを含む)を把握することが出来るため、このツールを活用し、ページをテストするべきである。

rich snippet

53. リスクの真実をクライアントに伝える方法

利用している戦略がリスクを伴っているかどうか分からないなら、調査を行い、包み隠さずにクライアントに伝えなければならない。クライアントが当該の戦略に中止する決断を下したなら、それで問題ない。しかし、SEO業者が何をしているのか、そして、グーグルに捕まった際に、どれぐらい大きなダメージをサイトに与えるかをクライアントが理解していないなら、SEOのエキスパートを名乗る資格はない。


この記事は、Search Engine Landに掲載された「50+ More Things Every Link Builder Should Know」を翻訳した内容です。

スミマセン、余りに大量すぎて見出ししか読んでいませんが間違ったことは書いてないと思います。後は好奇心旺盛なあなたが自身で是非の判断も含めて探究してください。。 — SEO Japan [G+]

Googleが考える「不自然なリンク」の定義

上級者向けSEOガイドをシリーズで紹介中ですが、たまには別のSEOネタを、ということで、Googleが考える不自然なリンクの定義についてサーチエンジンランドが一つ一つ考えてみた記事を。日本でもペナルティが普通に発動されるようになった最近、それでもリンク取得活動は重要なことは変わらないですし、時にそのリンクがグレーゾーンなのか自問自答したくなるケースもあるでしょう。そんな時の参考になるかもしれない記事です。 — SEO Japan

sel-link-schemeグーグルは、先月、ウェブマスターツール内のリンクプログラム/不自然なリンクに関する文書を密かに更新していた。

バリー・シュワルツが、記事の中で分かりやすく指摘していなければ、気づく人達はほとんどいなかったに違いない(私はページの更新を知らせるアプリを設定していたものの、数日間気づかなかった)。

この記事のおかげで、このニュースはリンク構築/SEOコミュニティに伝わり、“google updates link schemes.”と言う検索クエリで6000近い検索結果が表示されるほど、変化に関するレポートが次々に投稿されていった。このニュースが報じられてから3週間も経過していない点を考えると、ウェブは、抜群の反響効果を持っていると言えるだろう。

私がこれから、具体的なグーグルの変更点に対して、戦略的なレベルで許されるか、許されないかを判断し、解析を行っていく。広大なウェブにも、このタイプの情報はあまり見当たらない。

私はグーグルの広報としてこの取り組みを行っているわけではない。内部者のみが知る秘密の情報も持っているわけでもない。経験と見解を基にこの記事を綴っている。経験と言えば、3ヶ月後には、オンラインマーケティング/コンテンツの宣伝を始めて20年が経過することになるため、ある程度の知識を得ているはずである。

ページランクを操作するためのリンク

グーグルの主張

ページランクやグーグルの検索結果でのサイトのランキングを操作することを意図したリンクは、リンク プログラムの一部と見なされることがあり、ウェブマスター向けガイドライン(品質に関するガイドライン)への違反にあたります。これには、自分のサイトへのリンクを操作する行為も、自分のサイトからのリンクを操作する行為も含まれます。

厄介な理由

「意図した」、「見なされることがあり」と宣言するだけで、グーグルは、弁解の余地を正当な理由で得ていることになる。私達にとって重要なのは、どのように意図を解釈するかである。ページランクを操作する意図はなかったものの、最終的にページランクを操作する結果になったリンク構築キャンペーンに参加する可能性は十分にあり得る。意図的にキャンペーンを行ったかどうかを、アルゴリズムはどのように判断するのだろうか?

個人的な見解/戦略的な対応

被リンクプロフィールの履歴が、リンクプログラムに意図的に関与しているかどうかを決定する判断基準として採用される気がする。

大学の成績証明書に例えると分かりやすい。3年間ずっと「C」ばかりを取っていたのに、突然、4年生になって「A」を立て続けに獲得すると、少なくとも学術的な分野において、その人物の人となりを物語っている。同様に、サイトが、アーティクルファーム、大量のディレクトリ、そして、多くのプレスリリースサイトから4年間にわたって被リンクを獲得しているなら、この過去の取り組みにサイトの特徴が反映されていると言えるのではないだろうか。

しかし、人物(またはウェブサイト)を徹底的に精査しなければ、確実な結果を得ることは出来ない。だからこそ、グーグルは弁解の余地を残しているのだと思う。全く同じアンカーテキストをベースとしたプレスリリースの戦略が、過去の“リンクのストーリー”に応じて、全く異なる影響を与える可能性がある。 この点に関して私が持つ証拠は、同じ戦略を採用して、完全に異なる結果を得たクライアントから相談を受けていることのみである。被リンクプロフィールを調査していくと、兆候が若干見えてくる。少し正しい、あるいは、少し誤っているかが、この兆候に現れている。

戦略においては、当たり前だが、ページランクのみを考慮して、リンクを求める行為は避ける必要がある。追及しているリンクについて、私は「ランキングを改善する効果がなくても、このリンクを欲しいか」と自問自答するように心掛けている。つまり「自然のランキング以外に、このリンクを得るメリットがあるかどうか」を尋ねているのだ。リンク戦略全体として、このような基準を満たすリンクを求めてもらいたい。

リンクの購入または売却

グーグルの主張

  • ページランクを転送するリンクの売買。これには、リンク、またはリンクを含む投稿に対する金銭のやり取り、リンクに対する物品やサービスのやり取り、商品について書いてリンクすることと引き換えに「無料」で商品を送ることなどが含まれます。

厄介な理由

平凡なウェブマスターが、SEOの専門的な知識を持っている可能性は低く、そのため、「ページランク」とは何か、もしくは、ページンランクがどのように転送されるのかを把握していない確率は高い。

個人的な見解/戦略的な対応

繰り返すが、解釈によって対応は変わってくる。グーグルは、ページランクを転送する有料リンクについて、かなり明確に説明している。そのため、大勢のウェブマスターがページランクが何か理解していないことが、混乱を生じさせる原因となる。

事例: 航空関係のウェブサイトのためにリンクを探している際に、州の航空協会が航空関連のリソースを見事にまとめている点に気づいた。良質な飛行機関連のウェブサイトを持っているなら、無料で掲載してもらうことが出来る – しかし、50ドルを支払うと、特別な「特集サイト」に載せてもらうことも出来る。

このサイトとの交渉を続けた結果、さらに多くの情報を入手することが出来た。この協会は、nolollow/followが何なのか全く分かっていなかった。「アンカーテキスト」と言う用語も通じなかった。SEO業者ではなく、あくまでも航空協会であり、グーグルの検索結果のランキングを改善するためにリンクを張っているわけではなかったのだ。

当初、私は真意をつかみかねていたが、話を進めるにつれ、会話をSEOの方向に導くことが出来るようになり、技術的な面で、自分達の行為がグーグルの品質ガイドラインを違反していることに気づいていなかった点が明らかになった。

事実、私達の多くは、この業界のことばかり考え、星の数ほどのウェブサイトが存在し、その多くがグーグルのガイドラインのことなど知る由もない人達によって運営されている点を忘れがちである。このケースでは、当該のサイトを運営しているのは、パイロットであり、nofollowリンクを知らなくて当然である。

戦略においては、リンクを何らかの報酬を介して得ることで発生するリスクが、見返りを上回るかどうかを自問するべきである。グーグルが存在しなかったら、そして、リンクに対価を支払っているとしたら、リンクがトラフィックを運んでくると感じたと言う理由でなければ、何らかの見返りを与えてリンクを得る行為は、筋が通らない。この質問に対する答えを目安にするべきである。リンクを購入している最中にマット・カッツ氏に見つかったら、ランキングとは関係がなく、オーディエンスにとってリンクが適切であるため、買ったと説明することが出来るだろうか?

相互リンク

グーグルの主張

  • 過剰なリンク交換、または相互リンクのみを目的としてパートナー ページを作成すること。

厄介な理由

ここでもまた、グーグルは曖昧な説明に終始している。この場合、何が「過剰」に該当するのだろうか?また、グーグルは、あらゆる目的において何をもって「過剰」と判断するのだろうか?

個人的な見解/戦略的な対応

グーグルが「過剰」をどのように定義しているのか知りたい。リンクの交換が、ビジネスにおいて妥当だと判断される様々なシナリオが考えられる。例えば、ジョージア州アトランタのウェディングプランナー業を営んでいると仮定する。その場合、ケータリングサービス、フォトグラファー、DJ、リムジン会社、花屋、エンターテイメント会社、引っ越し業者、チェロの演奏者、ハープ奏者、- さらには、仕立て屋、はたまた、一輪車の乗り手とも提携を結んでいる可能性がある。

この場合、個別の会社の認知度を高めるため、お互い助け合う手段として、リンクを張る取り組みが、理に叶って“いない”と主張する方が無理がある。グーグルのことは忘れよう。あくまでもマーケティングを考慮しているのだ。これは、認知度、そして、クリックを増やす取り組みそのものである。

「過剰」等の曖昧なワードが、迷惑だと思うのはこのためだ。どの時点で提携を回避すればいいのだろうか?熱気球の会社なら大丈夫だろうか?ウェディングで熱気球を飛ばすシーンを見たことがある。海上でウェディングを行いたいカップルもいるので、ボートのレンタル会社と手を組んでも平気だろうか?博物館、あるいは、山頂の場合は許容されるのだろうか?

そもそも、アルゴリズムは、優れたマーケティングと過剰なマーケティングをどのように見分けるのだろうか。やはり過去のリンク構築の取り組みが参考にされるのだろうか?しかし、ウェディングプランナーが、以前はブラックハットなSEOサービスを採用し、数年間にわたって浅はかなリンク構築の手法に手を染め、グーグルに見つかったことがあるものの、現在は、正真正銘のホワイトハットなアプローチを信条とする私と手を組み、検索のランキングではなく、ブランドの認知度と拡大を目指している場合はどうなるのだろうか?グーグルはこの点にも気づいてくれるのだろうか?そうであることを私は願う。

戦略においては、相互リンクは、とても役に立つかもしれないが、検索ランキングを改善する目的で、関係のないサイトとの相互リンクを実施するのは、やめておいた方が無難だと私は思う。私達自身は、ウェディング専門のフォトグラファー、スキューバダイビングのインストラクター、そして、ダルシマーの演奏者が、実際にウェディングと関連しているシナリオを想像することが出来るものの、グーグルにもその関係を理解してもらえるなどと期待するべきではない。

アーティクルマーケティング & ゲスト投稿

グーグルの主張

  • アンカー テキスト リンクにキーワードを豊富に使用した、大規模なアーティクル マーケティング キャンペーンやゲスト投稿キャンペーン。

厄介な理由

「大規模」とは何を意味するのだろうか?

個人的な見解/戦略的な対応

聴覚障害を持つ高校3年生の生徒に大学の学資援助の選択肢を理解してもらうことを意図して作られた素晴らしい記事/eブックをクライアントが持っていると仮定する。その後、多くの高校に連絡を取り、75本のリンクを獲得したとする。これは“大規模”に該当するのだろうか?あるいは、リンクを獲得することを目的として、大量の記事のデータベースを投稿する行為のみが問題視されるのだろうか?

アンカーテキストとリンクの本数を基に判断されるのだろうか?キーワードを豊富に詰め込んだアンカーテキストを利用せずに、経歴欄にプレーンテキストのリンクを利用していれば、5000のサイトに記事を投稿しても許されるのだろうか?私はサーチエンジンランドに100本以上の記事を投稿しており、全てのページの経歴欄から自分のサイトにリンクを張っている。これは“大規模”だと考えられるのだろうか?

戦略としては、広範囲/全般的な記事投稿サイトを避けるよう私は提案する。個人的には、この手のサイトを利用する価値はないと思う。ただし、上のeブックの例のように、分野にこだわることで発生する機会を無視しないでもらいたい。

ゲスト投稿に関しては、戦略は、次の2つの疑問の答えに集約されているのではないだろうか 1) なぜゲスト投稿を行うのか?(検索結果のランキング?トラフィック?) 2) ゲスト投稿を行う側、そして、受け入れる側は共にどの程度信頼することが出来るのだろうか?

私は今まで一度もゲスト投稿を実施ことはなく、今後も実施するつもりはない。万が一、ゲスト投稿を行うとしても、ゲスト投稿の機会を積極的に宣伝しているブログは避ける。「このブログに記事を投稿しませんか?」と言う文言は、個人的に危険信号に等しい。私なら寄稿者全員のスキル、そして、コンテンツのトピックを調査する。史上稀にみる優れたゲスト投稿を作成したとしても、投稿するブログが、怪しげな製薬会社に関するブログなら、何もメリットを得ることは出来ないはずだ。

リンク構築の自動化

グーグルの主張

  • 自動化されたプログラムやサービスを使用して自分のサイトへのリンクを作成すること。

厄介な理由

タスクの一部を自動化する場合もペナルティーの対象になるのだろうか?グーグルはどのように判断するのだろうか?

個人的な見解/戦略的な対応

最後にグーグルは、「自動化されたプログラムやサービスを使用して自分のサイトへのリンクを作成すること」を挙げている。しかし、何をもって自動化と言うのだろうか?50本のeメールをそれぞれ内容を変えて作成し、送信箱で保存したとする。その後、サンダーバードの「後で送信」機能を利用する場合は、技術的に自動化したことにはならないのだろうか?自動化したことになる。しかし、グーグルが言及する自動化とは、少し違う気がする。

戦略においては、リンクを要請する上で、安全に自動化するプロセスもあれば、出来ないプロセスもあると思う。調査なら自動化することも可能だが、自分でリサーチを行って、補う必要はある。連絡先の追跡や継続調査は、容易に自動化することが出来る。一方、決定権を持つ適切な連絡相手を特定する取り組みは、自動化するべきではない。

常識で判断するべきだ。リンクを手に入れるために、「パーソナル」な文章に見せ掛けているメールは一目瞭然である。それでも、この行為を続ける人達が一向に後を絶たない。20年近くリンクを要請する取り組みに私は携わっているが、メールを送信する相手の名前を知らない状態でリンクを要請するメールを送ったことは一度もない。「ウェブマスターの方へ」あるいは「拝啓」で始まるメールは、自動的に削除するようにしている。自動化することが出来るからと言って、自動化するべきだとは限らないのだ。

当たり前?

今回の私の主張は、思考の糧にしてもらいたいものもあれば、当たり前のものもある。しかし、SEO業界以外の人達にとっては、当たり前ではないことばかりである。また、SEO業界の大きさは、世界全体から見れば、米粒ほどである。グーグルが毎月実施する変更、そして、その影響についてなど知る由もない人達が、サイトを運営しているのだ。

大勢のウェブマスターは一人でサイトを運営している。一方で、SEO業者やSEOコンサルタントの言いなりになり、するべきではなかったことを、していたことに気づき、ショックを受ける人達もいる。実際、毎日この手の相談を私は受けている。

ウェブマスターは混乱し、恐れている。とりわけ、ペナルティーを科されたものも、理由が分からない場合、あるいは、リンク構築戦略を学んだものの、それが安全なのか、あるいは、いずれサイトに大きなダメージをもたらすのかどうか分からない場合、不安は募る一方である。

私はグーグルのファンであり、ガイドラインで情報を公開するグーグルの取り組みを高く評価している。グーグルは、劣悪なリンクの例を紹介し、不自然なリンクリンクプログラムに関する文書を更新している。

しかし、このように情報を公開する取り組みを行っても、混乱は起きており、事実、私に届くeメールの数を見る限り、混乱は増え続けていると言わざるを得ない。細部をおろそかにすると痛い目に遭う。今回は、いろいろな解釈が出来る幾つかのワードが点在している。皆さんなら曖昧なワードをどのように定義するだろうか?

  • 意図する
  • 見なされることがある
  • 過剰
  • のみ
  • 大規模
  • 広範囲に配信
  • 自動化
  • 品質の低い

是非、意見を聞かせてもらいたい。例外があるため、グーグルが解釈の余地を残していると言う私の意見に同意してもらえるだろうか?例外は、私が紹介したケースに似ているだろうか?ウェブマスターを助けるため、他にグーグルはどんな取り組みを行うべきなのだろうか?

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「Understanding Google’s Latest Assault On Unnatural Links」を翻訳した内容です。

さてあなたはサーチエンジンランドの意見をどう考えたでしょうか?Googleでなくとも、ある程度はバランスの問題とは思いますし、明確に定義し切ることはできない話しとは思います。以前は一度ペナルティを受けたら関連情報も出されない、また回復するのが運次第的な部分もあったので、バランスで諦めきれない話でしたが、最近は警告の内容もきちんと教えてくれるようになりましたし、再申請の対応も大分スピード感も出てきましたよね。仮にペナルティを受けても努力次第で解除まで持っていけるようにはなってきていますし。とはいえ、過去何年も色々とやりこみ尽くしてきた場合は解除が難しい場合もあるようですが・・最近までそういう状況を放置してきたGoogleにも責任の一端がある、という主張はそれはそれで十分に分かるのですけど。 — SEO Japan [G+]

上級者向けSEOガイド5/9 : データ&リサーチ

SEOの上級者向けガイドのシリーズ第5弾は、高度なデータ取得やリサーチ方法について解説した記事を。英語圏でしか使えなさそうなものもありますが、網羅度が幅広いですし、読んでいけばあなたの日々のデータ収集活動を効率化する発見があるはず。いきなりGoogle DocsのImportxmlの活用方法など戸惑う人も多いかもしれませんが、読んでみるとその便利さを感じられるはず。後半はツイッターの高度なリサーチ方法についても書かれているのでソーシャルメディアマーケティングにも参考になりそうです。 — SEO Japan

チャプター 4を終える頃には、強固なウェブサイトが出来あがっているはずである。しかし、SEOは、スピードインデクセーション、そして、メタデータだけではない。

チャプター 5では、ImportXMLを用いたオフサイトSEOから説明していく。


1. ImportXMLとは

ImportXMLとは、html、xml、csv等のファイルの種類から、xpathを使って情報を引き出す手段である。

グーグルドキュメントのスプレッドシートに直接インポートすることが出来るため、外部サイトの情報を取得し、調達する上で大いに役立つ。また、高度な検索を実施して、他の方法では取得することが難しい情報を得ることも可能である。

ImportXMLを使った例を紹介していく。

基本的なシンタックス

ImportXMLはエクセルやグーグルドキュメントの数式と同じであり – 割とシンプルなシンタックスを利用する:

=importXML(URL, Query)

URL = 取得するURL

Query = URLで実行するxpathクエリ

基礎の例 – クイックスプラウトのH1タグを取得する

新しいグーグルドキュメントのスプレッドシートを作成する。

URLを設定する。

基本のxpathの関数を作成して、ページのH1を取得する(スクリーミングフロッグ、または、サイトのクロールを介して同じ作業を行うことが出来るが、分かりやすい例を紹介するため、この方法に拘っていく)。

importxml関数をセルB2に加える。

URLが存在するA2を参照している点に注目してもらいたい。

クエリは引用符で囲まれる。

次にxpathは返されるファイルの部分を特定する。//h1は、ページのh1を含む全てのコンテンツを返す(これは“//”のパーツによる命令であり – どれだけレベルが深くても、あるいは、どれだけネストされていても、全てのh1“path”を求めることが出来る)。

次のアイテムが返される:

これで投稿のH1をグーグルドキュメントに引き出すことに成功した。次に、グーグルドキュメントのimportxmlにおいて、有意義な例を幾つか挙げていく。


2. ImportXML – クオラ/ツイッター

次にクオラを使って、ツイッターのURLにおいて影響力の強い、あるいは、権力を持つ可能性のあるユーザーを調達する方法を伝授する。

以下に最終的な結果を表示する。この結果を目指して、これから作業を進めることになる:

ステップ 1 – グループまたはトピックを探す

この例ではブログのトピックを取り上げる - http://www.quora.com/Blogging/followers

ステップ 2 – カラムAにクオラのURLを入力する

カラムBで実行されている関数の中で、このセルを参照する。

ステップ 3 – importxmlの関数を作って、ユーザー名を取得する

関数を以下に挙げる:

=importxml(A2, “//h2/a/@href”)

コードを理解し、作りやすいように、関数を分解していく。

  1. =importxml()          空の関数
  2. A2                  クオラのURLを参照する“URL”フィールド
  3. //h2                 このURLの全てのh2を参照する
  4. /a                 h2内にネストされたタグを参照する
  5. /@href         アンカータグに含まれるリンクのみを参照する

ご覧のように、この関数はブログのトピックの上位20名のユーザーをリストアップする。

ステップ 4 – 完全なURLを作成する

既にお気づきかもしれないが、クオラは相対URLを使ってリンクを張るため、絶対URLにコンバートする必要がある。

シンプルにconcatenate関数を利用する:

因みにconcatenate関数を念のために掲載しておく:

=CONCATENATE(“http://quora.com”,B2)

このコードも分解していく。

  1. =CONCATENATE()                空のconcatenate関数(複数の文字列を一つにまとめる)
  2. “http://quora.com”                クオラURLの出だし(別のセルを参照しない場合、すべて引用符で囲う必要がある)
  3. B2                                 不完全なユーザーのURLを持つセルを参照する

この作業を終えたら、今度は数式を掴み、カラムの残りに引き下げていく:

ステップ 5 – ツイッターのURLを取得する

最後の仕上げとして、ツイッターのURLを取得する。

以下に関数を掲載する。長いので区切って一つずつ説明していく:

=ImportXML(C2,"//div[contains(@class,'profile_action_links_section')]//a[contains(@href,'twitter.com')]/@href")

  1. =importxml()                                空のimportxml関数
  2. C2                                        参照している完全なクオラのプロフィール
  3. //div                                        HTML内のdivタグを参照する
  4. [contains()]                                divタグを絞り込む
  5. (@class,’profile_action_links_section’)          ここではclassの要素を選択している

HTML内のクオラのコードのスクリーンショット:

  1. //a[contains(@href,’twitter.com’)]        ツイッターへのリンクを含むアンカーテキストを選択する
  2. /@href                                        アンカーテキスト内のリンクを実際に取得する

忘れずに数式をつかみ、カラムの残り全てに引き下げよう。

これで、20名のツイッターのユーザーを1度に取得することが出来るようになった。これは技術的なガイド(How To)であり、このリストをどのように使うかに関しては、皆さんの判断に任せる。きっと様々な用途が浮かび上がるはずだ :-)


3. キーワードのアイデアを得るために Ubersuggestを取得する

  1. グーグルドキュメントのスプレッドシートを新たに作成する。
    Create > Spreadsheetの順にクリックする。
  2. セルA1で、Ubersuggestで質問したいことを入力する。
    この例では、“how to …”を入力し、クエリを始めている。
  3. セルA2に次の数式を入力し、Enterを押す。
    =ImportXML("http://ubersuggest.org/?query="&A1& "&format=html&language=English%2FUSA&source=web&submit=Suggest", "//li/span")

    スプレッドシートがUbersuggestの答えで埋まる:

4. ウェブページのリストでHTMLを探す

一度に100(または100以上)の候補のサイトを手っ取り早く探し出す方法をこれから紹介する。高額なリンク発見ツールを使って、この取り組みを行うことも出来るが、予算が少ないなら、または、ツールの数を減らしたいなら、この方法は大いに役に立つだろう。しかも、とても簡単であり、また、楽しいと言うメリットもある。

この方法は、コンテンツの一部ではないリスト – つまりコードでHTMLを探している際に役に立つ。この例では、‘rel=author’タグを探していく – この作業には2つの意図がある。まず、ウェブサイトのオーナーは、わざわざ時間を割いてこのタグを設定するくらいなら、マーケティングの観点から見て、出来るだけ上の方に陣取ろうとするはずである。次に、ウェブサイトのオーナー(または助っ人)はある程度の技術的なスキルを持っていると考えられ – 協力を容易に要請することが出来る可能性がある。

これから挙げていくステップに従ってもらいたい:

1. グーグル検索を幾つか考える。

2. 結果を取得する。

3. スクリーミングフロッグを使って、リストの特定のコードを探す。

ステップ 1. グーグル検索

リンクを獲得することが出来る可能性のあるサイトのリストを手に入れたい。ここでは、食べ物をテーマにブログを運営しており、ゲスト投稿を行うため、他のブログを探していると仮定する。次のような検索を実行することが考えられる:

food inurl:blog intitle:submit post

food inurl:blog intitle:contribute post

あるいは、キーワードを使ってさらに具体的な検索を行う手もある:

gourmet food inurl:blog intitle:submit post

eclectic desserts inurl:blog intitle:submit post

良質な検索を実施すると、結果内に複数のサイトの候補が表示されるはずである – 多過ぎても良くない。例えば:

手始めに上のクエリから取り掛かることを薦める。

2. グーグルの結果からURLを取得する

グーグルの結果をテキストドキュメントにまとめ、スクリーミングフロッグを実行する準備を整える必要がある。

1. 準備段階として、1つのページにつき100点の結果を返すようにグーグルを設定する。

検索の設定にアクセスする。

ページあたりの表示件数を100に設定する

グーグルに戻り、再び検索結果を表示させる。

次にSERP Redux ブックマークレットを使う – リンクをクリックする。

URLのリストをクリップボードにコピーする。

テキストエディタに貼り付ける。

.txtファイルとして保存する。

3. スクリーミングフロッグを介してURLを絞り込む

1. スクリーミングフロッグをリストモードに設定する。

2. テキストファイルを選び、開く。

3. Custom設定にアクセスする。

4. 絞り込むHTMLを入力する。

この作業を実施する方法が鍵を握っている。

次の4つのリストを作成する:

  1. rel=authorを含む
  2. rel=authorを含まない
  3. rel=meを含む
  4. rel=meを含まない

5. カスタムの結果を見る。

‘custom’タブをクリックする – すると、フィルター1-4を選択することが出来るようになる。

このケースでは、リストにはrel=authorを持つブログは1つしか存在しなかった。それで問題はない。と言うよりも、むしろその方が良い。全ての結果を確認して、オーサーシップを持つ結果を探す作業を想像してもらいたい。これで、ターゲットが絞られた候補のサイトを1つ手に入れたことになる – このプロセスを実施して、さらに多くの候補のサイトを見つけることが可能だ。


5. Citation Finderを使って、リンクを張る機会を探す

このセクションでは、有料ツールの利用方法を紹介する。無料バージョンも用意されているものの、全ての機能を利用することが出来るわけではない。ただし、このセクションで取り上げている作業に関しては、恐らく、無料バージョンでも足りるだろう。因みに、私はこのツールのアフィリエイトに参加しているわけではない。

作業を始める前に、 - https://www.whitespark.ca/local-citation-finder/にアクセスし、無料版または有料版のアカウントの登録を行う。

パート 1 – 検索(プロジェクトなし)

一つ目のタブをクリックし、個人情報をフィールドに入力していく。

数分間待つ:

レポートの準備が整うと、eメールの通知が送られてくる:

すると次のようなレポートを見ることが出来るようになる。「compare citations for these businesses」をクリックする。

その後、csvとしてレポートをエクスポートする。

エクセルファイルとして開き、保存することが出来るようになる – これから、どのサイトが最もサイテーションを得ているのかを容易に判断することが出来るように、少しカスタマイズを加えていく。

次のエクセルの数式を利用する:

=COUNTIF(A2:A111,"*Y*")

このように表示される(カラムBにカーソルを合わせている場合):

全てのアイテムをカウントするため、横方向にドラッグする:

もちろん、オートフィルタをかけ、YまたはNだけを見ることも出来る:

パート 2

パート 1は、一般的な候補を探す上では役に立つが、レポートに含まれていない場合はどうすればいいのだろうか?「search by phone number」機能を利用すればよい。

自分の電話番号、または、会社の名称(電話番号が最も有効であり、肩書きによる検索は難しい)を利用することが出来る。

情報を入力していく。このレポートをプロジェクトに加える:

忘れずにプロジェクトを作成してもらいたい。

生成されるレポートには、キーワードにとらわれないサイテーションのソースが全てリストアップされる。

小さな+をクリックすると、サイテーション(通常は電話番号を意味する)付きのページを見ることが出来る。

データのエクスポートに関しては、複数の選択肢が用意されている:

Re-run and append – 同じレポートを再び実施し、以前見つからなかった新しい結果を加える。

Export CSV – データをエクスポートする。ウェブサイトの名前のみが表示され、URLは表示されない。

Export CSV w/URLs – フルレポートでURL(+をクリックすると表示される)が表示された状態でエクスポートする。


6. eメールアドレスを取得する

データ取得のこのセクションでは、Citation Labs Contact Finderを利用する - http://citationlabs.com/tools/ - 始める前にアカウントを作成する必要がある。

候補のURLのリストを持っている場合、このツールはとても役に立つ – 接触する上で必要なeメールアドレスを速やかに手に入れることが出来る。

パート 1 – URLを集める

(このガイドを参考にして)候補のURLリストを持っているか、あるいは、リストを要領よく手に入れられる方法を心得ていると仮定して、話を進めていく。

この例では、取得したグーグルのURLのリストを利用する – 私が食べ物をテーマに取り上げるブロガーであり、レシピを投稿する機会を狙っていると仮定する。その場合、次のような検索をかけることが考えられる:

recipe inurl:submit

検索を実行したら、Contact Finderにアクセスする。

次にフォームに記入する。

通常のエクスプレッション(regex)を使って、結果を調整することが出来る。例えば、このエクスプレッションは:

^(Contact|About|Email|Submit)

contact、about、email、または、submitで始まる結果を求める。

私ならアンカーテキストをワード数で限定しないようにする。

Contactsタブをクリックして、結果を取得する(処理に数分間要することもある)。

ご覧のように、幾つかの種類の結果が存在する:

  1. Emails – 見つかったeメールアドレス。
  2. Forms – 見つかった投稿用フォーム
  3. Contact Pages – eメールアドレスが存在しない連絡先の情報を持つページ。
  4. Empty – 該当ゼロ。

次に、個別のレポートまたは全てのレポートをCSVにダウンロードすることが出来る。

ご覧のように、100本のURLの中から、次のアイテムを獲得している。

  1. 38点のeメール
  2. フォームを持つ47本のURL
  3. 7つのコンタクトページ
  4. 該当ゼロは8本ページのみ

7. ソーシャルリスニング – ツイッターの高度なデータ収集

別のツールで検索を設定する前に、まずはフォローするべき高度な検索のリストを策定する必要がある。

インテリアの装飾をテーマに取り上げていると仮定する – その場合、出来るだけ多くのバリエーションを持たせるべきである – キーワードリサーチと基本的にほとんど変わりはない。

  1. interiordecorating
  2. interior decorating
  3. #interiordecorating
  4. interiordesign
  5. interior design
  6. #interiordesign

こののワードが中心的なワードになる。次に意図を判断するためのワードのリストを手に入れる:

  1. need(必要)
  2. help(助け)
  3. trouble(問題)
  4. looking for
  5. tips(アドバイス)
  6. question(質問)

特定の場所をターゲットにする場合:

  1. Los Angeles
  2. CA
  3. California
  4. LA

ブランドも忘れずに(私の場合):

  1. Quicksprout
  2. neil patel
  3. kissmetrics
  4. kiss metrics
  5. crazy egg
  6. crazyegg
  7. i’m kind of a big deal

このようなキーワード、そして、検索の組み合わせを行うと、キーワードの言及を全て拾い集めることが出来る。具体的なユーザーをモニタリングする方法は後ほど紹介する。

次のURLで自分で検索を作成し、テストすることが可能だ: https://twitter.com/#!/search-advanced

過去12-24時間以内の複数の結果を入手することを目標にしよう。

IFTTTのレシピを作成する

次に、モニタリングしたい検索が見つかったら、IFTTTのレシピを作り、実行させることが出来る。IFTTTの長所は、様々なプラットフォーム全体で通知を受けることが出来る点である。それでは、アラートが動作する際にeメールまたはテキストメッセージを送信する設定を紹介していく。

注記: 結果の頻度が少ない場合、とりわけ有効である。

アカウントを作成し(無料)、新しいレシピを作成する。

「trigger」としてツイッターを利用する。

「New tweet from search」を選択する。

検索のフィールドに記入する – 単純な検索なら、プレーンテキストを利用することも可能だが、高度なオペレータを利用する必要があるケースが考えられる。

「Action」チャンネルとして、eメールまたはGメールを選択する。

フィールドに記入し、必要に応じてカスタマイズする。

テキストメッセージを受信したい場合:

「Action」としてSMSを選択する。

フィールドを設定する。

後はeメールが届くのを待つだけだ。

おまけ: eメールのフィルターを設定する

情報収集の取り組みGメールのフィルタリング機能を使って、さらにレベルアップさせることが出来る。フィルターを作成し、フォルダーに全てのアラートを送信する:

高度なツイッター検索のシンタックス

幸いにも、ツイッターの高度な検索を生成するツールを利用すると、代わりに検索を考えてもらえる:

次のURLにアクセスし: https://twitter.com/#!/search-advanced 検索を実行する – 結果にはオペレータ付きの検索シンタックスが含まれるはずだ:

ツイッターでインフルエンサーの声に耳を傾ける

インテリアデザインの分野の例を再び取り上げる。今回は、ブログを運営しているインテリアデザイナーとのつながりを増やしたいと仮定する。いつ、助けを必要としているのかを把握しておきたいところだ。

まず – followerwonk等のツールを使って、情報を集めることが出来るユーザーを探し出す: http://followerwonk.com

次に、手を貸すことが出来る点を誰かがメンションすることを考慮し、高度な検索を作成する。コンピュータのエキスパートなら、次のような検索を利用することが出来るのではないだろうか:

ターゲットの人物は、1年に1度しかツイートを投稿していないかもしれないが、大物とのつながりを作ろうとしているなら、IFTTTのレシピを作成し、テキストメッセージを介して、当該の人物が助けを必要としている時に、通知してもらう価値はあるはずだ。

ここでも、ツイッターの検索ページで検索を実行すると、検索に対するシンタックスを提供してもらえる。

Monitterを使って追跡する

Monitterは、特定のキーワードが含まれる大量のツイートをチェックすることが出来る、優れた無料のツールである。ツイッターのリアルタイムモニターと言っても過言ではない。

 http://monitter.com にアクセスし、アカウントを作成する。

検索の用語を使って、カラムを作成する。

ここでは、4つのインテリアデザインの検索に対して、それぞれストリームを用意した:

次に特定の場所からのツイートを追跡する高度な設定を行う。

返信するべきツイートを見つけたら、Monitterから直接行動を起こすことが出来る。

その他のツイッター用ツール

他にもツイッターをモニタリングするためのツールは数多く開発されている。

http://ifttt.com - 複数のオンラインプラットフォームを一つにまとめ、作業を自動化する。

http://monitter.com/ - 複数のカラムを設定し、ツイッターの検索をリアルタイムで追跡する。

http://tweetmeme.com/ - 共有されることが多い、人気の高い記事を調べる。

http://trendsmap.com/ - 特定の場所でトレンドになっているアイテムを確認する – 役に立つビジュアルツール

http://tweetbeep.com/ - ブランド、自分、または、他の何かに関する全てのメンションをeメールで通知する(IFTTTに似ている)。

http://www.ubervu.com/ (有料)

http://needium.com/ - 検索とメンションをモニタリングする。


8. ブラウザ用プラグイン

ブラウザプラグインは、作業をスピードアップし、効率を高める上で大いに役に立つ。このセクションでは、グーグルクローム用のプラグインを幾つか紹介し、また、プラグインの高度な利用方法を少し指南する。

ブラウザプラグインのセクションでは、サイトのアクセシビリティ & インデクセーションの最適化に貢献するプラグインを紹介する。

まず、プラグインのリストを提供する。

  1. Broken Link Checker - https://chrome.google.com/webstore/detail/ojkcdipcgfaekbeaelaapakgnjflfglf
  2. Web Developer - http://chrispederick.com/work/web-developer/
  3. Redirect Path Checker - https://chrome.google.com/webstore/detail/aomidfkchockcldhbkggjokdkkebmdll
  4. SEOmoz Toolbar - https://chrome.google.com/webstore/detail/eakacpaijcpapndcfffdgphdiccmpknp
  5. Chrome Sniffer - https://chrome.google.com/webstore/detail/homgcnaoacgigpkkljjjekpignblkeae
  6. Google Analytics Debugger - https://chrome.google.com/webstore/detail/jnkmfdileelhofjcijamephohjechhna
  7. Microformats for Chrome - https://chrome.google.com/webstore/detail/oalbifknmclbnmjlljdemhjjlkmppjjl
  8. Rulers Guides and Eyedropper Color Picker - https://chrome.google.com/webstore/detail/bjpngjgkahhflejneemihpbnfdoafoeh
  9. Word Count - https://chrome.google.com/webstore/detail/kmndjoipobjfjbhocpoeejjimchnbjje
  10. Source Kit - https://chrome.google.com/webstore/detail/iieeldjdihkpoapgipfkeoddjckopgjg?hl=en-US

これから、幾つかのプラグインの高度な利用法を伝授していく。

Broken Links Checker

このプラグインは、自分のサイトのリンク切れを発見することが出来るだけでなく、創造力を発揮して、他の人のサイトで実行し、リンク構築 & リンク候補の調査においてアイデアを得ることも可能である。

例えば、競合者のウェブサイトのサイトマップでこのプラグインを実行してみる。以下にその方法を紹介する:

1. 競合者のサイトのHTMLサイトマップを探す。この例では、適当に www.bizchair.com を利用した。サイトマップは次の通りである –  http://www.bizchair.com/site-map.html

2. Link Checkerを実行する

エクステンショのアイコンをクリックする。

リンク切れが見つかるまで待つ – この例では、多くのリンク切れが見つかった。

「resource」ページにすぐに気がつくはずだ。楽にリソースのコンテンツを再現し、リンクを獲得するためにこのプラグインを利用することが出来る。

Chrome Sniffer

このプラグインは、自動的にウェブサイトが利用しているCMSまたはスクリプトのライブラリを表示する。例えば、ワードプレスのサイトのオーナーのみに接触したい場合、非常に便利である。

ウェブを閲覧していると、URLの右側のアイコンが利用されているCMSまたはスクリプトのライブラリに応じて変化する。

例えば、私のサイトはワードプレスで構築されていることが分かる。

このサイトはドルーパルをベースにしている。

Redirect Path Checker

このプラグインは、リダイレクトに遭遇すると、ユーザーに通知する。特に自分のサイトを閲覧している時に利用すると、古いURL(または外部のサイト)に内部リンクを張っている際に教えてもらえるため、とても便利である。

例えば、私のサイトでは、ギズモードの302リダイレクトにリンクを張っているリンクを発見した:

なぜ分かったかと言うと、プラグインから302に関する通知を受けたためだ。

このアイコンをクリックすると、ブラウザが当該のページに導く上で利用したリダイレクト(あるいは一連のリダイレクト)を表示する。

SEOmoz ツールバー & プラグイン

Mozのプラグインは様々な用途に利用することが出来る。その中でもより高度な方法を幾つか紹介していく:

リンクがfollowedかnofollowedかを速やかに特定する。

または、ウェブサイトの国およびIPアドレスを見つける。


9. プロキシの利用

プロキシとは何だろうか?また、なぜプロキシを利用するべきなのだろうか?

プロキシは、ユーザーとサーバーの間の仲介役のような存在である。要するに、プロキシを使って、ウェブ上で匿名で行動することが出来る。自分のIPアドレスではなく、プロキシのIPアドレスが表示されるためだ。これは、Rank Tracker等のローカルのソフトウェアを使ってランクキングをチェックしている場合、とりわけ有用である。自動でグーグル検索を何度も行い、当該のロケーションのランキングをチェックしていると、グーグルに危険信号を送ってしまうリスクを背負うことになる。プロキシを非倫理的な方法で利用している人達がいるが、私はこのような方法を推奨しているわけではない。しかし、自分のIPアドレスから、普段とは異なるアクティビティをグーグルに送ることなく、ランキングをチェックする方法として、うってつけである。

それでは、プロキシを利用する方法を伝授していく。多くの無料のプロキシアドレスを一度に見つけるあまり知られていない方法を私はマスターしている。

ステップ 1: 次のURLにアクセスする: http://www.rosinstrument.com/proxy/

無料の公開されたIPアドレスのリストが表示される。このリストは頻繁に変わるため、しばらくこの画面を開いていたなら、更新する必要がある。

ステップ 2: プロキシをScrapeboxにコピペし、テストする:

これは魔法のような効果をもたらす。プロキシのアドレスは、すぐに、そして、頻繁に利用することが出来なくなるため、全てのアドレスを一つずつチェックしていると時間を無駄に使ってしまうことになる。

「Manage」、次に「Test」をクリックする。数分後、プロキシのテストが終了する。続いての手順では、無駄のないリストを作成し、プロキシを選択していく。

ステップ 3: 良質なプロキシをメインのリストに戻す

「Export」の下の「Transfer Good Proxies to Main List」を選択する。すると、有効な無駄のないプロキシのリストが表示される。

ステップ 4: プロキシのアドレスをランキングをチェックするソフトウェアにコピーする

Rank Trackerでは、次のようにプロキシのアドレスを入力することが出来る:

しばらくするとアドレスは利用することが出来なくなるため、リストを再びテストし、次のURLからさらにコピペすることを薦める: http://www.rosinstrument.com/proxy/

おまけ: プロキシの代案

上述した方法は無料であり、それが最大のメリットである。しかし、もっと安定した取り組みを求めている場合は、バーチャルプライベートサーバー(VPS)を手に入れるとよい。大半のウェブホスティングサービスは、VPSを用意しているはずだ。これは、自分専用のIPアドレスを持つようなものだ。多少の料金を毎月求められる可能性もあるが、公開されているプロキシよりも強固であり、手に入れる価値はあるかもしれない。


既に究極のデータ収集マニアになっているはずである。しかし、まだ続きはある。次のチャプターでは、あまり利用されていないキーワードリサーチの方法を紹介する。

上級者向けSEOガイドの記事一覧はこちらから


この記事は、Quick Sproutに掲載された「Chapter 5: Advanced Data Research」を翻訳した内容です。

スクリーミングフロッグ(シリーズ記事第一弾の2番目で詳細に解説しています)で検索上位データを引っこ抜く、というのはナルホドでした。ツイッターのリサーチ方法も良くここまで考えたと唸ってしまう各種ツールの使いこなしぶり・・・筆者の本領発揮な記事でしたね! — SEO Japan [G+]

コンテンツという観点から見たコメント欄の必要性について

「ブログにコメント欄は必要か否か?」不定期に、しかし度々話題に挙がるこの疑問に私なりの終止符を打ったのでここに纏めておきたいと思います。

今回は『コメント欄』というものをひとつの『コンテンツ』として見た前提でのお話になります。

貰って嬉しいコメント

コメント、それは貰って嬉しいユーザーからのダイレクトな反応です。
ブログのモチベーションが最も上がる瞬間がコメントを貰った時、という方も少なくないのではないでしょうか?

それは私も例外でなく、コメントを貰った時は小躍りしながらコメント欄を読みに行きます。
しかし、そんなコメント欄を私は外してしまおうと考えています。

それは何故か?

コメント欄の必要性が薄れた理由

理由はふたつあります。

  • コメントって付かないよね
  • コメント書き込むよりもSNS使うよね

というシンプルなものです。

コメントって付かないよね

これに関しては「お前のブログが面白くないだけちゃうんか!?」という可能性を考慮に入れても、やっぱりブログのコメントっていうのはつきにくいと思っています。
理由は色々あると思いますが、後述するSNSの充実や、ブログ管理人とユーザーという非常にクローズドなコミュニケーションであるというのが大きいのかな…と考えています。

実際この記事を書く前に月に100万PVを超えるようなブログを見て回ったのですが、コメント欄が賑わっている事は稀という印象です。
また、コメントがついていても、後述する『コメントの質』の観点から有益なコンテンツとは成り得ていないものが殆どでした。幾つかブログを周ってみて正直な感想を言えば、記事の良し悪しとか関係なく、中の人が女性の場合はコメントが沢山付くよね…という事です。気持ちはわかります。

コメントよりSNSへ拡散

これは私のブログやフリーランスの経験、あとは日々のインターネットからの所感ですが、ブログの記事っていうのは今の時代、コメントよりもSNSへ拡散される事が圧倒的に多いと感じています。それが悪い方へ働くと、所謂『炎上』になりますよね。

ブログにコメントはついていないけど、TwitterやFacebookで急激に拡散されている記事というのは非常に多く見かけます。

この現象についてもユーザーの心理とか色々考えられるところはありますが、要はSNSへの拡散のほうが『手軽』だっていう事ではないでしょうか。SNSへシェアした人その人自身が情報の発信源になって、反応が返ってくるっていうのも面白いでしょうしね。

コメント欄の設置してあるメリット

そんな現状を踏まえて、じゃあコメント欄があるメリットってなんだろう?って考えてみました。

  • 意見や感想を貰える
  • ユーザーと交流を図れる
  • オープンな姿勢をアピールできる
  • コメントによる軽微なSEO効果

五分くらい考えて、私がぱっと思い付いたのはこのくらいしかありませんでした。
これらはそれぞれ、あまり有益な理由には成り得ない…というのが私の考えです。要は、あんまりメリットらしいメリットが無いとすら言えます。少なくとも私にとっては。

コメント欄の設置してあるデメリット

では逆に、コメント欄が設置してある事で生まれるデメリットについて考えてみましょう。

  • コメントが付かなくてちょっぴり寂しい
  • 閑散としたコメント欄は見た目に虚しい
  • スパムコメントの削除の手間
  • コメント内容の精査と管理

メリットらしいメリットが見当たらなかった前項と異なり、デメリットは大きいです。特にスパムコメントの削除の手間やコメント内容の精査などの管理は、有難いことにコメントが増えれば増えるほど時間がかかるようになってきます。

スパムコメントに関しては放置する事でGoogleにペナルティを受けて検索順位がガタ落ちする、という前例があるのである程度の手作業は必要ですし、コメント内容に関しても不特定多数の人が見て不快にならないように内容を精査するのは必須だと考えているので、これもコメント数に比例して時間がかかるようになってきます。
きちんと返信をする事も目指すのであれば、なおさらです。

しかも、折角頂いたコメントも、この記事の本題となる『コンテンツの観点』から見るとその多くは『無益なコメント』に分類される事がとても多いのが現実ではないかと私は考えています。

コメントの有益性という観点

「コメントを頂いて嬉しい、有難い」という感情的な側面はまた別として、コメントをひとつの『コンテンツ』として見た場合、その内容は有益なものか無益な(あるいは微益な)ものかにどうしても別れてしまいます。これは、楽しんで、愛情を注いで書いた記事であってもSEOの観点から見ると効果的か非効果的か、という話と似ています。

有益なコメント

有益なコメントとは、要するに『具体性を帯びているコメント』です。

極端な事を言えば、炎上時や反論などを真っ向に否定するコメントであっても、それが具体性を帯びていれば記事を書いた側としては得るものがあり、それを今後の参考や改善点として意識する事が出来るようになります。
記事の内容が間違っている、その考えは自分とは合わない、内容が浅いなどなど、その感想を「なぜ」持ったのか、では「どうすれば」より良くなると思うのか。そういったコメントはひとつの意見として参考になる価値のあるものです。

しかし、こういうコメントが付いているのはあまり目にする機会がないように思います。

無益なコメント

それに対して無益なコメントとは、『具体性を帯びていないコメント』です。

例えば、この記事を見て「この考えはねーわー」とか「文章下手すぎw」と言った類のコメントが付いたとすれば、それは無益なコメントです。あと、私も涙ぐみます。(幸いにも、そういう辛辣なコメントを頂いた事はないです!例です。)

「ねーわー」
それを聞かされて私は何をすれば良いのか。それこそ、ねーわーです。

「文章が下手すぎる」
となると、どうすればもう少しマシな文章が書けると思いますか?

そこまで求めるのは甘えすぎかも知れませんが、ここは私のブログの私のコメント欄です。対して、上記の例のようなコメントは端的に言えば記事を読んだ人の只の感想です。

それは内容がポジティブなものであっても同じです。
「良いね!」それ自体は喜びをもたらしてくれますが、コンテンツとして見た場合、またそのコメントを他のユーザーが見て何か得るものがあるか?と問われると答えはおおよそひとつでしょう。

感想はSNSへ流してもらう

つまり、これらの『感想(無益なコメント)』はブログに残しておく必要のない情報という事になるのではないでしょうか。しっかりと内容を計算して作りこまれたコンテンツであればあるほど、コメント欄に無益なコメントがたまる事によって『コンテンツ』としての価値は下がっていきます。

では、どうするのか?完全にコメント欄を閉じて、クローズドなコンテンツにしてしまうのか?
それを解決してくれるのが、発達したSNSではないかと私は考えています。

今の日本はFacebookやTwitterなどのSNSへの参加率が非常に高いですし、多くのブログやWebサイトはSNSへのシェアを促す仕掛けを沢山取り入れています。また、ユーザー自身が気になった情報をすぐにSNSへのへ流すエクステンションなども充実しており、その敷居の低さはコメント欄の比ではありません。

実際問題、コメントを頂くよりもSNSへのシェアの方が遥かに多い、というブログが殆どだと思います。

まとめ

長々と書いてきましたが、要約すると以下の様な要素からコメント欄のコストに対して、得るものが見合っていないな…というのが私の意見です。

  • そもそもコメントはつきにくい
  • 有益なコメントは少ない
  • コメント内容の精査の手間
  • スパムコメント対策の必要性
  • ソーシャルネットワークの充実

様々なプラットフォームと連携する事が当たり前になってきた時代に、何処とも繋がらないクローズドな『コメント欄』は徐々に廃れてくる気もします。

コンテンツという観点から見たコメント欄の必要性について is a post from: Room 402

上級者向けSEOガイド4/9 : ワードプレス攻略

上級者向けにSEOの主要項目を徹底解説していくシリーズ第四弾、ここにきて意外なというか、ワードプレスのSEO攻略法について。SEO Japanでも過去にワードプレスのSEOに関する記事は何度か紹介してきましたが、本シリーズの記事となれば、その究極版と成り得る可能性大。ワードプレスユーザーは是非一読あれ。 — SEO Japan

これまでのチャプターでは、ウェブサイトを最適化する上でのベストプラクティスを幾つか紹介してきた。このチャプターでは、さらに具体的に、ワードプレスに絞って、話を進めていく。ワードプレスは、世界で最も利用者が多いコンテンツ管理システム(CMS)である。事実、私のブログの読者の多くは、ワードプレスを利用している。そこで、チャプター 4では、ワードプレスを効果的に利用する高度なアドバイスを提供していきたいと思う。


1. ワードプレスのサイト向けの高度なインデクセーション(Yoast SEO)

ワードプレスの設定を終えた時点で、大半のユーザーは基本を押さえているはずである。しかし、このチャプターでは、定番プラグインであるYoast SEOでの設定を手順を追って確認し、どのように利用するべきかを考え – さらに、一般的な利用方法を紹介していく。

注意: Yoastの設定で表示されるオプションの一部は、利用しているテーマによって異なる。私はベーシックな無料のテーマを使ってデモを行うが、オプションの中には、皆さんが実際に利用しているテーマとは、若干異なるものもあるかもしれない。

通常の設定

Title setting – 何らかの理由で、タイトルタグの設定が機能していない場合、チェックを入れる必要がある。

Sitewide meta setting – 通常は「noindex subpages of archives」のみにチェックを入れる。

Clean up the <head> – チェックを入れる必要はない。

投稿のタイプの設定

このセクションでは、タイトルとディスクリプションのテンプレートを設定し、また、このパーツのインデクセーションを管理する。

投稿とページの双方をインデックスしてもらう必要がある。インデックスを拒否するケースは稀である。

通常は、メディアをインデックスする必要はない。

タクソノミー

Categories – 通常はカテゴリをインデックスしてもらいたいはずである。

Tags – インデックスする必要性は低下しつつある。グーグルは以前と比べると、タグを結果で返す行為を控えており、また、代わりにページ、投稿、カテゴリを上位にランク付けしてもらいたいはずである。

Format – チェックを外しておく方が安全である。

その他

Author Archives – インデックスさせるべきではない。また、作者が一人のサイトを運営しているなら、無効にしておこう。ユーザーはブログのホームページにリダイレクトされる。

Date Archives – このアイテムに対するインデックスを回避させておきたいが、有効にしておこう。有効にしておくと、ユーザーは投稿を日付ごとに閲覧することが出来るようになる。

XML サイトマップの設定

注記: 他にXMLサイトマップ用のプラグインを利用していない点、そして、テーマがこの機能を有効にしていない点を確認してもらいたい。

Ping – ヤフー!とask.comを両方ともピングすることが可能である。

Exclude Post Types – インデックスしていないアイテムは全て除外するべきだ。要するに: インデックスしていないページのボックスにチェックを入れる必要がある。

カテゴリのディスクリプション

Yoastでは、次のように、メタタグに対するデフォルトのカテゴリのディスクリプションを表示するように、テンプレートを設定することが出来る:

しかし、このディスクリプションをそもそも書き忘れると言うミスを犯す人達が大勢いる。Posts->Categoriesにアクセスし、新しいカテゴリを加えると、Descriptionのエリアが、メタディスクリプションの設定になる。

.htaccessファイルを編集する

このガイドで紹介する全ての.htaccessのメソッドは、Yoast SEOで実装することが出来る。ファイルの編集にアクセスしよう – 追加のコードは一番下に表示されることが多い:


2. ワードプレスの安全対策

これはSEOのみに関連することではないが、セキュリティの問題は、ウェブサイトの利益に大きなダメージを与える可能性がある。SEOは確かに魅力的な取り組みだが、サイトの安全が確保されていることが前提である。

そのため、ワードプレスに利用することが可能な、追加のセキュリティ対策を幾つか紹介する。コードが若干目立つため、以下の手順に不慣れなら、助けを求めてもらいたい。しかし、技術的な作業にある程度慣れている人なら、十分に対応することが出来るはずである。

1. ファイルパーミッションを変更する

以下の2つのコマンドを実施し、ファイルパーミッションを再帰的に変更する。サーバーへのシェルアクセスが必要になる。

ディレクトリ:

find /path/to/your/wordpress/install/ -type d -exec chmod 755 {} \;

ファイル:

find /path/to/your/wordpress/install/ -type f -exec chmod 644 {} \;

2. ワードプレスインクルードを保護する

.htaccessファイルにアクセスする必要がある。繰り返すが、慎重に作業を行い、自信がないなら、テストサイトで実施するか、助けを求めよう。

上に次のコードを加える:# Begin WordPress

例:

# Block the include-only files.
RewriteEngine On
RewriteBase /
RewriteRule ^wp-admin/includes/ – [F,L]
RewriteRule !^wp-includes/ – [S=3]
RewriteRule ^wp-includes/[^/]+\.php$ – [F,L]
RewriteRule ^wp-includes/js/tinymce/langs/.+\.php – [F,L]
RewriteRule ^wp-includes/theme-compat/ – [F,L]

# BEGIN WordPress

このコマンドは、「include」ファイルのディレクトリへの外部からのアクセスを遮断する。

注記: 複数の作者が在籍するサイトでこのセキュリティ対策を実施したいなら、次の列を削除しよう:

RewriteRule ^wp-includes/[^/]+\.php$ – [F,L]

3. wp-config.phpファイルを確認する

因みに、wp-config.phpに、ユーザーネームとパスワードが保存されていることを知っていただろうか?ウェブホストを介して、ワンクリックのインストールオプションを利用したなら、wp-config.phpに直接触れたことは一度もないはずである(自分でインストールする場合、このファイルに接する機会がある)。

オプション A – wp-config.phpのレベルを一つ上げる

wp-config.phpは通常、ルートディレクトリに存在する。

しかし、wp-config.phpをルートディレクトリの1つ上に押し上げることが可能である。例:

オプション B – .htaccessファイルのコード

ファイルを動かしたくないなら、このコードを.htaccessファイルで利用する手がある。

次のコードを.htaccessファイルの一番上に置く:

<files wp-config.php>
order allow,deny
deny from all
</files>

すると、ブラウザで開くことが出来なくなる。


3. ワードプレスのコメントの返信リンクをnofollowにする

appearance->editor->functions.phpの順にアクセスする。

以下のコードをfunctions.phpファイルの一番下に貼り付ける:

// コメント返信リンクにrel="nofollow"を加える

function add_nofollow_to_reply_link( $link ) {
   return str_replace( '")\'>', '")\' rel=\'nofollow\'>', $link );
}


add_filter( 'comment_reply_link', 'add_nofollow_to_reply_link' );

デフォルトのアンカータグの結びを置き換え – nofollowを加えているのは、str_replace()関数である。

ファイルを忘れずにアップデートしておこう。

また、SEOmozのツールバーを使って、リンクがfollowedなのか、nofollowedなのかを手っ取り早くチェックすることが出来る:


4. SEO Smart Linksを使って内部リンクを構築する

- ウェブサイト内部でページをリンクで結ぶ – 内部リンクの重要性は、重々承知しているはずだ。しかし、大半のブログの投稿は、どのような運命を辿るのかご存知だろうか?時間の経過と共に、ホームページとの距離が遠くなり、リンクジュースは薄れていく。新しい投稿やページから継続的にリンクを張っているなら話は別だが。

このセクションでは、SEO Smart Linksプラグインのインストール、設定、そして、利用方法を紹介する。(リンクを張るべきページの特定に関する詳細は、#24 – スクリーミングフロッグを使って、サイトをクロールを参考にしてもらいたい)。

例えば、2012年4月9日に投稿した次の記事から、2011年12月5日に投稿した記事に私はリンクを張っている。

SEO Smart Linksプラグインを導入する 

それでは、このプラグインを詳しく説明していく。SEO Smart Linksを使うと、古い投稿への内部リンク構築が容易になる。

ステップ 1: プラグインをインストールする

次のURLにアクセスする http://wordpress.org/extend/plugins/seo-automatic-links/または、ワードプレスで「SEO Smart Links」を検索し、ワードプレスにインストールする。

ステップ 2: 設定する

ここで混乱が生じる可能性があるが、私が手を貸すので心配する必要はない :-)

リンクが表示される場所を選択する:

  1. Posts
  2. Pages
  3. Prevent links in Headers

        

重要度がとりわけ高いページを持っているなら話は別だが、TargetsとSettingsでは、Postsのみ、Process only single posts(単一の投稿のみ処理)、Process RSS Feeds(RSS フィードを処理)を選択することを薦める。

Ignore posts and pages

  1. ここで、プラグインに特定のページまたは投稿にリンクを張らないように要請することが出来る。

Ignore keywords

  1. ここでは、リンクを張る際に特定のキーワードを避けるよう要請することが可能だ。

次に、特定のキーワードが現れた際に、リンクを張る投稿を加えていく(このプラグインの中で、最も役に立つ機能だと言えるだろう)。

Custom Keywords

  1. Prevent duplicate links
  2. キーワードとURLを入力する
  1. 好きなだけキーワードを加えることが可能である。キーワードの間にコンマを振る必要がある
  2. キーワードからリンクを張りたいURLを入力する
  3. リンクをコントロールしたい全ての投稿に対して、同じ作業を行う

最後に、Limitsを設定していく:

Limits

  1. Max Links – 通常の長さの投稿に対しては、5本に抑えるようにしている。
  2. Max Single – 1
  3. Max Single URLs – 1

External Links

  1. Nofollow – 必ずしも有効にする必要はない
  2. Open in new window – ユーザーエクスペリエンスを考慮して、このアイテムをチェックするようにしている。また、サイトに戻って来てもらえる可能性も高い。

内部リンク構築 – おまけのアドバイス

自力で内部リンクを構築している人に重要なアドバイスを提供する。

  1. スニペット、または、投稿の一番上からリンクを張ろう – こうすることで(短期的に)リンクはホームページに表示され、過去の投稿に対して、重要なオーソリティを送り返すことが出来る。
  2. 上に近ければ近いほど、多くのリンクジュースがもたらされる。
  3. ユーザーを対象としたテストを行った結果、ユーザーは7語前後で構成されたアンカーテキストをクリックする傾向が見られた。

6. SERP/ワードプレス内の日付を削除する

ワードプレスのユーザーから、グーグルの検索結果ページから日付を削除する方法を訊かれることがたまにある。以下の例のように、日付を表示したくないケースが時折発生する。

time()関数を探し、置き換えるには

恐らく、この作業において最も難しいのは、ワードプレスで適切な場所を探し出し、コードを変更するプロセスではないだろうか。ここで探す必要のある関数は‘the_time()’である。

the_time()がよく見つかる場所を3つ挙げていく:

  1. archive.php
  2. index.php
  3. single.php

ワードプレスのファイルを検索する方法

1. FilezillaのようなFTPクライアントを利用する。

2. ワードプレスのテーマのファイルをローカルのコンピュータにダウンロードする(バックアップとして、いずれこの作業を実行するべきである)。

ワードプレスの設定全体ではなく、フォルダーのみをコピーすること:

wp-content/themes/your-active-theme-folder

3. Textwrangler等のテキストエディタを使って複数のファイルを検索する。

Search->Multi-File Searchの順にアクセスする…

Findフィールドに‘the_date’を入力する。

Otherをクリックして、テーマのフォルダにアクセスし、選択する。

テーマの名称を除き、次のようにダイアログと選択を設定する必要がある。

Findをクリックする

‘the_time’を含む全てのファイルがリストアップされた結果が表示される。 これは、ワードプレスのエディタで直接編集する必要のあるファイルである。

全てのファイルでthe_time()を変更する

恐らく、次のように表示されているのではないだろうか:

<?php the_time('F jS, Y') ?>

次のコードに置き換える:

<script language="javascript" type="text/javascript">document.write("<?php the_time('F jS, Y') ?>");</script>

仕組み: PHPの関数をJavaScriptで囲んでいる。グーグルは、ディスクリプションに対する日付を引き出す際は、JavaScriptを利用しない。そのため、ユーザーには表示するものの、グーグルには読まれない状態を作り出すことが出来る。


7. オリジナルの作者経歴ページを作成する

ワードプレスのデフォルトの“author archive”は、当該の作者が投稿した記事を全てリストアップしているだけである。私のオーサーページ: http://www.quicksprout.com/author/admin/ は、投稿した記事のリストである。そのため、私はインデックスを回避している。

独自のオーサーページの効果が最も高いのは、複数の作者が在籍するブログである。作者が一人しかいないサイトを運営しているなら、「about」ページを作った方が無難である。それでは、数名のライターが存在するサイトを運営していると仮定して、指導していく。

以下の5つのステップを踏むことになる:

ステップ 1 – ファイルの設定

ステップ 2 – 既存の作者を探す

ステップ 3 – 草稿の作成

ステップ 4 – 変数

ステップ 5 – まとめる

完全なコードのサンプル

ステップ 1 – ファイルの設定

author.phpを編集する必要がある。

appearance->Editorの順番にアクセスし、author.phpを探す。

デフォルトのテーマ、twentyelevenとtwentytenにはauthor.phpファイルが用意されている。/span>

見つかったなら、これから編集していくので、バックアップを作っておく。

見つからなかったら、archive.phpのコピーを作り、名前をauthor.phpに変更する。

最後に、編集しやすいように整理する:

新しいバージョンのauthor.phpをテキストエディタで開く(自信があるならapearanceのエディタで全て実行することも可能だが、薦められない)。

betweenget_header()からget_sidebar()までを削除する。

ステップ 2 – 既存の作者を探す

次に、コードを加えて、既存の作者を見つける必要がある – 次のコードを利用しよう:

<?php
$curauth = (isset($_GET['author_name'])) ? get_user_by('slug', $author_name) : get_userdata(intval($author));
?>

ステップ 3 – 草稿

これはテクニカルな分野ではないが、作者ページのレイアウトのラフな草稿を作っておくことを薦める。こうすることで、変数の設定が楽になる。テキストエディタの中で、草稿を作ることが可能だ。

コードを入力する前に、どのように情報を表示するのかを理解する上で大いに役立つ。

ステップ 4 – 変数

次に、表示したい情報に基づき、コードを構築する上で必要な変数を取得する。

以下にauthorの変数を全て挙げていく:

  1. $curauth->aim;
  2. $curauth->description;
  3. $curauth->display_name;
  4. $curauth->first_name;
  5. $curauth->ID;
  6. $curauth->jabber;
  7. $curauth->last_name;
  8. $curauth->nickname;
  9. $curauth->user_email;
  10. $curauth->user_login;
  11. $curauth->user_nicename;
  12. $curauth->user_registered;
  13. $curauth->user_url;
  14. $curauth->yim;

必要な変数は次の通りだ:

  1. $curauth->nickname; (名前を表示するために利用されることが多い。displaynameを利用することも出来る)
  2. $curauth->user_url;
  3. $curauth->user_description;

ステップ 5 – まとめる

注記: 恐らく、実際のHTMLとCSSのスタイリングは、この例とは若干異なるだろう。この例は、コードを構築する様々な方法の一つに過ぎない。

初めに、作者の経歴情報を掲載する – これはあくまでも例である。

HTMLに慣れているなら、問題なく変数を追加していくことが出来るはずだ。

次の情報を表示したいなら:

<h2>About: Neil Patel</h2>

実際の名前を変数とphpラッパーに置き換えればよい。つまり、次のように ニール・パテルを<?php echo $curauth->nickname; ?>に置き換えることになる:

<h2>概要: <?php echo $curauth->nickname; ?></h2>

以下にコード全体の例を掲載する:

<h2>概要: <?php echo $curauth->nickname; ?></h2>

   <dl>

       <dt>ウェブサイト</dt>

       <dd><a href="<?php echo $curauth->user_url; ?>"><?php echo $curauth->user_url; ?></a></dd>

       <dt>プロフィール</dt>

       <dd><?php echo $curauth->user_description; ?></dd>

   </dl>

次にループを開始し、投稿を配置していく。コードの例を、説明と共に下に掲載する:

上のセクションと同じように – HTMLを作成するものの、ワードプレスの変数に並べる必要がある。

完全なコードの例

以下にauthor.phpファイルの完全なコードの例を記載する。テーマに合うように、コードの一部を少し変更する必要があるかもしれないので注意しよう。

<?php

get_header(); ?>

<?php

        $curauth = (isset($_GET['author_name'])) ? get_user_by('slug', $author_name) : get_userdata(intval($author));

?>

<!–Author Bio Box–>

<h2>概要: <?php echo $curauth->nickname; ?></h2>

   <dl>

       <dt>ウェブサイト</dt>

       <dd><a href="<?php echo $curauth->user_url; ?>"><?php echo $curauth->user_url; ?></a></dd>

       <dt>プロフィール</dt>

       <dd><?php echo $curauth->user_description; ?></dd>

   </dl>

<h2>作者 <?php echo $curauth->nickname; ?>:</h2>

   <ul>

<!– The Loop –>

   <?php if ( have_posts() ) : while ( have_posts() ) : the_post(); ?>

       <li>

           <a href="<?php the_permalink() ?>" rel="bookmark" title="Permanent Link: <?php the_title(); ?>">

           <?php the_title(); ?></a>,

           <?php the_time('d M Y'); ?> in <?php the_category('&');?>

       </li>

   <?php endwhile; else: ?>

       <p><?php _e('No posts by this author.'); ?></p>

   <?php endif; ?>

<!– End Loop –>

   </ul>

</div>

<?php get_sidebar(); ?>

<?php get_footer(); ?>


8. WP-Super Cacheを利用する

WP Super Cacheは、重いPHPファイルの代わりに、静的なHTMLページを生成する。こうすることで、サイトのスピードが大幅に改善される。このプラグインの設定は、特に初めて利用する場合、割と難しい。そのため、この時間を節約する優れたプラグインの最善の設定を、手順を追って説明していく。

プラグインの参照資料が必要なら、次のURLにアクセスして、専用のワードプレスのページを参考にしよう: http://wordpress.org/extend/plugins/wp-super-cache/

似たような名前のプラグインが幾つかあるので、プラグインインストーラで選択する際は、適切なプラグインかどうか確認してもらいたい:

インストールを終え、プラグインを有効にしたら、タブで重要な設定を行っていく。それでは、手順ごとに説明していく。

なかなか見つからないなら、settings->WP Super Cacheの順にアクセスしていこう。

タブ 1 – Easy

このタブは名前の通り、簡単である。キャッシングを有効にするだけでよい。

タブ 2 – Advanced – 設定の選択

次のオプションを選ぶ:

  1. Cache hits to this website for quick access(アクセスをスピードアップさせるための、このウェブサイトに対するキャッシュヒット)
  2. Use PHP to serve cache files(PHPを使ってキャッシュファイルを提供する)
  3. Compress pages so they’re served more quickly to visitors(ビジターにより早く表示するため、ページを圧縮する)
  4. Don’t cache pages for known users(既知のユーザーに対してはページをキャッシュしない)
  5. Cache rebuild(キャッシュを復元する)
  6. Mobile device support(モバイルデバイスに対応する)
  7. Extra homepage checks(追加のホームページのチェック)

キャッシュが機能していることを確認する

先に進む前に、この時点で、キャッシュが適切に機能していることを確認しておきたい。また、プラグインを設定する際は、定期的にウェブサイトにアクセスして、何も壊れていないことをチェックするべきである。

キャッシュをチェックするには:

  1. サイトのページを訪問する
  2. ソースを見る
  3. 一番下までスクロールする
  4. コード内のWP Super Cachingのコメントを探す:

タブ 2 – Advanced – ガレージコレクションの設定

ガレージコレクションを設定することで、古いファイルや過去にキャッシュされたファイルが削除される頻度をコントロールすることが出来る。要するに:

  1. 頻繁にアップデートされるサイトは、頻繁にガレージコレクションを実施する必要がある。
  2. 一方、頻繁にアップデートされないサイトは、ガレージコレクションをそれほど頻繁に実施する必要はない。

設定のオプションの説明

ガレージコレクションに対する選択肢は2つある:

  1. timerは、定期的なインターバル(秒)で実行するスケジュールを組む。この選択肢は、頻繁にアップデートされるサイトに向いている。
  2. clockは、毎日一連の決められたスケジュールに沿って実行する – 1日に2回、または、1時間に1回。これは、アップデートされる頻度が少ないサイト向きの選択肢である。
  3. eメールで通知を受けることも出来る。

それでは、2つの異なる設定のオプションを見ていこう。

新鮮なデータを大量に提供するサイト

多くの新鮮なコンテンツを提供しているなら、ゴミ箱を空にする回数を増やし、中断期間を短くすることを薦める。この場合、次のように設定していく:

Timeoutを毎分に設定する(60秒)。そして、timerを90秒ごとに実施するように設定する。こうすることで、新しいファイルが作られる度に、古いキャッシュのファイルを捨てることが出来る。これは頻繁にアップデートされるサイトの基準値であり、状況に応じて、インターバルを調節していってもらいたい。

あまりアップデートされないサイト

これから紹介する設定は、多くて1日に1度しか新しいコンテンツが投稿されないようなサイトに向いている。また、サイドバーにウィジェットやRSSフィードがないサイトもこの選択肢を利用することになる。

        

上の設定は、1日または数週間に1度アップデートされるかどうかのサイトに対する設定である。timeoutを10日間に設定する(864000秒)。このケースでは、clockを使い、インターバルをtwicedaily(2回/日)に設定している。サイトに適切な時間を選んでもらいたい。新しいコンテンツを夜に投稿する傾向があるなら、- 10:00pmに実施し – 新しいコンテンツを投稿した直後にゴミ箱を空にして、再びキレイな状態を保つために、10:00amにも実施することを薦める。

ガレージコレクションを無効にする

何らかの理由で、ガレージコレクションを無効にしたくなったら、timeoutをゼロにする。


9. ワードプレスのプラグインリスト

最後に、実践的ではないが、私自身が実際に役に立つと感じた貴重なワードプレスのプラグインを紹介していく。不完全なリストや標準以下のプラグインを含むリストは無数に存在するが、私の知る限り、これ以上、広範なリストは作成されていない。

注記: このガイドを作成する時点で有効なプラグインをリストアップしているが、皆さんが実際にこのガイドを読む頃までに、役に立たなくなっていることも考えられる :)

これで強力なワードプレスのサイトが出来あがったはずだ。ワードプレスに関しては、オンサイトの最適化の最後のセクションでも取り上げている。次のチャプター「高度なデータリサーチ」では、オフサイトのSEOに取り掛かる。

上級者向けSEOガイドの記事一覧はこちらから


この記事は、Quick Sproutに掲載された「Chapter 4: Word Press」を翻訳した内容です。

いきなりYoast SEOのディープな解説から始まりましたが、かなり細かな設定ができるみたいですね。量以上に質が問われる最近のGoogle、SEO Japanにも早速導入してみたいと思います。その後のhtaccessや安全対策も対策済みの人も多いと思いますが、確認の意味でも読む価値ありの内容。その後も、ホントに痒い所に手が届きすぎるような項目と詳細な解説。。。ワードプレスのSEO、システム的な部分はこの記事一本で120%十分すぎる内容でした。 — SEO Japan [G+]

上級者向けSEOガイド3/9 : schema、エンティティ&セマンティック検索対応

上級者向けのSEOガイドを紹介する記事シリーズ第三弾は、セマンティック検索対応について。相変わらず徹底的に網羅された内容です。知識としては何となく知っていても、本格的に対応している人やサイトはまだまだ少ないのが現状とは思いますが、とりあえずこの記事をブックマークしておけば何かの時には使えそうです。 — SEO Japan

サイトはクロール可能 & インデックス可能になり、スピードも大幅にアップした。 チャプター 3ではさらにギアを上げ、新しい検索の要素を取り上げていく。検索は、セマンティックな“現実に近い”環境に向かって動きつつある。つまり、検索エンジンが人物、場所、映画、会社等の実際の物事の間の関係を理解する環境である。今すぐこの流れに乗り、ウェブサイトに反映していこう。


1. Schema.orgのメタデータを実装する

schema.orgは世界共通のメタデータのマークアップであり、2011年に主要な検索エンジンによって導入された。このマークアップは、ウェブサイト上の意図されたタイプのコンテンツをエンジンに伝えるために用いられている。schema.orgをフル活用していない人達はまだ大勢いる。

ここでは、複数の種類のschemaの実装方法、そして、正確なマークアップをHTMLコードに統合する方法を紹介していく。

パート 1 – マイクロデータの基本的なアトリビュート

  1. itemscope
  2. itemtype
  3. itemprop
  4. itemid
  5. itemref

この5つの要素を例を使って分かりやすく説明する。

以下にschemaのメタデータがない状態のコードを掲載する:

<!DOCTYPE HTML>

<html lang="en">

<head>

<meta charset=utf-8>

<title>メタデータなしのページの例</title>

</head>

<body>

<section>

<h1>何でもいい</h1>

<span>作者: デレック・シバーズ</span>

<span>Category : business</span>

<a href="http://sivers.org/ayw/">本について</a>

</section>

</body>

</html>

特別なマークアップはどこにも見当たらない、普通のHTMLである。次に、メタデータ付きのコードを掲載する:

<!DOCTYPE HTML>

<html lang="en">

<head>

<meta charset=utf-8>

<title>マイクロデータ付きのページの例</title>

</head>

<body>

<section itemscope itemtype="http://schema.org/Book">

<h1 itemprop="name">Anything You Want</h1>

<span>作者: <span itemprop="author">デレック・シバーズ</span></span>

<span>カテゴリー : <span itemprop="genre">ビジネス</span></span>

<a href="http://sivers.org/ayw/"><span itemprop="detail">本について<span></a>

</section>

</body>

</html>

一つずつ要素を見ていく。

1. Itemscope

<section itemscope itemtype="http://schema.org/Book">

</section>

bookに関するものは全てitemscopeの要素の間に入る。検索エンジンに「中身はすべて本に関するコンテンツ」があることを伝えている。

2. Itemprop

<h1 itemprop="name">何でもいい</h1>

itempropは本の名前を意味する。

<span>作者: <span itemprop="author">デレック・シバーズ</span></span>

<span>カテゴリー : <span itemprop="genre">ビジネス</span></span>

<span>カテゴリー : <span itemprop="genre">ビジネス</span></span>

<a href="http://sivers.org/ayw/"><span itemprop="detail">本について<span></a>

また、Itempropは、本の作者、カテゴリ、そして、ジャンルを表す。ここまでは、簡単である。

<span>タグを使って、itemporpの要素を挿入する。

パート 2 – schemaをブログで利用する

恐らく、皆さんの多くは何らかのタイプのブログを運営しているのではないだろうか。ブログにもschemaを利用することが可能である。ワードプレスを用いているなら、テーマの作者を確認し、schemaを利用することが出来るか確認しよう。利用することが出来ない場合、ワードプレスはタグをはぎ取ってしまう。これはワードプレスの設定に左右される。以下に一般的な例を挙げる。

a. schemaのないコード

<!DOCTYPE HTML>

<html lang="en">

<head>

<meta charset=utf-8>

<title>マイクロデータなしのブログの記事の例</title>

</head>

<body>

<div>

        <h1>…ズルせずに、上位にランクインするオーソリティを構築するためのヒント</h1>

        <p>まず、オーソリティを定義していく – ドメインのオーソリティとは、上位にランク付けさせるドメインのポテンシャルを意味する。ランキングが高ければ高いほど、オーソリティが高くなる。そして、オーソリティが高ければ高いほど、ランキングも高くなる。</p>

        <p>それでは、その方法を紹介していく:</p>

        <p>1. トピックごとにページのグループにリンクを張る</p>

        <p>2. 特定の一つのページにより多くのリンクを張る</p>

        <p>3. ドメインベースの外部リンクを主役のページに送る</p>

        <p>4. キーワードの共食いを避ける</p>

        <p>5. 関連するウェブサイトから、外部のリンクを主役のページにもたらす</p>

        <p>6. リンクをページの上部に配置する</p>

        <p>7. このコンセプトを理解する上で役に立つ図を使った解説</p>

        <p>8. 壊れているページを修正する</p>

</div>

</body>

</html>

b. Schema付きのコード

<!DOCTYPE HTML>

<html lang="en">

<head>

<meta charset=utf-8>

<title>マイクロデータ付きのブログの記事の例</title>

<a rel="author" href="https://profiles.google.com/103074333439002308043/about">Bidhan Chatterjee</a> </head>

<body>

<div itemscope itemtype="http://schema.org/Blog">

<h1>…ズルせずに、上位にランクインするオーソリティを構築するためのヒント</h1>

        <p>まず、オーソリティを定義していく – ドメインのオーソリティとは、上位にランク付けさせるドメインのポテンシャルを意味する。ランキングが高ければ高いほど、オーソリティが高くなる。そして、オーソリティが高ければ高いほど、ランキングも高くなる。</p>

        <p>それでは、その方法を紹介していく:</p>

        <p>1. トピックごとにページのグループにリンクを張る</p>

        <p>2. 特定の一つのページにより多くのリンクを張る</p>

        <p>3. ドメインベースの外部リンクを主役のページに送る</p>

        <p>4. キーワードの共食いを避ける</p>

        <p>5. 関連するウェブサイトから、外部のリンクを主役のページにもたらす</p>

        <p>6. リンクをページの上部に配置する</p>

        <p>7. このコンセプトを理解する上で役に立つ図を使った解説</p>

        <p>8. 壊れているページを修正する</p>

</div>

</body>

</html>

c. 要素の説明

1. Rel = Author

HTMLの<head></head>にこのタグを加える理由が知りたい人もいるだろう。理由は、グーグルがこの方法で作者を言及することを認めているためだ。

見ての通り、とてもシンプルである:

<a rel="author" href="https://profiles.google.com/103074333439002308043/about">Bidhan Chatterjee</a>

このコードを<head>に加えた後、グーグルプラスのプロフィールをブログに向ける – この方法は、後で取り上げるグーグルオーサーシップのセクションで紹介する方法と同じである。

2. Intemscope

<div itemscope itemtype="http://schema.org/Blog">

この要素もまた、コンテンツが話題にする やアイテム のタイプを伝えるために用いられる。 

おまけ: ソーシャルシェア用のschema

ソーシャル共有データをschemaに組み込むことも出来る。要素itemprop とinteractioncountが役に立つ。以下に例を挙げる

<meta itemprop="interactionCount" content="FacebookLikes:8"/> <meta itemprop="interactionCount" content="GooglePlus:3"/>

テスト

ここでも、グーグルが提供するリッチスニペットのテスターを使って、マークアップをテストするべきである: http://www.google.com/webmasters/tools/richsnippets


2. 動画のインデクセーション – 動画をschema.orgでマークアップする

schema.orgを使って動画をマークアップすると、クリックスルー率が大幅に改善する。下のスクリーンショットでは、SEOmozが動画のメタデータを使ったことで、SERP内のビジュアルが著しくパワーアップしたことが分かる。

コードを追加すること自体は難易度が高くないが、適切なマークアップを知る必要がある。

始める前に、幾つか前提となる条件を挙げていく:

  1. 動画を自分自身でホスティングしていること(ユーチューブのエンベッドには適応することが出来ない)
  2. HTMLにアクセスし、コードを編集することが出来る

ステップ 1: 通常の動画のコードをページに貼り付ける

典型的な動画のエンベッドコードを以下に掲載する:

<h1>ニール・パテル</h1>

<h2>動画: ブロガー向けの高度なSEO</h2>

<object …>

 <param …>

 <embed type="application/x-shockwave-flash" …>

</object>

<p>SEOおよびマーケティングのエキスパート、ニール・パテルが提供する特別な動画。大量のリードをブログに送り込み、コンバージョン率の7つの秘密を学ぶ。</p>

ステップ 2: VideoObjectを囲む

<div>でコードを包む

VideoObjectデータを加える

ステップ 3: 基本的なマークアップを加える

以下に基本的なプロパティを挙げていく;

  1. Name
  2. Thumbnail
  3. Duration
  4. Description

「name」「description」のフィールドは、既存のコンテンツを囲む<span>タグの内側に加えられる :

プロパティ「duration「thumbnail 」は、通常、nameの下、そして、実際の動画の前に加えられることが多い<meta>内に掲載される

注記: 「duration」はISO_8601フォーマットを採用している。ISO_8601の詳細は次のURLを参考にしてもらいたい: http://en.wikipedia.org/wiki/ISO_8601

ステップ 4: さらにマークアップを加える

MediaObject(VideoObjectのオブジェクト)に対して、好きなプロパティを加えることが出来る:

  1. associatedArticle
  2. bitrate
  3. contentSize
  4. contentURL
  5. duration
  6. embedURL
  7. encodesCreativeWork
  8. encodingFormat
  9. expires
  10. height
  11. playerType
  12. regionsAllowed
  13. requiresSubscription
  14. uploadDate
  15. width

あるいは、動画専用のプロパティを加えることも可能だ:

  1. caption
  2. productionCompany
  3. thumbnail
  4. transcript
  5. videoFrameSize
  6. videoQuality

以下に[upload date]と[width]と[height]を加えたコードの例を掲載する:

動画のマークアップを加え、競合者に差をつけよう。

完成したコード

<div itemprop="video" itemscope itemtype="http://schema.org/VideoObject">

<h2><span itemprop="name">動画: ブロガー向けの高度なSEO</span></h2>

<meta itemprop="duration" content="T1M33S" />

<meta itemprop="thumbnail" content="neil-patel-video-thumbnail.jpg" />

<meta itemprop="uploadDate" content="2012-04-01T08:00:00-05:00" />

<meta itemprop="width" content="640" />

<meta itemprop="height" content="480" />

<object …>

 <param …>

 <embed type="application/x-shockwave-flash" …>

</object>

<p><span itemprop="description">;SEOおよびマーケティングのエキスパート、ニール・パテルが提供する特別な動画。大量のリードをブログに送り込み、コンバージョン率の7つの秘密を学ぶ。</span></p>

</div>


3. ヤフー!のサーチモンキー RDFa

RDFa マイクロフォーマットは、ヤフー!がより簡単に情報を特定し、分類するために利用するマークアップ言語である。

RDFはResource Development Frameworkの略である。

RDFを使って、コマースサイトの商品、スケジュール & コンテンツを検索エンジンに説明することが出来る。

RDFはHTMLで書かれているのではなく、XML フォーマットが用いられている。

これから、このコードをコンテンツに追加する方法を、幾つか例を使って紹介していく。

パート 1 – 識別子を理解する

resource - URL上に存在するもの全て

property - 名前付きのresource(例えば、ウェブページ上のコンテンツのタイプ) – author、homepage、book、movie等

property value – propertyの特徴、例えば本の作者や映画に出演する俳優

次に「statement」を形成していく。「statement」は、subject、predicate、そして、objectで構成される。

statement[QuickSproutの作者はNeil Patel]は次のようにまとめられる:

subject: http://www.quicksprout.com

predicate: author

object: Neil Patel

パート 2 – 例

1. 全てのRDFはXMLの宣言 & RDFのラッパータグで始まる

2. 次にRDFのシンタックス、そして、データが参照するURLを宣言する:

3. ドキュメントで描写されるアイテムを宣言する

ここでは、具体的なCD「Thriller」を取り上げており、CDが存在するURLを参照している。

4. resourceのpropertyである要素を加える

ラッパータグ<cd:artist></cd:artist>(またはcountry、price等)を使って、参照しているアルバムのpropertyを宣言することが可能だ)。

パート 3 – 完成したコードの例

以下に完成したコードの例を掲載する。ニーズに応じて、この例を利用し、修正することが出来る。

<?xml version="1.0"?>

<rdf:RDF

xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#"

xmlns:cd="http://www.cdstore.com/cd01">

<rdf:Description

rdf:about="http://www.cdstore.com/cd01/Thriller">

        <cd:artist>Michael Jackson</cd:artist>

        <cd:country>USA</cd:country>

        <cd:company>Epic Records</cd:company>

        <cd:price>12.99</cd:price>

        <cd:year>1982</cd:year>

</rdf:Description>

</rdf:RDF>

最後に、バリデータを使って、作品をチェックしよう: http://www.w3.org/RDF/Validator/


4. サイトにダブリンコアを加える

ダブリンコアもまた、ウェブ上のデータを説明するために用いられるメタデータのフォーマットである。ダブリンコアは様々な要素を採用している。その一部を以下に掲載する:
  1. title – resourceに与えられる名前
  2. creator – コンテンツを所有する人物または組織
  3. subject – コンテンツのトピック
  4. description – コンテンツの説明
  5. publisher – resourceを公開した人物
  6. contributor – コンテンツに貢献した人物/span>
  7. date – resourceが公開された日付
  8. type – コンテンツが該当するカテゴリ
  9. format – リソースが提示される仕組み
  10. identifier – URL等のコンテンツに対する数字の識別子
  11. source – コンテンツが引き出された元の場所
  12. language – コンテンツの作成に用いられている言語
  13. relation – コンテンツとその他のresourceとの関係。例えば、当該のコンテンツが、本のチャプターの1つかどうか
  14. coverage – resourceが物理的に置かれている場所
  15. rights – 著作権情報へのリンク

パート 2 – 例

実際のダブリンコアのメタデータの例を掲載する。このコードは、quicksprout.comの仮想の文書を表示する:

<head profile="http://dublincore.org">

<title>ニールパタルがダブリンコアを分かりやすくひも解く</title>

<link rel="schema.DC" href="http://purl.org/dc/elements/1.1/" />

<link rel="schema.DCTERMS" href="http://purl.org/dc/terms/" />

<meta name="DC.Identifier" schema="DCterms:URI"

content="http://quicksprout.com/fakeitems/dublincore/" />

<meta name="DC.Format" schema="DCterms:IMT" content="text/html" /> <meta name="DC.Title" xml:lang="EN" content="Dublin Core Tutorial" />

<meta name="DC.Creator" content="ニール・パテル" />

<meta name="DC.Subject" xml:lang="EN" content="ダブリンコアのメタタグ" />

<meta name="DC.Publisher" content="I'm Kind of a Big Deal, LLC" />

<meta name="DC.Publisher.Address" content="neil@neilpatel.com" />

<meta name="DC.Contributor" content="ニール・パテル" />

<meta name="DC.Date" scheme="ISO8601" content="2012-06-01" />

<meta name="DC.Type" content="text/html" />

<meta name="DC.Description" xml:lang="EN"

content="このチュートリアルは、ニール・パテルが提供する上級者向けSEOガイドの一部です。" />

<meta name="DC.Identifier" content="http://quicksprout.com/fakeitems/dublincore/" />

<meta name="DC.Relation" content="QuickSprout.com" scheme="IsPartOf" />

<meta name="DC.Coverage" content="I'm Kind Of A Big Deal, LLC" />

<meta name="DC.Rights" content="著作権 2012 ニール・パテル 全ての権利を保有" />

<meta name="DC.Date.X-MetadataLastModified" scheme="ISO8601" content="2012-06-01" />

<meta name="DC.Language" scheme="dcterms:RFC1766" content="EN" />

おまけ: ダブリンコアのジェネレータ

投稿済みのウェブページにこの無料のダブリンコアのジェネレータを実行してみよう: http://www.ukoln.ac.uk/metadata/dcdot/


5. グーグルのrel=authorタグを複数の作者が存在するサイトに実装する方法

rel=authorを複数の作者が存在するサイトに実装する方法は2つある。

簡単な方法

この簡単な方法では、リンクを各投稿から、rel=authorを使って、対応するグーグルプロフィールページに向けるだけである。

ステップ 1: 個別の作者のプロフィールに各投稿からリンクを張る

AとBの2本の記事が投稿されたブログを運営していると仮定する。Aを書いたのは私だが、Bは別の作者によって投稿された。この場合、それぞれの投稿に対して、次の作業を実施することになる:

A

オプション A: グーグルプラスのバッジ

先程も申し上げた通り、 https://developers.google.com/+/plugins/badge/personal-configにアクセスしてコードを作成する(自分のグーグルプラスのIDを利用すること)。しかし、この場合、自分が作成した個別の投稿にコードを貼り付けるだけである。

オプション B: rel=authorタグを利用する

<a href="https://plus.google.com/109412257237874861202?rel=author">Neil Patel</a>

これも従来のrel=authorタグの利用方法である。名前とグーグプラスのプロフィールのIDを自分のものに置き換え、自分が作成した投稿またはページのみに貼り付ける。

新しい代案: 特別なパラーメタのリンクを利用する

<a href=”https://plus.google.com/112759904453577892472?rel=author>+Neil Patel<a/>

作者のプロフィールにリンクを張る方法の中で、これは最も簡単である。上のコード(名前とリンクを自分のものに置き換えること)を作成したページに貼り付けるだけでよい。

B

最適なオプションを選択し、上述のステップを繰り返す。しかし、この場合、ゲストの作者一人一人にauthorのリンクを加えていく必要がある。

オプション A: グーグルプラスのバッジ

グーグルプラスのバッジのコードを https://developers.google.com/+/plugins/badge/personal-configで切り取り、貼り付ける。今回は、ゲストの作者のプロフィールの情報を利用する。

オプション B: rel=authorタグを利用する

ゲストの作者に対するタグの例を掲載する:

<a href="https://plus.google.com/100613060119695637213?rel=author">Guest Author</a>

全てのページで、ゲストの作者に対してこのプロセスを繰り返したら、ステップ 2に進む。

ステップ 2: それぞれの作者が“contributor”リンクを寄稿した全てのブログに張る

サイトに寄稿した作者は、サイトに対するリンクをそれぞれのグーグルプラスのプロフィールの“contributor”のセクションに加える必要がある。“contributor”セクションには好きなだけリンクを加えることが可能であり、どれだけ多くのサイトにコンテンツを提供していたとしても、自分が作者である点を証明することが可能である。

例えば、3つのサイトに寄稿するSujan Patelのプロフィールを見てみよう:

上級者向けのメソッド

ステップ 1: すべての作者にプロフィールページを設定する

この上級者向けのメソッドでは、すべての作者に個別のページを用意する必要がある。次のスクリーンショットを見れば分かるように、SEOmozは巧みにこの取り組みを実施している。

一部のワードプレスのテーマはこの機能を内蔵している。この機能が提供されていないなら、セクション「ワードプレスで作者のプロフィールを自分で設定する」を確認してもらいたい。

ステップ 2: ブログの投稿からプロフィールページへのrel=”author”リンクを加える

作者が1人しかいないブログで、“rel=author”リンクをグーグルプラスのプロフィールに向ける方法を思い出してもらいたい。複数の作者が在籍するブログでは、rel=authorを当該のウェブサイトのプロフィールページに向けることになる。

ステップ 3: 経歴ページからグーグルプロフィールへのrel=”me” を加える

次に、3本目のリンク – 経歴のページからグーグルプラスのプラフィールページへのリンク – を作成する。

このリンクは最後のつながりを確立する。すると次のような鎖が出来あがる:

投稿 (rel=author) -> 経歴/プロフィール (rel=me) -> グーグルプラスのプロフィール

ステップ 4でも説明していくが、この鎖は逆方向でも同じように作用する。

グーグルプラスのプロフィール(contributorリンク) -> 経歴/プロフィール

ステップ 4: グーグルプロフィールから、作者の経歴ページに逆にリンクを張る

現時点で、リンクをグーグルプラスのプロフィールから、寄稿するサイトに追加する方法には、既に慣れているはずである。

この最後のステップでは、リンクが、自分が寄稿しているウェブサイトの経歴/プロフィールのページ直接向けられている点に注目してもらいたい。私のグーグルのプロフィールからSEOmozに戻るリンクは次のようになる:

http://www.seomoz.org/users/profile/361137


6. グーグルのrel=authorタグを作者が1人のサイトに実装する

作業に取り掛かる前に: グーグルプロフィールを設定する

この時点で、まだグーグルプロフィールを設定していないなら、今すぐに設定してもらいたい。これは、グーグルプラスのページを作る取り組みと同じぐらい重要である。

作者のプロフィールを設定すると言うコンセプトは、基本的に2つの場所にリンクを張ることを意味する。次のようにウェブサイトからグーグルプロフィールに相互にリンクを張ることになる:

ウェブサイトの全てのページ (rel=author) -> グーグルプラスのプロフィール

グーグルプラスのプロフィール (contributor) -> ウェブサイト

一度全てのステップを踏めば、割と簡単に実施することが出来るが、知っていてもらいたい複数のオプションと細かい設定があるので、紹介していく。

ステップ 1: rel=authorをサイトに加える

オプション A

グーグルプラスのバッジをサイトにインストールする

https://developers.google.com/+/plugins/badge/personal-config 

上のスナップショットに表示されているように、コードを取得し、サイトの掲載したい場所に貼り付ける。ワードプレスを利用している場合、サイドバーのウィジェットに通常は掲載される。

自分のグーグルプラスのプロフィールのIDを利用すること。

オプション B

サイトの全てのページからグーグルプラスのプロフィールにrel=authorのアトリビュートを使ってリンクを張ることが出来る。

これはオーサープロフィールが導入された時に、初めて利用することが可能になった方法である。

ブログの全てのページの自分の名前から、グーグルプロフィールにリンクを張る必要がある。

ワードプレス等のコンテンツ管理システムを利用し、自分の名前が記入された「about」ボックスを利用することが出来るなら、フッターやサイドバーのウィジェットを介して、この作業を簡単に実施することが可能である。

以下にコードを掲載する。サイドバーやフッターに切り取り & 貼り付けよう:

<a href="https://plus.google.com/109412257237874861202?rel=author">Neil Patel</a>

当たり前だが、自分の名前とグーグルプラスのプロフィールのIDを利用する必要がある。

最新の代案 – ステップ 1: 特別なパラメータのリンク

ブログのページからグーグルのプロフィールにリンクを反対に張る、この新しいシンプルな方法はあまり知られていない。これは、rel=authorが初めてリリースされた際に、HTMLを編集することなくリンクを実装する簡単な方法としてデビューした。

まず、作者の名前がサイトのページに表示されている点を確認し、次のリンクに変える:

<a href=”https://plus.google.com/112759904453577892472?rel=author>+Neil Patel<a/>

私の名前の前に+が記されている点に注目してもらいたい。これは、URLの最後に特別なパラメータを利用していることをグーグルに伝える上で効果がある。ここでもやはり、自分のグーグルプラスのプロフィールのURLを利用してもらいたい。

このメソッドでは、rel=authorアトリビュートやグーグルプラスのバッジを利用する必要がない。

3つのどのメソッドを利用していても、これで、グーグルのプロフィールをサイトに向ける準備は整ったことになる。

ステップ 2: グーグルのプロフィールからサイトにリンクを返す

ログインして、プロフィールページにアクセスし、Edit Profileをクリックする。

プロフィールの“contributor”セクションを利用する

ブログをリンクとして加える

リッチスニペットのテストツールを使ってテストを行う - http://www.google.com/webmasters/tools/richsnippets

するとオーサーシップを正確に実装したかどうか、そして、SERPでページがどのように提示される可能性があるかが分かる。


7. エンティティ検索

エンティティ検索は、まだ生まれたばかりの分野である。現段階では、特定のタイプの人、ウェブサイト、または、企業しかこの機能を利用することは出来ないが、間もなく一般公開される見込みである。

このセクションは、他のセクションとは異なり、コンセプトに焦点を絞って説明していく。

エンティティ検索とは?

「ナレッジグラフ」と呼ばれることが多い。あまり意味を持たない単なるキーワードではなく – 人、場所、そして、物事を結びける。例えば、キーワード「boston」は場所を意味するかもしれないが、バンド名でもある。

「boston」に対する現在のナレッジグラフを見ていこう。

このデータは、どのようにしてこの場所に提示されたのだろうか?グーグルは、ウィキペディア等の各種のデータレポジトリからデータを引き出している。

SERPの右側に掲載されるナレッジフラフは、結果のようにエンティティが表示される場所として、最も目立つ場所と言えるだろう。隠されることもあるが – ここにエンティティのタイプの結果が表示される。

インプライドサイト検索

グーグルは長らくこのサイト検索から距離を置いているが、インプライドサイト検索と言う機能が実在する。通常のsite search:に関しては、ご存知の方が多いのではないだろうか。

それではインプライドサイト検索の結果を見ていく:

上位の6つの結果は全てquicksprout.comのページである – グーグルはquicksproutを会社 – エンティティと認知しており、そのため、この検索を上位の検索結果に対するサイト検索に書き換えることが出来る。

related search オペレータ

この機能を利用している人はあまりいないが、quicksproutのrelated: searchの結果を見ていこう。

ご覧のように、ウェブ開発、ブログ、そして、分析のトピックとのquicksproutの関係が明確に表れている。このようにエンティティの関連性は役に立つ。このようなサイトの間では重要なキーワードが共有されているわけではないが – それでもお互いに関連するサイトとして表示される。

この、エンティティとの関連性が、誰にでも当てはまるわけではない点を実証するため、以下に結果がゼロのrelated:searchを掲載する。

自然言語検索

「自然な言語検索」でもエンティティの結果が表示される。これには、質問、文、もしくは、ロングテールのディスクリプションの検索クエリが該当する。

例 – “what’s the capital of florida?”

グーグルは質問に対する答えを返している。これは「キーワード」よりも、フロリダが州であり、タラハシーがフロリダ州の州都であることが最も重要視されている。

グーグルにエンティティとして見てもらうことのメリットが、徐々に理解してもらえるようになっただろうか?ウェブ上で複数の場所で表示され、オーソリティを高める効果が見込める。

次のセクションでは、エンティティベースのソースに選んでもらう上で役に立つ具体的な方法を紹介する。


8. エンティティベースのソースにサイトに加える

一つ前のセクションでは、グーグルにエンティティとして見てもらうことの重要性、そして、エンティティとして出来るだけ多くの関連する情報を持つことの重要性を説明した。それでは、実際にエンティティ検索を活用するにはどうすればいいのだろうか?フリーベースに取り上げてもらう必要がある。

以下に、グーグルがエンティティの情報を得るために利用する場所が掲載された、私の知る限り最も広範なリストを提供する。

  1. abc.state.va.us/Pricelist/RUM_(IMPORTED).html
  2. Adherents.com
  3. ArXiv
  4. Baseball Almanac
  5. Berlin International Film Festival
  6. Books and Writers kirjasto.sci.fi/
  7. bornrich.com
  8. Boston.com
  9. Bureau of Labor Statistics, Unemployment in US
  10. Bureau of Labor Statistics, Unemployment in US Counties
  11. Bureau of Labor Statistics, Unemployment in US States
  12. Câmara dos Deputados
  13. celebritynetworth.com
  14. Center for Responsive Politics
  15. ChefMoz
  16. chickipedia
  17. Claud Butler
  18. croctail.corpwatch.org/
  19. Crore
  20. Crunchbase.com
  21. Database
  22. databasebasketball.com
  23. databaseFootball.com
  24. DatabaseOlympics
  25. DayLife.com
  26. E-LIS
  27. en.citiZENdium.org/wiki/
  28. English Wikipedia
  29. Eurostat, Minimum Wage in Europe
  30. exploredia.com
  31. Facebook
  32. Factual
  33. famenetworth.com
  34. FDIC
  35. Food and Drug Administration
  36. Forbes
  37. France
  38. Freebase
  39. GEBCO Undersea Features Gazetteer
  40. Geographic Names Information System
  41. Geonames.org
  42. German Wikipedia
  43. Google Plus
  44. Healthcare Cost Report Information System
  45. https://protecfuelsaver.com/diesel-fuel-cleaner
  46. https://protecfuelsaver.com/gas-fuel-cleaner
  47. https://protecfuelsaver.com/oil-system-rehab
  48. https://protecfuelsaver.com/PROTEC-Internal-Engine-Cleaner
  49. Hulu
  50. IES NCES Public Library Survey
  51. imdb.com
  52. Infochimps
  53. InstantEncore
  54. Internet Movie Database
  55. Internet Speculative Fiction Database
  56. Internet Speculative Fiction Database
  57. ISO 15924
  58. ITIS
  59. Library of Congress
  60. Library of Congress id.loc.gov/
  61. Lurkmore.ru
  62. MBLWHOI Library
  63. Medpedia
  64. Metaweb topic merging algorithm
  65. Mexican INEGI statistics
  66. Million
  67. MusicBrainz
  68. MySpace
  69. Named entity recognition
  70. National Center for Education Statistics
  71. National Fire Department Census Database
  72. National Oceanic and Atmospheric Administration
  73. Nature
  74. Netflix
  75. Nielsen Company
  76. Official Website
  77. Open Library
  78. Open Library Project
  79. OurAirports
  80. Paragliding Earth
  81. Pocket Statistical Data on Switzerland 2006
  82. Pocket Statistical Data on Switzerland 2007
  83. Public domain
  84. PubMed Central
  85. Quotationsbook
  86. Ranker.com
  87. Reference.com
  88. Securities and Exchange Commission sec.org
  89. Simon Property Group
  90. SkyGrid
  91. Slovak Statistical Office
  92. Stanford University
  93. StarCraft and StarCraft II Wiki
  94. The Football Database
  95. The Hollywood Reporter
  96. The National Institute of Statistics, Spain
  97. The TVDB
  98. The World Factbook
  99. therichest.org
  100. topics.nytimes.com
  101. TVRage
  102. tvrage.com
  103. U.S. Food and Drug Administration National Drug Code Directory
  104. UN Stats
  105. Unified Medical Language System Release 2011AB
  106. United States Census Bureau
  107. United States Census Bureau, Population
  108. United States Department of Housing and Urban Development
  109. United States International Trade Commission
  110. United States Securities and Exchange Commission
  111. Virtual INternet Authority File viaf.org/
  112. Wikipedia
  113. Wikipedia Categories
  114. Wikipedia infoboxes
  115. World Bank, World Development Indicators

フリーベースは、上に挙げた全ての場所からデータを引き出す。それでは、フリーベースに自分のサイトを追加する方法を伝授する。

Freebase

注記: フリーベースへの登録を、ディレクトリへの投稿、または、スパムと一緒にしないでもらいたい。フリーベースは、編集可能な公開されているデータベースである(グーグルが買収したメタウェブが始めた)。リンクを落とす場所でも、投稿を行う場所でもない(いずれにせよ、あまり効果はないだろう)。ここでは、エンティティの情報が完全であり、誤りがないことを確認してもらいたい。

1. アカウントを作成する

2. アカウントを作ったら、Edit Modeを選択する(編集するトピックを閲覧するのが楽になる)。

3. 次にエンティティが存在するかどうか確かめる

何度もエントリする行為は、ひんしゅくを買う(削除される)。ページで、検索ボックスを使って、エンティティが存在するかどうか確認しよう

4. 見当たらなかったら – 「トピック」を探す

トピックは、エンティティが最もフィットするカテゴリである。例えば、ZapposはCompanyに振り分けられ、American IdolはTV Programに分類される。

QuickSproutにはInternet Companyが最も適すると考えられるため、このトピックのページにアクセスする。

5. トピックページにアクセスしたら、「view all」をクリックする

6. 次に「add more topics」をクリックする

7. 再びエンティティに対する検索を行い、確認する – 表示されなかったら、「create new topic」をクリックする

8. リストに新しいトピックが表示される – クリックする

9. Edit Modeに設定しているため(ステップ 2)、新しいトピックに対する情報を追加 & 編集することが出来る

繰り返すが、これはセールスページではない。事実に基づくウィキペディアのエントリのように扱ってもらいたい。


このチャプターはここで終わるが、schemaやエンティティ検索の重要性を深く理解してもらえたのではないだろうか。ウェブサイトを「未来の検索」フレンドリーにする上で役立ててもらいたい。

上級者向けSEOガイドの記事一覧はこちらから


この記事は、Quick Sproutに掲載された「Chapter 3: New Search」を翻訳した内容です。

相変わらずの充実度でした。余りに種類がありすぎて、どこから対応していけばいいかわからない、、、(スミマセン、正直私も迷います)という意見もあると思いますが、まずは検索結果の表示内容に直接インパクトがありそうなものから徐々に対応していくのが結果も出ますし確実そうですね。 — SEO Japan [G+]

上級者向けSEOガイド2/9 : サイトスピードとパフォーマンス改善

米国のカリスマウェブマーケッター、ニール・パテルが書き下ろした上級者向けのSEOガイドを紹介する記事シリーズ第二弾。今回はランキングへの影響はもちろん、それ以上にサイト内のユーザーアクションにも大きな影響があるといわれるサイトスピードやパフォーマンスの確認&改善方法について。この種の記事はこれまでにも様々な所で紹介されていますが、その中でも網羅度&マニアック度はNo.1クラスの充実した内容です。 — SEO Japan

チャプター 1では、サイトをクロール可能 & アクセス可能にするための方法を伝授した。チャプター 1を完了し、ウェブ上のその他の多くのサイトよりも優れたサイトにすることが出来れば、まずまずの出だしと言えるだろう。

次にさらにレベルを上げ、サイトをスピードアップさせて、より効率良く動かす上で役に立つテクニックを紹介していく。効率を高めることが出来れば、ユーザーエクスペリエンスだけでなく、検索エンジンにとってもプラスに働くはずだ。

このチャプターを読み進めていけば、サイトを期待通りの早さで動かす方法に関するアドバイスを得られるはずである。


1. サイトのスピードを計測する

ページスピード、または、ページのロード時間は、ランキングを少し押し上げる効果が期待できるだけでなく、ユーザーもサクサク動くサイトを好むため、欠かせない要素の一つである。ビジターに早さを提供する取り組みは非常に重要度が高い。

サイトスピードを計測する2つの方法を紹介する。

1. グーグルのPageSpeed Online

2. グーグルのクローム向けPageSpeedプラグイン

1. PageSpeed Onlineを利用する

ステップ 1 – Google PageSpeed Onlineにアクセスする

 https://developers.google.com/pagespeed/にアクセスする

ステップ 2 – ホームページでツールを実行する

すると総合スコアが得られる。ホームページのスコアは、サイト全体の基準として、有効である。

次に、優先順位がつけられた課題のリストを詳しく見ていくことが出来る:

まずは優先順位の高いアイテムと中ぐらいのアイテムに絞るべきである。アイテムをクリックすると、詳細が表示される。

このツールを利用すると、各アイテムに対する詳細な提案が得られる。一般的な問題の解決策に関しては、このガイドの後半で紹介する。とりあえず、ここではツールを使って、問題を診断する。

ステップ 3 – 内部のページでツールを実行する(特にホームページとはスピードが異なる可能性が高いページ)

私のサイト クイックスプラウトには、その他のページとは毛色が完全に異なるページが1つある –  http://www.quicksprout.com/pro/

そのため、PageSpeedツールをこのページで実行し、違いを見つけておく。なぜなら、これはセールスのページであり、重要度が高いためだ。

ステップ 4 – モバイルのサイトスピードをテストする

右上の“mobile”タブをクリックする

内部のページのテストも忘れずに実施すること


2. ページのロードをアナリティクスで追跡する

ページのロードスピードをアナリティクス内部で測定することが出来る点は、ご存知の方も多いだろう。しかし、その他にも幾つかこのアプローチを活用する方法があることは、あまり知られていない。

2つの方法で手順を紹介していく:

1. ワードプレスで計測する

2. ワードプレス以外のサイトで計測する

パート 1 – ワードプレスで追跡を設定する

ステップ 1 – 通常の追跡コードをインストールする

通常の分析追跡コードをワードプレスにインストールする方法、さらには、ページスピードのコードのスニペットをインストールする方法に関しても、既にご存知なのではないだろうか。

ここではGoogle Analyticator プラグインを利用する。

これは基本中の基本だが、ヒントになるはずである。ここに追跡コードをインストールする。

次に、ページスピードを設定する前に、ユーザーの追跡を正確に設定しているかどうかを確認する。念には念を入れよう。

以下のシンプルな3つの手順に従う必要がある:

1. “no”を選択する

2. トラフィックを追跡したくないユーザーにチェックを入れる(私ならadminのみにチェックを入れる)。

3. “Remove”を選ぶ – これが一番簡単な方法だ。

次にサイトスピードの設定に移る。この分析プラグインでは、とてもシンプルな設定方法が用意されている。

“enabled”になっていることを確認する。

簡単過ぎると思った方もいるのではないだろうか。しかし、これはあくまでも上級者向けのガイドである。これで基本の設定はカバーしたので、幾つかさらに重要な機能を加えていく。

ステップ 2 – Sample Rateを設定する

あまり知られていないが、sample rateを設定することが出来る。通常、グーグルアナリティクスは、サイトスピードのデータの大半を測定の対象から外している(デフォルトでは1%のみ)。そのため、、小規模なサイトを運営しているなら、多くの重要なデータを見失っている可能性がある。

Sample Rateは、トラッカーの初期設定の前にインストールする必要があり、適切なボックスを利用する必要がある点に注意してもらいたい。

以下にコードのスニペットを掲載する(Asyncのスニペット):

_gaq.push(['_setSiteSpeedSampleRate', 5]);

数字の‘5’に注目してもらいたい。これは、新しい sample rateである – 全ての訪問の5%を指す。一ヶ月に訪問が1万回以下の小規模なサイトの場合、この数字を50、もしくは100に上げても問題ないが、理に適った量のデータの収集に徹してもらいたい。

しかし、サイトが、1日に10000回以上訪問される場合、グーグルは、自動的に1%のサンプルのみを集める可能性がある点を留意しておこう。

出来るだけサイプルの規模を抑えつつも、データを集める上で十分な量に指定することを薦める。

ステップ 3 – ソースコードを確認する

適切に動いていることを確認するため、常にソースコードを確認する癖をつけるべきである(adminとしてコードを閲覧することが許可されないため、ワードプレスにログインしている間は、チェックするべきではない)。

次のスクリーンショットのように、Track Pageviewの上にSample Rateのコードが表示されているはずだ。

パート 2 – ワードプレス以外のサイトで設定する

基本的に同じようなプロセスだが、全ての手順を説明していく。

ステップ 1 – グーグルアナリティクスを探し出す

サイトの設定によっては、ヘッダーを処理する.phpファイルを持っている人もいれば(ワードプレスのように)、ヘッダーが用意された静的なHTMLファイルを持っている人もいる(この場合、全てのファイルをアップデートしなければならない)。

私たちの例ではheader.phpを利用している。

ステップ 2 – ページロード時間のコードを加える

基本的なことだが、ページロード時間のコードを忘れずにアナリティクスに加えておこう:

以下にアナリティクスのコードを掲載する。ページロード時間のコードは太字で表記しておく:

<script type="text/javascript">

 var _gaq = _gaq || [];

 _gaq.push(['_setAccount', 'UA-1589983-1']);

 _gaq.push(['_trackPageview']);

 _gaq.push(['_trackPageLoadTime']);

 (function() {

   var ga = document.createElement('script'); ga.type = 'text/javascript'; ga.async = true;

   ga.src = ('https:' == document.location.protocol ? 'https://ssl' : 'http://www') + '.google-analytics.com/ga.js';

   var s = document.getElementsByTagName('script')[0]; s.parentNode.insertBefore(ga, s);

 })();

ステップ 3 – Sample Rateコードを加える

次に同じようにsample rateコードを加えていく:

再び、次のコードを利用する:

_gaq.push(['_setSiteSpeedSampleRate', 5]);

数字を使って(今回は5)ページスピードを計測するサイトの割合を調節することが出来る。

レポートの場所

次の順にアクセスしていくと、このデータを見ることが出来る:

Content->Overview->Site Speed

次の手順を見過ごす人達が多いので注意してもらいたい。“page timings” ->にアクセスし、“technical”をクリックする。

この画面は、サイトのスピードに何が影響を与えているのかを示している。

アナリティクスの設定をテストする

最後にアナリティクスのクローム用プラグイン Debuggerを使ってテストを行う -

https://chrome.google.com/webstore/detail/jnkmfdileelhofjcijamephohjechhna

以上


3. ヤフー!のYSlow プラグインを利用する

ステップ 1 – YSlowをインストールする

 http://yslow.org/にアクセスする。

ブラウザにYSlowプラグインをインストールする(インターネットエクスプローラ以外)。

ステップ 2 – YSlowを開き、実行する

rulesetには3つの選択肢が用意されている:

1. YSlow (V2) – 23 ruleのフルセットを実行する

2. Classic (V1) – 初めの13のruleを実行する

3. Small Site or Blog – 小規模なサイトに適用される14のruleを実行する

1ヶ月間の訪問が1万以下の場合に限って、small site or blogを利用するべきである。1万を超えるなら、YSlow (V2) を選ぶことを薦める。

テストしたページを読み込む。“Run Test”をクリックする。

ステップ 3 – 結果を確認する

Overall performance score – 85(B)を目指そう。

また、結果のタイプでレポートを絞り込むことも出来る。

優先順位付けの戦略として、私ならまずはFに力を入れる。

各レポートには、簡単な説明、そして、ヤフー!のディベロッパーサイトに掲載されている詳細へのリンクが記載されている。

YSlowに返された一つ目のエラーを確認する。

Make Fewer HTTP Request

“This page has 23 external Javascript scripts. Try combining them into one.

This page has 7 external stylesheets. Try combining them into one.

This page has 19 external background images. Try combining them with CSS sprites.”

これは一般的なエラーであり、CSSとJSファイルが最適化、そして、縮小されていないために起きている。

この分野の改善に関しては、”LESSを使ってCSSを最適化する”セクションを参考にしてもらいたい。

それでは、特に簡単な分野の一つ – 大きなイメージの縮小に取り掛かろう。


4. 大きなイメージを見つけて縮小する

大きなイメージは、サイトスピードの低下の要因となっていることが多い。そこで、大きなイメージを見つけ、縮小するための方法を紹介していく。

メソッド 1 – グーグルの画像検索

グーグルの画像検索を使って、大きなイメージを発見することが可能だ。これは、手っ取り早く、簡単に見つけられるイメージを探し出すメソッドとしてうってつけである。。

ステップ 1 – グーグルの画像検索にアクセスする

images.google.com

ステップ 2 – サイト検索を行う

site:quicksprout.comで検索をかけると、グーグルがインデックスした私のサイトのイメージが全て表示される:

ステップ 3 – セーフサーチをオフにする

確実にすべてのイメージを表示させる必要がある。

ステップ 4 – サイズで絞り込みを行う

まずは控えめなサイズ – larger640×480以上を選び、絞り込みをかける。

ステップ 5 – 結果を見る

結果を見る際は、「大きな」イメージになるべきではないにも関わらず、最終的にサイズが大きくなっているイメージを見つけてもらいたい。CSSやHTMLで、望む大きさにサイズが変更されている可能性がある。

以下に結果ページを掲載する。私はこのイメージが気になった:

写真をクリックすると、実際のサイズは遥かに大きいことが分かる。


これは明らかに大きなイメージを手っ取り早く探す手法である。続いて、スケールに応じて、より効果が高いアプローチを紹介していく。

メソッド 2 – スクリーミングフロッグ SEO スパイダーを利用する

スクリーミングフロッグを使って、サイトをクロールし、ファイルサイズごとに大きなイメージを表示させていく。

ステップ 1 – サイトをクロールする

チェックしたいサイトをクロールする。

次にイメージをクリックする。

Over 100kbで絞り込む。

サイズで絞り込みをかける。

.csvにエクスポートする。

スプレッドシートを使って、イメージの縮小プロセスの進捗状況を記録していく。大きなイメージを大量に抱えているなら、この作業には時間がかかるかもしれない。


5. グーグルクロージャーを使って、スピードを最適化する

JavaScriptを縮小して、単一のファイルに変えることで、ウェブサイトのスピードを改善することが出来る。なぜなら、多くの大きなファイルではなく、単一の小さなファイルをダウンロードすれば済むようになるためだ。これから、グーグルのクロージャーツールをインストールし、JavaScriptを全て縮小する方法を伝授する。

  1. グーグルのコンパイラークロージャーサイトにアクセスする
    ウェブサイトのURL: http://code.google.com/p/closure-compiler/
  2. downloadをクリックする
    リンク「compiler-latest.zip」をダウンロードする。
  1. ZIP ファイルを開く

    Mac:
    ZIP ファイルをダブルクリックする。すると、「JAR」ファイルが含まれる同じ名前のフォルダが生成される。

  2. JAR ファイルを全てのJavaScriptが存在するフォルダにコピーする

    この例では、compiler.jarファイルをJavaScriptがあるフォルダにドラッグしている。

  1. コマンドラインのウィンドウを開く

    Mac:
    Finderにアクセスし、 Applications > Utilities > Terminalの順に開いていく。ウィンドウズ:
    Startをクリックし、“command prompt”を入力し、“command prompt”をクリックする。
  2. JavaScriptが保存されているフォルダに変える

    Mac:
    “~/” を入力すると、JavaScriptのフォルダの場所が特定される。

    この例では、私のJavaScriptが、code、os2、public、JavaScriptと言うフォルダのホームディレクトリに存在することが判明している。

    ウィンドウズ:
    “cd \”を入力すると、JavaScriptのファイルが存在するフォルダが明らかになる。
  3. Javaのコマンドを入力して、縮小したJavaScriptのファイルを生成する

    ウィンドウズおよびMac:
    次のコードを入力する: “java -jar compiler.jar –js jquery.js jquery_spinner.js –js_output_file output.js

    “jquery.js”と“jquery_spinner.js”を縮小したいJavaScriptのファイル名に置き換える。順番が重要なら、適切な順序で入力していく。

    output.js”を置き変える

    この例では、jquery.jsと“jquery_spinner.”と呼ばれるプラグインをコンパイルした:

4. 縮小したJavaScriptファイルをプロジェクトに戻す

この例では、列 8を加え、JavaScriptをHTMLファイルに追加した。

5. 最後にテストして、全て動作するかどうかを確認する


6. CSSファイルとJSファイルを最適化する

二つ目のセクションと三つ目のセクションでは、サイトのパフォーマンスを評価する方法を取り上げた。次に、CSSファイルとJSファイルを、「LESS」を使って最適化する上級者向けの方法を伝授する。

LESSは動的なスタイルシートの言語であり、CSSを作成する。ここでは、LESSコンパイラーに自動的にCSSファイルを縮小させ、ユーザーがページをダウンロードするスピードを上げる、高度なテクニックを紹介する。

  1. Lessのアプリケーションをダウンロード & インストールする
    Lessは、CSSファイルを圧縮するための無料のアプリケーションを用意している

    Mac:
     http://incident57.com/less/を訪問し、Less.Appをダウンロードする。

ウィンドウズ:
 http://winless.org/を訪問し、WinLessアプリケーションをダウンロードする。

  1. Lessをコンピュータにインストールする。
    Mac: ダウンロードをダブルクリックし、LessアプリをApplicationのフォルダに移動する。
  1. Lessアプリケーションを開く
    Mac:
    Applicationフォルダをクリックし、Lessをダブルクリックする。
  1. CSSファイルが保存されているフォルダを開き、CSSファイルの名前を「.less」に変える。
    この例では、ワードプレスのテーマのCSSファイルを取り上げ、すべて「.less」に変更している。

    変更前:
    変更後:

  1. Lessファイルを持つフォルダをLessアプリケーションにドラッグする

    この例では、Lessファイルを含むフォルダをアプリケーションにドラッグして移動している:
  1. Click、そして、Compileをクリックしていく
    すると、ダウンロードのスピードアップにつながる、新しいCSSファイルが生成される。
  1. Lessは、開いている間に、自動的にLessファイルをCSSファイルに縮小する。
    アプリケーションが開いている時は、Lessファイルを変換する度に、自動的に縮小版CSSがアップデートされる。

Lessのファイルは通常のファイルと同じように表示されるため、編集することが出来る:

しかし、縮小したCSSファイルは次のように表示される:

この例では、ファイルサイズを2000削減した。大きな違いではないが、小さな最適化を重ねていくことで、ユーザーはより早くサイトをダウンロードすることが可能になる


7. グーグルのApache向けMOD_SPEEDをインストールする

  1. グーグルのApache向けMOD_SPEEDをインストールする

Apacheサーバーでウェブサイトを運営しており、サーバーの設定をモジュールレベルで変更する権限を持っているなら、MOD_PAGESPEEDをインストールして、容易にスピードアップを実現することが可能だ。

警告: このテクニックは難易度が非常に高く見えるが、実際にはサーバーレベルでApacheを設定した経験がある人にとっては、割と簡単である。しかし、経験のない人が自力でこのアプローチを実施してしまうと、ウェブサイト全体がダウンする事態になりかねない。Apacheのモジュールをインストールし、ウェブサーバーをコマンドラインから設定する方法を知っていることが前提である。この方法が分からないなら、経験豊かなプロのウェブ開発者かシステム管理者に任せるべきである。 

MOD_PAGESPEEDの詳細は次のURLで確認してもらいたい: https://developers.google.com/speed/docs/mod_pagespeed/using_mod

Debianベースのサーバーを利用している場合(DebianやUbuntu等):

  1. サーバーにSSHで接続する
  2. mod-pagespeed .debパッケージをダウンロードする。

    サーバーが32-bitのマシンなら、次のコマンドを利用する:
    wget https://dl-ssl.google.com/dl/linux/direct/mod-pagespeed-beta_current_i386.deb

    64-bitのマシンの場合は、次のコマンドを利用する:
    wget https://dl-ssl.google.com/dl/linux/direct/mod-pagespeed-beta_current_amd64.deb

  3. .debパッケージをインストールする

    コマンドラインに次のコードを入力する:
    dpkg -i mod-pagespeed-*.deb
  4. 壊れた依存性を修正する

    次のコードをコマンドラインに入力する:
    apt-get -f install

RedHatベースのサーバーを利用している場合(RedHat、Fedora、またはCentOS):

  1. サーバーサーにSSHで接続する
  2. mod-pagespeed .debパッケージをダウンロードする

    サーバーが32-bitのマシンなら、次のコマンドを利用する:
    wget https://dl-ssl.google.com/dl/linux/direct/mod-pagespeed-beta_current_i386.rpm

    サーバーが64-bitのマシンなら、次のコマンドを利用する:
    wget https://dl-ssl.google.com/dl/linux/direct/mod-pagespeed-beta_current_x86_64.rpm

  3. Yumパッケージマネージャーを使って、“at”をインストールする

    次のコードをコマンドラインに入力する:
    yum install at
  4. 壊れた依存性を修正する

    次のコードをコマンドラインに入力する:
    rpm -U mod-pagespeed-*.rpm

MOD_PAGESPEEDを設定する

  1. 編集するApacheの設定ファイルを開く

    UbuntuまたはDebianを利用しているなら、ファイルは次の場所にある:

    /etc/apache2/mods-available

    CentOS、Fedora、または、Redhatを利用しているなら、ファイルは次の場所にある:
    /etc/httpd/conf.d
  2. pagespeed_moduleのディレクトリを探す。
    IfModuleディレクティブの内側にある。

module per folderを有効または無効にする
サイトの.htaccessファイルに次の列を加える:

ModPagespeedを有効にするには:
ModPagespeed on

ModPagespeedを無効にするには:
ModPagespeed off


8. ブラウザのキャッシング(ワードプレス以外のサイト)

恐らく、皆さんの多くがワードプレスのサイトを運営しているはずである。そこで、パフォーマンスをスピードアップする上で役に立つプラグインを幾つか紹介していく。

しかし、まずは、ワードプレスを利用していない人達のために、スピードを最適化するための技術的な情報を提供する。

ここでは、ブラウザのキャッシングを活用するため、.htaccessファイルを利用する高度なテクニックを幾つか取り上げる。グーグルのPageSpeed Onlineで警告を受けたなら、以下のテクニックを利用して、問題を解決してもらいたい。

注記: .htaccessファイルの編集に慣れている必要がある。編集するべきかどうか分からないなら、ウェブマスターに声をかけるべきである。

ステップ 1 – FTPサーバーにログインして、.htaccessファイルをバクアップする

好きなFTPクライアントを利用するか、または、FileZillaをダウンロードして、利用する: http://filezilla-project.org/

FTPを介してログインする方法をご存知だとは思うが、念の為に簡単に説明しておく:

Host: ウェブサイトの名前

Username

Password

Port: 大抵の場合、ここは空白のままにしておく。

ステップ 2 – .htaccessファイルを探す

このファイルはルートディレクトリに存在する。隠れているファイルを見られる状況にしておく。さもないと、気づかない可能性がある。

注記: 場合によっては、.htaccessファイルを持っていない可能性もあるが、その場合は、新しいファイルを作成すればよい。テキストエディタで新しい文書を作り、名前を.htaccessにする。

ステップ 3 – .htaccessファイルをダウンロードして、バックアップする

次に、.htaccessファイルをダウンロードし、バックアップを保存する。安全に編集するためだ。万が一、ミスがあったら、復元しよう。

FileZillaで、右クリックし、ダウンロードする:

テキストエディタで開く。

次に、‘save as’をクリックし、テキストファイルとしてバックアップのコピーを保存する:

これで、編集する準備が整ったことになる。

ステップ 4 – コードを加える

手順ごとにコードを紹介していく。最後に切り取り & 貼り付けすることも出来るが、手順を追うことで、仕組みを理解することが可能になる。また、個人的に、実際に入力することを薦める :-)

写真ファイル

1. RewriteEngineを有効にする – .htacessファイルでまずこの作業を行うべきである

2. <file>のラッパータグを加える

3. ラッパー内にファイルのタイプを加える

4. キャッシングを生成し、最長時間を1週間に設定するコードを加える

5. 同じコードをその他の写真ファイルのタイプにも加える – .png & .gif

– ここでは、写真のキャッシュの時間は1週間に設定している。写真が変わる頻度、そして、ユーザーが訪問する頻度に応じて、自分のサイトに適切な時間の枠を指定する必要がある。

CSS

コードは基本的に同じだが、CSSでは異なる時間の長さを選んでいる。

するとCSSは1日でキャッシュされるようになる。繰り返すが、期間は、CSSファイルを変更する頻度、そして、ユーザーがサイトを再び訪問する頻度に左右される。

Javascript

JavaScriptのキャッシングのコードも基本は同じだが、ここでは、1ヶ月に設定する。

この期間は、サイトのJavaScriptへの依存の度合い、そして、変更される頻度に左右される。

時間の早見表

以下にそれぞれの時間の枠を秒数で計算した値を挙げていく:

  1. 5分間を秒数にすると = 300
  2. 1日を秒数にすると = 86,400
  3. 1週間を秒数にすると = 60,4800
  4. 1ヶ月間を秒数にすると = 2,629,000
  5. 6ヶ月間を秒数にすると = 15,774,000
  6. 1年間を秒数にすると = 31,536,000(無限に近い)

先程も申し上げた通り、サイトにとって妥当な時間枠をファイルのタイプで組み合わせることも、マッチさせることも出来る。自信がないなら、安全を優先させ、若干時間の枠を短くすることを薦める。


このチャプターで紹介したアドバイスに従い、伝授したテクニックを実行すれば、サイトのスピードは確実に上がるはずである。次のチャプターでは、検索の新しい & 画期的な領域を取り上げていく。競合者に遅れを取りたくないなら、これから紹介するアドバイスに従ってもらいたい。

上級者向けSEOガイドの記事一覧はこちらから


この記事は、Quick Sproutに掲載された「Chapter 2: Site Speed and Performance」を翻訳した内容です。

Pagespeedはもちろん各種ツールのマニアックな解説からして凄かったですが、Google画像検索を使った画像サイズのチェック方法のアイデアなど、筆者のニール・パテル、探究心の塊というかオタク中のオタクというか、、、正にSEOはもちろんウェブマーケを追及するために生まれてきた人間といっても過言ではないような?今後の記事も期待できそうでワクワクしてきた適度なSEOオタクの私でした。 — SEO Japan [G+]

上級者向けSEOガイド1/9 : インデクセーションとアクセシビリティの深い関係

米国のカリスマウェブマーケッター、ニール・パテルが書き下ろした上級者向けのSEOガイドを今日から一章ずつ紹介していきたいと思います。どの記事もその辺のSEO関連書籍を凌駕しかねない充実の内容ばかり。第一回目は検索エンジンにクロールされるための究極のサイト作りと手法についてページネーションから.htaccess、サイトの正しい移行方法から各種ツールの使い方まで徹底解説。 — SEO Japan

上級者向けSEOガイド チャプター 1へようこそ。このチャプターでは、インデクセーションおよびアクセシビリティを考慮してウェブサイトを評価 & 最適化する上級者向けの手法を伝授していく。

ただし、検索エンジンに対するアクセシビリティだけでなく、実際のユーザーに対するアクセシビリティにも配慮する。要するに、このチャプターには、エンジンとユーザーに対するベストプラクティスが網羅されていることになる – まるで、グーグル翻訳をインストールして、AJAXをクロール可能にするようなものだ。

このチャプターで取り上げた手法をウェブサイトに必要に応じて適用すると、並外れてクロール可能 & アクセス可能なウェブサイトに生まれ変わるだろう。

1. 検索エンジンのようにサイトを閲覧する

SEO目的でサイトを最適化する際、検索エンジンの視点に立って考えるべきではないだろうか?また、検索エンジンが見ているように、サイトを見るべきである。ご存知のように“ソース”を閲覧して、ブラウザ向けのHTMLソースを見ることが可能である。しかし、検索エンジンの視点でサイトを閲覧し、技術的なSEOの穴を見つける上で効果が高く、すぐに利用することが可能なメソッドを私は発見した。

ステップ 1: プラグインをインストールする

ここではファイヤーフォックスが便利である。以下にプラグインを挙げる:

ウェブディベロッパー - https://addons.mozilla.org/en-US/firefox/addon/web-developer/

ユーザーエージェントスウィッチャー - https://addons.mozilla.org/en-US/firefox/addon/user-agent-switcher/

ステップ 2: ファイヤーフォックスでJavaScriptを無効にする

「preferences」 & 「content」にアクセスし、「Enable JavaScript」のチェックを外す。

メニュー、リンク、そして、ドロップダウン等のアイテムをJavaScriptを使わずにグーグルボットに提供する必要があるため、この作業を実施する。JavaScriptに埋められていると、グーグルはクロールすることが出来ないのだ。

ステップ 3: ウェブディベロッパープラグインを使ってCSSを無効にする

グーグルボットがHTMLの順番でコンテンツをクロールするため、CSSを無効にする必要がある。CSSのスタイリングは、コンテンツの順序を曖昧にしてしまうことがあるためだ。

ステップ 4: ユーザーエージェントをグーグルボットに設定する

ステップ 5: ウェブサイトを立ち上げ、閲覧する

クイックスプラウトはグーグルボットの目にはどのように見えているのだろうか?

これはページの上部のみである(すべてページを掲載すると、とても長くなってしまう)。しかし、クリック可能なリンクとしてメニューが表示されており、その他のテキストやリンクはグーグルボットに全て公開されている点は伝わるはずだ。

このようにして、ウェブサイトを閲覧すると、思わぬ発見をすることがある。

チェックするべきポイントを幾つか挙げていく:

  1. メニューのリンクはすべて表示されているだろうか(ドロップダウンも)?
  2. すべてのメニューアイテムとリンクは、プレーンテキストとして表示されているだろうか?
  3. すべてのリンクはクリック可能だろうか?
  4. この手法を利用することにより、以前は隠されていたテキストが表示されるだろうか(隠されたテキストは、グーグルボットに警告を送る。悪意があって隠しているわけではなくても、グーグルボットから隠すべきではないはずだ)?
  5. サイドバーやウィジェットのコンテンツは、上部に掲載されているだろうか?忘れないでもらいたいことがある。特に重要なリンクやコンテンツは、HTMLの上部に掲載されているべきである。この点は、大規模なサイトにとっては特に重要である。

それでは、問題のあるサイトの例を以下に掲載する。

このサイトの問題点は、メニューのテキストが実際にはテキストではなく、イメージである点である。要するに、グーグルボットに与えるテキストのシグナルが存在しないのだ。被リンクに対するアンカーテキストの重要性は皆さんもご存知のはずである。内部リンクにとってもテキストは同じように重要である。上のウェブサイトでは、ホームページから注がれるリンクジュースの価値を余すところなく受けている内部のページは存在しないことになる。

検索エンジンの視点でオンサイトの調査を実施したら、次にウェブスパイダーを使ってサイトをクロールする段階に移る。


2. スクリーミングフロッグを使ってサイトをクロールする

スクリーミングフロッグとは?

スクリーミングフロッグ SEO スパイダーを利用すると、ウェブサイトをクロールし、見るだけで、サイトを今までよりも遥かに簡単に且つ素早く構築する方法に関して、重要な情報を得ることが出来るようになる。数分後には、サイトの見え方に関して新たな見解を得ているはずである。

これは実践ガイドであるため、自分のウェブスパイダーを利用するメリットの詳細を知りたいなら、次のスクリーミングフロッグの文書を参考にしてもらいたい:

http://www.screamingfrog.co.uk/seo-spider/

注記: スクリーミングフロッグは無料で1度に500ページまでクロールすることが可能である。そのため、500ページ以上持つ大きなサイトでこのツールを利用する場合、年間ライセンスを購入する必要がある。ここでとっておきの次善策を紹介しよう。サブディレクトリを入力してクロールさせることが出来る – 例えば http://www.quicksprout.com/2012/では、2012年の投稿のみを対象にしている。 複数のサブディレクトリでこの作業を実施すると、少しずつではあるが、サイト全体をクロールすることが出来る。

ステップ 1: サイトをクロールする

ステップ 2: クロールを保存する

ステップ 3: ページレベルをチェックする

ステップ 4: クロールのエラーを確認する

ステップ 5: 長いタイトルを探し、修正する

ステップ 6: 長いデスクリプションを探し、修正する

ステップ 7: インデクセーションの設定を確認する

おまけのアドバイス: 何らかのHTMLを持つ全てのページを見つける方法

ステップ 1: サイトをクロールする

スクリーミングフロッグを立ち上げ、サイトでクロールを実施する。

このタスクには、サイトの大きさに応じて、2 – 20分間を要する。

ステップ 2: クロールを保存する

ファイルフォーマット.seospiderでサイトのクロールの結果を保存するべきである。こうすることで、プログラムを閉じてしまった場合、または、後に見直したい場合でも、再びクロールを行わなくても済む。ただし、サイトに大きな変更を加えたら、再びクロールする必要がある点を忘れないでもらいたい。いずれにせよ、このデータがあれば、クロールを記録しておくことが出来る。

ステップ 3: ページレベルをチェックする

これはあくまでも上級者向けのガイドであり、SEOを確実に改善する、本当の意味での変化をウェブサイトにもたらすことを目標に掲げている。そのため、サイトに適用することが可能なスクリーミングフロッグの情報を獲得する取り組みに焦点を絞って説明させてもらう。

ウェブサイトの奥深くに埋められたページを持っているなら、ユーザーにとっても、SEOにとっても、マイナスに働いてしまう。そのため、スクリーミングフロッグを使って、簡単にこのようなページを見つけ、行動を起こすことが出来るようにリストアップする方法を紹介する。

クロールを行った後、サイトの内部で集められた全てのデータを表示するメインの「Internal」ページに移動する。

ドロップダウンメニューの下のHTMLを選択する。

右端までスクロールする。

「level」をクリックして、ページレベルごとにコンテンツをソートする。

クイックスプラウトでさえ、4-7ページの深さにある過去の投稿が幾つか存在する。

因みに、crosslinker(http://wordpress.org/extend/plugins/cross-linker/ )等のワードプレス用のプラグインの利用を検討してもらいたい。内部でリンクを張り、投稿をリンクで結ぶ上で役に立つためだ。

スクロールして左端に戻ると、新しい投稿を作成する際に、優先的にリンクを張っておきたいページのリストが完成しているはずだ。

リストをCSVフォーマットにエクスポートする:

これで、エクセルから直接、新しい投稿でリンクを張ることが可能な、優れた実用的なURLのリストを手に入れたことになる。

また、リンクを張る際は、当該のリファレンスが、関連しており、有益であり、そして、記述的なキーワードが豊富に詰まったアンカーテキストである点を確認してもらいたい。

ステップ 4: クロールのエラーを確認する

次に、上部のメニューのその他の項目を調べていく。スクリーミングフロッグには多くの掘り出し物が眠っているものの、探し出す方法を知らなければ宝の持ち腐れである – これからその方法を伝授する。

もちろん、グーグルウェブマスターツールでもクロールのエラーに関するデータを得ることが可能だが、データが不完全、または、古い可能性がある。また、この方法は、リンクを張っている全てのリンク切れを起こしている外部 リンクを見つけることも出来る。加えて、自分のツールでサイトをクロールする度に、最新の正確なリストを得られるメリットがある。

  1. 「Response Codes」をクリックする
  2. フィルタードロップダウンメニューから「Client Error 4xx」を選択する
  3. CSVでエクスポートする

こうすることで、400レベルのエラー(通常は404)を返すページのみのリストを得ることが可能になる。

ステップ 5: 長いタイトルを探し、修正する

タイトルタグとメタディスクリプションには、推奨される長さがあることは、皆さんもご存知のはずである。やはり、ウェブマスターツールからこの類のデータを手に入れることが出来る。

スクリーミングフロッグで入手可能なデータは完全であり、ソート & フィルターすることが可能である。

  1. 上部のメニューで「Page Titles」をクリックする。
  2. メニューから「Over 70 Characters」を選択する。
  3. CSVにエクスポートする。

CSVファイルを開く。

アドバイス: すぐに「名前を付けて」保存することを薦める。さもなければフォーマットにより変更を失う可能性がある。

このエクセル文書で、新しいタイトルに対して新たにカラムを作成しておこう。また、長さに対するカラムも作成するべきである。

エクセルで、新しいタイトルタグを作る度に、自動的に文字数をカウントする容易な手段が欲しいだろうか?それなら、このシンプルな数式を「new length」のカラムに加えよう。

=LEN(E3)

当然だが、新しいタイトルを入力したセルを参照する必要がある。

次に

  1. 数式のセルを選択する。
  2. 数式のセルの右下にカーソルを合わせる。
  3. カーソルが十字型に変化するまで待つ。
  4. スクエアをコラム全体に下方向にドラッグする。

これで全ての新しいタイトルタグの長さをカウントしてもらえるうようになる。

ステップ 6: 長いデスクリプションを探し、修正する

長いデスクリプションを探し、修正する作業は、一つ前の作業に似ている。

デスクリプションのメニューにアクセスする。

フィルタードロップダウンメニューから「Over 156 Characters」を選択する

CSVにエクスポートする

新しいタイトルタグと同じように、エクセスで新しいディスクリプションの作成に取り掛かることが可能だ。ここでも、新しいカラムを作り、数式 =LEN(E2) を使って、自動的に新しいデスクリプションタグの長さをカウントさせよう。

ステップ 7: インデクセーションの設定を確認する

「meta and canonical」メニューにアクセスして、インデクセーションの設定を確認する必要がある。次のようなエラーを探すべきである:

  1. カノニカルタグの欠如
  2. 誤ったカノニカルタグ(異なるページに向けられている等)
  3. インデックスされるべきなのにも関わらず、「noindex」タグがつけられているページ。
  4. インデックスされるべきではないにも関わらず、メタタグが欠けている、あるいは「index」がつけられているページ。

おまけのアドバイス: 何らかのHTMLを持つ全てのページを見つける方法

さらにテクニカルな内容に踏み込む。特定のHTMLを持つ全てのページを探し出したい状況を想像してもらいたい。例えば、クイックスプラウトで、新しいタブやウィンドウで開くリンクを持つページを全て見つける必要があると仮定する。

1: Configurationメニューから「Custom」を選択する

2: 探したいHTMLを「Filter 1」に入力する。

注記: 入力したHTMLを含まないページを探すことも可能だ。最高で5つのフィルターを入力することが出来る。

3: サイトを再びクロールする

4: メニューで「Custom」を選ぶ

5: フィルタードロップダウンメニューから「Filter One」を選択する

これで、新しいタブまたはウィンドウで開くリンクを持つページが全て判明したことになる。

このメソッドは、何も変わらないなら、既存のサイトにとって大きくプラスに働く。しかし、サイトのデザイン変更を準備している場合はどうすればいいのだろうか?それなら、デザイン変更に備えて、自己評価するべきである。


3. サイトのデザイン変更を自己評価

次にサイトのデザイン変更を行う際の評価プロセスを、手順を追って説明していく。これは、ウェブサイトを進化させる上で、そして、オンラインでのオーソリティをアピールする上で重要なステップとなる。また、このステップでも、トラフィックを取り逃さないことを心掛けてもらう。

上級者向けSEOガイドのこのセクションが対象にしているのは、新しいサイトを作りながら、次のようなベストプラクティスに従っている人達である:

  1. クロール可能なことを確かめる
  2. 新しいXMLサイトマップを投稿する
  3. 301リダイレクトを導入する

進捗状況を確認するためのスプレッドシートを作成する

以下に、新しいサイトを立ち上げる際に、このようなメトリクスを測定する方法を示すモデルのスプレッドシートを掲載する。


日付

インデックスされたページ数

キャッシュの日付

PR

DA

WMTのエラー

注記

4/1/2012

4,200

3/23/2012

6

71

525

新しいサイトを立ち上げる

4/8/2012

3,750

4/7/2012

5

67

679

新しいサイトのキャッシュが行われる

4/15/2012

4,150

4/12/2012

6

70

482

エラーの修正作業を開始

インデックスされたページ数を測定

グーグルの site: searchを利用する

キャッシュの日時を測定する

グーグルのcache:sitename.com検索をここでも利用する。

キャッシュの日時は、アルゴリズムでグーグルがサイトのどのバージョンを利用しているのかを判断する上で、最も役に立つ。

ページランクを測定する

PRはメトリクスとして重要視されているわけではないが、今でもサイトの価値の目安を得る上では有効である。

SEOquakeのツールバーは、ページランクを手っ取り早くチェックすることが可能である。次のURLからインストールしてもらいたい: http://www.seoquake.com/

SEOmozのドメインオーソリティーを測定する

このメトリクスは、SEOmozがリンクスケープのインデックスをアップデートするタイミングによって、遅延が生じることがある。それでも測定する価値はある – ツールバーは次のURLで入手することが可能だ:: http://www.seomoz.org/seo-toolbar

DAのオーソリティでは次のポイントに注目してもらいたい

「not found」エラーを測定する

ウェブマスターツールを利用し、「not found」のエラーを確認し、スタッツを入手する。

このツールおよびステップを介して、出来るだけサイトをスムーズに移行することが可能になる。  


4. 公開する前に新しいサイトをテストする

このチュートリアルでは、URLを入力すると、テストウェブサイトに向かうようにコンピュータを設定し、本当のURLを使って、サイトを公開する前にテストすることが出来る状態を作っていく。

  1. 新しいウェブサイトのIPアドレスを取得する。 
    ウェブサイトをホスティングしている場所によって、方法は大幅に変わるが、基本的に、管理者パネルのどこかに掲載されているはずである。見つけられなかったら、ホスティングサービスに電話して、尋ねよう。
  2. ホストのファイルを編集して、IPアドレスに向ける
    Macを利用しているなら:

    A. Application folder > Utilities > Terminalの順にアクセスしていく

  1. terminalアップの中で、「sudo nano /etc/hosts」と入力する。
    ユーザー名とパスワードを必要に応じて入力する。
  2. ファイルの最後に、以下の列を入力する:
    111.222.333.444 www.newdomain.com
    111.222.333.444をステップ 1で入手した実際のIPアドレスに、www.newdomain.comを新しいドメインに置き換える。
    Control-Oを押し、エンターを押す。

    E. Control-Xを押し、エディターを終了する。 

    F.

    terminalウィンドウを閉じる

    ウィンドウズのコンピュータを利用しているなら:

    A. Startをクリックし、「notepad&quot」を検索ボックスに入力し、スタートメニューでノートパッドを表示させる

    B. ノートパッドで右クリックし、「run as administrator」を左クリックする。
    許可を求められたら、「はい」を選択する

    C.

    ファイルをクリックし、開く

    D. ファイル名のボックスで、「\windows\system32\driver\etc」を入力し、Enterを押す。sp;

    E. ファイルのタイプのプルダウンを「text file」から「all files」に変更する。

    F. 「hosts」をダブルクリックする。

    G. ファイルの最後に、次の列を入力する:
    111.222.333.444 www.newdomain.com
    111.222.333.444をステップ 1で入手した実際のIPアドレスに、 www.newdomain.comを新しいドメインに置き換える。
  3. ブラウザを開いて、ウェブサイトをテストし、思い通りに表示されているかどうか確認する。新しいウェブサイトに対するURLを入力する。すると、hosts fileエディターは、テストのサイトにアクセスさせるようになる。
  4. テストを行ったら、ステップ 2で加えた変更を戻す必要がある。単純に、ファイルに戻り、加えた列を削除するだけでよい。

5. ダウンタイムなしで新しいサイトに移行する

警告: 何か誤るとサイトをダウンさせる可能性があるので、細心の注意が必要である。

新しいウェブサイトに移行する際は、以下のガイドラインに従い、ダウンタイムを出すことなく、安全な移行を心掛けてもらいたい。アップデートされたIPを世界中のサーバーが入手するには約1日を要するため、少なくとも、新しいサイトの運営を開始してから1週間は新旧のサーバーを両方とも稼働させる計画を立てておこう。

  1. 新しいドメインのTTLを5分間に設定する
    方法はホスティングサービスやドメイン登録サービスによって異なる。通常は、ドメインのコントロールパネルに設定が用意されているはずだが、見つからなかったら、ドメイン登録サービスに連絡し、サポートを要請しよう。

    GoDaddyを利用しているなら:

    A) GoDaddyのウェブサイトにログインする

    B) My Accountをクリックする。Domainsを探し、Launchをクリックする

    C) ドメインの1つをクリックする

    D) DNS Managerまで下にスクロールし、Launchをクリックする

    E) ホストの下で「@」を探し、「TTL」の下にある鉛筆のアイコンをクリックする

    F) メニューをプルダウンして、最短の時間(1/2時間)を選択する

    CNAMEがつけられた「www」を持っているなら、同じように1/2時間に変更しておくべきである。

  2. ドメインのDNSの設定を見つける
    これでサイトのテストの実施 & TTLの変更を終えたことになる。次に、ドメイン名のDNSの設定を変える作業に移る。

    まず、現在のドメイン登録サービスにアクセスし、現在のDNSの設定を探す。次に、新しいホスティングサービスにアクセスし、現在のドメイン登録サービスに入力する必要のある新しいDNSの設定をメモする。

    手続きはホスティングサービスによって、そして、ドメイン登録サービスによって異なる。

    通常は、ドメインのコントロールパネルに設定が用意されているはずだが、見つからなかったら、ドメイン登録サービスに連絡を取り、テクニカルサポートを要請しよう。

  3. 現在のドメインのDNSの設定を変更する。
    双方の登録機関の設定を新しいホスティングサービスでメモしたDNSのアドレスにしたら、どこを変えればいいのかは検討がつくはずだ。既にステップ 3で見つけている。
  4. ステップ 1で加えた列を削除して、hosts ファイルを解除する。
    元々加えた列を削除する作業以外は、基本的にステップ 1の手順に従ってもらいたい。
  5. 5分間待ってから、新しいウェブサイトにアクセスしてみよう。
    ブラウザのキャッシュとクッキーをクリアする必要があるかもしれない。新しいウェブサイトがアップしたら、これで完了。アップしなかったら、ステップ 4の作業をリバースし、古いウェブサイトに戻そう。

6. クロール可能なAJAX(JQuery GETを利用)

この例では、jQueryのpostメソッドを使って、クロール可能なAJAXを作る方法を紹介する。このチュートリアルでは、「XMLHttpRequest POST」メソッドを利用する。

このベストプラクティスに関する詳細は次のURLで確認してもらいたい:

http://googlewebmastercentral.blogspot.com/2011/11/get-post-and-safely-surfacing-more-of.html

  1. HTMLテンプレートを作成する。

  2. jQueryをサイトに加える
    この例では、列 4が加えられている。

  3. 「DIV」タグを固有のIDと共に、本文の動的なコンテンツが向かう場所に加える。
    この例では、列 8が加えられている。

  4. サイトに「DIV」タグにコンテンツを読み込むJavaScriptを追加する。
    この例では、列 10-15が加えられている。

  5. PHP スクリプトを作成する。
    例のコードは、例のブログの投稿をアウトプットする。
  6. ウェブサーバーでスクリプトを試す。
    次のようなページが表示されるはずである:

  7. ページのソースを確認する。
    このHTMLテンプレートと同じようなソースになるはずである。
  8. Inspect Elementをチェックする。
    DOMに動的なコンテンツが読み込まれているはずである。次のようなソースが表示されるはずだ:

7. クロール可能なAJAX(ハッシュなし)

このチュートリアルは、更新することなく、動的なコンテンツを読み込むものの、URLを変更するウェブサイトを対象にしている。グーグルは、HTMLのスナップショットに対するクエリの文字列内で、ルーティング「_escaped_fragment_」を推奨している。HTMLをグーグルボットに、JavaScriptをユーザーに表示するためだ。

同じ成果をもたらす方法は他にも多くある。方法はウェブサイトの設定に左右される。この例では、PHPを使って、何を表示するべきかを判断する。

次のようなURLを持っているなら: “http://www.example.com/index.php” スピードアップを図るため、コンテンツを動的に、そして、非同期的に読み込むJavaScriptでページを作るPHPが理想である。

次のようなURLを持っているなら: “http://www.example.com/index.php?_escaped_fragment_” インデックス & クロール可能な通常のHTMLのページを作るPHPが必要である。

この方法のベストプラクティスに関する詳細は次のページで確認しよう: https://developers.google.com/webmasters/ajax-crawling/docs/getting-started

  1. まず、ヘッダーに適切な「meta」タグを加えるPHPスクリプトを作成する.  
    こうすることで、クエリの文字列「_escaped_fragment_」を用いて、ページをクロールすることが可能な点を検索スパイダーに伝えられる。この例では、「head」タグ全体を生成する関数を作成した。 

    注記:  列 10に、スパイダーに「espcaped fragment」を使ってクロールするよう伝えるメタタグが記されている。
  2. 次に、ページを表示させる関数を作成する。
    この例では、「render_post」は因数「$render_snapshot」を持つ。デフォルトの状態では、このページは通常のページをユーザーに対して表示する。「render_snapshot」が正しい場合、グーグルボットに対して同じコンテンツのHTMLページを表示する。

    注記:
    このPHPの列 25は、ページがHTMLか動的かの判断を行う。
    列 26-29は、コンテンツを取得し、DIVタグ内にHTMLを返す。
    列 31-37は、jQueryを使ってコンテンツを返し、動的にHTMLをDIVタグ内に加える。


  3. 次に、「escapted fragment」のクエリの文字列を処理するコードを加えていく
    この例では、_escaped_fragment_が見つかった場合、HTMLを使って投稿を表示する。

  4. 次に、content.phpファイルを作成する。
    この例では、コードはJSONをHTMLに変換する。
  5. 最後に、ajax_crawling.jsonを作る。
    これはあくまでもデモに過ぎないが、複雑な設定のウェブサイトにもこの原則を当てはめることが出来る。通常、コンテンツはデータベースから届けられる。このデモでは、単一のファイルである。

  6. ユーザーによってレンダリングされるページをテストする:
    次のようなページが表示されるはずだ:
  7. view sourceを確認する
    コンテンツはJavaScriptを使って動的に加えられているため、表示されていないはずである。

  8. Inspect Elementsのビューを確認する。
    Inspect Elementのビューでは、JavaScriptが実行された後のHTMLに似ているため、コンテンツは表示されている。


  9. ボットのビューを「_escaped_fragment_」をURLの最後に加えてチェックする。
    ダイナミックなページと同じページが表示される:

  10. ボットのビューを確認しよう。
    JavaScriptのない通常のHTMLのようなソースが表示されるはずである。

8. クロスドメイン Rel=canonical

いつクロスドメインを利用するべきか

これは大勢の人達が混乱するポイントであり、実装する前に、このタグを利用するべきタイミングについてを説明していく。

  1. 古いサイトのコンテンツ、または、重複するコンテンツを新しいサイトにを動かす必要がある時 – そして、古いサイトがサーバーサイドのリダイレクトを提供していない時。
  2. ただし、出来るだけ古いサイトでオンサイトの重複を削減した後、利用するように心掛けてもらいたい。
  3. 代わりに301リダイレクトを実装することが可能であり、ユーザーエクスペリエンスの面で好まれるなら、301リダイレクトを利用しよう。
  4. また、ページでrel = canonicalとnoindexを併用するべきではない。このページは、リダイレクトを拾ってもらうため、インデックス可能でなければならないためだ。
  5. 両方のページでコンテンツが同じ場合、または違いが僅かな場合に利用しよう。

実装する方法

通常のcanonicalタグを実装する方法と基本的に同じである。

1. ページを準備する

2. (オリジナルの)1つ目のページでソースコードを編集可能な状態にする

3. 古いページの「head」セクションにタグを加え、新しいページに向かわせる:

        <link rel="canonical" href="http://www.example.com/example-page-name/>

「example-page-name」は新しいページのURLである。

以下のインフォグラフィックの投稿をクイックスプラウトから…

http://www.quicksprout.com/2012/06/11/5-ways-to-get-your-infographic-to-go-viral/

…KISSmetricsに移動するケースを想定する。現実的ではないかもしれないが、とりあえず、移動することにする。次のURLに移動するプロセスを説明する:

http://blog.kissmetrics.com/5-ways-to-get-your-infographic-to-go-viral

その他のアドバイス

  1. リンクをrelativeではなくabsoluteにする(http:// etcを丸ごと含む)
  2. 301と同じように、canonicalの連続を避ける
  3. これは絶対的なルールではなく、あくまでもグーグルに対するヒントであるため、グーグルのインデックスとウェブマスターツールでグーグルがこのタグに従っているかどうかを確認しておきたいところだ。

9. httpsの重複するコンテンツのエラーを修正

皆さんもご存知だとは思うが、httpsとはプロトコルであり、ページをワールドワイドウェブに安全に転送する規約である。ショッピングカート等のページ、ログインページ、そして、その他の安全なページには、httpsのアドレスを設定するべきである。しかし、この取り組みでは、URLに「s」を加えるため、コンテンツの重複を生む可能性がある。

通常は、httpsは、インデックスに含めるべきではない。基本的には公開しないページであり、検索結果に返す必要がないからだ。

クロールレポートやサイト評価で、httpsを持つURLがサイトで重複していることが明らかになったなら、この問題を解決するために以下の3つの手順を踏んでもらいたい:

1. インデックスされているページを特定する

2. インデックスされている理由を診断する

3a. 存在するべきではなページを301リダイレクトする

3b. 存在するべきではないなら、インデックスから削除する

ステップ 1 – インデックスされているhttpsのページを探す

httpsを持つ、インデックスされているページを探し出す次のグーグル検索を実施する

  1. site:yourdomain.com inurl:https

crazyeggのウェブサイトは何の問題もないように思える。flash loaderを除けば、htttpsのページはインデックされていない。

KissMetricsはインデックスにhttpsが存在するサイトの典型的な例である。

この2つ目のページは通常のブログの投稿であり、インデックスされるべきではない(このページで3つ目)。

また次のページは、httpsを利用するべきではあるものの、インデックスに含まれるべきではないページである

それでは、インデックスされるべきではないページを発見したら、どのように対処すればいいのだろうか?インデックスから削除したい、不要な古いページと同じように、そもそもなぜインデックスに含まれたのかを解明する必要がある。

ステップ 2 – インデックスに含まれた理由を診断する

例として上のブログの投稿を利用する。それでは、ページを詳しく見ていこう。

グーグルクロームは、URLにhttpsが存在するものの、このページが安全が保証されていないことを指摘している。これは、当該のページが、このこのような方法でインデックスに含まれるべきではない点を裏付けている。

内部または外部からリンクが張られたことが原因でインデックスに含まれた可能性が高い。そこで、複数のツールを使って、リンクのソースを発見する試みを行う。

まずは、スクリーミングフロッグを利用する。サイトを完全にクロールする必要があるためだ。

スクリーミングフロッグで、ウェブサイトのルートドメインを入力する(なぜなら、KissMetricsのように、中にはwww/blog等異なるサブドメインで運営しているサイトもあるからだ – ウェブサイト全体が完全にクロールされている点を確かめる必要がある)。

サイトをクロールする際は、当該のページのURLを検索し、表示されるまで待つ。

その後、クロールが完了するまで待ち、「In Links」を精査する。

「to」カラムをチェックし、「https://」を利用しているリンクがあるかどうか確認する

この例では、ページのhttps://版に向けられる内部リンクは見つからなかった。

内部リンクが見つかったら、内部リンクを変更し、httpsバージョンをhttpバージョンに301リダイレクトする必要がある。

内部リンクが見つからなくても、外部リンクが見つかる可能性がある。この場合、必ずしも設定を変える権限を持っているとは限らない。そのため、httpバージョンに301リダイレクトする。すると、ユーザーをhttpバージョンにリダイレクトし、最終的に、httpsバージョンをインデックスから削除/置き換えることが出来る。

ステップ 3a – 内部リンクを修正する

ベストプラクティスとして、常にサイトで「absolute」の内部リンクを利用してもらいたい。

例えば、次のURLにリンクを張る代わりに: /2012/04/30/6-ways-to-generate-more-traffic-out-of-your-images/

私なら次のURLにリンクを張る: http://www.quicksprout.com/2012/04/30/6-ways-to-generate-more-traffic-out-of-your-images/

http://を含むURLのパス全体が含まれている点に注意してもらいたい。

ワードプレスを利用しているなら、自動的にこの作業は行われるはずである。しかし、一部のカスタムサイトまたは他のCMSのサイトでは、自動的に修正してもらえない可能性があるので、自分で修正しなければならない。

エラーを修正する

httpsのリダイレクトに関する指南については、「htaccess hacks」のセクションを参照にしてもらいたい。


10. Rel=nextを用いるページネーション

ページネーションは、オンページのSEOおよびアーキテクチャにおいて、処理が最も難しい取り組みの一つに数えられる。しかし、現在、グーグルは、「next」および「prev」の利用を認めており、一連のページを持っていることを伝えやすくなっている。

ワードプレスのようなCMSを利用している場合、Yoast SEO等、様々なプラグインが提供されている。しかし、自分でサイトを作った人のために、あるいは、ピュア HTMLで自力でコーディングしたサイトを運営している人のために、上述した新しいタグを使って、ページネーションを是正する方法を紹介する。実は割と簡単である。インターネットでは最高のリソースを見つけるのは難しいが、ここでは万全の対策を伝授する。

ステップ 1 – 一連のページを特定する

Zapposを例に説明していく。以下に男性用のスニーカーのページ 1を掲載する。

メニューでページ 2、3等が確認できるため、一連のページ数が振られたページの中で、このページが1ページ目であることを特定した。

以下にページ 1のURLを記載する

http://www.zappos.com/mens-sneakers-athletic-shoes~dA

続いてページ2、ページ3のURLを記載する

http://www.zappos.com/mens-sneakers-athletic-shoes~dB

http://www.zappos.com/mens-sneakers-athletic-shoes~dC

注記: ページを変更するため、Zapposは文字(a、b、c)を利用している。

ステップ 2 – rel=”next”を1ページ目に加える

このように、一連のページを特定すると、ページ 1のみに「next」タグがつけられているはずである。なぜなら、一連のページの最初のページだからだ。そのため、ページ 1に対して、「head」セクションで次のコードを加える:

<link rel="next" href="http://www.zappos.com/mens-sneakers-athletic-shoes~dB”>

ステップ 3 – 中間のページにrel=”next” とrel=”prev”を加える

1ページ目と最後のページを除く全てのページに「next」と「prev」タグが必要である。前後のページが存在するためだ。ページ 2(mens-sneakers-athletic-shoes~dB)に次のタグを加えることが出来る。

<link rel="prev" href="http://www.zappos.com/mens-sneakers-athletic-shoes~dA”>

<link rel="next" href="http://www.zappos.com/mens-sneakers-athletic-shoes~dC”>

ステップ 4 – rel=”prev”を最後のページに加える

一連のページの最後のページには、そのページの一つ前のページのみを参照すればよいため、次のタグを加える:

<link rel="next" href="http://www.zappos.com/mens-sneakers-athletic-shoes~dY”>

Zが最後のページであると仮定している。

注記

cannonicalタグをnext/prevと関連させて含めることが出来る。

absoluteまたはrelativeのURLを利用することも可能だが、個人的には出来る限りabsoluteの利用を薦める。


11. .htaccessを使ってエラーページをリダイレクトする

以下のプロセスに従う必要がある:

1. エラーページを作成する – このページには特別なスクリプトを与える。

2. .htaccessファイルを設定し、エラーページへリダイレクトする。

ステップ 1 – エラーページを作成する

エラーが返されるページを作成する – 名称は何でも構わない – error.phpを薦める。

このページで、上部に次のコードを加える:

<?php
switch($_SERVER["REDIRECT_STATUS"]){
        case 400:
                $title = "400 Bad Request";
                $description = "The request can not be processed due to bad syntax";
        break;
        case 401:
                $title = "401 Unauthorized";
                $description = "The request has failed authentication";
        break;
        case 403:
                $title = "403 Forbidden";
                $description = "The server refuses to response to the request";
        break;
        case 404:
                $title = "404 Not Found";
                $description = "The resource requested can not be found.";
        break;
        case 500:
                $title = "500 Internal Server Error";
                $description = "There was an error which doesn't fit any other error message";
        break;
        case 502:
                $title = "502 Bad Gateway";
                $description = "The server was acting as a proxy and received a bad request.";
        break;
        case 504:
                $title = "504 Gateway Timeout";
                $description = "The server was acting as a proxy and the request timed out.";
        break;
}
?>

このPHPコードは、それぞれのタイプ別に異なるタイトルを作成する。こうすることで、異なるファイルを大量に作らなくても済む。すべて一つのファイルで実施することが出来る。

この例では、それぞれのエラーページに対して、固有のタイトルとディスクリプションを一つだけ作成している。しかし、変数を加えて、好きな固有のコンテンツを作成することが出来る。

ステップ 2 – .htaccessを設定する

多くのエラーコードをエラーページにリダイレクトしなければならない。以下の列を.htaccessに加えてもらいたい。

ErrorDocument 400 /error.php
ErrorDocument 401 /error.php
ErrorDocument 403 /error.php
ErrorDocument 404 /error.php
ErrorDocument 500 /error.php
ErrorDocument 502 /error.php
ErrorDocument 504 /error.php


12. RSS フィードを最適化する

RSS フィードはブログで大きな役割を担っている。しかし、このフィードを最適化することで得られるメリットの大きさを見過ごしてしまうことがたまにある。以下の実践的なアドバイスに従ってもらえば、RSS フィードを最大限まで活用することが出来るようになるだろう。

ここではフィードバーナーを利用していると仮定する。

ヘッダーでデフォルトのRSS フィードを置き変える

フィードバーナーを利用していると仮定した場合、ウェブサイト上の全てのリンクは適切なフィードに向けられているだろうか?クイックスプラウトのヘッダーセクションは、フィードバーナーのフィードに向けられている。

この作業を実施していないなら、header.phpファイル(ワードプレスの場合)、または、利用しているCMSが認める場所で、フィードのURLを変更する必要がある。

header.phpファイルでRSSのリンクを見つける

フィードバーナーのフィードのURLに置き換える

フィードバーナーでは早さが命

フィードバーナーには簡単に有効にすることが出来る機能が幾つか存在する。全て利用していることを確認してもらいたい。

Activate SmartFeed

SmartFeedは、あらゆるリーダーとの互換性を確立させる上で便利である。

Optimize->Smartfeedの順にクリックする

Activateをクリックする

FeedFlareを有効にする

Feedflareはリンクをフィードの下に掲載し、フェイスブックでの共有、eメール、deliciousでのブックマーク等の行動をユーザーに要請する手段である。

これは、あらゆるRSSフィードにとって絶対に欠かせないアイテムである。

Optimizeタブで、FeedFlareをクリックする。

表示したいリンクを選択する。 フィードは、フィードをウェブサイトに送信した際に、RSS フィードに表示されるアイテムを意味する。サイトは、ウェブサイトに表示されるアイテムを意味する。

Activateボタンは見にくい位置に掲載されているので注意してもらいたい。一番下に用意されている。

次に、「パーソナル」なフレアを幾つか加えていく。これは、ユーザーが作成したクエリであり、一連のデフォルトのフレアのセットには存在しない。

「Browse the Catalog」をクリックする。

利用可能なフレアを閲覧する。好きなフレアを見つけ、「Link」をクリックする。

するとこのフレアのタブが開く。URLをコピーする。

最初のスクリーンに戻る。フレアのURLを貼り付ける。次に「Add New Flare」をクリックする。

フレアが上に表示される。表示する場所を選ぶ(フィード、サイト、または、その双方)。

下でフレアのプレビューを見ることが出来る。アイテムをドラッグ & ドロップして順番を整えることが出来る。

忘れずに「Save」をクリックすること。 見過ごしやすいので注意してもらいたい。

PingShotを有効にする

PingShotは、アップデートが発生するとフィードバーナーに通知する機能である。PingShotにはフィードの提供をスピードアップする効果が見込める。

Publicize->PingShotの順にアクセスし、「Activate」をクリックする。

フィードのオリジナルのソースにリンクを張る

RSSフィードが許可なく利用され、別のサイトで重複する事態に直面したことはあるだろうか?(このガイドの恩恵を受け)人気の高いサイトを運営しているなら、常にこの問題を抱えているはずだ。グーグルボット、またはユーザーは、どちらがオリジナルのソースなのか分からず混乱している可能性がある。

そのため、これからRSSフィードの下に「自分」こそがコンテンツのオリジナルのソースである点を伝えるリンクを加える方法を伝授する。この手法を実行すると、検索エンジンとユーザーにとって格好の判断材料になるだけでなく、被リンクを得られる可能性がある。

1. RSS ソースリンクをブロガー(ブログスポット)に追加する

Settings -> Site Feedの順にアクセスする

以下のコードを加える:

<hr />
<a href="http://www.myblog.com">My Blog Name</a>

2. RSS ソースリンクをワードプレスに追加する

Appearance -> Editor -> functions.phpの順にアクセスする

次のコードを加える:

function embed_rss($content) {
 if(is_feed())
    $content .= "<p><a href='". get_permalink() ."'>'";
    $content .= get_the_title() ."</a></p>";
 return $content;
 }
add_filter('the_content', 'embed_rss');

これでコンテンツのオリジナルのソースに対するリファレンスをRSSフィードに用意することが出来る。それでは、いつものように正しく表示されているかテストしよう。

Thank Youを作成する

パーソナライゼーション、そして、読者への感謝のメッセージは大いに効果がある。以下にシンプルなメッセージをフィードに設定する方法を紹介していく。

Optimize->BrowserFriendly->Content Optionsの順にアクセスする

‘enable’をクリックして、個人的なメッセージを入力する。

RSSのeメールを送るタイミングを決める

送信する時間を管理して、より多くのRSSのeメールを開けてもらう。

Publicize->Email Subscriptions->Delivery Optionsにアクセスする

時間帯、オーディエンスにとって最善の時間を選択する。午前9-11時を薦める。

ワードプレスのRSSをフィードバーナーにリダイレクトする

ワードプレスに内蔵されている標準のRSSフィードを利用している人がいてもおかしくはない。そのRSSフィードを購読している人がいる可能性もある。「フィードバーナーリダイレクト」と言うプラグインを利用すると、すべてのフィードがフィードバナーを経由するように設定することが出来る。

プラグインは次のURLで手に入れることが可能だ - http://wordpress.org/extend/plugins/tentbloggers-feedburner-rss-redirect-plugin/

1. ワードプレスのセットアップでインストールする。

2. 有効にする。

双方のフィールドにフィードバーナーのURLを入力する。これで完了。


13. 動画のサイトマップ

動画をサイトまたはブログに投稿しているなら、とりわけ、メタデータでマークアップしているなら、動画のサイトマップを用意するべきである。こうすることで、グーグルやビングが動画のコンテンツに気づき、処理し、インデックスするプロセスが大幅にスピードアップする。

オプション A – 自力で作成する

サイトの規模が小さく、投稿する動画が2、3本しか存在せず、また、たまに投稿する程度なら、自分で動画のXMLサイトマップを容易に作成することが可能である。/span>

まず、XML構造のスケルトンのテンプレートを提供する。後はデータを加えていけばよい。

これは必要なフィールドを持つだけの最もベーシックなテンプレートである。

ステップ 1: 空のXMLファイルを作成する

  1. ファイルを作成する。名前は何でも構わないが、個人的に好きなファイル名を挙げておく: sitemap_video.xml
  2. 次に以下のようにルートディレクトリに保存する: http://www.quicksprout.com/sitemap_video.xml

先程も申し上げた通り、ファイル名、そして、保存場所は何でも構わないが、サイトマップをウェブマスターツールに投稿する際にこの情報が必要なので忘れないように気をつけてもらいたい。

ステップ 2: 次のコードをXMLファイルに貼り付ける

<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9"

       xmlns:video="http://www.google.com/schemas/sitemap-video/1.1">

 

  <url>

    <loc></loc>

    <video:video>

      <video:thumbnail_loc></video:thumbnail_loc>

      <video:title></video:title>

      <video:description></video:description>

      <video:content_loc></video:content_loc>

      <video:player_loc allow_embed="yes" autoplay="ap=1"></video:player_loc>

    </video:video>

  </url>

</urlset>

上のコードを説明しておく:

テンプレート内のプロパティの大半は任意だが、とりあえず全てを紹介したかったので掲載しておいた :-)

必要なフィールド

  1. ページのURL
  2. 動画ファイルのURLまたはプレイヤーのURL
  1. タイトル
  2. ディスクリプション
  3. サムネイル

それでは、例のテンプレートに情報を記入していく。このテンプレートでは、その他のプロパティは省略し、必要な要素に絞る:

動画1本に対するXML動画サイトマップの基本的なコード

<url>

<loc>http://www.quicksprout.com/videos/neil-patel-video-1.html</loc>

<video:video>         <video:thumbnail_loc>http://www.quicksprout.com/thumbs/thumbnail.jpg</video:thumbnail_loc>

<video:title>Advanced SEO for Bloggers</video:title>

<video:description>An exclusive video with SEO expert Neil Patel. Drive ridiculous amounts of leads to your blog and learn the 7 secrets of conversion rate optimization.</video:description>

<video:content_loc>http://www.quicksprout.com/video.flv</video:content_loc>

</video:video>

</url>

その他のプロパティを追加する

次のように、動画のサイトマップに追加することが可能なプロパティが数多く存在する:

<video:duration>

<video:expiration_date>

<video:rating>

<video:view_count>

<video:publication_date>

<video:tag>

<video:tag>

<video:category>

<video:restriction>

<video:restriction>

<video:restriction>

<video:gallery_loc>

<video:gallery_loc>

<video:price>

<video:requires_subscription>

<video:uploader>

<video:uploader>

<video:platform>

<video:platform>

<video:platform>

<video:live>

例のテンプレートに上のプロパティを幾つか加え、動作を確認しよう。

 <url>

    <loc>http://www.quicksprout.com/videos/neil-patel-video-1.html</loc>

    <video:video>

      <video:thumbnail_loc>http://www.quicksprout.com/thumbs/thumbnail.jpg</video:thumbnail_loc>

      <video:title>Advanced SEO for Bloggers</video:title>

      <video:description>An exclusive video with SEO expert Neil Patel. Drive ridiculous

                      amounts of leads to your blog and learn the 7 secrets of

                      conversion rate optimization.</video:description>

      <video:content_loc>http://www.quicksprout.com/video.flv</video:content_loc>

      <!–optional properties–>

      <video:duration>750</video:duration>

      <video:rating>4.1</video:rating>

      <video:view_count>54321</video:view_count>    

      <video:publication_date>2012-04-01T19:20:30+08:00</video:publication_date>

      <video:family_friendly>yes</video:family_friendly>  

      <video:restriction relationship="allow">IE GB US CA</video:restriction>

      <video:requires_subscription>no</video:requires_subscription>

      <video:live>no</video:live>

    </video:video>

  </url>

これは一目見れば分かる類のプロセスである。認められている個別のフィールドの詳細は、グーグルの文書で確認してもらいたい。

ステップ 3: グーグルウェブマスターツールにサイトマップを投稿する

オプション A – ウェブマスターツールに直接投稿する

グーグルにXMLサイトマップを投稿する手法としては、この手法を薦める。

- ウェブマスターツールにサインインする

- ウェブサイトのプロフィールを見る

- Site Configuration->Sitemapsにアクセスする

- 右隅の“Add/Test a Sitemap”をクリックする

- サイトマップの名前を入力し、投稿する。

オプション B – robots.txtファイルに以下の列を加える -

サイトマップ: http://www.example.com/sitemap_video.xml

あらゆるXMLのサイトマップに共通することだが、robots.txtファイルが適切に設定されていると、グーグルはrobot.txtの情報を基に動画を発見し、処理していく。


14. .htaccessのテクニック

これから紹介するアドバイスは、クライアントがApacheを利用している場合のみ有効である。ウィンドウズ IISを利用しているなら、IISのテクニックを参照すること。

  1. サーバーで.htaccessファイルを探し出す。
    (“サーバーで.htaccessを探す方法”を参照)
  2. .htaccessを見つけたら、テキストエディタを使ってファイルを編集する。
    ウィンドウズを利用しているなら、 Notepadを薦める。Macを利用しているなら、  TextWrangler等の無料のテキストエディタをダウンロードしよう。
  3. .htaccessファイルで何をしたいのかを決め、コードの列を加える:

自分で404ページを作るには

“ErrorDocument”を利用し、最後にオリジナルの404ページへのURLを加える。例:

ErrorDocument 404 http://www.example.com/my-custom-404-page.html

フォルダーをパスワードで保護するには

A. まず、htpasswdファイルを作成する。オンラインツールを利用すると簡単に作成することが出来る: http://www.tools.dynamicdrive.com/password/

B. 左側に希望するユーザー名を、そして、当該の人物に与えたいパスワードを右側に入力する。

C. “path to .htpasswd”ボックスで、公開しないフォルダーを記入する。通常は、次のように、ホームのディレクトリを入力すると安全である:“/home/myusername”

D. submitをクリクし、ダウンロードした.htpasswdファイルを“/home/myusername”に置く。

E. 次にこの情報を.htaccessファイルに入力する。

AuthUserFile /home/myusername/.htpasswd

AuthName EnterPassword

AuthType Basic

require user some_users_name

some_users_name”をこのフォルダで許可されるユーザーネームと置き換える。

IPアドレスでユーザーをブロックするには

次の4つの列を.htaccessファイルに入力する:

Order allow, deny

Deny from 111.222.333.444

Deny from 555.666.777.888

Allow from all

“deny from,”の列で、例のIPアドレス“111.222.333.444”をブロックしたいIPアドレスに置き換える。

リファラーでユーザーをブロックしたいなら

以下の3つの列を.htaccessファイルに加える:

RewriteEngine On

RewriteCond %{HTTP_REFERER} somedomain\.com [NC]

RewriteRule .* – [F]

複数のリファラーをブロックしたいなら、次のようにRewriteCondの列を増やす必要がある:

RewriteEngine On

RewriteCond %{HTTP_REFERER} somedomain\.com [NC,OR]

RewriteCond %{HTTP_REFERER} anotherdomain\.com [NC,OR]

RewriteCond %{HTTP_REFERER} 3rdDomain\.com [NC]

RewriteRule .* – [F]

最後の列を除く全ての列が“[NC,OR]”で終わっている点に注目しよう。

index.html以外をデフォルトのページに指定するには

“home.html”をデフォルトのページに指定したいと仮定する。その場合、次の列を.htaccessファイルに利用してもらいたい:

DirectoryIndex. home.html

古いドメインを新しいドメインに301リダイレクトするには

以下の列をhtaccessファイルに加える。

RewriteEngine on

RewriteCond %{HTTP_HOST} ^olddomain.com [NC,OR]

RewriteCond %{HTTP_HOST} ^www.olddomain.com [NC]

RewriteRule ^(.*)$ http://www.newdomain.com/$1 [R=301,NC]

"olddomain.com"を古いドメイン名に置き換える。すると、古いドメインからWWWで始まる新しいドメインにリンクを301リダイレクトするようになる。

ウェブサイト上のリソースへの直リンクを防ぐには

次の列を.htaccessファイルに加える:

RewriteEngine on

RewriteCond %{HTTP_REFERER} !^$

RewriteCond %{HTTP_REFERER} !^http://(www\.)?mydomain.com/.*$ [NC]

RewriteRule \.(gif|jpg|js|css)$ – [F]

mydomain.comをドメイン名に置き換える。この列によって、GIF、JPG、JS、そして、CSSファイルへの直リンクを阻止することが可能になる。

HTTPS://からHTTP://へ全てのページをリダイレクトするには

次の列を.htaccessファイルに加える:

RewriteEngine on

RewriteCond %{SERVER_PORT} !^80$

RewriteRule ^(.*)$ https://www.domain.com/$1 [NC,R=301,L]

domain.comを実際のドメインに置き換える。

HTTP://からHTTPS://へ全てのページをリダイレクトするには

.htaccessファイルに次の列を加える:

RewriteEngine on

RewriteCond %{SERVER_PORT} !^443$

RewriteRule ^(.*)$ http://www.domain.com/$1 [NC,R=301,L]

domain.comを実際のドメインに置き換える。

1つのURLをHTTPS://からHTTP://にリダイレクトするには

URLがhttp://www.domain.com/mypage.htmlだと仮定する

RewriteEngine on

RewriteCond %{HTTP_HOST} !^80$

RewriteCond %{HTTP_HOST} ^www.domain.com/mypage.html [NC]

RewriteRule ^(.*)$ http://www.domain.com/mypage.html [NC,R=301,L]


15. グーグルボットを検知する

ユーザーエージェントとしてグーグルボットを検知しておくべきである。その理由は数多くあるが、皆さんの想像に任せておく。 :)

1.  次のコードを文書の「body」のどこかに切り取り & 貼り付けする

if(strstr(strtolower($_SERVER['HTTP_USER_AGENT']), "googlebot"))

{

   // what to do

}

2. Replace with your content

“// what to do”を好きな指示に置き換える。

アドバイス: To make it HTML

次のコードを加える:

if(strstr(strtolower($_SERVER['HTTP_USER_AGENT']), "googlebot"))

{?>

          <h1>Put your HTML here</h1>

<p>anything you’d normally do</p>

<?php

}

PHPの各パーツを分ける。

if(condition){} - this is just a simple function that says “if x is true, do y”.

次にネスト化したステートメントの内側から作業する。

‘HTTP_USER_AGENT’ - これはブラウザ特有のIDの文字列を引き出す

$_SERVER – これはヘッダー、パス、スクリプトのロケーション等、ウェブサーバーによって生成される情報を持つ配列である

strtolower – 全てのアルファベットを小文字に変えた状態で文字列を返す

strstr – 最初のneedleの発生からhaystackの最後までを含むhaystackの文字列の一部を返す

{

        // what to do

}

フォワードスラッシュ // はコメントを残すためだけに用いられる。つまり、波括弧の間に望む動作を挟めばよい。

ビジュアルを好むなら – このコードは分かりやすい:


16. サイトにカスタム検索エンジンを加える

グーグルのカスタム検索エンジンは強力なツールになり得るものの、このツールを利用していないサイトは意外と多い。それでは、サイトにカスタム検索エンジンをインストールする手順を説明していく。

- http://www.google.com/cseにアクセスする

ステップ 1: タイトルとディスクリプションを作成する

ステップ 2: 検索に含めるサイトを加える

ここでちょっとしたテクニカルなノウハウが役に立つ。

サイトのURLをただ単に加えるのではなく – アスタリスク (*) をURLの後ろに加えて(例

http://www.quicksprout.com/*)サイト全体を検索することが出来るようにしなければならない。

ステップ 3: Editionを選択して、確認する

この作業を完了すると、カスタム検索エンジンをサイトに実際にインストールする前に試す機会が得られる。

Let’s check it out!

カスタム検索エンジンで[twitter tips]を検索すると、良質な検索結果が表示された。また、エンジン内のサイトのバラエティも申し分ない(プレミアム版を購入しない限り、広告が表示される点に注意)。

それでは、これからサイトにインストールするプロセスを説明する。

カスタム検索エンジンをサイトにインストールする

このタイプのインストールは、新しいページか新しい投稿のいずれかに行うことになる。例では新しいページを利用するが、新しい投稿にも同じ方法を用いることが可能である。

ステップ 1: “new page”にアクセスする

ステップ 2: HTMLモードで編集する

JavaScriptのコードをページに貼り付けるため、HTMLモードで編集を行う。

ステップ 3: コードを貼り付ける

プレビューを見る


17. 複数の言語のマークアップとグーグル翻訳

グーグル翻訳をインストールして、別の言語を話すビジターにもサイトを楽しんでもらう方法をこれから伝授する。これは割と新しいテクニックであり、利用している人はまだ少ない。そのため、早い段階で導入しておくことを薦める。

 http://translate.google.com/translate_toolsにアクセスする

段階 I – コードを取得する

翻訳をサイトに実装するため、まずはオプションを選択し、コードのスニペットを生成する。

ステップ 1: ページ全体またはページの一部を翻訳するかを決める

大抵、ページ全体を翻訳したいのではないだろうか。しかし、一部のテキストを異なる言語に翻訳したい場合でも、ページの一部のみを翻訳する選択肢があるので心配しないでもらいたい。

ステップ 2: ウェブページの言語を選択する

大抵の場合、英語を選択することになる。

ステップ 3: Optional Settingsを表示させる

十字マークをクリックして、optional settingsを開く。

optional settingsを使って、サイトの翻訳を完全にカスタマイズすることを私は薦める。

翻訳される言語を選択することが出来る。

翻訳ボックスの表示方法を選択することが出来る。個人的には、「inline」と「dropdown only」が良いと思う。

さらに上級者向けの設定も用意されている。ここでは、ページを翻訳する必要がある読者に自動的にバナーを表示する。また、グーグルアナリティクスで利用を追跡する。

アドバイス: グーグルアナリティクスのIDを早く見つける方法

1. 自分のウェブページにアクセスする

2. ソースを見る

3. Control F(クロームの場合)を押して、テキストを探す

4. “ua-”(ダッシュ付き)を検索する

選択を終えたら、完成したスニペットのコードが表示されるはずだ。

ページのプレビューを見る

コードをコピーして、サイトに加える前に、翻訳ボタンのプレビューを見ることが出来る。

段階 II – コードをサイトにインストールする

これでコードの準備が整ったので、これからサイトに実際にインストールしていく。ワードプレスのようなコンテンツ管理システムを利用しているなら、割と簡単にインストールすることが可能だ。ここでは、コードを挿入するスポットを探す作業のみ説明する。

ステップ 1: 翻訳ボックスを表示する場所を決める

翻訳ボックスをインストールする基本的な場所は次の2つである。

オプション A – クイックスプラウトのように、ヘッダーのどこかに表示する:

オプション B – クックスプラウトのこのページのようにサイドバーのどかに表示する:

ステップ 2(オプション A): コードをヘッダーにインストールする

再びソースコードを確認すると、コードを挿入する必要のある場所が見えてくる:

検索ボックスとロゴの間に挿入する必要がある。

1. ワードプレスにログインする

2. 「editor」にアクセスする

3. 「Header」を選択する

4. header.phpファイルの翻訳コードを貼り付ける

翻訳ボックスを表示させる場所をコードで探し出し、header.phpファイル内でスニペットを貼り付け、保存する。

ステップ 2(オプション B): サイドバーにコードをインストールする

新しいテキストのウィジェットを作成することが出来るため、このオプションの方が少し難易度は低い。

1. ウィジェットにアクセスする

2. サイドバーに新しい「Text Widget」を加える

3. 翻訳コードをウィジェットに貼り付ける

これで完了。今後は異なる言語のユーザーにもサイトを楽しんでもらえる。


18. 悪意のある、または害をもたらす可能性のあるリンクをブロックする

時折、ハッカー、または、悪意のない経験の浅い人達が、クエリパラメータを最後に加えたリンクを送ってくることがある。例を以下に挙げる:

http://www.quicksprout.com/?neilpatelscam

(このような方法でリンクを張ってもらいたくない)

また、悪意のあるクエリの文字列が異なるページに向かわせてしまうこともある:

http://www.quicksprout.com/page/2/?neilpatelscam

http://www.quicksprout.com/page/3/?neilpatelscam

このページはそのままインデックスされ、本物のページをインデックスで置き換えてしまう可能性がある。可能性こそ低いものの、万が一の時は、修正する必要がある。以下に、そのための.htaccessのコードを掲載する:

# FIX BAD LINKS
<ifModule mod_rewrite.c>
RewriteCond %{QUERY_STRING} querystring [NC]
RewriteRule .* http://example.com/$1? [R=301,L]
</ifModule>

単純に次の手順に従ってもらいたい:

1. .htaccessがルートディレクトリに存在することを確認する。

2. このコードを.htaccessファイルの一番下に掲載する。

3. “querystring” を利用されている悪意のあるクエリ文字列と置き換える。

4. example.comをサイトのURLと置き換える。

5. 複数のクエリ文字列を加えるには、“pipes” ( | )を“or”を表現するために用いる:    

           例えば、neilpatelscam|quicksproutripoff|badblogger

6. 最後に1週間後または2週間後にグーグルで、次のようなsite: queryを実行して、インデックスから削除されている点を確認する:

        site:quicksprout.com/?neilpatelscam


19. オンサイト分析向けのブラウザプラグイン

ブラウザプラグインは、ワークフローと効率を大幅に改善するポテンシャルを秘めている。そこで、グーグルクロームのプラグインを幾つか紹介し、高度な使い方も幾つか伝授していく。

このセクションでは、サイトのアクセシビリティおよびインデクセーションを最適する上で役に立つプラグインを取り上げる。

以下にリストを掲載する。

  1. Broken Link Checker - https://chrome.google.com/webstore/detail/ojkcdipcgfaekbeaelaapakgnjflfglf
  2. Web Developer - http://chrispederick.com/work/web-developer/
  3. Redirect Path Checker - https://chrome.google.com/webstore/detail/aomidfkchockcldhbkggjokdkkebmdll
  4. SEOmoz Toolbar - https://chrome.google.com/webstore/detail/eakacpaijcpapndcfffdgphdiccmpknp
  5. Chrome Sniffer - https://chrome.google.com/webstore/detail/homgcnaoacgigpkkljjjekpignblkeae
  6. Google Analytics Debugger - https://chrome.google.com/webstore/detail/jnkmfdileelhofjcijamephohjechhna
  7. Microformats for Chrome - https://chrome.google.com/webstore/detail/oalbifknmclbnmjlljdemhjjlkmppjjl
  8. Rulers Guides and Eyedropper Color Picker - https://chrome.google.com/webstore/detail/bjpngjgkahhflejneemihpbnfdoafoeh
  9. Word Count - https://chrome.google.com/webstore/detail/kmndjoipobjfjbhocpoeejjimchnbjje
  10. Source Kit - https://chrome.google.com/webstore/detail/iieeldjdihkpoapgipfkeoddjckopgjg?hl=en-US

次に、高度な利用方法を紹介する。

Broken Links Checker

このプラグインは、リンク切れを手っ取り早く確認することが出来るだけでなく、リンクの構築および獲得に関するアイデアを得るため、他のサイトに利用する手もある。

例えば、競合者のウェブサイトのサイトマップでこのプラグインを実行してみよう。手順は以下の通りだ:

1. 競合者のHTML sitemapを探す。例えば、ランダムに www.bizchair.comを取り上げ、サイトマップを探し出してみる: http://www.bizchair.com/site-map.html

2. Link Checkerを実行する

エクステンションのアイコンをクリックする

リンク切れが見つかるまで待つ – この例では、多くのリンク切れが見つかった。

特に目立つのは、“resources” ページである。リソースのコンテンツを再現する、または、リンクを得るために利用することが出来る。

Chrome Sniffer

このプラグインは、ウェブサイトが利用しているCMS、または、スクリプトのライブラリを自動的に表示する。例えば、ワードプレスのサイトのオーナーのみに接触したい際に、とても便利である。

ウェブを閲覧している際に、利用されているCMSやライブラリに合わせて、URLの右端のアイコンが変化する。

例えば、私のサイトはワードプレスで構築されていることが分かる

そして、ドルーパルで構築されているサイトの場合このように変化する

Redirect Path Checker

このプラグインは、リダイレクトでページに移動される際に自動的に警告を発する。ウェブを閲覧している際に、内部(または外部)で期限切れのURLにリンクを張っている場合、非常に役に立つ。

例えば、私は、たった今、Gizmodo 302リダイレクトにリンクを張っていることに気づいた:

このプラグインが302を通知してくれたため、リダイレクトに気づいたのだ。

アイコンをクリックすると、ブラウザがページに向かう上で経由したリダイレクト(または一連のリダイレクト)を表示する。

SEOmoz Toolbar & Plugin

Mozのプラグインは、様々な用途で利用することが可能である。より高度な方法を幾つか紹介する:

followedとnofollowedのリンクを早く発見する

ウェブサイトの国またはIPアドレスを発見する

上級者向けSEOガイドの記事一覧はこちらから


この記事は、Quick Sproutに掲載された「Chapter 1: Indexation and Accessibility」を翻訳した内容です。

圧巻の質と量を誇る記事でした。英語圏のツールを中心に紹介されていましたが、大半が日本語でも問題なく使えるものばかりですし(というか、日本で使える同種のツールは余りないですし)、日本のウェブマスターにも十分に役立つ内容だったと思います。ここまで徹底してSEOに取り組んでいるサイトも余り無いと思いますし、全てを行う必要があるわけでもないとは思いますが、ここという時に参考になる情報が満載でした。 — SEO Japan [G+]

リンク構築の11点の禁止事項

本日の話題もリンク関連ということで、改めてリンク構築において「すべきでない」手法を11整理した記事をサーチエンジンランドからお届けします。真っ当すぎる意見ではありますし、やり方次第でグレーにもホワイトにもなる内容もありますが、基本事項として理解しておきたい。 — SEO Japan

皆さんに伝えたいことがある。

ここ最近フラストレーションがたまっている。

Link Weekのコラム担当者は、リンク構築を適切に(そして、無償で)実行する方法を真剣に提案している。 それなのに、なぜ、いったいどうして、ゴミのように扱わられなければならないのだろうか?どうやら、リンク構築のエキスパートは、新たなアプローチを介して、「正当」なオンラインマーケティングの手法に変えていかなければいけないようだ。

We tried. We gave you all a chance, but since you little prissies can't follow instructions, I guess we'll have to try something else.

「アドバイスは出し尽くしたわ。他に何をすればいいっていうの?」- 私は自信を失い、混乱している。

そこで今回は、リンク構築において、二度と絶対にするべきではない行為を11点に絞って、紹介していく。順番に意味はない。

1. 質よりも量を優先する

グーグルのボットが見つけることが出来るかどうかも分からない25本のリンクよりも、実際に読者がいるサイトの1本のリンクを私ならとる。

2. 記事の大量投稿

記事の大量投稿がいまだに行われているのは、リンク構築業者に責任があるのかもしれない。この行為が原因で、「コンテンツは王様」と言うフレーズが、しつこく繰り返されているのだろう。この点に関しては、ある程度、責めを負うつもりだが、記事の大量投稿に対するロジックが、私にはいまだに理解することが出来ない。どこにでもあるペイデイローンでお得な契約を結ぶ方法、または、オフィス用のイスの素晴らしい点 トップ 10の記事を大量のサイトに投稿して、何を得られるのだろうか?

3. コンテンツのスピニング

2と同じように、全く同じ記事を、少し言い回しを変えて、「新しいコンテンツ」と宣言する行為は厳禁である。新しい記事のトピックが思いつかないほど創造力が枯渇しているのだろうか?サイトによってオーディエンスのタイプは異なる。自分のオーディエンスに向けて、記事を作成するべきだ。

スピニングは、同じトピックを使って、異なるメディアに向けて変換する、コンテンツの再利用とは異なる。例えば、プレゼンを行うと仮定する。この場合、コンテンツの再利用とは、スライドシェアにスライドを投稿し、プレゼンに関するブログの記事を作成し、そして、ウェブセミナーを行う取り組みを指す。コンテンツのスピニングは、作成したブログの記事を使って、意味を変えずに言葉だけを少し変更し、別のソースに売り込む行為である。

4. これ(ゲスト投稿の依頼メール):

Stop. Just...stop.

頼むから、やめてほしい。

5. 自分を無視する

愛情が注がれていないサイトやブログに向けられたリンクを何度か見たことがある。これは、赤の他人のサイトに良質なコンテンツを提供する取り組みに力を入れ、その後、ようやく自分のサイトのコンテンツの構築を始めるために発生する現象である。確かに、サイトを開設したからと言って、確実にリンクが寄せられるわけではなく、また、ビジターを獲得するために、宣伝を行う必要がある – しかし、優れたコンテンツを自分自身のサイトに構築していけば、たった1本ではなく、多くの自然なリンクを獲得するドアが開かれるようになる。

6. 「広告」(別名: 小さなテキストリンク)を買う

eメールを送信して、私にブログで“広告”を依頼するときは、細心の注意を払うべきだ。「オンライン妊娠テスト」や「安いウェブホスティング」等のワードで広告を出したいのだろう。

私をスパムするつもりなら、もう少し捻りを加えてもらいたい。

7. アンカーテキストに過剰にこだわる

2012年にペンギンが、ウェブマスター達を恐怖のどん底に落として以来、この傾向は確かに少なくなった。やはり、企業の名前よりも、完全一致のアンカーテキストの比率が高い被リンクプロフィールは、賢明な判断とは言えない。全てのウェブユーザーが、全く同じフレーズで、そのサイトを検索しているとでも言いたいのだろうか?

私なら、どんな方法でリンクを張ろうが、(質の高い)リンクを受け入れる。確かにアンカーテキストは、今でも重要であり、これがフラストレーションのたまる要因になっているのだろう。キーワードのリンクを必要としているものの、そのキーワードを必要としているように見えるのは問題なのだ。それでも、2年前と比べ、完全一致のリンクの比率は、大幅に減らす必要がある。

8. これも絶対にダメ(IP分散のプライベート・リンクネットワーク):

Does this really work for you, Josh?

Joshさん、これ本当に効果があるの?

9. ゲスト投稿

目を疑った人もいることだろう。ゲスト投稿を使って、リンクを構築するアクティビティから手を引くべきである。

私のことを偽善者と呼ぶ前に(そもそも、今、私自身がゲスト投稿を行っている)、ハッキリさせておきたいことがある。トピックについて隅から隅まで知り尽くしている自信がないなら、ゲスト投稿を控えるべきだ。一日に十本の記事を作る「記事作成専門のライター」が成功するのは不可能に近い。

ゲスト投稿をまだ行っているなら(私もその一人 – 適切に実施すれば効果はある)、時間を割いて、クライアントに質問を投げ掛けよう。SEOのエキスパートなら、様々なクライアントにサービスを提供することで、多くの異なる業界について、少し知識を持っているはずである。そこで、クライアントの取り組みに関心を持ち、記事としてタイミングが良く、適切なトピックを見つけだすべきである。

10. 「コンテンツマーケティング」の代わりとして「リンク構築」を行う

この2つの戦略は、お互いを補完するものの、大きく異なる。コンテンツマーケティングは、オーディエンスが必要としているコンテンツを与えて、購入の決定を下してもらう、言わば、リードを促すための取り組みである。リンクを構築することも可能だが、主な目的ではない。

11. 「ニュース性に欠ける」プレスリリースを配信する

パブリックリレーションズは、リンク構築の欠かせない要素の一つになっているものの、2本のプレスリリースを一ヶ月で配信しようと試みるのは、一ヶ月に50本のリンクを構築するようなものだ。現実的ではなく、ペースを維持することもできない。新しい製品の発売や地域社会への貢献等、ニュースに値することが起きたときに限って、プレスリリースを配信するべきである。

私はフラストレーションを関係のない方々にぶつけているのかもしれない。サーチエンジンランドの優秀な読者の皆さんなら、上述した行為(そして、同じくらい恐ろしい行為)は避けているはずだ。そのため、正当なリンク構築を進める運動に是非参加してもらいたい。 約束事を反故にしている人を見たら、声を上げてもらいたい。公の場で、出来れば、悪態をつきながら。

</ストレス発散>


この記事は、Search Engine Landに掲載された「11 Things We Should Never Ever Do In Link Building Again」を翻訳した内容です。

特筆すべき内容があったわけではありませんが、こうして羅列されると頭の整理にはなりますね。禁止事項とはありつつも、どれもバランス次第な内容にも読めますが、Googleのペナルティ発動が日本でも本格化している昨今、それなりの知識と覚悟がないと上記はどれも控えておいた方が無難といえそうです。 — SEO Japan [G+]

リンク構築で「コンテンツ・イズ・キング」は絶対か?

新会社設立等で更新が止まっていたSEO Japanですが、翻訳記事も溜まっていますし今後は質優先できちんと更新いきます!ということで、まずはリンクに関する話題を。今後のリンク構築には「コンテンツの質が重要」という話はよくありますが、素直に納得してしまいそうなこの「コンテンツ・イズ・キング」説を改めて考え直してみた記事を米国SEOエキスパートのブログから。リンク獲得の具体的手法も満載、SEO担当者にはきっと役立つ内容です。 — SEO Japan

コンテンツが全てではない。コンテンツ以外にも力を入れるポイントはある。実際に、コンテンツが全く重要ではないケースもある。

「コンテンツは王様」と言う格言は的を射ているとは思うが、世界で君主制を用いる国は44ヶ国のみであり、世界のごく一部でしかこのシステムの意図は伝わない

私が以前投稿したコンテンツのリンクの効き目に関する記事を読んだことがあるなら、リンク構築全般に対して、コンテンツに過大な期待をする行為が、いかに滑稽であるかを理解しているはずだ。例えば、保険に関するウェブサイトで、最高のコンテンツを作成しても、 I Can Haz Cheeseburger(動物の面白い写真を紹介するサイト)の最高のコンテンツと同じ結果が得られるわけではない。実際に、「良質なコンテンツを作る」以外の様々な要素によって、リンク構築は構成されている。そもそも、「コンテンツは王様」と言う考え方によって、実際の功績よりも遥かに多くの功績をコンテンツに与えている。その結果、最低限レベルのコンテンツを使って、しかも、お金をかけずに大量のリンクを構築する実力を持つ、クリエイティブなリンク構築のエキスパートが適切に評価されない事態に発展している。

価値提案が王様

リンク構築における「王様」はコンテンツではない。確かに、コンテンツは重要だが、重要度が高いのは、ソーシャルメディアが活躍する分野においてである。しかし、本当のリンク構築の王様は、全体的な価値の提案だ。リンクを求めて、リンクを得られるかどうかは、価値の提案 – つまり、コンテンツとマーケティングの組み合わせにかかっている。そして、価値の提案が、実際のウェブサイトとは全く関係のないケースが非常に多い。そのため、「コンテンツは王様」と唱えながら朽ち果て、多くのリンクを見逃しているサイトが続出している。

リンクを獲得するモデルを構築する

「コンテンツは王様」と言う考え方の甘さを、合理的に理解したなら、リンクを獲得する方式、つまり、リンク構築モデル全般について話を進めていこう。リンク構築モデルには、2つの側面 – 価値の提案 & ウェブマスターの心理 – で構成されており、ハイパーリンクを獲得するかどうかは、この2つの側面にかかっている。

価値の提案

まずは、価値の提案から見ていく。価値の提案は、リンクを独占的に獲得するポテンシャルを持っている – 親交があるかどうかで、あるいは、良質なウェブサイトを持っているかどうかで決まる。しかし、大方、リンクの価値を判断する上で、この2つの側面は連動して作用する。例えば、事業保険のウェブサイトのオーナーが、ニューヨークタイムズに1000ドルを提示しても、良い返事はもらえないだろう。しかし、100万ドルを用意したら、サイトをフィットさせるべく、努力するのではないだろうか。同様に、サンフランシスコ在住で、優れた営利目的のウェブサイトを運営しているなら、サンフランシスコに関するブログからリンクを得られる可能性は高い – 一方、サンフランシスコ在住ではなく、また、良質なウェブサイトも持っていないなら、リンクを獲得することは不可能に近い。

マネー

価値提案の中で、最も問題視されており – 間違いなく、最も効果が高いのは、マネーである。その他の価値提案とは、一線を画している。当然ながら、グーグルは、この手法に真っ向から反対しており、追放される可能性がる。先週のSMXカンファレンスで、ビングは必ずしも有料リンクを敵対視しているわけではなく、テーマとは全く関係のないリンクを問題視していると指摘していた。身に覚えがあるだろうか?

倫理および潜在的なリスクに対する直感を基に、どんな結論を出すにせよ、価値提案としてのマネーは、今後もリンクを獲得する手法として、その他の手法をリードしていくだろう。 キャッシュが提示される状況では、コンテンツの重要性は非常に低い – 許容の範囲内であること、または、妥当であることぐらいしか問われないはずだ。「質の高さ」は重要視されない。

お金を使ってリンクを獲得する上でのヒント:

  • グーグルアラートで「Sponsorship opportunity」、「Thanks to our sponsors」 & 「donate to our charity」を設定する。この3つの検索は、素晴らしい慈善活動を支援する、自然で有償の“無料”のリンクに対する最新の結果を提供する。
  • スポンサーにイベント/チャリティーを提示する際は、プライスアンカリングを利用する。プライスアンカリングとは、すなわち、購入を交渉する際の基本価格を設定する手法である。サイトにスポンサー料金を掲載していても、まるで相手の基本価格を見ていないかのような雰囲気で、大幅に低い価格を提示して、交渉に入るべきである。価格を高くすると同意してもらえなくなると恐れ、この価格を受け入れてもらえることは多い。また、反対されても、通常よりも低い価格を提示されるはずだ。
  • スタンブルアポンの広告プログラムを使って、バイラルトラフィックを獲得する。ソーシャルメディア向けが良いコンテンツなら、スタンブルアポンの広告機能を使って、コンテンツのページビューを増やし、その後、売り込むと、バイラル化に大きく貢献する。
  • BBBTRUSTe & PR.comを持つリスティングを買う。BBBとTRUSTeは、もともと大きな価値を持つ強力なリンクを提供している – しかし、ユーザーの信頼を高めて、コンバージョンを改善する効果が見込めるバッジも提供している。ブランドのシグナルを重要視しているなら、この2本のリンクによって、サイトの登録に求められるスタンダードを満たしていることがユーザーに伝わり、さらにサイトをプッシュする効果が見込める。PR.comは、ターゲットを絞ったアンカーテキストを用いて、プロフィールのリンクを掲載し、さらに、追加料金を払えば、プレスリリースを広めてもらえる。

場所

ほとんど利用されていない価値提案もある。その一つが、場所である。場所は、地域のブログ、地域のディレクトリ、商工会議所、フォーラム等のリンクを獲得するために、利用することが出来る。

場所を使って、リンクを獲得する上でのヒント:

 

アウトバウンドコンテンツ

アウトバウンドコンテンツとは、自分のサイト以外の場所に提供する、何らかのコンテンツやアイテムを指す。アウトバウンドコンテンツには、ゲスト投稿、インフォグラフィック、ホワイトペーパー、ウィジェット等が該当する。自動車保険のウェブサイトを運営していようが、ニューヨークタイムズを運営していようが、提供するコンテンツが十分なパワーを持っているなら、劣悪なウェブサイトを上回り、リンクを獲得することが出来る可能性がある。

アウトバウンドコンテンツを使って、リンクを獲得する上でのヒント:

  • インフォグラフィックを使ってリンクを構築する方法」を紹介したジャスティン・ブリッジズ氏の投稿に目を通そう。
  • 出来るだけ大きなマーケットに対して、アウトバウンドコンテンツを作成する。例えば、「一流の子育てブログ」に対するウィジェットは規模が大きく、成功する確率は高くなる。一方、「一流のNY ジェッツのブログ」のウィジェットの規模は小さく、手に入れられるリンクの本数は遥かに少なくなるだろう。範囲を出来るだけ広くすることで、見返り、そして、キャンペーンを成功に導く可能性を高めることが出来るのだ。しかし、ウィジェットが、「格好いい音楽のサイト」並に一般的なら、ターゲットのサイトに対して、特別なグループの一つに盛り込まれていることを伝えるべきである。あまりにも範囲を広くすると、逆効果なのだ。ウィジェットが「音楽サイト – Top 25」であったら、“エゴ”ベイトとして十分に機能するだろう。
  • 出来るだけコンテンツの掲載を容易にする。私はデザイナーに対して、ウィジェットの配信プラットフォームを作る際の参考として、SEOMozのWeb2.0バッジのページを紹介したことがある。様々なサイズと形のバッジを作り、さらに、切り取り & 貼り付け用のコードを提供することで、投稿する際のハードルを出来るだけ低くすることが出来る。ブログの記事に対しては、グーグルドキュメントを使って、誰でも – マイクロソフトのオフィスを持っていないユーザーも – アクセスすることが可能にするか、もしくは、単純にコンテンツをeメールで送信することを薦める。

友情/事業提携

ビジネス上の付き合いであれ、個人的な付き合いであれ、親しい人にリンクを要請しよう。関係が強ければ強いほど、サイトに掲載してもらいやすい。

友情/ビジネスを使って、リンクを獲得する上でのヒント

  • ブログのアーカイブのリンクを要請する。確かに疑わしいものの、このタイプのリンクは、友人のワインに関するブログで、事業保険のサイトにリンクを張る行為に対して感じる抵抗を少し下げられるだろう。たいした価値をもたらさないが、Wine Library TVHealthy Hearing等のオーソリティサイト上のリンクを獲得することが出来るなら、話は別だ。
  • 時々リンクを求める。友人に毎回リンクを求めるべきではない。良好な関係を壊したくないなら、たまに要請するべきである。そして、その他の価値提案を加える必要がある – 例えば、私は友人のインターネットマーケティングに関するサイトで、自分のウェブサイトを自然に取り上げる手段として、ゲスト投稿を提案したことがある。こうすることで、抵抗を抑え、複数の価値提案を活用することが可能になる。
  • エクセル文書を作って、リンクのチャンスを記録する。この点は、サーチエンジンランドに投稿した記事「ブラックリスト」で触れたことがある。ハード(実際に面会する)であれ、ソフト(eメール)であれ – 関係構築を介して、最終的にリンクを獲得することが出来る、リンクの機会を積極的に管理する。エクセル文書で整理することで、リンク構築のポートフォーリオに新たにウェブサイトを加えた際に、チャンスを逃さない環境を作り出すことが出来る。構築した関係から価値を入手するため、この文書を何度も利用することが可能だ。

エゴベイト / Ego Bait

価値の提案の中で、最も目立つ(そして、最も効果が高い)重要度の高いエゴを引き出す取り組みは、リンクを獲得する上で、大いに役立つ。リンクを求めるメールで相手のサイトをべた褒めする行為、業績を認めるバッジ、そして、コンテンツで言及し、その後、作者に知らせる手法は、効果的である。

エゴベイトを使って、リンクを獲得する上でのヒント

  • 「エゴリンクベイト」を作る。大きなグループに適用可能なウィジェットを作り、潜在的な見返りを最大化する。これは、アウトバウンドコンテンツの「出来るだけ大きなマーケットに向けてウィジェットを作成する」の項目で言及した点と同じである。例えば、AdAgeは、ブログ – トップ 150を作成し、自分のブログに掲載することが可能なウィジェットを利用している。ブログの数を20サイトに限定していたら – Adageのページビューは大幅に少なく、実際にバッジを掲載するサイトは3つ、あるいは、4つ程度であったはずだ。

  • 一風変わった褒め方をする。「君のブログはすごいね」と言うのではなく、具体的で、焦点が絞られた褒め言葉を贈るべきである。例えば、「ロスさんは、チャップマン大学を卒業しているんですね。私の友達にもチャップマン大学の卒業した人がいますよ。以前から、ロスさんのリンクの評価の投稿を参考にしたことがありますが、とっても役に立ちました。ありがとうございます! – と言い、次にSEOソフトウェアに関する宣伝を受けたら、私は、恐らく、詳しくその製品をチェックするだろう。片や、「面白いブログですね!」と言われたら、その言葉を信じることも、気に掛けることもしない。同様に、新たにウィジェット「マーケティングブログ – トップ 150」を作っても、このウィジェットを利用するブログは一つも現れないだろう。アプローチを工夫するべきである – 別のウィジェットが掲載されているサイトを見たら、同じ「Top –」を利用するのではなく、別の固有の価値提案を考えてみることを薦める。

ウェブサイトのコンテンツ

コンテンツを忘れていたわけではない。ウェブサイトのコンテンツも価値提案の一つであり、重要度は高い。サイトで優れたコンテンツを構築すれば、- 多分 – 優れたリンクを幾つか獲得することが出来る。最高のコンテンツであってもリンクを得られないこともあるが、質の高いオンページのコンテンツの存在は、ユーザーをコンバートさせる力があるため(これこそが最も重要)、大切である。

コンテンツをリンクを獲得する上で利用する際のヒント

  • 売り込みとは関係のない用語を使って、コンテンツを売り込む。多くのページが、「リンクを張って下さい」と表現している。この類の表現は、利益を意図していることが明白である。「シェアしましょう」等の表現の利用は、些細な違いだが、リンクに加え、共有と言う選択肢を与えているため、表現を和らげる効果が見込める。同様に、リンクを求めるeメールを送信する際は、「私のサイトにリンクを張って下さい」と懇願するのではなく、例えば、「ウィジェットベイトのリソースをとても楽しませて頂きました。私のウィジェットベイトのリソース W-I-D-G-E-T-B-A-I-T.tvに関する感想を聞かせて頂けると幸いです」と表現するべきである。こうすることで、厚かましい態度を取ることなく、さらに、信頼感を醸し出す効果があり、リンクを獲得する確率を高めることが出来る。
  • 社会的な規範を意識する。利益を交換するためではない故、この方法でリンクを獲得することが出来るケースがある。社会的な規範は、奇妙な存在である – 感謝祭の夕食では、無料でご馳走を振る舞うものの、食後に10ドルを払おうとすると、怒られ、つまみ出されてしまう。同じように、リンクを望んでいないような態度を取る、もしくは、(おまけ等)付加的な価値提案を提示しない等して、ウェブサイトとのつながりを断ち切ると、リンクを獲得する確率が上がる可能性がある。この件の詳細は、提供するものを増やすと、得られるリンクが減る仕組みで確認してもらいたい。

ウェブマスターの心理

提案する価値を理解したら、次に片っ端からウェブマスター達に価値を提案したくなる。これは、失敗に一番つながりやすい過ちである。価値の提案だけでは、リンク獲得の公式を完成させることは出来ないのだ。ウェブサイトにリンクを掲載する判断を下すのはウェブマスターであるため、価値の提案を行う方法を決める際に、ウェブマスターの気持ちを考慮しなければならない。

行動力

価値提案を用いて、ウェブマスターに接触する際に、タイミングが重要なカギを握る。ウェブマスターは、ピッチを受けたタイミングで、価値の提案に対して行動を起こすことが出来る可能性は、どれだけあるだろうか?スマートフォンを使って、金曜日の夜11時にメッセージを開いてもらいたいなら、かなりハイレベルな価値提案を行わなければ、行動を起こしてくれないだろう。しかし、火曜日の午後2時の眠くなった時間にメッセージを送信する場合、リンクを張ってもらえる確率は遥かに高くなる。

リクエスト付きの重要ではないメールを旅行に出かける前夜に受け取った状況を想像してもらいたい – 旅行から帰ってきた後にリクエストに応える可能性はどれだけあるだろうか?重要ではないなら、自分の仕事に関係ないなら、そして、再びリクエストされないなら、0に近いのではないだろうか。私の例は大げさだが、皆さんが実際にeメールをウェブマスターに送信する際は、この点を考慮してもらいたい。同様に、価値の提案が十分に魅力的であり、事実上、確実にリンクを張ってもらえるなら、タイミングは関係なくなるため、あまり心配する必要はない。

「行動力」を使って、リンクを獲得する上でのヒント

  • ウェブマスターへの接触を、ウェブサイトのトラフィックが多い時期に合わせる。ウェブサイトのトラフィックが最も多くなるのが、月曜日-木曜日の昼間なら、接触する相手がコンピュータのそばにいて、リンクを張る準備が出来ているのも同じ時間帯である可能性は高い。この時間帯は、大半の分野に共通しているが(月-木の午前から夕方になる前)、例外もあるため、サイトに応じて調節してもらいたい。大規模なリンク構築を行っていないなら、特定のウェブマスターを考慮して、例えば、相次いでツイートが投稿されるまで待ってから、あるいは、時差を考慮して、リンクを要請するメッセージを送ることが可能だ。
  • リンクを要請するメールを目立たさせる。もちろん、難しいが、朝に多くのメールが届くことを気にせずに、朝にメールを送信すると、あとで見るアイテムに分類されてしまう可能性はとても高くなる。昼間に注目を独占することが出来るなら、リクエストに応えたいと言う欲求は高くなる。

営利目的

営利的なコンテンツにはリンクを張らない方針を持っているウェブマスターがいる。このタイプのウェブマスターに接触するなら、強力な価値を提案しなければ、無視されてしまうだろう。 このケースに当たるサイトを判断するのは難しいが(営利目的のサイトにリンクを張ったことがなくても、今後も張らないとは限らない)、接触を行う際は、やはり考慮する必要がある。接触するサイトから距離を置く手がある – 先ほど紹介した社会的な規範を利用した手法を介して、営利目的のサイトのオーナーではなく、“友達”として近づくことで、リンクを得られるときもある。

「営利目的」を使って、リンクを獲得する上でのヒント

  • 女性の名前を使って、匿名のeメールで接触し、その後、リンク切れを見つける。SEER Interactiveのリンク切れに関する投稿(そして、記事の中で紹介されているツール)を使って、リンクを張ってくれそうなサイトでリンク切れを見つける。ウェブサイトを褒めた後、リンク切れを指摘し、最後に、リンクに値する2つのサイト – 環境に恵まれた/競合者以外のサイトと自分のサイト – を提案する。2つのサイトを提示することで、営利目的のサイトと関係があるとは思えなくなり、ウェブマスター側は、“正当な理由”でリンクを張ると言う感覚になる。また、女性の名前を適当なeメールのアカウントで利用することで、- 通常、女性の方が悪意を持っている人は少ないと考えるため – リンクを獲得しやすくなる。当然だ。

バーティカル/ウェブサイトの特徴

インフォグラフィックを持っているなら、ブログ以外の場所では掲載してもらえない可能性が高いため、ブログに焦点を絞って、接触するべきである。同様に、企業からリンクを要請するのは至難の業である – 価値提案の相手を選ぶ際は、このような特徴を考慮しなければならない。癌に関するリソース、あるいは、その他の悲しいタイプのポータル等 – 分野によっては、成功を収める上で検討しなければならない奇妙な特徴が存在する。

陽気な表現や誤った言葉遣いによって、リンクの獲得が失敗に終わることもある – なぜなら、テーマに対して、冷たい、あるいは、不適切だと見られてしまうためだ。

「分野/ウェブサイトの特徴」を使って、リンクを獲得する上でのヒント

  • マイク・パントリアノ氏が策定した「エクセルをSEOに活用する」ガイドを使って、タイプごとに被リンクを分割する。自動的にオリジナルの被リンクリストを分類すると、特定のターゲットを見つけやすくなり、ターゲットのタイプ間で、そして、提供するコンテンツに対して、大幅に考えを変える必要がなくなる。私は「ブログ」、「リンク」、そして、「リソース」に分類することを薦める – また、マイク・パントリアノ氏のリソースを使って、オープンサイトエクスプローラを介して、タイトルタグからこの情報を入手することで、URL以外で、ブログ/リンクリストを判断することが可能になる。 「リンク/リソース」ページを見つけたら、先ほど触れたリンク切れツールを使って、ROIを高め – 時間を節約しよう。

リンク構築: モデル

この“モデル”は科学的な根拠があるわけではなく、条件の多くは変わる可能性がある。しかし、このモデルでは – リンクを獲得しようと試みる度に – 手法の多くを利用しているが、他の戦略に頼る必要はない。

一番大事なことは、「良質なコンテンツを作れ」と言うメッセージに固執する単一のリンク構築モデルに頼っているわけではない事実である(大勢のウェブマスターが闇雲に依存しているようだが) – これではあまりにも短絡的であり、私はあくまでも実践的なリンク構築を目指したい。


この記事は、Ross Hudgensに掲載された「A Model For Link Building: Beyond “Great Content」を翻訳した内容です。

私もSEO Japanで様々な記事を過去発信してきましたが、個人的に「質が高い」と思う記事が必ずしもより人気を博し、トラフィックやリンクを得るわけでは無いことも十分体感しており、単純にコンテンツ・イズ・キングという話でもないよな、ということは感じていました。今回の記事、コンテンツより(コンテンツを通じた)価値を提案することが鍵、という内容にはナルホドと納得する点も多くありました。

内容に関してもかなり具体的な、リンク獲得に使える様々なテクニックが網羅されていましたし(若干グレーなものも含めて)、これからのリンク構築を考える上でかなり参考になる記事だったと思います! — SEO Japan [G+]