2010年代におけるGoogleの進化とSEO衰退の歴史まとめ

ペンギン・パンダ等のアルゴリズムの進化、そして手動の取締り強化により、SEOを巡る状況は英語圏のみならず日本でも大きく変わりました。今回はそんなGoogleの進化とそれに伴うSEOの衰退を整理してまとめてくれた記事をサーチエンジンランドから。もちろんSEOの概念や必要性がなくなることはないでしょうが、専門職としての役割と需要は、Googleの進化と共に減ってきているのは紛れもない事実と思います。業界関係者には是非読んでほしい内容。 — SEO Japan

google-white2-algorithm-seo-ss-1920

SEO業界は2010年以来劇的な変化に直面しているが、今度どのように進歩するのだろうか?

賢くなったGoogle

Googleは常に賢いサービスであった。立ち上げられたばかりの頃、ページランクアルゴリズムによって、Googleは検索業界を一変させた。あまりにも革命的であったため、今となっては誰も覚えていないその他諸々の検索エンジンを次々と葬っていった。カフェインが導入される前の、初期のGoogleも賢く、2010年以降に登場するGoogleの前任者としては申し分のない製品であった。

過去を振り返ると、Googleの品質保証、つまり検索エンジンの結果ページ(SERP)を保護する取り組みは力に頼っていた。相互リンク、有料テキストリンク、アーティクルリポジトリのリンク等、迷惑なリンクを特定して、ウェブスパムを識別し、対処するプログラムを書くのが常套手段であった。インフラに対するビッグダディアップデートが行われる前は、特にこの傾向が強かった。

インデックスのインフラを対象としたカフェインアップデートが2010年に導入された際、マイリー・オイェはウェブマスターセントラルで「ウェブ全体が拡大、そして、進化を続けており、カフェインを投入することでGoogleも共に進化することが可能になる」と話していた。この言葉は嘘ではなかった。カフェインが導入されると、Googleは好みのサイトをより正確に特定することが可能になった。

例えば、Googleは、上位にランクインしているコンテンツを書き直し、反復するのではなく、新しい情報、アイデア、あるいは、考えを当該のトピックに与えるコンテンツを求めている。

確かに、Googleはさらにパワフルな武器も導入している(パンダやペンギン等)。しかし、現在のGoogleはより知的な行動を取る気がする。ページランクアルゴリズムとパトロールが強化されただけではない。

初期のGoogleに話を戻す。10年以上前のGoogleと同じく、SEOコミュニティもまた賢かった。相関関係を誰かが発見するずっと前に、SEOコミュニティは重要なランキングファクターを特定することに成功していた。

SEOコミュニティはGoogleの裏をかくこともあった。SEO業者に欠けていたのは、知識、あるいは、知識だと思っていたモノを体系化するプロセッサとストレージだけであった。

その後、ムーアの法則が追いつき、クラウドが登場した。MajesticとMoz等の会社がウェブの広範囲をクロールするようになり、ベールを取り払い、Googleの隠し味の多くを明らかにする取り組みを始めた。

SEOの知識がピークに達したのは、カフェインが導入された時期と一致すると主張する声もある。当時、Googleはあらゆる情報を公開していた。

しかし、現在、SEO業界はGoogleの発表に関して既に持っている知識を精査することに専念している。同時に、Googleは共有するデータの量を減らしている。

今年の10月、Googleは — 「利用を止めた」ではなく、– ページランクに別れを告げると言った。また、Googleはキーワードの分析機能を取り上げ、さらに、キーワードツールのレベルを低下させた。知識と影響の比率において、2010年と現在を比べると、現在、SEOに対する知識の量は低下している可能性がある。

それでは、カフェイン導入後5年目に差し掛かろうとしている現在、SEOはどこに向かおうとしているのだろうか?

SEOの終焉

SEOに関して、ウェブサイトのオーナーは次の3つのタイプのいずれかに当てはまる:

  1. SEOをマーケティングのチャンネルの一つと考える。このタイプの見解を持つサイトのオーナーは、トラフィックを増やす手段としてSEOを実施する。SEO目的で、コンテンツを作り、ページを最適化し、リンクを構築する。
  2. SEOのトラフィックを、SEO以外の取り組みを全て適切に実施した褒美と考える。キーワードを選び、コンテンツを最適化するものの、コンテンツ、ソーシャルメディア、そして、宣伝を活用し、エンゲージメントとアウェアネスを高める取り組みに力を入れる。このタイプの人達は、SEO以外のタスクを全て正しく実施すれば、結果として、自然なトラフィックが増えると考えている。
  3. SEOを実施しない。 このタイプのウェブサイトのオーナーは認める認めないに関わらず、我流を貫く。デザイン、アーキテクチャ、そして、サイト上のコンテンツにSEOのベストプラクティスを反映されることはない。SEOが結果的に効果を発揮することを望むものの、その準備を行わない人達もこのグループに属する。

様々な理由で3つ目のタイプの見解を持つサイトのオーナーが増えつつある。最新のHTML5/CSS3/JavaScriptのデザインに夢中になり、何も変えたくない人もいれば、単純に諦め、豊富な資金を持つブランドとは勝負にならないと考えている人もいる。

大勢のSEOの関係者がこの業界を去りつつある。コンテンツマーケッターに転身した人もいれば、インバウンドマーケッターに転身した人もいる。このタイプに当てはまる場合、今でもSEOを仕事の一環として行っているが、仕事の範囲を拡大している。SEOのみでは、あまりにも仕事が限定されてしまうためだ。

SEOのみを生業とする業者は今でも存在するが、業界全体としては撤退する傾向が見られる。

Googleが有名な企業に大きなアドバンテージを与えるため、中小規模のビジネスは苦戦を強いられるようになり、とりわけ国内のみで営業する小さな会社は大きな規模のライバルに対して闘志を燃やすようになった。スタートアップ、そして、大企業レベルであっても、SEOをその他の部門に組み込む動きが進んでいる。

SEO専門の業者は確実に実在するものの、雇用の機会は減少を続けている。現在、SEO専門のエキスパートはエージェンシーか個人か企業社内のポジションに限られる。

ページランクの終焉

ページランクのアップデートを終了すると言うGoogleの発表は、少し拍子抜けした感が否めなかった。この発表を行うまでに、なぜこんなに時間がかかってしまったのだろうか?それよりも重要なことhな、貴重な情報がまた一つ取り上げられてしまったことだ。

Googleはアドワーズのキーワードツールを没収した。アナリティクスでは(随分前の話だが)キーワードのリファラー情報の提供を停止した。Googleはウェブマスターツールを気が向いたら強化しているものの、重要なアップデートを頻繁に行う必要のある本格的なソフトウェアプロジェクトのようには扱っていない。

現在、Googleの利益に貢献しない取り組み、あるいは、PCCの投資を減らす取り組みは、全て粛清の対象になってしまう気がする。

オーサーシップが思ったような効果を発揮しなかったら、修正するのではなく、諦めた方が良い。Google+の+1が期待したほど指標としての役目を果たさなかったら、断念しよう。今後も、Googleは情報を隠す手段を次々に考案していくはずだ。

キーワードターゲティングの終焉

ハミングバード(および、エンティティの基本的な概念)のおかげで、1つのページに関連する全てのキーワードとそのバリエーションを詰め込む最適化の手法が編み出された。

この展開に行き着く前、SEOのエキスパートはキーワードごとにページを作る方針を採用していた。Googleはリスクの分散を認めなていない。うまくやれば、多数のキーワード、キーフレーズ、あるいは、バリエーションで上位にランクインすることが出来る。失敗すると、沈没する。

また、Googleは既に他の誰かが言ったことを繰り返すのではなく、新たな考えを提示せよと注文をつけている。 これは効果的なSEOコンテンツを作る上で、大きな障害を作り出している。多くのページを1つのページにまとめ、オリジナルのテキストではなく、オリジナルの考えを詰め込まなければならないのだ。

ちなみに、SEOエージェンシーに勤めている/経営している方に言っておくことがある。今なら、ハミングバード以前のコンテンツをエンティティに変えるタスクを、製品として提供することが出来る。パンダから復帰させるサービスと組み合わせると良い。ただし、上位にランクインし、多くのトラフィックを獲得しているウェブサイトを台無しにすることがないように注意してもらいたい。

リンク構築の終焉

リンク構築は今まで以上に重要になったのだろうか?それとも、息絶えたのだろうか?Googleは有料のリンクを無視、または、罰っし、その一方で、無料のリンクを評価する方法を見出したようだ(ペンギンさんの登場)。

トッド・マイコートが作成したリンクベイト講座を読み直してもらいたい(その際は、フレーズ「リンクベイト」を無視しよう)。

Googleはウェブサイトのオーナーに対して、オーディエンスを獲得し、リンクとソーシャルメディアのシェアでオーディエンスから見返りを与えてもらうシステムを提案している。コンテンツがオーディエンスのアクティビティ、または、会話を促さないなら、リンクを得ることは出来ない。

そのため、ブログでのコメントやソーシャルメディアでのシェア等の指標に注目する必要がある。ただし、全ての記事、投稿、または、ページがバイラル化するわけではない。10本のうち2本がリンクをもたらしているなら、高く評価するべきだ。3本リンクを獲得したなら表彰状ものだ。

リンク構築のプロ — と言ってもウェブサイトの管理者に勧誘電話をかける人達ではなく、戦略的にリンクを構築することが可能な有能な人達 — つまり、お互いに助け合うグループをまとめることが出来るネットワーカーには、生き残る道がまだあると私は考えている。

個々のグループは大きな影響力を持たないかもしれないが、雪だるま式に膨らんでいくと、読者やフォロワーはコメントを残したくなり、シェアしたくなり、そして、リンクを張りたくなる。

最高のネットワークは最高のコンテンツに勝つ。インフルエンサーの仲間で構成されたソーシャルネットワークに属するインフルエンサーこそが、最高のリンクビルダーになれる。

マット・カッツの終焉

…と言っても、マット・カッツがもうすぐあの世に旅立つわけではない。十分に値する休養を終えた後、ミスター Googleとして、SEOコミュニティ専門の広報として、復活を遂げるだろう。期待しているが、復帰する確率は50%程度だと私は見ている。

マット・カッツが提供する情報は、GoogleのエンタープライズのPPCアドバイザーが提供する情報よりも、非エンタープライズのサイトを助けてくれる。そもそも、ウェブが若く、流動的であった時代と比べると、小さな事業を大規模な広告スポンサーに成長させることは難しくなっており、Googleには、公式の発表とアップデートを提供する以外にSEOを助けるインセンティブが存在しない。

また、個人、エージェンシー、そして、スモールビジネスのSEO担当者は、大企業のSEO担当者よりも鋭い質問、または、不満を投げ掛ける傾向がある。従って、雲隠れすることで、気まずい雰囲気を作らずに済む。

そもそも、Googleは質問に答える必要はあるのだろうか?Googleのエキスパートがこの役目を果たしている。Mozu等の会社は、そのツールと調査を駆使して、SEOに関してGoogleが今まで提供した情報よりも多くのデータと答えを提供している。

Googleの他の従業員もネット上で質問に答えているものの、Moz等のサービスは随分前からこの取り組みを行ってきた。事実、マット・カッツの穴を埋めるほどの働きをしている従業員はいない。アダム・ラスニクがウェブマスター Q&Aの動画を撮影している姿を見たことがない。Googleのエンジニアによる講演の機会が減る可能性は十二分にある。

最後に

質問は多いが、まともな回答はほとんど得られない。2020年にはGoogleはページランク、そして、リンクベースの検索エンジンから、オーソリティよりもクオリティを優先する検索エンジンへと姿を変えているのではないだろうか。

しかし、Googleのブランド贔屓が直ることはないだろう。つまり、大きな企業は今後もSERPで幅を利かせ、小さなビジネスが上位にランクインするのはますます難しくなっていく。大半のSEOの関係者はこの業界から足を洗い、ウェブディベロッパー、デザイナー、そして、コピーライターのスキルの一つに成り下がる可能性が高い。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「The Decade Is Half-Over: Where SEO Has Been & Where It’s Going」を翻訳した内容です。

SEOの衰退を断定的に言い切ってしまっていることには、反論を持つ方もいるかもしれませんが、SEO業界(SEOに専門に携わる人または会社、また彼らによるビジネス)全体の市場は一時に比べ確実に下がってきているのは間違いないでしょう。いわゆるわかりやすいスパム業者が事業撤退せざるえないのは仕方ないとしても、コーディングやキーワードリサーチ等のテクニカルな専門知識も、以前と比べ求められる専門性はより薄くなっていると思います。重要でない、という意味ではなく、通常のウェブデザイナーやコンテンツマーケッターが考慮すべき基本要素の一つに過ぎないというか。

もちろん、特殊ケースに対応できる職人的技や、検索経由のトラフィック獲得に注力したウェブマーケッターという意味でSEO専門職のニーズはあり続けると思いますが、それなりのレベルに達していなければ、これまでのようなビジネスを続けることは相当難しいのではないでしょうか。

私自身も昨年から新規サイトを幾つか立ち上げていますが実質やっていることの大半はコンテンツマーケティングですし、結果として従来のテクニック寄りのSEO以上に検索経由のトラフィックを伸ばせています(それ以上にソーシャル経由のトラフィックが多かったりもしますが)。もちろんベースにSEOの知識があることでコンテンツの価値を最大限活かせていると思いますが、コンテンツマーケティングやソーシャルメディアと切り離された「従来のSEO」は、既にその価値をほぼ失っているのでは、と思う最近です。SEO業者の代表がこんなことをいっていいのか、とも思いつつも汗、覚悟を決めて今年SEOに取り組んでいきたいと思う私です。 — SEO Japan

【2015年版】大胆過ぎるSEOの予想10選

コンテンツマーケティングの2015年のあるべき姿を考えた後は、やっぱりSEOについても考えてみたいですね。ということで、サーチエンジンランドによる今年のSEOに関する自称大胆な予想を10選。 — SEO Japan

crystal-ball-woman-ss-1920

ブログとソーシャルメディアに新年の予測を行う記事が氾濫する素晴らしいシーズンが到来した。ソーシャルメディア2015年推測する記事、そして、SEOどのように 来年 変わるのかを推測する記事さらには範囲の広さが売り物のデジタルマーケティング2015年におけるトレンド予想する記事もある。ただし、すべて出尽くした感があり、そして、トピックによっては何度も登場するものもある。

しばらくすると、予測は一年中聞かされてきた内容とほぼ同じになる。しかも、最も優れた推測であっても結果を正確に言い当てるとは限らない。ほとんどのサイトが次のテーマの(全てではないなら)多くを取り上げることになる:

  • モバイルは今後も成長を続ける
  • 完全一致のキーワードの利用は少なくなる(少なくするべき)
  • ナレッジグラフのおかげでGoogle.comにとどまるユーザーが増える
  • グレイ/ブラックハットからすぐに足を洗うべき
  • 人が好むウェブサイトをデザインせよ
  • 偽のリンクはさらに役に立たなくなり、本物のリンクを得るのはさらに難しくなる(そして、さらに有益になる)– ただしGoogleが今後もリンクを混同するなら話は別だ

私はこの取り組みを非難しているわけではない — 事実、私自身も2015年の予想を行い、さらに、ハロウィン版まで試している。

しかし、今回は、その他大勢とは一線を画した非主流の推測を幾つか取り上げていこうと思う。

刺激的で、賛否両論を巻き起こす、クレイジーと言われてもおかしくない予測が目白押しだ。その多くは思い切り外れるはずだろう(外れることを強く願う予想もある)。それでは、推測コミュニティで異彩を放ち、誰も予想していないものの、実は迫りつつある変化の兆候を明らかにする可能性のある予言を紹介していく。

外部の自然なリスティングが一つもないテストの検索結果が現れる

2014年のマーケティング業界を揺るがす6つの予言

Googleは継続的にナレッジグラフ、視覚的な広告、そして、直接回答を提供する試みをアグレッシブに行っており、従来の、外部に向かう自然なリンクが一つもない検索結果が時折現れるようになる。実現したら、大勢のマーケッターが恐怖で凍り付くはずだが、実験/限定的な導入を越えたレベルには到達しないだろう(希望的観測?)。

ランド・フィッシュキン

「恐怖で凍り付く」は、マーケッターの心理を正確に描写した表現だと思う。ヨーロッパでGoogleに対する独占禁止法の裁判が長引いていることを考慮すると、このテストが実際に行われるとしたら、アメリカ以外に考えられない。

この影響は計り知れない。マーケッターは確実に抗議する。また、ユーザーも拒絶する可能性が高い。事実、検索エンジンのユーザーの86%は広告よりも自然なリスティングを信頼している。.

コンテンツ主体の事業は負けを見る

エキスパートの見解: 2015年にSEO業界で起きる3つの大きな変化

Googleはさらに多くの答えを結果ページに表示するようになるため、情報提供を生業とするウェブサイトは失速する。オーディエンスに答えを提供する事業を行っているなら、Googleと競合するため、辛い1年を迎えることになるだろう。

ダン・ペトロビッチ

要するに、ウェブサイトで答えを提供する取り組みで収入を得ているなら、その上で最も重要な資産(コンテンツ)は、既に競合者(Google)に渡ってしまっていると言うことだ。

また、Googleは矛盾を全く意に介してない。

スマート化が検索マーケティングの進歩に貢献する

SEOのプロならスマートデバイスを最適化せよ – IoTの悲痛な叫び

IoT [モノのインターネット]は検索マーケティングの定義を変えていくだろう。ビーコン、センサー、GPSを始めとする情報をプルするよりもプッシュするテクノロジーを介した自動識別が、検索の未来において重要な意味を持つ。

ローリー・サリバン

幸いにも、Googleを含む検索エンジンが、完膚なきまでに現在のSEOの概念を叩き潰しているとしても、SEOのプロにはモノのインターネットの世界で事業を立て直すチャンスがありそうだ。

Apple WatchがSEOの戦略を変える

Apple WatchがローカルSEOの世界を変える仕組み

Apple Watchは新たなトレンドを生み出す。ビジネスの経営者、そして、マーケッターはとりわけBingとApple マップに対する最適化に時間を割き、また、超具体的なローカル検索の台頭に備えなければならない。

ジェイソン・デマーズ

私には、いまだに未確認の新製品がBingに大量の検索アクティビティをもたらし、マーケッターが間もなく劇的な変更を実施するようになるとは、どうしても思えない。

ウルトラブックが期待に応えられなかった時のことを思い出してもらいたい — ウルトラブックは祖先にあたるタブレットに完敗していた。Apple Watch等、装着可能なデバイスの成功を断言するのはあまりにも時期尚早である。

Apple Watchが絶対にコケないとは言い切れない。また、その一方で、Google Glassが認知法律の難題を克服し、大ヒットする可能性もある。あるいは、数年後にまだ表舞台に出ていないデバイスがユビキタス化するかもしれない。

IoTの世界を制覇するのが何であれ、マーケティングと検索に大きな影響を与えることは目に見えている。しかし、装着可能なデバイスが絶大な影響力を持つようになる日はしばらくやって来ない気がする。

マーケッターはHTTPSに時間を無駄に費やす

こちらも同じく、「エキスパートの見解: 2015年にSEO業界で起きる3つの大きな変化」から

SEO業者は必要以上にHTTPSに切り換えるクライアントに対応しなければならなくなる(ビジターにとっても、ウェブサイトにとっても重要なアイテムを守る効果はない)。調査の結果によると、ウェブのユーザーはHTTPSを重視していないようだ。HTTPSが何なのかすら分かっていない。HTTPSを支持するSEO業者はクライアントから、トラフィックが劇的に改善されなかった理由を説明するよう求められる。

マイケル・マルティネス

確かにユーザーはHTTPSを重視していない。しかし、Googleは重視している。他に何か理由がいるだろうか?ユーザーの大半はHTTPSが何かも、何をするのかも知らないかもしれない。しかし、Googleは近いうちにHTTPSに関して一騒動を起こそうとしている気がする。

Googleの非協力的な姿勢が鮮明になる

デブラ・マスタラー: Alliance-Linkの代表取締役

Googleはツールの削除、および、分析機能の縮小を継続して行う。

デブラ・マスタラー

この預言は現実のものとなる。GoogleがSEOに与えるデータが少なくなると、手っ取り早いブラックハット/グレイハットのカラクリを編み出し、上位にランクインする手立てがなくなる。

すると、スパムまがいの戦略に対応する手間が省け、収益を増やす取り組みにより力を入れることが可能になる。当たり前のことだ。

Googleのアップデートが減る

2015年のGoogleを大予想: 16名のエキスパートはこう考える

敢えてリスクを冒し、かつてないほどアルゴリズムの変更が多かった2014年と比べて、アップデートが減ると言っておこう。

ケイレブ・ドネガン

あくまでも、パンダの機械学習ベースのシステムによるコンスタントなアップデート、あるいは、自己学習ベースのアップデートを除けばの話だ。Googleが先日買収/雇用したAI開発集団はまだ発展途上の段階にある。

「アップデート」の数は減るかもしれないが、変化は増えていく。

Google+がついに消滅する

こちらも、「2015年のGoogleを大予想: 16名のエキスパートはこう考える」から

2015年、Google+は失速し、閉鎖される。既存のGoogleの製品との統合は解除されるか、あるいは、任意になる。写真のシェアやハングアウト等のGoogle+の人気の高い機能は、Google+から外され、個別で利用することが可能になる。G+の利用は時間の経過と共に減少の一途をたどるだろう。

ラリー・キム

Google+は確かに落ち目かもしれないが、恐らく、あと数年は生き永らえるだろう。Googleの経営陣が本気で閉鎖を望むなら、ほぼ全てのGoogleの製品から切り離さなくてはならず、ある程度時間が必要になる。

個人的にはかつてGoogle Voiceであった機能がどのような扱いを受けるのか知りたい。?

今後の10年間で推測検索が答えを出す

2005年に実施した3つの予測は当たったのか?2015年の検索も推測してみる

未来の検索では、ただ単に、Siriのような製品に情報を求める、あるいは、ヘッドアップ装置(Google Glassではなくコンタクトレンズに近い)で質問について考え、答えを受け取るだけではなく、推測検索の答えの応用が鍵を握る。つまり、調達されるビッグデータは個人や状況を明確に理解し、ユーザーが必要とする前に、高い精度および関連度で情報を提供するようになる。
リー・オッデン

ランド・フィッシュキンが同じことを「考えていることは全て筒抜け: 目に見えない心を読むドローン」と、巧みに表現している — いつの日か検索は [たった今思いついた形容詞]になる。

Appleは独自の検索エンジンを立ち上げる

現時点では大それた予測と思われるものの、あらゆる おいて、GoogleとAppleの争いは激化する一方であり、また、以前からこの関係は続いているため、何が起きてもおかしくはない。

マット・カッツが永遠にGoogleに戻らない

これもまた大それた予想だが、ひょっとしたら、ひょっとするかもしれない。マット・カッツはウンザリしており、Googleが自分なしでもやっていけるかどうかをA/Bテストの一環として実行に移しているのかもしれない。

それでは、最後は打って変わって、お決まりの頼み事でこの記事を結ばせてもらう — とんでもなく斬新だと感じた予想をコメント欄で教えて欲しい。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「Glimpses Of The Future: 10 Fringe SEO Predictions For 2015」を翻訳した内容です。

よくある少し知識のある人であれば「いわれなくともわかってます!」的な予測記事に比べるとはるかに刺激的で示唆にもとんだ内容でしたね。どれもその背景や今後の進化について自分なりに考えてみると、検索やウェブの未来について色々と思いを巡らすことのできる内容ばかり。週末に再度読み直してじっくり考えてみたいと思います。 — SEO Japan

ペンギンアップデート3.0は上位サイトを華麗にスルー

事前の話題の割に全く盛り上がらなかったペンギンアップデート3.0ですが、それなりに変化はその盛り上がらな度が実際の結果で理解できるような記事を。検索順位のリアルデータを元に、今回のアップデートの順位変動の度合いを分析し、そこから見えることを考えます。 — SEO Japan

google-penguin1-ss-1920

最新のペンギンアップデート3.0(日本語)が、広範囲にわたって展開されたのか、あるいは、限定的に展開されたに関して、何度も議論が行われてきた。この記事では、規模について結論を出すわけではないが、集めた情報を整理し、今後何が起きるのか推測していきたいと思う。

GoogleのアップデートはあくまでもGoogleに対するアップデートである。この点には満場一致で納得してもらえるはずだ。そして、私達の知る限り、ペンギン 3.0は英語のクエリの1%以下に影響を与えている。SEOに関してはお馴染みのことだが、自分達が持っている情報を用いて、自力で謎を解明していかなければならない。

そのため、大きなアルゴリズムの変更が行われる度に、出来るだけ多くの情報を集め、その後、データをつなぎあわせて、何が起きたのか、そして、次に何が起きるのかを理解する試みを行うことになる。

弊社、AWRはGoogle アルゴリズム変更ツールの開発に伴い、アルゴリズムの変更の影響を独自で調査している。
Philip-Petrescu-Fig1
私達が集めたデータによると、ペンギン 3.0によって、ランキングに大きな変化が生じていたようだ。とりわけ、10月18日と10月19日の変化は激しかった。総合的に見ると、ランキングの変化の規模は4.4に該当する。

ちなみに、今まで最も大きなランキングの変更の規模は5.6であり、 ランキングシグナル — HTTPS/SSLアップデートが行われた最中であった。

チャートの説明: Ranking Changes Factor(ランキング変化の要因)は、弊社のデータで判明した変化を基に算出された値である。このデータには、様々な業界にまたがる1万点のキーワード、そして、50万本のURLが含まれる。 また、データは毎日アップデートされており、変更の激しさを表している。

Overall(総合)セクションは、弊社独自のアルゴリズムを用いて導き出されるRanking Change Factorを表示する。Top 10-50のセクションは、(以前の日時と比べて)ランキングが変わったウェブサイトの数と%(ウェブサイトの総数と影響を受けたウェブサイトの数の比率)を表す。

インパクトを受けるウェブサイトが多ければ多いほど、アルゴリズムのアップデートの重要度は高いと言える。チャート内の青い線は弊社が計測する全てのウェブサイトの自然なSERPのビジビリティを表しており、サイトのランキングがアップすると上がり、ランキングが落ちると下降する。

ペンギン 3.0、低いランキングのウェブサイトを攻撃

Ranking Change Factorの計算に加え、私達は検索結果の範囲におけるインパクトに注目した。その結果、今回のアップデートは、とりわけ、SERPの2ページ目以降のサイトを狙っていることが判明した。

1ページ目に掲載された10サイトのうち、ランキングが5つ以上変動したサイトは1サイトのみであった(スクリーンショット 1)。しかし、範囲を広げて50位までの結果を盛り込んだところ、影響を受けたサイトの%は大幅に高くなり、36.2%に達することが分かった(スクリーンショット 2)。

Philip-Petrescu-Fig2

Philip-Petrescu-Fig3

ペンギン 3.0はSERPにおいて劇的な変化を多数起こしたわけではない。データを見る限り、10位以内のページで10以上ランキングを下げたページは1ページにも満たない(7.7%):

Philip-Petrescu-Fig4

この数値が高かったら、激震が走っていたはずだ。10位以内のサイトが10以上ランキングを落とすと一大事だが、ランキングの低いサイトは変動しやすい。

国によって異なるペンギンの動き

ペンギンアップデートは全世界に展開されているため、世界の言語および地域がこのアップデートのインパクトを受けている。しかし、ペンギン 3.0に関しては、アメリカ国内と国外では動きが異なることが明らかになっている。

Google.com(アメリカ)ではペンギン 3.0の影響はアップデート直後の10月18日に現れていたが、その他の国にこのアップデートが展開されたのは少し時間が経ってからであった。例えば、Google UKでは影響が表面化したのは10月20日に入ってからだ:

Philip-Petrescu-Fig5

Google Germanyでは、ペンギン 3.0は検索結果に大きなインパクトを与えていない:

Philip-Petrescu-Fig6

現時点では、実験段階であり、数ヵ国のデータしか処理していない。しかし、これは調査を行う上で面白い方向性であり、また、Google.com(アメリカ)以外を利用するサイトのオーナーにとって、ランキングの変動時の目安として参考にするには、うってつけのデータだと言える。

結論

ペンギン 3.0がサイトに与える影響は、ランキング、そして、SERP上のライバル(そして、その他の多くの未知の要因)に左右される。

Googleの動きに注意していなければ、何が起きたのかを理解することは出来ない。弊社は常にGoogleの動向に注目しており、何か変わったことがあれば報告する。

最後に、コメント欄、そして、Twitter(Google Algorithm Changesに#gacを利用している)を介して意見を聞かせてもらいたい。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「How Google’s Penguin 3.0 Is Playing Out Across The Web」を翻訳した内容です。

米国中心だったのはともかく、順位が高いサイトへの影響が少ないとなれば、盛り上がりませんよね。。。アルゴリズムの多様化とテクニックに頼るSEOの衰退で、Googleのアップデートに一喜一憂する必要自体がそもそも必要なくなってきていますが、それを象徴するような出来事だったかもしれません。 — SEO Japan

オーディエンスを考慮しないSEOはSEOに非ず

究極のリンク構築ガイドからSEO関連記事を書かないまま年末を迎えそうな雰囲気なので、気合を入れてSEO関連記事を1つ。テクニカルな知識でお馴染みのSEO by the Seaがあえてオーディエンス、つまりユーザーを考えることの重要性について語ります。 — SEO Japan

HTML ウェブ、そして、セマンティックウェブに対する最適化を行う際、別々のタスクを実施する。この2つのタスクはお互いを補い、そして、この2つのタスクは多くのメリットをもたらす可能性を秘めている。しかし、このタスクを誰の為に行っているのかを忘れているなら、大きな効果は期待できない。

iron-statue-ouside-art-gallery

数週間前、あるオンラインセミナーに参加した。このセミナーは、ソフトウェアを使って、ページ上のメッセージ、そして、ランディングページと広告で利用しているワードを精査し、その後、意味において関連する用語を提案して、ランディングページや広告に盛り込むアプローチを取り上げていた。

このオンラインセミナーには、質疑応答を行うセクションがあった。私は「オーディエンス」と言うワードが一度も登場していないことが気になっていた。

そこで、オーディエンスに関する質問を投げかけてみた。

オーディエンスに全く対処しないのは、重大な過失だと私は感じたのだ。

製品やサービスを提供する相手のことを全く考えていないなら、ランディングページや広告を作成することはもちろん、何かをオファー(提案)することすら不可能だと思う。少なくとも、魅力的なオファーを策定することは出来ないはずだ。トピックにおいてコンテンツ内のワードに関連する用語を教えてくれるソフトウェアがあれば、確かに、検索エンジンにとっては、ページを見つけ、内容を理解しやすくなるかもしれない。

しかし、検索エンジンは、いいね!をするわけでもなく、恐らく、ソーシャルネットワークでシェアするわけでもない。

検索エンジンは、製品やサービスの「エバンジェリスト」となり、他の人達に伝えることも、チェックするよう推奨することもない。

検索エンジンは、ページにセマンティックソフトウェアが盛り込んだジョークを見つけても、腹を抱えて笑う可能性は低い(…さすがにジョークを挿入するとは思えないが)。

セマンティックソフトウェアは、特定の業界を取り上げたページにおいて理想的なワードやフレーズを巧みに描写すること、そして、ページやサイトにアクセスするビジターを増やすことが出来るかもしれない。なぜなら、当該のページにビジターを導く上で、適切なワードを選択することが出来るためだ。

しかし、適切な問いに答えていると言えるのだろうか?

自分のサイトが、取引をする相手として適している点をビジターに説得しているだろうか?

オーディエンス、そして、オーディエンスが解決する必要がある問題、もしくは、オーディエンスが持つ希望を考慮していないなら、正しい問いに答えず、そして、説得もしていない。

ウェブページに存在するデータに関する情報を集め、シェアした後、HTMLベースの検索、そして、セマンティックベースの検索に焦点を絞るアプローチは、確かに賢い手法だと言えるだろう。

ただし、ウェブページの対象のオーディエンスを把握せずに、コンテンツを作成する方法は誤りだ。


この記事は、SEO by the Seaに掲載された「When Optimizing for SEO and the Semantic Web, Don’t Forget Your Audience」を翻訳した内容です。

短い記事でしたが、常に忘れたくない視点でした。SEOでも検索ユーザーを考えることは多いと思いますが、時にはそのペルソナまで踏み込んでより深いユーザーの理解にチャレンジしてみることもまた新たな発見があるのではないでしょうか? — SEO Japan

SEOを制する究極のリンク構築ガイド 全12章

Googleの進化で被リンク対策の難易度が増し、有料リンク販売中心だった日本のSEOはその姿を根本的に変えつつある現在。Googleが被リンクの重要性を下げるとはいうものの、リンクがランキング決定における重要要素であることには変わりがなく、SEOにおいてリンク構築戦略が重要であることには変わりはありません。米国で私が最も敬愛するウェブマーケッターのニール・パテルが今日の時代に合わせて書き下ろした最新のSEOガイドを全12章、全て翻訳してここに紹介します。SEO Japanでも多くのリンク関連の記事を紹介してきましたが、このリンク構築ガイド以上にリンク構築について深く掘り下げて考え、かつ具体的な手法まで紹介してくれている記事はもちろん、書籍もないでしょう。全体的にツールやサービスの説明も多く日本でそのまま使えない情報も多く、その意味や用途を考えた上で日本仕様に自分なりに変換することが求められる、上級者向けの高度な内容になりますが、コンテンツマーケティング全盛の中、あえて、いやだからこそリンク構築を極めたい方には参考になりすぎる実践的なアドバイスが満載の内容になっています。名前に恥じない究極の内容を是非楽しんでください。 — SEO Japan

序論

  • このガイドを策定した理由

    SEOの取り組みをレベルアップさせるコツを伝授するため、上級者向けSEOガイドを配信したところ、反響はとても大きかった。しかし、このガイドを配信した直後、SEOの中で最も重要度が高く、最も難しい取り組み — リンク構築 — のセクションに対して、最新の、徹底したガイドが必要なのではないかと感じた。しかし、その心配をする必要はなくなった。メリット、そして、詳細なデータが豊富に詰め込まれた、リンク構築の参考資料が完成したためだ。このガイドで、私は持っている知識を全て惜しみなく公開している。ゲスト投稿から、PRファネリングに至るまで、効果的なリンク構築を実行する方法を漏れなく学ぶことが出来る。

  • このガイドの対象者

    パンダやペンギンの攻撃を受け、現代のリンク構築に関する入門書を必要としているなら、このガイドは大いに役立つはずだ。また、プレスリリースやソーシャルブックマークを使った手法を推薦するアドバイスに飽きた人にも、このガイドに目を通してもらいたい。今すぐ被リンクを獲得するための資料を求めているなら、このガイドを手放せなくなるだろう。ニッチのアフリエイトサイトを運営しているにせよ、フォーチュン 500の企業のeコマースサイトを運営しているのせよ、ビジネスを成長させる上で役に立つ新たな手法を学ぶことが出来る。

  • このガイドの使い方

    上級者向けリンク構築ガイドは、バイキング形式で利用することが出来る。うまくいく取り組みに関して、手掛かりをつかんでいるなら — そして、新たな戦略を少し知りたいだけなら – 拾い読みしてもらっても構わない。新たな戦略が見つかるはずだ。一方、現在のSEOの基本を理解しているものの — 知識を増やしたいなら — 順番通りにガイドを読み進めていってもらいたい。

  1. リンク構築の新時代

    過去に作られたリンク構築に関する記事は、無視して構わない。グーグルのペンギンアップデートは、SEOを大きく変えた。これから、SEOの歴史を簡潔に紹介し、現在の騒然としたSEOの環境におけるリンク構築のフレームワークを提供する。さらに、積極的にグーグルのアルゴリズムからサイトを守る方法を説明する。アルゴリズムのアップデートは、頻繁に行われ…厳しさを増している。

  2. 完璧なリンクを求めて

    このチャプターでは、適切にリンクのランキングの力を評価する方法を学ぶ。SEOコミュニティは、アップデートに固執しているが、グーグルは、リンクの価値を評価する仕組みを少しづづ変えている。ホワイトハットであれ、ブラックハットであれ、あるいは、グレイハットであれ、絶対にこのチャプターを読んでもらいたい。

  3. 壮大なコンテンツによるリンク構築

    優れたサイトの基盤になっているのは、優れたコンテンツである。コンテンツではなく、リンクに標準を絞る方針は、SEOにおいてよく見られる誤りである。衝撃的な、大地を揺るがすコンテンツを作成すれば、リンク構築に苦労することはない。強力なコンテンツは、業界のキーマンと関係を構築するきっかけにもなる。あらゆるビジネスの取り組みに言えることだが、リンクを構築するコンテンツにも公式がある。このチャプターでは、話題に上がる(そして、リンクを張ってもらえる)コンテンツを作る方法を紹介する。

  4. 被リンクの投稿

    必ずしも、緊密な関係、または、優れたコンテンツを介して、リンクを獲得しなければならないわけではない。チャプター 4では、たった数分間でリンクを獲得することが可能なオーソリティサイトを特別に公開する。この容易に手に入れることが可能なリンクは、リンクプロフィールの土台には向かないものの、SERPにおいて後押しする効果がある。

  5. .eduと.govの被リンク

    リンク構築の聖杯、.eduと.govのドメインは、インターネット上でとりわけ信頼性が高く、権威を持つサイトである。このようなサイトからのリンクは、誰もが羨むアセットである。しかし、残念ながら、スパムすることなく、.eduおよび.govのリンクを獲得するのは至難の業である。このチャプターでは、.eduと.govの被リンクを正当な手法で獲得する上で役に立つ、実績のあるホワイトハットの戦略を伝授する。

  6. 関係をベースとしたリンク構築

    「リンクを構築するのではなく、関係を構築せよ」と言うアドバイスを聞いたことがあるのではないだろうか。オーソリティサイトからリンクを獲得したいなら、サイトを運営するウェブマスターと知り合いになると良い。これはSEO業界の常識である。しかし、一つ問題がある。誰も、やり方を示していないのだ。チャプター 6では、…あくまでもスマートに、オーソリティサイトのオーナーと長続きする関係を構築する方法を紹介する。また、Buzzstream等のツールを使って、新しい友人との交流を記録する方法も伝えていく。

  7. リンク切れリンク構築

    拡大可能なホワイトハットなリンク構築の手法を探しているなら、最近その効果を見直す声が多い、古き良きリンク構築戦略 – リンク切れリンク構築を薦める。チャプター 7では、手っ取り早く、多くのターゲットを見つけ出し、リンク切れを特定し、そして、サイトのオーナーに連絡を取る方法を説明していく。効率良くリンクを獲得することが出来るように、実際に利用したeメールの台本を公開する。

  8. ScrapeBoxを使った上級者向けリンク構築

    ScrapeBoxは、万能型のリンク構築ツールである。ブラックハットなSEO業者に用いられることが多いものの、ScrapeBoxは、ホワイトハットなリンク構築にも役に立つ。このチャプターでは、ゲスト投稿やリンク切れリンク構築等のリンク構築戦略を合理化する方法を含む、ScrapeBoxの活用方法を見ていく。

  9. イメージをリンクに変える

    リンク構築に貢献するのは、言葉だけではない。チャプター 9では、手早く、そして、お手頃価格で高品質のイメージを作成し、投稿して、オーソリティリンクを獲得する方法を紹介する(聞いたことがない手法も幾つか含まれているはずだ)。 また、インフォグラフィックからリンク、トラフィック、そして、ソーシャルネットワークでのシェアを獲得する方法も手順を追って説明していく。

  10. 最強のゲスト投稿

    ゲスト投稿は、リンク構築、そして、ターゲットの絞られたトラフィックの獲得において、特に効果が高いアプローチの一つに挙げられる。ゲスト投稿の経験が浅い人も、あるいは、ゲスト投稿の効果を高めたい人も、このチャプターには必ず目を通すべきである。ここでは、私が利用するシステムを紹介する。質の高いゲスト投稿の機会を見つけ出し、効果的なゲスト投稿のトピックを追及し、そして、好きなサイトで配信する方法を学んでもらう。また、苦労を強いられることの多いゲスト投稿のプロセスをスピードアップさせ、簡素化させるためのアドバイスを幾つか提供する。

  11. ページランクのファネリング

    このあまり知られていない高度なSEOの手法は、低いPRのページの被リンクを大幅にパワーアップさせる効果がある。チャプター 11では、ピンタレストやその他のオーソリティサイトからリンクジュースを獲得する方法を学ぶ。

  12. グレイハットなリンク構築

    限界に挑むことが好きなら、グレイハットSEOを試してみるべきである。グレイハットが少し混じったホワイトハットなキャンペーンは、結果を改善する可能性がある。このチャプターでは、段階的なリンク構築、ブログネットワーク、そして、有料リンクで構成されるグレイハットな手法を紹介する。このガイドのその他の部分で紹介している手法よりも遥かにリスクが高いことを肝に銘じておく必要がある。あくまでも自らの責任で実行してもらいたい。

ワクワクしてきただろうか?

このガイドを読み、一歩進んだリンク構築戦略を学んでほしい。まずは、チャプター 1: リンク構築の新時代から読み進めていってもらいたい。


この記事は、Quick Sproutに掲載された「The Advanced Guide to Link Building」を翻訳した内容です。

リンク構築の新時代 – 究極のリンク構築ガイド1

究極のリンク構築ガイド第一章はSEOの歴史とGoogleのアルゴリズムを簡潔に紹介し、ペナルティを受けないためのリンクプロフィールの確認方法をマニアックなツール解説で説明した濃い記事から。同じツールを使うか、どこまで使いこなすかはともかく、使う意味も含めて考え方として理解しておきたい。 — SEO Japan

時代は変わった。SEOは、動きの早い業界であり、軽快で、柔軟な者が勝利を収める。そんな中、ここ数年の間に行われた – 2011年の2月に導入されたパンダ、そして、2012年のEMD(完全一致ドメイン)アップデートで最高潮を迎える – グーグルのアップデートによって、壊滅的なダメージがもたらされている。事実、このようなアップデートが原因で、グーグルにトラフィックを依存している多くのサイトのオーナーが、閉鎖に追い込まれている。

恐らく、SEOが変化している点に既に気づいているだろう。しかし、例えば、「2013年に向けて、リンク構築戦略を新調するにはどうすればいいのか?」や「今度のアップデートからサイトを守るにはどうすればいいのか?」等、重要な疑問に対する答えを得られる情報は、あまり多くはない。そこで、チャプター 1では、SEO業界の現状、そして、グーグルの容赦ないアップデートからサイトを守る上で効果のある実用的な戦略を詳しく見ていく。

SEOの過去を振り返る

現状、そして、過去を知ることなく、リンク構築を理解することは不可能である。

  • 5 BG(グーグルが登場する前): ヤフー!とアルタビスタがウェブを牛耳っていた。関連性(キーワードの密度とメタタグを基に判断)が最も重要なランキングの要素であった。

  • 1 AG (グーグルが誕生した後): サイトに向けられたリンクの本数をベースとした、グーグルの革命的なページランクベースのアルゴリズムが、その他の検索エンジンよりも遥かに質の高い結果を提供するようになった。その結果、検索業界でグーグルが確固たる地位を築くことになった。初めて、ページが、品質と関連性に応じてランク付けされるようになった。

  • ヴィンスアップデート(2009年4月): このあまり話題にされることのないアップデートは、サイトワイドのオーソリティとブランディングをアルゴリズムが理解する仕組みに対する初めてのアップデートであった。 ヴィンスアップデートによって、「小規模なサイトよりも信頼されたブランドを優先する」と言う方針が始まった。

  • グーグルパンダ(2011年2月): 12%もの検索に影響を与えた。eHow、EzineArticles.com、そして、Suite101.com等の質の低い大きなサイト“通称コンテンツファーム”をターゲットにしていた。ウェブマスターガイドラインを違反したサイトのオーナーに積極的にペナルティーを与えるアップデートの中では、最も古い部類に入る。

  • グーグルペンギン(2012年4月): 「過剰最適化」に対するペナルティーであり、グーグルのインデックスの3.1%に影響を与えた。このアップデートは、ブラックハットなリンク構築の手法、とりわけ過剰にアンカーテキストを利用する手法を取り締まるために行われた。パンダと同じように、このアップデートは、更新版を導入する度にサイトを網にかけていくフィルターである(2-3ヶ月おき)

  • EMD アップデート(2012年9月): このアップデートは、完全一致のドメインの力を上位にランクインするために利用しているサイトをターゲットにしている。システムを操作しようとするサイトのオーナーに対する、グーグルの強硬なスタンスがさらに明確になった。

  • SEO JAPAN追記:ハミングバード アップデート(2013年9月): Googleが進化する過程でアルゴリズムを根本から見直した大型アップデート。SEOに直接関わらないが、Googleを理解する上で学ぶべき点が多い。詳細はこちら(日本語)の記事にて。

ホワイトが新しいブラックに

過去、3-5年のスパンでブラックハットなウェブマスターたちが、グーグルのフロントページを独占してきた。コンテンツのスピン、巨大なブログネットワークの利用、そして、アンカーテキストの過剰な利用によって、容易にアルゴリズムを操作することに成功していた。しかし、大半のブラックハットなSEOのエキスパートは(さらには大勢のホワイトハットなエキスパートもまた)グーグルが、ペンギンアップデートを行った翌日、次のようなスタッツを目にすることになった:

これはひどい。

ブラックハットの“サクセスストーリー”は、今でも残っているものの、大半のブラックハットなリンク構築戦略は長続きしなくなった。説教じみているかもしれないが、長期的にSEOで成功したいなら、ホワイトハットなアプローチを採用して、リンク構築に臨むべきである。

積極的にペナルティーを回避する方法

かつて、単一のキーワードで上位にランクインすることが、SEOを実施する目的であった。一度フロントページに到達したら、それで終わりであった。今はそうはいかない。現在のSEOでは、ペナルティーおよびグーグルのアップデートのリスクを最小限に抑えることが重要になっている。過度にオンページSEOを実施すると確実にダメージを受けるため、今後のアップデートの影響を避けたいなら、リンクに焦点を絞るべきである。

事実、グーグルのウェブスパム対策を統括するマット・カッツ氏は、今後のペナルティーを回避するため、リンクに注目するべきだと指摘している:

それでは、サイトのリンクプロフィールを調整して、グーグルの今後のアップデートの被害を受けるリスクを避ける方法を紹介していく。

アンカーテキストの過剰な利用

アンカーテキストの過剰な利用は、ペンギンのフィルターを作動させるウェブスパムのシグナルの中でも、特に重要度が高い。今後のアップデートによって、不自然なリンクプロフィールを持つサイトが狙われるのは、目に見ている。

事実、MicroSiteMasters.comは、「金銭的な用語」をアンカーテキストに何度も利用すると、グーグルペンギンの攻撃を受けやすくなると指摘している:

サイトに向けるリンクに利用するアンカーテキストを多様化することが重要なのは、このためだ。

  1. サイトのアンカーテキストの分布を確認する

    アンカーテキストの誤った利用を避けるため、まずは現状を把握する必要がある。手っ取り早くこのデータを確認したいなら、リンク分析ツールのMajestic SEOを利用しよう。無料のアカウントでも、アンカーテキストの分布を確認することが可能だ。

    まず、Majesticにアクセスし、ホームページのURLを入力する。

    「summary」(概要)ページに見やすい分布図が表示される。

    詳細な情報を知りたいなら、「anchor text」(アンカーテキスト)タブをクリックする。

    すると次のようなデータが表示される。

    Open Site Explorerを使って、同様のデータを探し出すことが可能だ。ホームページのURLをフィールドに記入し、「anchor text」タブをクリックする:

    「all pages on this root domain」(このルートドメインの全てのページ)フィルターを選択する:

    フィルターボタンをクリックする:

    するとサイトワイドのアンカーテキストのデータが表示される:

  2. ページレベルのアンカーテキストの分布を確認する

    サイトのアンカーテキストの分布は重要だが、ペンギンは、過剰に最適化されたページの取り締まりも行っている。ページのURLをOpen Site Explorerに入力すると、特に重要度の高いページのアンカーテキストのデータをページレベルで確認することが可能である:

    フィルターを「this page」(このページ)に設定する:

    すると、この特定のページに向けられたリンクに対するアンカーテキストの分布を見ることが出来る:

    キーワードが詰め込まれたアンカーテキストの割合が目立つなら、対策を講じるべきである。以下に、リンクのアンカーテキストに自然な多様性をもたらすための、簡単な方法を幾つか紹介する。

  3. 自然なアンカーテキストの分布を発見する

    • ブランドの用語

      自然なリンクプロフィールを持つサイトに注目していると、アンカーテキストの大半をそれぞれのブランドの用語が占めている傾向に気づく。例えば、QuickSproutの上位7つのアンカーテキストのうち6つは、異なるブランドの用語である:

    • 一般的なアンカー

      「ここ」、「このサイト」、「ウェブサイト」等の一般的なアンカーテキストは、アンカーテキストの分布を自然に見せる上で大いに役に立つ。

    • URL

      大半のサイトは、その他のページに向かうリンクに対してアンカーテキストを用いているものの、一部のサイトは、今でもhttp://quicksprout.comのようにURLをそのまま利用している。

    • タイトル

      リンクを張るページのタイトルをアンカーテキストに利用する手法は、十分に活用されていない。例えば、以前投稿した記事「The Science of Instagram: How to Get More Followers and Likes」に向けられたリンクのアンカーテキストで最も多かったのは、タイトルであった:

  4. リンク構築キャンペーンに自然なアンカーテキストを適用する

    これで、自然なアンカーテキストの分布が何となく分かってもらえたのではないだろうか。そこで、次にアンカーテキストに多様性を簡単に加えることが可能な方法を紹介していく。

    • ウェブディレクトリ

      ディレクトリの力は、以前と比べると弱まっているが、グーグルは、公式の情報として、ディレクトリが今でも信頼性とオーソリティをサイトにもたらしていると指摘している。また、ホームページのリンクにブランドのアンカーテキストを手っ取り早く加えることが出来るメリットもある(一部のディレクトリは、“ディープ”な内部ページの投稿を認めている)

      SoMuch.comのディレクトリを例にとって説明する。

      http://www.somuch.com/submit-links/にアクセスし、「Free Link」(無料のリンク)を選択する:

      投稿ガイドラインを受け入れ、「Continue」(続ける)をクリックする:

      サイトの情報を入力する際に、次のようにブランドのアンカーテキストを加える:

      あるいは、次のように入力することも可能である(ブランドのアンカーテキストを多様化することも重要である):

    • プレスリリース

      プレスリリースは、SEOの世界で過剰に利用されている手法の一つであり、サイトにリンクジュースを多少もらたす効果がある。しかし、アンカーテキストのリンクを多数放り込み、プレスリリースを自らスパムするウェブマスターが多い:

      プレスリリースは、サイトのホームページおよび内部のページに一般的なアンカーを加える絶好の機会であり、残念でしかたない。

      ここでは、例として無料のプレスリリースサイトのRelease-News.comを利用する。

      まず、アカウントを作成し、購読情報を確認する:

      次にホームページにアクセスし、「Subit Free」(無料で投稿する)をクリックする:

      コンテンツを加える際、ブランドのテキストを容易にハイパーリンクさせることが出来る:

      「記事のタイトル」のアンカーテキスト:

      一般的なアンカーテキスト:

      URL:

    • ゲスト投稿

      ゲスト投稿によって、質の高いリンク、そして、ターゲットが絞られたトラフィックを獲得することが出来る点は、ご承知の通りだ。しかし、ゲスト投稿に対して、アンカーテキストの濫用が目立つのも事実である。幸いにも、一般的なアンカーやブランドのアンカーを経歴欄に容易に盛り込むことが可能である。

      ゲスト投稿をワード文書に送る際、利用したアンカーテキストを含めるべきである(多くのサイトのオーナーは、ゲスト投稿のライターが、ブランドのアンカー、または、「ブランド名.com」のアンカーを使いたがっていると考え、リンクをこのような形式で配信するため)

      まず、ハイパーリンクさせたいテキストをハイライト表示させる:

      右クリック(Macの場合、Ctrl + クリック)して、「ハイパーリンク」 を選択する:

      ターゲットのURLを入力する:

      「OK」をクリックする:

      すると、ゲスト投稿のホストが、経歴欄に利用することが可能な生のリンクを文書に反映させることが出来る。

      ゲスト投稿は、「ここをクリック」や「最新の投稿」等、一般的なアンカーを利用する上でも有効である:

      また、ゲスト投稿を受け入れているサイトの多くは、複数のリンクの挿入を認めているため、ホームページに向かうブランドアンカーを1本、そして、記事に向かう一般的なアンカーを1本用意することが出来る:

サイトワイドのリンクの分布

リンク構築において、全てのリンクをホームページに向ける過ちが目立つ。その結果、とりわけ大量のコンテンツを持つページにおいては、非常に不自然に見えてしまう。大規模なサイトの場合、リンクの大半は、内部のページに向けられていると考えられるためだ。

Ahrefsを使って、サイトワイドのリンクの分布を見やすい図で確かめることが出来る。

まず、ahrefs.comにアクセスし、フィールドにドメイン名を入力する:

サイトのデータが「Overview」(概要)ページに表示される。

一番下までスクロールして、「Sitewide distribution」(サイトワイドの分布)グラフを確認する。このグラフは、サイト全体のリンクの分布を示す。イメージが横に広がっていればいるほど、リンクはサイト全体に広がっていることになる。

Ahrefsでスパム丸出しのサイトをチェックすると、全く異なる分布のパターンが現れる:

Ahrefs.comのグラフは、サイトのリンクの分布を手っ取り早く把握する上で有効である。しかし、MajesticSEO.comとエクセルを利用して、もっと正確な情報を得ることが出来る。

ツールバーの右側にある「Pages」をクリックする:

被リンクの多いページが表示される。

QuickSprout.comの場合、リンクがサイト全体にまんべんなく広がっていることが分かる。

さらに詳しい情報が知りたいなら、このデータを.csv(エクセル)ファイルにエクスポートすることを薦める。「Pages」を下方向にスクロールし、「Download CSV」をクリックする。

MS エクセル、または、グーグルドキュメントを開く。

C列とD列を削除する(AC Ranked ScoreとLast Retrieved)

次に、E列とF列を削除する(Citation FlowとTrustFlow):

ホームページのURLとリンクの情報を切り取り、スプレッドシートの別の部分に貼り付ける。

重要: ホームページの「www」と「wwwなしバージョン」の双方をコピーすること)

これで、内部ページとホームページのリンクのデータを別々に用意したことになる。

内部ページの一番下の行までスクロールして、最後の結果の下の行をクリックする。

続いて、エクセルの上部にある「数式」タブをクリックする:

「オートSUM」の下の「合計」をクリックする:

すると、内部ページに向けられたリンクの総数が表示される。

Referring Domains(リファラーのドメイン)でも同じ作業を繰り返す。

これでリンクの総数、そして、内部のページに向けられたリファラーのドメインの数の双方を確認することが出来るようになった:

次に、同じステップを繰り返し、ホームページの被リンクの総数を特定する。

求めている全ての情報を見ることが可能な位置に「まとめ」のゾーンを作成する。

オートSUM機能(または、地道に数を足していく)を使って、サイト全体の被リンクの総数を算出する:

リファラーのドメインでも同じ作業を繰り返す:

続いて、内部ページのリンクの総数とホームページのリンクの総数をコピーし、「Summery Area」(まとめゾーン)に貼り付ける:

次に、内部ページとホームページに向けられたリンクの割合を計算する作業に移る。

単純に内部ページのリンクを被リンクの総数で割り、100で掛ける

エクセルでは、次のような数式になる:

(G9は内部ページのリンク、G7は被リンクの総数)

すると次のように答えが出る:

QuickSproutのリンクのうち約40%が、内部のページに向けられていることが判明した。悪くない割合だと言える

サイトワイドのリンクが多いなら(ブログロール等)、ホームページのリンクの本数の割合が高くなる可能性がある。グーグルがサイトワイドの被リンクをどのように見ているのかは定かではないが、リファラーのドメインの数は、リンクの総数よりも重要だと考えられている。要するに、ブログロールが多い場合、リンクの分布が、人為的にホームページに偏っているように見えてしまう可能性がある。

Ahrefsを使って、被リンクプロフィールのサイトワイドのリンクの本数を容易に確認することが出来る。まず、ドメインをフィールドに入力する:

次に「External」(外部)タブをクリックする:

続いて、「Sitewide」のラジオボタンにチェックを入れる:

最後に「Apply Filters」(フィルターを提供する)をクリックする:

QuickSproutのケースでは、被リンクのうちの多くが、サイトワイドのリンクであった:

この場合、サイトのページに向けられたリンクのドメインの数に注目する価値がよりあると言える。

そこで、「Internal Page Domains」(内部ページのドメインの数)と「% Domains to Internal Pages」(内部ページへのドメインの%)のフィールドを加える:

先ほど計算した内部ページのドメインの情報を下のセルDからコピーし、Summary Area(まとめゾーン)に貼り付ける。

続いて、a) 「Internal Page Domains」(内部ページのドメインの数)をb) 「Total Referring Domains」(リファラーのドメインの総数)で割る数式をエクセルで設定する。エクセルでは、次のような数式になる:

G9 (Internal Page Domains)/G8 (Total Referring Domains) * 100

すると次の値が割り出される:

ご覧のように、このデータは、被リンクの総数のみを使って計算した場合とは、全く異なる値になる。QuickSproutの被リンクの約半数がブログロールを経由していることが、主な原因である。少数のドメインからではあるものの、合わせると数千本に達する。

リンクの関連性

元グーグルの従業員、アンドレ・ワイナー氏は、インタビューの中で、 「ページランクの高いページからリンクを獲得することは、以前までは非常に重要だと考えられていたが、現在、グーグルは、サイトに対する関連性をより重視している。関連性こそ新しいページランクである。」と、驚くほど正直に答えていた。また、MicroSiteMasters.comが実施した調査によると、関連性のないサイトからのリンクは、ペンギンのリスクファクターに指定されているようだ:

被リンクの大半を密接な関連を持つサイトから得る取り組みは、ペンギンに対する防衛策として有効である。また、現在、関係のないサイトからのリンクが、ウェブスパムのシグナルとして利用されているが、今後、導入されるその他のアルゴリズムのアップデートにも採用されることは目に見ている。つまり、リンクの大半は、少しでも関連性のあるサイトから獲得する必要があるのだ。

リンクプロフィールの関連性を自動的に調べるツールはないが、Open Site Explorerを使って、簡単に抜き取り検査を行うことが出来る。

グーグルの目線でサイトを見る

例えば、ダイエットに関するサイトだと自分では考えていても、グーグルが同じように見ているとは限らない。リンクの関連性を適切に特定するためには、グーグルが、サイトの内容をどのように考えているのかを理解しなければならない。

まず、https://adwords.google.com/o/KeywordToolにアクセスし、「リンク先ページ」フィールドにウェブサイトのURLを入力する:

「Only show ideas closely related to my search terms」(検索用語に密接に関連するアイデアのみを表示する)のチェックを外す:

「Search」をクリックする(注記: 現在、キーワードツールは廃止され、キーワードプランナーに変更されている):

最後に「Keyword Ideas」(キーワード候補)のタブをクリックする(グーグルは、「Ad group ideas」(広告グループ候補)タグをデフォルトで表示することがある):

結果にざっと目を通し、導き出されたキーワードを確認する。すると、サイトが頻繁に取り上げるトピックをグーグルがどのように考えているのか、大体、把握することが出来るようになる。

また、ドメイン名やブランド名をグーグルで検索することで、グーグルがどのように関連性を見ているのか容易にチェックすることも出来る:

ページの一番下までスクロールする。「…に関連するキーワード」が掲載されているはずだ。

ご覧のように、どのようにグーグルのユーザーがサイトを検索しているのかについて、情報を得ることが出来る。これもまた、グーグルが関連性を特定する方法の一つである。

リンクプロフィールのサイトレベルの関連性を確認する

まず、Open Site Explorerでリンクプロフィールのデータを抽出する:

「Linking Domains」(リンクを張るドメイン)タブをクリックする:

ドロップダウンメニューから「pages on this root domain」(このルートドメインのページ)を選択する。

次に「Filter」(絞り込む)ボタンをクリックする:

するとリンクを張っているサイトのURLが表示される。

ここから楽しい作業に入る。当該のサイトが自分のサイトに関連しているかどうか、リンクプロフィールを一つずつ確認していく。当たり前だが、あらゆるリンクプロフィール — 自然なプロフィールを含む — に関係のないリンクが含まれている。ただし、リンクプロフィール内の関連する被リンクの%を確認することが目的ではない。結果に注目して、リンクの大半が関連するサイトから寄せられているかどうかを確認してもらいたい。

例えば、QuickSproutのリンクプロフィールでは、DIYThemes.com、SEOMoz.org、Aweber.com、Inc.com、そして、BusinessInsider.com等のサイトから多くのリンクが向けられている。このようなサイトは、QuickSproutのテーマに密接に関連している(具体的に言うと、起業、SEO、インターネットマーケティング、コンバージョンの最適化、ソーシャルメディア)。通常、一つのとても密接に関連しているサイト、2、3つの割と関連しているサイト、そして、幾つかの全く関連性のないサイトが抽出されるはずである。

ページレベルの関連性

グーグルは、サイト全体のテーマに焦点を絞っているものの、リンクが表示されるページも考慮している。ソーシャルメディアに関するサイトが、犬のトレーニングに関する記事の中で、QuickSproutにリンクを張る行為は、筋が通らない。

サイトの関連性をチェクした方法と同じ方法でページの関連性を確認することが出来る。

再び、Open Site Explorerでリンクプロフィールを開く。今回は、デフォルトの設定を維持して、各リンクが掲載されているページを確認する。

Open Site Explorerで各ページのタイトルタグを確認することが出来る。この情報から、ページのトピックがある程度分かる。

少し見ただけで、私のサイトにリンクを張っているページは、基本的にQuickSproutのトピックにフィットしていることが分かった。しかし、一目では判断出来ないページが幾つかあるなら、実際にページを訪問して、詳しく調べることも出来る。例えば、Viper Chillのページから寄せられたリンクが私のサイトに関連しているかどうか自信がないと仮定する。その場合、私はこのページにアクセスして、幾つかのポイントを確認する。

まず、ページのディスクリプションタグに注目する。ディスクリプションタグは、タイトルタグよりも詳しい情報を提供していることがあるためだ。ページのHTMLを見れば一目瞭然である。SEO Toolbarで、「view source in tab」(タブでソースを見る)ボタンをクリックする。

ファイヤーフォックスは、ページのコードを新しいタブで作成する。次のようにコードが表示される:

ディスクリプションタグを見つけるには、Ctrl + F (Macの場合はcmd + F)を叩き、「description」と入力する。

するとメタディスクリプションが見つかる。

次に、記事に目を通し、内容を特定する。この記事は、ブログに関する記事であったが、完全にかけ離れているわけではない。

この取り組みを徹底的に実施したいなら、リンクの近くのテキストをチェックすることも出来る。こうすることで、リンクの関連性をより正確に理解することが出来るようになる。ページが複数のトピックを網羅している可能性があるためだ。要するに、グーグルは、リンクの近くのテキストの関連性を重視する傾向がある。

今回のケースでは、QuickSproutは、ページの横のオプトインフォームで言及されていた。

密接に関連しているわけではないが、サイトとページの間に関連性が存在するため、関連するリンクだと私は判断した。リンクの近くのコンテンツが、ソーシャルメディア、SEO等に関するものであったら、このリンクの関連性はさらに高まるはずだ。

繰り返すが、完璧を目指して、全てのリンクの関連性を把握することが目標ではない。これは、リンクプロフィールの関連性を評価する一つの手段に過ぎない。関連性のないサイトからリンクが寄せられた場合 – それが自分のサイトのテーマに関連しているトピックのページに掲載されているなら – 「関連あり」のカテゴリーに分類することが出来るのだ。

リンクの多様性

SEO業界は激動期を迎えており、グーグルのアルゴリズムに対するたった1点の調整によって、大きな利益が失われてしまうことがある。まず、リンク交換に参加したサイトが、SERPで大幅にランクを落とした。その数年後、今度は、プロフィールのリンクの価値が、大きく減ぜられた。2012年の始めには、ブログネットワークのBuild My Rankが、大量にインデックスから外され、多くのニッチのサイトが被害を受けた。なぜこんなことを伝えたかと言うと、1つのタイプのリンクに依存すると、自ら災難を招くことを分かってもらいたかったからだ。現在、その手法が大きく成功していたとしても、今後のグーグルのアップデートでターゲットにされる可能性がある。

例えば、リンク構築の屋台骨として、大勢のウェブサイトが、インフォグラフィックを活用している。確かに現時点ではインフォグラフィックは有効だが、アルゴリズムの調整により、瞬く間に価値が下げられてしまう可能性がある。そのため、インフォグラフィック – そして、その他のすべての戦略 – は、リンクプロフィールの一部に留めておく必要がある。

それでは、リンクが発せられた場所を確認し…カテゴリーに分類していく。

ホワイトハットなSEOキャンペーンを実施しているなら、Open Site Explorerやその他のリンク分析プログラムを使って、リンクの生まれた場所をざっと確認するだけで十分である。 リンクを1本づつチェックし、ホームページ、ブログロール、プレスリリース、あるいは、ウェブディレクトリから寄せられたリンクの量を確認していく。そのためには、個別にリンクを確認し、カテゴリーに分類していくしかない。

QuickSproutの場合、次のようにカテゴリーに分類されている。イメージ:

ブログの言及:

ゲスト投稿:

グーグルが、一つのタイプのリンクの価値を下げたとしても、私のサイトは問題なく切り抜けられるはずだ。

リンクのカテゴリの全体像を詳しく知りたい人にうってつけの無料のサービスを紹介する: linkdetective.com

まず、Open Site ExplorerのリンクのデータをCSVファイルとしてダウンロードする。

「Only Exernal」(外部のみ)に設定されていることを確認してもらいたい:

「Download CSV」(CSVをダウンロードする)ボタンをクリックする。

このレポートが、Mozによって作成されている間、http://www.linkdetective.com/にアクセスして、無料のアカウントを作成する。続いて、サインインして、新しいプロジェクトを作る(無料のアカウントでは、1つのプロジェクトしか作ることが出来ない)

分かりやすい名前をつける。

次に「Add CSV」(CSVを加える)ボタンをクリックする。

最後に、Open Site Explorerからダウンロードした.csvのレポートをアップロードする。

すると、Link Detectiveは、リンクのデータを処理し、レポートを提供する。

単一のソースからのリンクがあまりにも多いなら、リンクプロフィールを多様化するべきかもしれない。

完璧なリンクを求めて – 究極のリンク構築ガイド2

ページランクはもちろん、コンテキスト評価にオーソリティまで、被リンクページの評価を適切に行う手法を徹底的に解説してた内容。筆者いわく、この章を理解するだけでも大半のSEO業者よりリンクの理解が深まるそうです?!リンク構築を実践する上で、完璧に覚えなくとも全体像はきちんと理解しておきたい内容です。– SEO Japan

「良いリンク」や「悪いリンク」に関する指摘をよく耳にするが、何がリンクの良し悪しを決めるのだろうか?そもそも、サイトのランキングにおいて、どのようなリンクが大きなインパクトを与えるのだろうか?このチャプターでは、SEOのスキルの中で、特に重要視されている「有効なリンクを見つけ出す方法」を伝授していく。

手っ取り早くPRを見つける方法

ページランク(PR)が、リンク構築で、最も価値が高いわけではない点は周知の事実だ。もし、最も価値が高いなら、ページランクの高いページが、低いページよりも必ず上位にランク付けされているはずである。それでも、PRは、グーグルから直接得ることが出来る情報の一つである。ホームページのPRに固執する傾向があるが、重要なのはページのPRである。そのため、出来る限り、PRの高いページからリンクを獲得するべきだ。

ページのPRを手っ取り早く見つけたいなら、「ツールバーでPR」を表示するツールバーをインストールするべきである(SEO JAPAN注記: 現在、ページランクは、更新が行われていないといわれています。あくまで過去数値の確認程度にご利用ください。とはいえ、下記で紹介するツールバーはPR以外の様々なSEO関連情報を入手できるので、利用する価値は十分にあります。)

特に人気が高く、機能性に優れているのは、SEOBookが提供するSEO Toolbarである。

ファイヤーフォックスのSEO Toolbarをダウンロードする

SEOBook.comで無料のアカウントを登録する。


次にhttp://tools.seobook.com/seo-toolbar/にアクセスして、ツールバーをダウンロードする:

インストールすると、訪問したページのPRが自動的に表示されるようになる:

被リンクの本数

サイトに多くのリンクが向けられている状況もまた、重要なランキングの要素である。グーグルは、量ベースのアルゴリズムから距離を置きつつあるが、本物の、正当なリンクの本数が、リンクのランキングにおける力の中で、重要な役割を担っていることは間違いない。

SEO Toolbarを使って、ドメインに向けられたリンクの本数を容易に確認することが出来る。

サイトのページに訪問すると、ツールバーがMajestic SEOのデータを抽出する:

ページレベルの被リンクの本数を確認するには、Majestic SEOにアクセスして、URLをコピー & 貼り付けする必要がある:

すると、特定のページに向けられた外部リンクの本数を把握することが出来るようになる。

別の見解を得るには、Open Site Explorerが便利である。内部ページのURLをコピーして、Open Site Explorerに貼り付けると、自動的にページレベルのリンクの情報が表示される。

しかし、表示されている185と言う数字は、外部リンクと内部リンクの総数である。内部リンクは、オーソリティと関連性の情報を転送するものの、外部からのリンクよりも遥かに重要性は低い。

外部リンクを見るには、ドロップダウンメニューから「only external」(外部のみ)を選択する:

奇妙に思えるが、それでも、ページ上部に表示されるツールバーの「Total Links」(リンクの総数)の値は変わらない。しかし、被リンクの総数を把握することは可能である:

外部リンクの本数は97本であった。悪くはない。

注記: Majestic SEOとAhrefsは、リンクのインデックスをOpen Site Explorerよりも頻繁にアップデートしている。そのため、新しいページに対しては、通常、この2つのリンク分析プログラムの方が、正確な結果を表示する。

リファラーのドメイン

「リンクはサイトに対する“票”の役目を持つ」と言う例えはとても分かりやすいと思う。しかし、同じ投票者が何度も何度も票を投じていたらどうなるのだろうか?同じドメインから何度もリンクを獲得する行為から得られる見返りは少ないため、検索エンジンのアルゴリズムは、サイトにリンクを張るドメインの数を重視する傾向が見られる。リンクを得る機会を評価する際は、サイト(またはページ)にリンクを張るドメインの数に注目するべきである。

幸いにも、この情報は、SEO Toolbarを使えば、容易に入手することが出来る。

リンクの総数と同じように、このツールバーは、Majestic SEOのAPIを使って、リファラーのドメインの数を教えてくれる:

ページレベルでリファラーのドメインの情報を得るには、Majestic SEOにアクセスして、興味を持っているページのURLを入力する。すると、リファラーのドメインの数が表示される:

また、Open Site Explorerのデータベースにもリファラーのドメインの情報が掲載されている。

ドメインのオーソリティ

Domain Authority(ドメインオーソリティ – DA)は、Moz独自の基準である。賛否両論はあるが、SEO業界の関係者の多くは、転送されるオーソリティは、たとえPRは同じであっても、サイトによって異なると考えている。通常、DAの高いサイトからのリンクは、低いDAのサイトからのリンクよりも、SERPにおいてプッシュする力は強いと言われている。

Open Site Explorerで、手っ取り早くDAの情報を確認することが可能だ:

信頼性

信頼性は、リンク構築において、非常に重要な計測基準である。PRのように、信頼性はリンクを介して受け渡される。信頼されているサイトからリンクを獲得する取り組みは、グーグルのアップデートの餌食になるリスクを低減する上で大きな効果が見込める。重要なことは、Mozが指摘しているように、信頼性、そして、オーソリティの高いサイトは、信頼性もオーソリティも低いサイトよりも、グーグルのSERPで上位にランクインしている点である。

Majestic SEOを使って、ページやサイトの信頼性に関する情報を得ることが出来る。

Trust Flow(信頼性の流れ)に注目しよう:

また、Mozは、信頼性(MozTrust)を計測する機能も用意している。この機能を利用するには、まず、Open Site Explorerにドメインを入力する:

次に「Compare Link Metrics」(リンクの基準を比較する)をクリックする:

すると、特定のページの信頼性のデータが表示される:

ドメイン全体の信頼性を確認するには、「Root Domain Metrics」(ルートドメインの基準)までスクロールして、「Domain MozTrust」(ドメインのMozTrust)をチェックする:

この2つのデータは、サイトが、.govや.edu等、信頼性の高い“シード”サイトへの距離に応じて、割り出される。サイトがシードサイトから“遠い”リンクが多ければ多いほど、信頼性は低くなる。自分のサイトに出来るだけ多くの信頼性をもたらしたいなら、.eduや.govのリンクを直接シードサイトから得ているサイトをターゲットにするべきである。

コンテクストのある被リンク

検索エンジンは、リンクがページに掲載されている場所を重要視している。通常、フッター、サイドバー、そして、その他のページのコンテンツの周りに配置されたリンクは、コンテンツ内にエンベッドされたリンクよりも、大幅に重要度が下がる。

例えば、ホームページの一番下に放り込まれたリンクを見てもらいたい:

PR、ドメインのオーソリティ、そして、信頼性等、このチャプターで取り上げている要素に闇雲に力を入れているなら、このようなリンクは魅力的に映るはずである。しかし、関連するコンテンツが周りに存在しない状態で、ページの下に陣取っているため、実際にはスパム色が強く、関連性がない。また、明らかに対価が支払われている。

グーグルは、コンテンツの中に投じられたリンクを好む。ただ単純に、コンテンツ内のリンクの方が自然だからだ。

次のQuickSproutの記事を確認してもらいたい:

このページでは有益な記事にリンクを張っている。このコンテンツに掲載されているリンクは、QuickSproutのフッターにランダムに投下されていた場合よりも、遥かに強力である。

以下に、コンテクストのある被リンクを獲得するためのホワイトハットな戦略を幾つか挙げていく:

ゲスト投稿

ゲスト投稿の効果は高い。しかし、ゲスト投稿を受け入れているサイトの多くは、リンクを、まるで奈落の底のような「経歴欄」に押し込む方針を採用している:

経歴欄のリンクは、若干の信頼性とオーソリティをサイトに転送するものの、コンテクストのあるリンクの力には到底及ばない。しかし、自分のサイトの関連するコンテンツにリンクを張って、コンテクストのあるリンクを獲得することは可能である。ただし、隠し立てすることも、スパムすることも厳禁である。リンクをこっそりと記事に忍び込ませると、すぐにしっぺ返しを食らうだろう。

以下に、ゲスト投稿内のコンテクストのあるリンクの例を挙げる:

ご覧のように、このリンクは、コンテンツ内のリンクである。コツは、その他のサイトにリンクを張るように、リンクを張ることだ。

ウェブ 2.0サイト

ウェブ 2.0サイトは、ブラックハットコミュニティにとって、大黒柱のような存在である。しかし、多少なら、このウェブ 2.0をリンク構築に活用することは可能である。ただし、あくまでも価値を与えるウェブ 2.0サイトを作成することが前提である。

そのためには、ウェブ 2.0のサイトを実際のウェブサイトのように作る必要がある。http://securityguard-training.blogspot.com/を手本にしてもらいたい。

ご覧のように、このサイトは、典型的なスパム丸出しのブログスポットのサイトとは異なる。割と有益なコンテンツを掲載し、多少ではあるが、記事を用意しており、大半のウェブ 2.0のサイトよりもボリューム感がある。

また、コンテクストのある、followedのリンクが、所有者のメインのサイトに向けられている:

フォーラム

フォーラムは、緊密に関連するサイトにリンクを張ることが出来る割には、リンク構築の戦略として、過小評価されている。また、フォーラムにはアクティブなメンバーが大勢控えているため、リンクがハイレベルのトラフィックを獲得する可能性がある。と言っても、フォーラムのプロフィールではないので注意してもらいたい。フォーラムのプロフィールは、スパム & ブラックハットな手法であり、効果はゼロである。

まず、業界に密接に関わるフォーラムを探してもらいたい。この例では、インターネットマーケティング業界を取り上げている。

以下のクエリを検索すれば、関連するフォーラムを容易に探し出すことが出来るはずだ:

  • “フォーラム” + “キーワード”
  • allintitle:フォーラム + キーワード

この例で実施した検索によって、TrafficPlanet.comと呼ばれるフォーラムを発見した。次に、ざっと目を通して、このフォーラムが、本物であり、アクティブであり、尚且つ、スパムのターゲットにされていないかどうかを確認していく。

返信と閲覧の数を見る限り、これは、有効なリンクを獲得することが可能な有益なフォーラムのように思える。

次に、リンクを直接張ることが可能であり、nofollowではない点を確認する(一部のフォーラムは全ての外部に向かうリンクをリダイレクト/nofollowにしており、リンク構築を行う価値はない)

まず、外部サイトに向かうリンクの上にカーソルを合わせる:

続いて、ブラウザの左下に外部のURLが表示されているかどうかを確認する。

最後にSEO Toolbarの「nofollow」ボタンをクリックし、リンクが赤く変わるかどうか確かめる。赤く変わったら、nofollowである。

色は青のままだ。どうやら有望なフォーラムのようだ。

後は、有益で、多くの価値が詰まったメッセージをフォーラムに投稿するだけだ。新しいスレッドを始める前に、公開されているスレッドで何度かコメントを投稿し、幾つか投稿をビルドアップしていく努力をしよう。

準備が整ったら、新しいスレッドの作成に着手する:

そして、フォーラムにとってプラスになる情報を投稿する。

その際、投稿の中に控え目にリンクを挿入する必要がある:

投稿が済むと、トラフィックを稼ぎ出す、コンテクストのあるリンクを手に入れたことになる。

アウトバウンドリンク

転送されるPRはそれほど多くはない。ページは、各リンクを通じてPRを流し、残りのリンクジュースはその都度減っていく。自分のリンクが、唯一のリンクである状況が理想だが、現実には、PRをその他の数本のリンクと共有しなければならない。

SEOChatの優れたツールを使えば、簡単にアウトバウンドリンク(OBL)の本数を確認することが出来る。

まず、次のURLからこのツールにアクセスする: http://www.seochat.com/seo-tools/site-link-analyzer/

続いて、リンクが表示されているページのURLを入力する。その際、「Both type」(双方のタイプ)を選択する必要がある。なぜなら、内部リンクもページからPRを吸い取るためだ:

「Show Links」(リンクの本数を表示)ボタンをクリックする:

すると、内部リンクの総数と外部リンクの総数が表示される:

リンクの本数を加算すると、競合しているリンクの本数が分かる。通常、出来れば競合するアウトバウンドリンクの本数は、100本以内に抑えておきたい。100本を超えると、PRは大きく薄められてしまう。

ドメインエイジ

ドメインエイジ(サイトの年齢/存続期間)は、計測基準として、満場一致で認められているわけではない。しかし、SEO業界には大勢の信者がいる。そのため、外すといい加減だと思われてしまうため、残すことにした。大勢のSEOのエキスパートは、グーグルが古いサイトを贔屓する – その結果、古いサイトからのリンクの価値を重視する – 傾向があると考えている。古いサイトは、より信頼に値するためだ。スパムサイトが、長続きしないことがこのセオリーの土台になっている。そのため、ドメインエイジは、グーグルがサイトの妥当性を評価する上での判断材料として採用されていると考えることも出来る。ただし、ドメインエイジは、相関関係と因果関係の典型的なパターンであり、古いサイトは、ただ単にリンクを蓄積する時間が、新しいサイトよりも長いだけだと主張する人達もいる。

それでも古いサイトからのリンクは、マイナスに働くことはなく、また、役に立つ可能性があると言う指摘に関しては、誰もが納得するところだ。そのため、少なくともチェックする価値はある。

サイトの年齢は、ドメインの登録日とグーグルのインデックスで確認することが出来る。

ドメインが登録された日時を確認するには、http://www.seologs.com/dns/domain-check.htmlにアクセスする。このツールは、ドメインエイジをチェックして、代わりに計算を行ってくれる:

まず、サイトのドメイン名を入力する(http://やwwwのURLを入力しないこと)。次に「submit」をクリックする:

すると、ドメインが最初に登録された日付、そして、年齢に関するデータが表示される:

この手法の問題点は、ドメインを投稿して、コンテンツを投稿するまでに時間を置くケースが考えられる点である。また、サイトにコンテンツが存在しない状態では、グーグルにインデックスされない。検索エンジンの視点では、そのサイトは存在しないことに等しいのだ。

サイトが実際に稼働を始めた大体の時期を、Wayback Machineを使って確認することは可能である(グーグルがインデックした時期の目安として)

http://archive.org/web/web.phpにアクセスして、見たいサイトのURLを入力する:

続いて、「Take Me Back」(時間を遡る)をクリックする。すると、スクリーン上部にWayback Machineが初めて当該のサイトをアーカイブした日時が掲載される。

曖昧なサイトはWayback Machineにインデックスされない可能性がある点を肝に銘じておいてもらいたい。

共起

リンクを張っているサイトのテーマとページのコンテンツが、サイトの内容に関する手掛かりとなる点に関しては、既に分かってもらえたのではないだろうか。しかし、10点のトピックを網羅するページの場合は どうなるのだろうか?あるトピックから別のトピックへとページは移動する傾向があるため、かつてグーグルは、アンカーテキストをより正確な関連性のシグナルとして利用していた。しかし、濫用が進んだため、アンカーテキストから距離を置き、共起の採用に踏み切りつつある。共起とは、リンクの前後のテキストを指す。グーグルは、関連性のシグナルとしてこのコンテンツに注目しているため、リンク構築に活用してもらいたい。

簡単に共起を活用する方法を幾つか紹介する:

作者の経歴

ゲスト投稿を配信する時、あるいは、アーティクルディレクトリで記事を投稿する時、ブランドのアンカーテキストリンクの近くにターゲットのキーワードを盛り込む努力をしてもらいたい。次の例を参考にしよう:

すると、ブランドが、上位へのランクインを目指すキーワードをテーマとしている点を、グーグルにアピールすることが出来る。

会社とブログのプロフィール

会社とブログのプロフィールは、共起を組み込む絶好の機会である。しかし、残念ながら、自分の会社について、平凡な、自慢ばかりの描写に終始するサイトが多い。共起を会社のプロフィールのリンクに活用する際は、ターゲットのキーワードをリンクの傍に盛り込むことを意識してもらいたい。

例えば、Technoratiは、PR8のハイレベルなサイトであり、プロフィールの作成を認めている(しかも、dofollowの被リンク付き)

まず、アカウントを作成する:

続いて、個人情報を入力し、eメールを確認する。サインインしたら、アカウントのページにアクセスして、「My claimed blogs」(私が取得したブログ)が現れるまで、下にスクロールする。

サイトのホームページのURLを入力し、「claim」(取得)をクリックする”:

「Site Description」(サイトの説明)の下の欄で、ターゲットのキーワードを1つか2つ盛り込み、サイトの説明を行う:

サイトの所有権を確認すると、共起で補強されたプロフィールのリンクが有効になる:

ブログのコメント

ブログのコメントは、リンク構築戦略として、取り立てて効力が高いわけではない。それでも、ブログのコメント内で、リンクに共起効果をもたらすことは可能である。

コメントの管理が行われるブログにコメントを残す際は、コメント内にターゲットのキーワードを挿入するよう心掛けてもらいたい:

これでレベルアップが期待できる

まだチャプター 2を終えたばかりだが、大半のSEO業界の関係者よりも、リンク構築に既に詳しくなっているはずだ。次にチャプター 3: 壮大なコンテンツによるリンク構築に進み、リンクを吸い寄せるコンテンツの作り方を学んでいく。

究極のリンク構築ガイド


この記事は、Quick Sproutに掲載された「The Advanced Guide to Link Building : Chapter 02」を翻訳した内容です。[G+]

コンテンツによるリンク構築 – 究極のリンク構築ガイド3

トリック的なSEOの時代は終わり、これからはコンテンツがSEOにも効くということで、コンテンツマーケティングに取り組み始めているサイトも多いと思いますが、質の高いコンテンツを発信しているつもりでも、トラフィックにせよSEOにせよ思ったような効果が得られていない、というケースも多いのではないでしょうか。この章では、ウェブで人気を集めるためのコンテンツを考え、それを編み出していく手法を具体的に解説。WPのプラグイン解説もWPユーザーには参考になりそう。 — SEO Japan

質の高いコンテンツを投稿するだけで、自然にリンクが寄せられてくると誤解している人は多い。事実、毎日、星の数ほどのサイトが、質の高いコンテンツを配信しているものの、被リンクを1本も獲得することが出来ていない。現在の混雑したコンテンツの世界でリンクを獲得するためには、コンテンツを次のレベルに発展させる必要がある。そこでチャプター 3では、自動的に(もしくは少しの手助けを通じて)リンクが集まってくるほど質の高い、壮大なコンテンツを作成する方法を手順を追って説明していく。

既に上位にランクインしている作品を見つける

リンクベイトコンテンツを作成する前に、自分の業界で既に行われている取り組みを把握する必要がある。その方法を説明する。

まず、コンテンツの基盤となる、業界のキーワードを探し出す。一ヵ月に100人しか検索しないキーワードなら、業界を激震させる3000ワードの記事を書く意味はない。

はじめに、グーグルのキーワードツール(キーワードプランナー)を開き、サイトをSERPで上位にランクインさせたいキーワードを幾つか入力する:

「Match Types」(マッチのタイプ)で「Exact」(完全に一致)を選択する。.

すると、当該の分野で検索量の多いキーワードのリストが生成される。

「Local Monthly Searches」(地域の月間の検索回数)で並べ替える。

ダウンロードボタンをクリックし、「All search results」(全ての検索結果)を選んで、キーワードを.csvにエクスポートする:

この.csvファイルは、壮大なコンテンツを構築する際の土台となる。

次に、関係のない、あるいは、競争があまりにも激しいキーワードを除外していく:

SEMRushを使ってキーワードを探す

グーグルが導き出したキーワードが、あまりにも競争が激しいなら、あるいは、サイトとは関係がないものなら、優れた無料ツールのSEMRushを使って、競合者が既に上位にランクインしているキーワードを確認することを薦める。

アカウントを作成したら、サインインして、ダッシュボードにアクセスする。ページ上部のフィールドに競合者のドメインを入力する:

様々なチャートやグラフが生成されるが、ページの「Organic keywords」(自然なキーワード)の領域に注目してもらいたい:

グーグルのキーワードツール(キーワードプランナー)では表示されなかったユニークなキーワードが表示されることがある。上位にランクインしたいキーワードを全てコピーして、スプレッドシートに貼り付ける:

リストを仕上げたら、今度はターゲットのキーワードで既に上位に格付けされているページを確認していく。

検索回数が多い一つ目のキーワードのグーグルのトップ 10を確認しよう:

このページの多くは、ドメインのオーソリティ、そして、サイト全体の人気(閲覧する人が多ければ、リンクも多い)によってランクインしている点を忘れないでもらいたい。

ここでは、トップ 10のページを全てチェックして、さらに質が高いコンテンツを作るだけでなく、自然にリンクおよびソーシャルシェアをもたらすことを意識して、作成する必要がある。そのために次のステップに進んでもらう…

さらに良いコンテンツを作る(人間と検索エンジンのために)

大半のコンテンツ – 素晴らしいコンテンツを含む – は、さらにレベルアップするポテンシャルを秘めている。これから、上位にランクインしているコンテンツの穴を見つけ、さらに良いコンテンツを作るための方法を伝授していく。

上のキーワードの例を使って話を進めていく。試しに3位の結果を見ていく(http://www.seobook.com/archives/001792.shtml):

予想通り、これはオーソリティサイトが提供する最高の記事である。この記事に勝つのは至難の業である。しかし、品質、および、オンページのSEOの面で、この記事に打ち勝つことが出来る方法が幾つかある。

ワードプレスを開いて、壮大なコンテンツの計画を立案する。

オンページSEOの分析

まず、メタタグ、コンテンツの最適化を含む当該のページのオンページSEOを、Search Engine Analysisツールを使ってチェックする: http://www.seoworkers.com/tools/analyzer.html

上のURLにアクセスして、競合者のページのURLを入力する:

すると、ページのオンページSEOに関する詳細なレポートが提示される。

このページの場合、タイトルタグ内に完全一致のキーワードが掲載されていない(「link building」):

また、ディスクリプションタグも欠けている:

altイメージタグには、グーグルにページの内容の手掛かりを伝える情報(ターゲットのキーワードやLSIのキーワード)が含まれていない:

URL

出来ればキーワードをページのURLに盛り込みたいところだが、このページのURLには、キーワードが含まれていない:

これで、このページにオンページSEOで差をつけることが可能な4つの単純な機会が判明した。それでは、ワードプレスで、この4つのポイントから草稿の作成に着手していく。

ターゲットのキーワードを含むパーマリンクを決める。

イメージにキーワードが含まれたaltテキストを追加する:

キーワードをタイトルタグとディスクリプションタグに盛り込む:

これだけでは不十分である。大物と互角に渡り合いたいなら、さらに質の高いコンテンツを使って、挑む必要がある。

コンテンツの弱点を探す

次に、既に投稿されているコンテンツの改善点を見ていく。以下に私が実際に利用しているチェックリストを掲載する。

  • 時間

    既に配信されているコンテンツを倒す方法の中で、とりわけ容易な部類に入るのが、より新しい情報を提供するメソッドである。時間が経過しても影響を受けないエバーグリーンコンテンツ(デート等)が優勢を占めるニッチもあるが、大半の分野は、常に変化している。ページが作成された日時を把握するため、URLをコピーして、グーグルに貼り付ける:

    この記事は、同テーマの別の記事のアップデート版であった:

    このSEOBookの記事は割と新しいものの、SEOのような動きの早い業界では、常に最新のコンテンツが求められている。しかし、このリストをアップデートするだけでは十分ではない。それでも、多少の効果は見込める。

  • 驚かせる要素

    莫大な量、または、「驚かせる要素」によって、多くのコンテンツがリンクを獲得している。このSEOBookの記事の質が高いことは間違いないが、101点ものアドバイス、そして、戦略が重要な役割を担っていることは疑いようもない。 事実、このキーワードで上位にランクインしている別のページも、100+リストを提供している:

    この2つのページよりも遥かにボリュームの大きなリストを作れば、さらに目立つことが出来るかもしれない。200、300、さらには、500点のリンク構築戦略のリストを作ることは可能だろうか?500点の戦略やアドバイスを持つページなら、リンクが続々と寄せられてくるはずである。

    草稿にこのポイントを反映させる:

  • デザイン

    デザインは、リンク構築において、あまり取り上げられることない分野に入る。しかし、サイトのコンテンツをデザインを基に評価する人は多いため、実はとても重要である。

    このSEOBookのページは、プロフェッショナルなデザインを採用している。しかし、スクリーンショット、イメージ、そして、インフォグラフィック等の「おまけ」は用意されていない。そこで、さらに規模の大きなリストを作るだけでなく、- より優れたデザインを実現することが出来るなら、- リンクを稼ぎ出すことも夢ではない。

    ワードプレスで一からページをデザインすることも(プロのデザイナーを雇う必要がある)、あるいは、単純に多くのスクリーンショットを加えることも可能だ。無料でスクリーンショットを作るなら、Jingを薦める。矢印等分かりやすいアイテムを加えて、読者が簡単に理解することが出来るように工夫してもらいたい。Jingからスクリーンショットをワードプレスの投稿に加える際は、次のアイテムを盛り込むべきである:

  • 徹底した情報

    競合者のコンテンツを上回るために、さらに徹底した情報を提供する手もある。例えば、SEOBookの記事は、指示を幾つか与えている…しかし、一部のアドバイスと戦略に対して、さらに詳しい指示を与えれば、確実に価値は増す。

    草稿に「ステップ」と綴り、記事の中でステップを肉付けしていく。

コンテンツを作成する

コンテンツの概要は出来上がったため、次に大変な作業に着手していく: つまり、自然にシェアしたくなるような、成功をもたらすコンテンツを作成する段階である。ターゲットのキーワードのSERPが、巨大なリストで占められているとしても、同じパターンを採用しなければいけないわけではない。以下に、リンクを獲得した実績を持つその他のタイプのコンテンツを幾つか紹介する。

エキスパートのまとめ

当該の分野のエキスパートの意見を集める作戦は、多くのリンクを楽に獲得することが可能な方法の一つに数えられる。当該の分野のブロガーの見解を提供しているため、本人(そして、他の人達)はリンクを張らずにはいられない。

まず、大勢の人々が疑問に感じるトピック、あるいは、賛否両論のトピックを探し出す。SEO業界では、SEOの未来、ブラックハット vs ホワイトハット、ソーシャルシグナルの効力等のまとめは効果的である。また、教訓、面白い話、あるいは、___を改善する方法のまとめもまた有望である。

次に、AllTop.comとTechnoratiを使って、ピッチするブロガーを探す。

ここで役に立つのがAlltopだ。Alltopは、あらゆる分野の上位のブログとウェブサイトを集めた、能力に基づくディレクトリである。

http://alltop.com/にアクセスして、自分のサイトの分野を描写するキーワードを入力する:

Alltopは、選択肢のリストを用意している。関連する分野のブログの中には、ピッチ可能なブログもあるため、後程、提案されたリストを使って検索をかけてみることを検討してもらいたい。

とりあえずは、検索したキーワード「SEO」のみを取り上げていく。Alltopは当該の分野の上位のブログのリストを生成する:

次にTechnoratiのホームページ「http://technorati.com/」にアクセスする。スクリーン上部の「Blogs」ボタンをクリックして、Post(記事)ではなく、ブログに対する検索を行う:

キーワードを入力して、虫眼鏡ボタンをクリックする:

Technoratiの長所は、Alltopでは見つけることが出来なかった、部分的に関連するサイトを見つけることが出来る点である。

ホームページのPR、ツイッターのフォロワー数、その他の品質の兆候等を確認することも出来るが、必須ではない。AlltopとTechnoratiでリストアップされているサイトは、大量のトラフィックを獲得しており、潤沢なPRを持つ。このページにリストアップされた全てのページを連絡先の情報と一緒にスプレッドシートに手っ取り早くまとめよう。

あとは、まとめ記事に貢献してもらえるかどうか、一人一人、尋ねていく。

接触

当該の業界に参入したばかりなら、反応は薄いことを予測しておこう。チャンスを最大限に高めるため、次の実証済みのeメールのテンプレートを活用していく:

「ブロガーの名前」様(さん)

出来れば「自分のサイト名」のために「業界のトピック」に関する意見を聞かせて頂きたいと思います。現在、私のサイトでは、意見をまとめて提示する取り組みを行っているのですが、「業界のトピック」に関する考えを聞かせて頂けないでしょうか?

そこで、次の質問に答えて頂けると助かります:

[質問]

当然ですが、「ブロガー」様/さんのサイトに向かうリンクを掲載させて頂きます。

宜しくお願い致します。

[自分の名前]

究極のガイド

究極のガイドを作成する取り組みは、お馴染みのリンク構築戦略である。どのサイトよりも徹底的に詳しい情報を提供することで、当該の話題に触れる際に自然にリンクを張ってもらえるようになる。

究極のガイドを作るのは簡単ではない。身を粉にして作業に臨まなければ、ここまで包括的で、有益な作品を作ることは不可能である。

まず、しっかりした、究極のガイドが存在しない分野を見つける必要がある。Topsy.comを訪れ、次の用語で検索を実施していく:

  • 究極のガイド + キーワード
  • 最強のガイド + キーワード
  • 手順 + キーワード

左側のサイドバーから「All Time」(今まで)を選択する:

続いて、「Links」でソートする:

リストに目を通し、倒せそうな究極のガイドを見つける:

このリストにはアンカーテキストに関する作品は挙げられていなかった。SEOにおけるアンカーテキストの重要性を考慮すると、絶好の機会だと言えるだろう。念の為、私は同じクエリをグーグルで検索した。ただし、グーグルではより具体的なキーワードを使って、検索をかけている:

グーグルでは、30位以内には、このトピックの究極のガイドは表示されなかった:

良い傾向だ。アンカーテキストを理解するために必要なあらゆる情報をまとめる作品は一つも見られない。

次に実際に究極のガイドを作成する方法を紹介する。

まず、既に存在する最高のコンテンツを探し出す。このコンテンツは参考資料となる。当該の業界をリードするブログを訪問し、キーワードを入力する:


素晴らしい作品に巡り合えたようだ。その他の優れたサイトでも同じプロセスを繰り返すか、もしくは、グーグルを利用して、最高のコンテンツを探す作業を続ける。

全てのコンテンツを読み、ワードプレスで概要を策定していく。当該の記事が見過ごしている情報のギャップを埋めていくことを心掛けてもらいたい:

続いて、空欄を埋め、見つけた参考情報を明記したら、後はリンクが自然に集まってくるだろう。

クイズ

クイズは、ユニークであり、インタラクティブであるため、多くのリンクをもたらす傾向が見られる。http://theoatmeal.com/quizzesのクイズのように、クイズは、風変りであり、楽しいコンテンツである点を忘れないでもらいたい。ある人物の経歴をクイズで紹介することも出来る。あるいは、知識を試す、従来型のクイズも有効である。

ここでは、SEO関連のクイズを作ると仮定する: 「ホワイトハットですか?それともブラックハットですか?」

ワードプレスのダッシュボードにアクセスして、「plugins」(プラグイン)タブをクリックする。

「Add New」(新しいプラグインを加える)をクリックする:

検索バーに「Quiz」と入力する:

リストから「Wp-Pro-Quiz」を選択する。

続いて、プラグインを有効にする。ワードプレスのダッシュボードのサイドバーで「WP-Pro-Quiz」をクリックする:

次にクイズのタイトルを入力する。

クイズの説明を行う。

「Save」(保存する)をクリックする。

カーソルをクイズのタイトルの下に移動させ、「Questions」をクリックする。

次に「Add Question」(質問を加える)をクリックする:

この類のクイズでは、答えに応じて、特定のポイントを提供するべきである。

「Different points for each answer」(答えに対して異なるポイントを与える)にチェックを入れる。

続いて、一つ目の質問を作成する:

「Multiple Choice」(複数の選択肢)を選択する:

回答を作成する。クイズによっては、「正しい答え」が存在しない可能性がある。例のクイズでは、特定の答えを「Correct」(正解)(ホワイトハットの答え)、その他の答えを「incorrect」(不正解)と考えることが出来る:

もしくは、選択肢ごとに異なるポイントを与え、ポイントの合計に応じて成績を決めることも可能である。

一問目の質問を作成したら、「Save」をクリックする:

同じ作業を繰り返し、10-20問作成する。その後、プラグインのダッシュボードに戻り、クイズの下の「edit」(編集)をクリックする:

次に「Results Text」(結果のテキスト)欄を埋め、参加者の成績を伝える:

最後にクイズの名前の横に掲載されているショートコードをコピーする:

そして、ブログの記事に貼り付ける:

記事を投稿すると、クイズは記事に表示される:

リンクを獲得する

これで、競合者の取り組みをチェックし、競合者のコンテンツを一蹴するコンテンツを作成したことになる。次に、出来るだけ大勢の人達に見てもらえるように工夫する。コンテンツを見る人が多ければ多いほど、多くの被リンクを獲得することが可能になるためだ。コンテンツの投稿後の3日間が、リンクおよびソーシャルシェアを獲得しやすい時期である。

ソーシャルメディアの既存のフォロワーへ通知を行うと、壮大なコンテンツに関する口コミを容易に得ることが出来る。ただし、これは平均的な記事ではないため、ツイッターの接触戦略をいつも以上に工夫する必要がある。

まず、大勢のユーザーにリツイートしてもらえるように、ツイートを投稿する日時を決める: 通常、平日の午後5時(東部標準時間)が有効である。

無料で、ツイートをパーソナライズさせること可能な、Tweriodで確認することを薦める。

http://www.tweriod.com/にアクセスし、「Sign Up With Twitter」(ツイッターを使ってサインアップする)ボタンをクリックする:

次に、このツールが、ツイッターのアカウントにアクセスする行為を許可する。

すると、フォロワーのアクティビティに応じて、ツイートを投稿する適切な時間を教えてもらえる:

当然ながら、このデータは、通常の午後5時東部標準時間よりも、精度が高い。

次に、適切なタイミングで確実に投稿するため、Bufferを利用する。

はじめに、ツイッターのアカウントを使って、ログインする。

スクリーン上部の「Share」ボタンをクリックする:

メッセージを入力し、「Buffer」をクリックして、ツイートを投稿するタイミングを決める:

必要に応じて、Bufferのスケジュールを変更し、Tweriodから受信したタイミングの情報にマッチさせる:

有料スタンブル

StumbleUpon(スタンブルアポン)の「Paid Discovery」(有料ディスカバリ)プログラムは、最新の壮大なコンテンツに対して、電光石火のスピードでビジターを集める力を持つ。料金は5セント~に設定されており、少ない投資で大勢のビジターを獲得することが可能である。また、そのうちの多くが、自然にコンテンツをスタンブル、ツイート、そして、いいね!してくれる…その結果、被リンクが増える可能性がある。

まず、https://www.stumbleupon.com/pdにアクセスして、アカウントを作成する:

「Create New Campaign」(新しいキャンペーンを作成する)をクリックする。

コンテンツのURLを入力する。

予算を設定する。軌道に乗せるため、数日間キャンペーンを行うべきである。

キャンペーンに名前をつける。

スタンブルアポンは、自動的に最も反応が良いと思われるユーザー層にターゲットを絞る。念には念を入れたいなら、「Audience」の下にある「Edit」(編集)ボタンをクリックして、コンテンツに最も適するユーザー層および関心の情報を選択することも可能である。

「Save and Review」(保存して、見直す)をクリックする:

次に「Create Campaign」(キャンペーンを作成する)をクリックする。

以上。

Scoop.itを使って見てもらう機会を増やす

Scoop.itは、強力なコンテンツキュレーションサービスである。また、バイラル化させるために必要なプッシュをコンテンツに与える力も持つ(しかも無料)

まず、アカウントを作成する。Scoop.itページの上部にある「My Topics」(私のトピック)を選択する。

コンテンツの内容に関連するトピックにする必要がある。

次に、自分のコンテンツの内容に関連する、Scoop.itのページを持つキュレーターを検索する。

閲覧数が多いユーザーに特に注目してもらいたい:

ツイッターのフォロワーの人数も重要である(多くのScoop.itのヘビーユーザーは、スクープしたコンテンツをツイートする傾向がある):

ページの右側にある「Follow」ボタンをクリックして、当該のキュレーターをフォローする。

フォロワーを数名獲得したら、自分のコンテンツをスクープしていく。
「New Scoop」(新しいスクープ)をクリックする。

「Create Your Own Scoop」(自分のスクープを作る)を選択する。

続いて、コンテンツのURLをコピーして、貼り付ける。

Scoop.itでは、コンテンツを投稿する場所を指定することが出来る。フォローするキュレーターの一人を選ぼう:

「Suggest」(提案する)をクリックする。

これでコンテンツが当該のキュレーターに送信されたことになる。キュレーターに認めてもらえると、スクープページでコンテンツが投稿される。

サイトへの接触

コンテンツを取り巻く状況が落ち着き、勢いが収まったら、アウトリーチ(接触)を始め、質の高いリンクを幾つか獲得する試みを行う。

リンク集は、リンク構築の手法として、過小評価されることが多い。 しかし、リンクを張る機会を窺っている、同分野のサイトのオーナーを他にどこで探せばいいのだろうか?「リンク集」とは、その週に投稿された優れたコンテンツにリンクを張るブログの記事のことを指す。

リンク集を探す

簡単に自分の分野のリンク集を検索するためのクエリを幾つか紹介する。

  • リンク集 + 分野
  • 金曜 リンク集
  • 週 リンク集

去年等、期間を設定して、アクティブなリンク集のみを調べるべきである:

有望なリンク集を見つけた:

どうやら毎週金曜日にこのブロガーはリンク集を投稿しているようだ:

次に、このブロガーに接触し、自分のコンテンツを提案する。



初めまして、ジェイソンさん

毎週、このリンク集を楽しみにしています。その週の大きな出来事を把握することが出来るので、とても便利です。

さて、先ほど私自身のサイトにコンテンツ、その名も「アンカーテキストの最適化 – 究極のガイド」を投稿しました。ジェイソンさんのブログの読者にも気に入ってもらえると思います。

次のURLで確認することが出来ます。「URL」

今後も素晴らしいリンク集を期待しています。

「自分の名前」

何も見つからなかったら – あるいは、もっとリンク集が必要なら – 密接に関連する分野のリンク集を探そう。

後は、このプロセスを繰り返していく。

これは若干本道から外れているものの、効果は絶大である。競合者にリンクを張ったサイトを確認し、…競合者のリンクを自分のサイトへのリンクに変えてもらう手法である。この手法の効果が高いのは、同じトピックに関する情報源にリンクを張りたいことが既に分かっているためだ(実際に既にリンクを張っている)。後は、自分のコンテンツの方が優れている点を理解してもらうスキルにかかっている(後程詳しく説明する)

まずは、ターゲットのキーワードの検索結果で、トップ 10から2つか3つページを選択する。

そして、Open Site Explorerに入力する。

「only external」(外部のみ)を選び、Filterボタンをクリックする。


次に、結果を一つずつチェックし、リンクを自分のリンクに交換する(あるいは、単純に自分のコンテンツを加えてもらう)機会を探し出す。

可能性のあるページが一つ見つかった:

この記事は3年前に投稿されたものであり、アップデートする必要がある点は明白である:

自分のリンクを掲載してもらうため、リンクを張っているコンテンツよりも、新しい情報を持っている点をブロガーに伝えると成功する確率は高くなる。サイトのオーナーは、時代遅れの情報源にリンクを張っていることに気づかない場合が多い。

サイトのオーナーに連絡を取り、新鮮で、最先端を行くコンテンツを持っている点を伝えよう。

反応してくれる人は1割に満たないかもしれないが、1割の古い、多くのリンクが寄せられたページは大量の信頼性とオーソリティをサイトにもたらしてくれるはずである。

これで、コンテンツマーケティングのエキスパートを名乗ることが出来るようになった

ただし、リンクの構築を自分のサイトのコンテンツのみに頼る必要はない。チャプター 4: 被リンクの投稿では、 簡単にリンクを投稿する方法(しかも強力)を紹介していく。

究極のリンク構築ガイド


この記事は、Quick Sproutに掲載された「The Advanced Guide to Link Building : Chapter 03」を翻訳した内容です。[G+]

被リンクの投稿 – 究極のリンク構築ガイド4

一昔前の被リンク対策といえば、掲示板やディレクトリ登録が主流でした。登録するだけで簡単に被リンクを獲得できるということで多くのサイトに活用・悪用され、今ではその効果は余りないとされています。しかし、そこで終わらないのが究極のリンク構築ガイド。マニアックで効果も微妙にありそうな登録型の被リンク先サイトを色々紹介してくれたのがこの記事です。対象サイトは日本でそのまま使えないものも多いですが、同種のサイトは日本にもあるので参考になるはず。 — SEO Japan

全てのリンクを、独自のコンテンツに埋め込む、ページランクを活性化するタイプのリンクに統一する必要はない。自分自身、会社、サイト、または、コンテンツに関する情報を投稿するだけで、簡単にfollowedリンクを獲得することが可能である。このチャプターでは、followedリンクの情報源を紹介し、リンクが長期的にサイトに掲載される確率を高くするためのアドバイスを提供する

ブログのアグリゲータ

ブログのアグリゲータは、最高のブログのコンテンツを整理している。しかし、大半のウェブディレクトリにはないメリットがブログのアグリゲータにはある。それは、自分のRSSフィードからコンテンツを取得し、コンテンツにリンクを返す点である。

通常は、サイトを受け入れてもらうまでに、障害を幾つか超える必要がある。それでは、人気の高いアグリゲータのAllTopを例にとって、説明していく。

まず、My Alltopアカウントを作成し、eメールで認証する:


続いて、ホームページの一番下までスクロールし、「Submissions」(投稿)ボタンをクリックする。

フォームに記入する前に、2つのアイテムを探す必要がある — 自分のブログに最適なAllTopのカテゴリーとRSSフィードのURL。

適切なカテゴリーを探すため、ホームページに戻り、ピッタリと合うキーワードを検索する:

すると、AllTopは、カテゴリーのリストを提供する。リストから最善のカテゴリーを選択する。

大半のサイト(特にワードプレスのサイト)では、RSSフィードは、サイト名/rssで見つかる。

フィードバーナーに自動的にリダイレクトされることもある(このサービスを利用している場合):

いずれかのURLを投稿フォームに入力する。

次に情報をフォームに入力していく。コメント欄での説明は、簡潔に、そして、プロらしくまとめる。サイトの知名度を裏付けるスタッツを盛り込む努力をしてもらいたい。

ブログの投稿を検討する価値のあるブログアグリゲータを幾つか紹介する:

フリーダイヤルのリスティング

フリーダイヤルの番号を取得することで、リンクを手に入れられる点は、ほとんど知られていない。

次のサイトにアクセスする:

次にフリーダイヤルの番号とURLをディレクトリに投稿する:


会社のリスティングサイト

会社のリスティングサイトは、大量のPRを持っており、プロフィールにリンクを落としておくことを薦めている。リンクジュースに加え、会社のリスティングサイトにサイトを掲載しておくことで、グーグルに対して強力なブランドのシグナルを送ることが出来る(ブランドのシグナルは、アルゴリズムにおいて、重要度がさらに高まっている)

会社のリスティングサイトからリンクを獲得する方法を、人気の高いManta(PR6)を例にとって、説明していく:


同サイトの「Tell Us About Your Company」(会社に関する情報)セクションを埋める。

有料オプションの下までスクロールし、「No Thanks, continue to my profile」(いいえ、結構です。プロフィールの作成を継続します)をクリックする:

自分自身に関する基本的な情報を入力していく。ウェブサイトのセクションの近くにある「EDIT」(編集する)をクリックする:

「Company Website」(会社のウェブサイト)の下にホームページのURLを入力する:

以上。

followedリンクを得られる会社のリスティングサイトをさらに紹介する:

オーディオ共有サイト

オーディオ共有サイトは、followedリンクを得るサイトの中で、個人的に気に入っているサイトの一つだ。通常、承認プロセスがなく、dofollowリンクを許可し、ドメインのオーソリティと信頼性が高い。また、音楽に関するウェブサイトを運営していなくても、オーディオ共有サイトから豊富に被リンクを獲得することが可能である。その方法を伝授する。

まず、シェアする楽曲が必要になる。全てのサイトで要求されるわけではないが、プロフィールを肉付けする効果が見込める。また、内部リンクをプロフィールに構築することも出来る。つまり、サイトにさらにオーソリティをもたらすことが可能になる。

まず、http://vocaroo.com/にアクセスし、「Click to Record」(クリックして録音する)ボタンをクリックする:

コンピュータのマイクへのアクセスを許可する。本格的なマイクやヘッドセットを使うことも可能だが、必須ではない。

ここからが腕の見せ所だ。好きな曲を大声で歌おう、または、自分の分野に関する歌を熱唱しよう(私はSEOに関する曲を歌うのが大好きだ)

少なくとも1分間録音を続けたら、「Click to Stop」(クリックして中断する)ボタンをクリックする:

確認したいなら、「Listen」(再生する)ボタンを押す。

満足したら、下方向にスクロールし、「Click here to save」(保存する)をクリックする:

ファイルを.mp3形式で保存する。

ファイルを保存する。

ファイルを探し、覚えやすい名前に変更する。

次にこの.mp3を質の高い被リンクに変えていく。

大半のオーディオ共有サイトは、同じような仕組みを採用している — プロフィールを作成し、オーディオをアップロードし、followedリンクを落とす。PureVolume.com (PR6)を例にとって、説明する。

http://www.purevolume.com/signupにアクセスして、「I’m an Artist」(私はアーティストです)の下の「SIGNUP NOW」(今すぐ登録する)をクリックする。

サイトが求める情報を入力していく。関連性をさらに高めるため、Artist/Group Nameをターゲットのキーワードにすることを薦める。すると、ページのURLは次のようなURLになる: purevolume.com/yourkeyword.

次に「Create Artist Account」(アーティストのアカウントを作成する)をクリックする:

ダッシュボードにリダイレクトされる。「MUSIC」タブをクリックする:

続いて「Click here to create an album」(クリックしてアルバムを作る)をクリックする。

アルバムに名前をつけ、先程録音した.mp3をアップロードする。

「ADD ALBUM」(アルバムを加える)をクリックする。

アルバムの情報を追加することが出来る(アルバムのカバーも)
終了したら、「SAVE CHANGES」(変更を保存する)をクリックする:

ダッシュボードに戻り、「Edit Profile」(プロフィールを編集する)リンクをクリックする。

「Billboard」のセクションで、基本的な情報を入力する。このコンテンツを加えることで、十分な量のコンテンツを確保し、検索エンジンにインデックスしてもらえるようになる:

続いて「Links」(リンク)タブをクリックする:

ドロップダウンメニューから「Official Website」(公式のウェブサイト)を選択する:

ターゲットのページのURLを入力する:

プロフィールページに戻り、投稿したコンテンツとリンクをを確認する:

うまくいった。

以下に、followedリンクを幾つか入手することが可能なオーディオ共有サイトを挙げていく:

また、followedリンクを投稿することが可能なポッドキャストのディレクトリも多い。仕組みはオーディオ共有サイトと基本的に同じである — オーディオをアップロードして、見返りにリンクをもらう。

デザインギャラリー

ウェブサイトのデザインやロゴに自信があるなら、デザインギャラリーからPRの高いfollowedリンクを獲得することが出来る。

まずは、a) 完全にオリジナルなテーマ(デザイン)を持っている または、b) 無料のテーマを大幅にカスタマイズしていることを確認してもらいたい。一般的な無料のワードプレスのテーマは、大半のデザインギャラリーサイトでは受け付けてもらえない。

通常、投稿プロセスは簡単だ。デザインギャラリーのホームページにアクセスして、投稿ボタンを探す。この例では、http://bestwebgallery.com/(PR6)を採用する。

自分とサイトに関する情報を入力する。

ドロップダウンメニューから、「Submit a site」(サイトを投稿する)を選択する。

コメント欄では、サイトを一からデザインしたとアピールすると効果がある。

以下に、followedリンクを提供する、ウェブ、CSS、ロゴデザインのサイトを幾つか紹介する。

アーティストのポートフォーリオサイト

たとえ中学生の頃、美術の成績が悪くても、アーティストのポートフォーリオサイトから品質の高いfollowedリンクを獲得することが出来る。大半のポートフォーリオサイトは、マーケティングキャンペーンやグラフィックデザインを含む、多種多様なアートの投稿を認めている。取り上げている分野が、ダイエットであったとしても、ポートフォーリオサイトから質の高いリンクを数本手に入れることが可能である。

Shownd.com(PR5)を例にとって、説明していく。

ホームページにアクセスして、「CREATE A FREE ACCOUNT」(無料アカウントを作成する)をクリックする。

キーワードが豊富に詰まったURLを選び、サイトが求める情報を入力していく。

ホームページにリダイレクトされる。

大半のポートフォーリオサイトと同じように、ポートフォーリオに作品をアップロードする度にshownd.comからリンクを得ることが出来る。サイトのスクリーンショットをアップロードすると、とても簡単に作品を展示することが可能である。Web Screenshotsを使うと、容易にスクリーンショットを作成することが出来るので、活用してもらいたい。

http://ctrlq.org/screenshots/にアクセスし、ホームページのURLを貼り付ける。

続いて「Download Image」(画像をダウンロードする)ボタンをクリックする。

すると、ブラウザにイメージが表示される。右クリック(Macの場合はctrl + クリック)し、「名前をつけて画像を保存」を選ぶ。

覚えやすい名前をファイルにつける。

shownd.comに戻り、「NEW PROJECT」ボタンをクリックする。

ターゲットのページのURLを入力し、簡潔な説明文を加える:

「CREATE」をクリックする:

「ADD IMAGE」ボタンをクリックする:

サイトのスクリーンショットをアップロードする。

「VIEW YOUR SHOWCASE」リンクをクリックすると、リンクを見ることが出来る。

アップロードしたイメージを確認する:

次のサイトからのfollowedのポートフォーリオリンクを手に入れることが可能だ:

リンクをサイトに留める

わざわざ時間を割いてアカウントを作成し、コンテンツをアップロードして、リンクを落としたものの…数週間後に管理人にページを削除されてしまうほど辛いことはない。幸いにも、簡単に、リンクを長期間に渡って留めることが可能な手法が幾つか存在する。

完璧なプロフィールを作成する

最低限の情報とリンクしか見当たらない、薄っぺらいプロフィールやメンバーのページは、管理人の注目を集める。

例えば、Showndでアカウントを作成し、アクティブにしておくことを望むと仮定しよう。まずは、自分の写真をアップロードし、「Add your personal thumbnail」(個人のサムネイルを加える)を探し、「Browse」をクリックする。

次に、自分の写真を選択する。

続いて、「UPLOAD」ボタンをクリックする。

「About You」セクションに戻り、さらに情報を入力していく:

その後、サイトへの融合を試みる。犬のトレーニングに関するサイトを運営し、音楽に関するサイトに投稿しているなら、犬のトレーニングに関するサイトに触れるべきではない。反対に、特長を隠すべきである — 創造力を駆使して、ページを自分のサイトと投稿するサイトの双方に対して関連させる。

例えば、私がSEOに関するサイトを運営しており、YourListen.comからリンクを獲得したいと願っていると仮定する。その場合、プロフィールを入力する際は、音楽の好みに焦点を絞り、さりげなくSEOビジネスを行っていると述べる程度に留めておく。こうすることで、管理人がページを見た際に、私がコミュニティの一員であり、また、偶然、SEOに関するウェブサイトを運営していると映るようになる。

プロフィールの経歴欄では、検索エンジンのスパイダーに向けて、幾つかキーワードを投入しつつ、サイトにマッチするコンテンツを加える:

Knowem

もっとfollowedの投稿リンクを欲しいなら、Knowemを薦める。Knowemは、ビジネス、パーソナル、フリーランスのプロフィール、ポートフォーリオ、そして、ソーシャルサイトを一ヶ所にまとめている。

まず、http://knowem.com/を訪問する。サイトのブランド名を入力し、「Check It」をクリックする:

下にスクロールし、「CHECK OVER 500 MORE SOCIAL NETWORKS」(500以上のソーシャルネットワークをチェックする)をクリックする:

すると、大量のターゲットが提示される。

ただし、followedリンクを認めているかどうか、一つずつ確認していく必要がある。経験上、「Business」と「Community」のセクションは、特に効果が高い。

以上

これで数多くの投稿リンクを獲得することが出来たはずだ。次のチャプターでは、特別な存在: .eduと.govの被リンク構築を取り上げる — まさに最高級のリンクである。ご存知の通り、このタイプのリンクを獲得するのは至難の業である。しかし、チャプター 5: .eduと.govの被リンクでは、このハイレベルな被リンクを獲得する確率を高める手法を幾つか伝授する。

究極のリンク構築ガイド


この記事は、Quick Sproutに掲載された「The Advanced Guide to Link Building : Chapter 04」を翻訳した内容です。[G+]

.eduと.govの被リンク – 究極のリンク構築ガイド5

一種の都市伝説といわれながら、確実に効果が高いといわれてきたのが教育(.edu)や政府(.gov)関連のサイトからの被リンク。Googleがドメインベースでこれらのサイトをより評価しているという話もありますが、一般的に教育・政府関連のサイトにはより多くの質が高いリンクが集まる傾向もあり、自然にリンクの影響力は大きくなるということもあるでしょう。同時に自然にリンクを得ることが難しいのがこれらのサイトですが、あえてそこでリンクを得るための細かすぎながらも効果のありそうな手法を考え解説してくれた日本でも実践できそうな記事を。 — SEO Japan

.eduや.govは、一般のウェブマスターやインターネットユーザーにとっては、トップレベルのドメインの一つでしかない。しかし、SEOの関係者にとっては、この三文字は、とてつもなく大きな意味を持つ。SEO業界の人間の多くは、検索エンジンが、.eduや.govのサイトの被リンクに対して特別な力を与えているとまでは考えていないものの、.eduと.govのドメインが、歴史が古く、信頼されており、また、リンク構築の担当者が愛してやまないドメインオーソリティを持っている点に関しては、異論がないはずだ。しかし、スパム丸出しのウィキページやフォーラムのプロフィールに頼ることなく、このタイプのリンクを獲得するのは、容易ではない。そこで、このチャプターでは、リンクプロフィールに.eduと.govの被リンクを加えるための、実用的な戦略を伝授していく。

ブログのコメント

信じるかどうかは自由だが、大半の大学や政府組織は、ブロゴスフィアに参入している。つまり、ブログのコメントから被リンクを獲得するチャンスが存在するのだ。この手法は、通常のブログのコメントによるリンク構築よりも、若干、効果が高い。なぜなら、分野が関連するページをターゲットにするためだ。

まず、SEOQuakeツールバーをインストールする必要がある。このツールバーは、リンクを落とすページのPRを特定してくれる。ブログのコメントを投稿するためには、時間を割く必要があり、ターゲットを賢く選択する必要がある。

http://www.seoquake.com/にアクセスし、SEOQuakeをインストールする:

「Allow」(許可する)をクリックすると、ファイヤーフォックスの再起動が行われる。


グーグルに向かい、小さな歯車のボタンをクリックして、「検索設定」を選択する:

続いて、「インスタント検索の結果は表示しない」を選ぶ。

スライドバーを動かし、1つの検索結果で、50点の結果を見ることが出来るように設定する。

新しい設定を保存する。

http://dropmylink.com/にアクセスし、ターゲットのキーワードを入力する。「Find」のドロップダウンメニューで、.eduのブログを見つける設定を選ぶ必要がある。

「Search」をヒットする。

コメントを投稿する価値のあるページのPRが十分に高い結果を確認する。次の結果は有望だ。

ページを一番下までスクロールして、アクティブなコメント欄の存在をチェックする:

「Name」のフィールドにキーワードを盛り込んだアンカーテキストのリンクを落としたくなるものの、a) ペンギンペナルティの対象になる b) スパマー扱いされる、の2点のデメリットがあるので薦められない。代わりに、サイト、もしくは、自分の名前を入力する。

次に記事に目を通し、気の利いたコメントを残す。

注意: ブログがコメントを自動的に承認している場合であっても、絶対に承認されるとは限らない。自然なアンカーテキストのリンクを鋭いコメントと共に提供していれば、恐らく、承認してもらえる。

グーグルに戻り、高いPRのターゲットがなくなるまで、同じプロセスを繰り返す。

また、Drop My Linkを使って、コメントを許可している.govのブログを探すことも可能だ。その場合、ドロップダウンメニューから「.gov Blogs」を選択する。

奨学金を用意する

.eduサイトがリンクを張りたくなるように仕向けるため、大学の関係者に価値のあるものを提供すると良い。経験上、業界限定、または、一般的な奨学金を提供すると、複数の.eduリンクを容易に獲得することが出来る。

まず、.eduのドメインで奨学金制度に関するページを探す。奨学金を策定する前に、この作業を行っておく必要がある。こうすることで、多くのPRを自分のサイトにもたらしてくれるページに合わせて奨学金を調整することが出来るようになる。

以下に、奨学金をリストアップするページを探し出す上で役に立つ検索の文字列を挙げていく:

  • site:.edu “奨学金”
  • site:.edu “大学 奨学金”
  • site:.edu “奨学金 リンク”
  • site:.edu “奨学金 リスト”
  • site:.edu “奨学金のリスト”
  • site:.edu “業者以外の奨学金”
  • site:.edu “私立 奨学金”
  • site:.edu “キーワード + 奨学金”

いずれかの検索をグーグルで行う。

次の結果は期待できそうだ:

予想が的中した。PR5のページであった。

営利目的のウェブサイトにもdofollowのリンクが提供される:

連絡先も明確に記載されている。

スプレッドシートを作成して、URL、PR、そして、連絡先情報を記録していく:

一般的な奨学金を用意して、このページからリンクを獲得することも不可能ではないが、この大学に限定することで、さらに確率を高めることが出来る。このケースでは、カリフォルニア大学デービス校だけのために、奨学金を用意する。

次に、明確に条件を定めた、奨学金のページを作成する。次の項目を盛り込む必要がある:

  • 金額
  • 人数
  • .pdfの申込書またはオンラインの申込書
  • 期限
  • 条件(小論文、具体的な専攻科目等)

最後に収集した大学に連絡し、奨学金を宣伝する。


.govのサイトでもこのプロセスを繰り返すことが可能だ。

この取り組みを適切に行えば、500 – 1000ドルの奨学金で、多数の.eduおよび.govの被リンクを得ることが出来る。

ブロガーを高く評価する

先程も申し上げた通り、.eduと.govのブログは決して多くはない。しかし、ブログのコメント以外のリンクを得るのは、不可能に近い。ただし、当該のブロガーの自尊心を少し満足させることが出来れば、話は別だ。ここで有効に働く可能性が高いのが、ブロガーを褒めちぎる戦略である。.eduのブロガーにも同じ手を使うことが出来る。ブロガー賞や「…最高のブロガー」リストを用意することで、.eduのリンクを容易に手に入れることが出来る。

その方法を紹介する。

まず、次の条件を満たす、関連する.eduおよび.govのブログを見つける必要がある:

  • 活発
  • 明確に連絡先の情報を掲載している
  • 外部サイトに向かうリンクがdofollow

幸いにも、次のような検索の文字列を使うことで、この条件を満たすブログを簡単に探し出すことが可能だ:

  • site:.edu inurl:blog
  • site:.edu “キーワード” “ブログ 記事”
  • site:.edu “キーワード” “記事 コメント”
  • site:.edu “キーワード” “学部 ブログ”
  • site:.edu “キーワード” “スタッフ ブログ”
  • site:.edu “キーワード” “学生 ブログ”

ターゲットのブログが更新されていることを確認するには、ブログにアクセスし、最新の投稿の日付をチェックすると良い。

先月、または、2ヶ月前に記事が投稿されている点を確認してもらいたい。

上の基準を満たすブログを幾つか発見したら、一つのカテゴリーにまとめる。リンクから出来るだけ多くの価値を獲得するため、関連する分野のブロガーを選ぶ努力をしてもらいたい(「好きなブログリスト」や「最優秀大学ブロガー賞」を発表することも出来るが、カテゴリーを限定すると、当該の取り組みが、より妥当に見えるようになる)

ワードプレスで記事を新たに作る。

ブログを運営している人物、または、最も寄稿する回数が多い人物を探し出す:

このブロガーの情報を、写真、ブログの簡単な説明、そして、最高の記事へのリンクと共に追加する。

少なくとも受賞者が15名に達するまで、このプロセスを繰り返す。次に各ブロガーに連絡を取り、受賞したことを伝える。

参照情報ページのリンク構築

.eduと.govの参照情報ページのリンク構築は、ホワイトハットなリンク構築戦略の中でも、個人的に気に入っている戦略の一つである。なぜなら、参照情報ページは、その他のサイトにリンクを張るためだけに存在しているからだ。(スパムではない)参照情報ページを運営している人物を探し出し、自分のサイトへのリンクを加えるだけでよい。これは、適当にリンクを要請するよりも遥かに楽である。

次の文字列を使って、参照情報ページを見つけることが可能だ。

  • site:.edu キーワード+ inurl:参照情報
  • site:.edu キーワード + inurl:リンク

ここでは、減量に関するサイトを運営していると仮定する。その場合、「健康」や「栄養」等の広範な検索から始め、その後、具体的な検索に絞っていくべきである。こうすることで、多数の参照情報ページのターゲットを得られる。


まず、他のドメインにリンクを張っている点を確認する(一部の.eduの参照ページはサイト内のページにしかリンクを張っていない)。次に、営利分野のサイト(.eduや.gov以外)にもリンクを張るかどうかを確かめる。営利のサイトにリンクを張る傾向が見られると、リンクを得られる確率は大幅に高くなる。

このサイトは、営利のサイトのみにリンクを張っているようだ。これは良い兆候である。続いて、サイトのこのセクションを担当している人物を探し出し、リンクを要請する。

このセクションは、「Contact Us」(お問い合わせ)と明確に記されている。

管理人に向けてメールを送信する。


…様

はじめまして

本日、減量に関する情報を探している際、…様のサイトの…セクションに減量に関する参照情報のリストが掲載されていることに気づきました。

今回、メールを送信させて頂いたのは、私自身も減量に関するサイトを運営していることをお伝えしたかったためです。当サイトでは、多数の食事のメニュー、運動の情報等を用意しています。ブームに乗っているわけではなく、全て臨床調査を基にアドバイスを送っています。

…様の参照情報ページに私のサイトへのリンクを加えることを検討して頂けないでしょうか?

いずれにせよ、今後も素晴らしい作品が投稿されるのを楽しみにしています。

宜しくお願い致します。

自分の名前

この作業を繰り返す。このタイプのリンク構築では、ボリュームが重要なカギを握ることが多い — 連絡を取る人が多ければ多いほど、得られるリンクの本数も多くなる。

同窓会ニュース

米国の大学を卒業したなら、母校のサイトの同窓生ニュースの欄から自分のサイトにリンクを張ってもらえる可能性がある。

グーグルを開き、大学の同窓生ニュースの欄を検索する(卒業した大学院も忘れずに検索すること)


このセクションに有効なfollowedリンクが掲載されているか確認する。

次に、卒業生を担当する部門に、自分の近況に関するニュースを投稿する(運営するサイトに焦点を絞る)

また、同窓生のプロフィールを設定して、リンクを入手する手もある。

まず、同窓生のセクションが、サイトにこの機能を用意しているかどうか確かめる。

  • site:yourschool.edu “同窓生 プロフィール”
  • site:yourschool.edu “卒業生 プロフィール”
  • site:yourschool.edu “同窓生 記録”

情報を入力する(サイトも):

地域の参照情報ページ

レストランやホテル等、地域に密着した店を運営しているなら、大学の入学に関するページから、通常、容易に強力なリンクを獲得することが可能だ。このタイプのページは、来校する生徒や生徒の家族に、地域の宿泊設備や施設を紹介するために用意されている。

まず、近郊の大学がfollowedリンク付きの参照情報ページを提供しているかどうか、検索して確認する。

  • site:school.edu “入学”
  • site:school.edu “宿泊”
  • site:.school.edu “近郊 食事”
  • site:school.edu inurl:visiting
  • site:yourschool.com inurl:visiting your school

地域の参照情報ページを探す。

このセクションに該当する業界のカテゴリーが掲載されているかどうか確認する。

掲載されている場合、大学に連絡を取り、リストに加えてもらう。

学生や教員向けに、地域のお店を紹介するためのページを用意する大学もある。

  • site:school.edu “市の名前 + 参照情報”
  • site:school.edu “地域 参照情報”
  • site:school.edu “市の名前 +店”
  • site:school.edu 市の名前 + “アクティビティ”

次にページにアクセスして、地域の店に有効なリンクを張っているかどうか確かめる:

365

このページには、リンクが豊富に掲載されている。後はこのページの管理人に連絡を取り、リンクを要請するだけだ。

大学向けの割引

大半の大学は、教員および学生に対する割引を実施している店のリストをサイト内で紹介している。近郊の店ではなくても、リストアップしてもらえる可能性がある。サイトで何かしら価値のあるアイテムを販売していれば — そして、複数の学校と取引があれば — 多くのリンクを手に入れることが出来る。

まずは、有効なfollowedリンクを持つ、.eduのページを探す。

  • site:.edu “スタッフ 割引”
  • site:.edu “従業員 割引”
  • site:.edu “学生 割引”

このPR3のページは、多数のfollowedリンクのリストを提供している。まさに求めているページそのものである。

続いて、割引する製品の情報を投稿する場所を探し出す。この例のページと同じように、大半のサイトは、提案用のフォームを用意している。

手続きを求めるサイトもある:

いずれにせよ、このタイプの.eduリンクを得られるなら、作業を行う価値はあると言えるだろう。

同じような割引ページを提供する地域の.govサイトは多数ある。


サイトのセクションを改善する

この手法は、多少根気が求められるものの、信頼されている.eduのリンクを数本獲得することが出来るため、見返りは大きい。ここでは、.eduのサイトで、醜い、もしくは、廃れたセクションを探し出す。大半の学生のグループは、自分達のセクションのデザインや機能を改善するための資金や知識を持っていないため、通常、欠点ばかりのサブドメインが存在する。このような学生のグループが、恰好のターゲットとなる。助けてもらう代わりに、大方、リンクを張ってくれるだろう。

まず、分野が多少関連する学生のグループを検索する。無償の支援が自然に映るようにするためだ。

あるいは、単純に大学のウェブサイトを訪問し、学生の組織のウェブサイトにざっと目を通すことも可能である(大半の学校は、多くの団体を運営している)

次に、手入れが行き届いていないサイトを探す。

連絡先の情報を探す(通常は「役員」ページに掲載されている)


連絡を取り、サイトのデザインの改善に協力する。

ウェブデザインの知識がなくても、ElanceやOdesk等のフリーランスサイトでフリーのデザイナーを手頃な料金で雇用すれば問題ない。

大学生に料金を支払う

この戦略は、若干グレイハットの要素が強いが、効果は抜群だ。大学生にお金を払って、大学の.eduサイトのドメインで、学生用のブログを作ってもらい(多くの大学がこのサービスを提供している)、自分のサイトにリンクを張ってもらう。現金に飢えた学生達は、カップヌードル続きの夕食から抜け出すためには、何でもする。たった数回キーボードを叩くだけで$25-$60貰えるなら、大勢の学生が集まって来るはずである。

対象の学生を探す方法を説明する。

Reddit

Redditのユーザーベースには、学生が大勢混じっている。また、このサイトは、あまり知られていないものの、意外と活発な「fo hire」(仕事探してます)セクションを用意している。http://www.reddit.com/r/forhireにアクセスし、「Hire a Redditor」(Redditユーザーを雇う)ボタンをクリックする:

仕事の詳細を記入する。

曜日、時間、そして、報酬の金額によっては、投稿直後にレスポンスが寄せられるかもしれない。

Craigslist

Craigslistもまた活発な仕事探しの掲示板を提供している。

まず、小さな学園都市を探す(Craigslistの大都市版で仕事を提示する場合、1本の投稿につき$25-$100を支払わなければならない)

学園都市のCraigslistにアクセスする。

「Post to Classifieds」(求人広告に投稿する)リンクをクリックする。

ガイドラインに同意する。

「admin/office jobs」、「et cetera」、「writing」、もしくは、「web/HTML/info design job」のカテゴリーの中から一つ選択する。

職務記述欄を投稿する。

「telecommuting OK」(在宅勤務を認める)を選択すること:

「Continue」(続ける)をクリックする:

投稿の内容を確認して、問題がないようなら、「Continue」をクリックする:

最後にeメールをチェックし、リスティングを確かめる。

上級者向けのリンク構築が板についてきただろうか?

チャプター 6: 関係をベースとしたリンク構築では、昔ながらの戦略を取り上げる。

究極のリンク構築ガイド


この記事は、Quick Sproutに掲載された「The Advanced Guide to Link Building : Chapter 05」を翻訳した内容です。[G+]

関係をベースとしたリンク構築 – 究極のリンク構築ガイド6

ソーシャルメディアの大普及と共に、インターネットはリンク以上にソーシャルな人間関係に囲まれた世界になりました。もちろんそれをリンク構築に活用しない手はない、ということでブログからツイッターまでソーシャルメディアを活用した被リンク構築のアドバイスを。 — SEO Japan

全ての業界にリーダーがいる。リーダーの視界に入り — 何かしら価値のあるものを提示すると — リンクをすんなりと獲得することが可能になる。しかし、まずは、リーダーを探し出す必要がある。

FollowerWonk

Mozが提供するFollowerWonkは、ツイッターの影響力を数値化する便利なプログラムである。たった数分間調べるだけで、当該の分野をリードするインフルエンサーを見つけることが出来る。

まずは、https://followerwonk.com/にアクセスし、Mozのアカウントを使ってサインンインする。

サインインしたら、「Search Twitter Bios」(ツイッターの経歴欄を検索する)タブをクリックする。

分野に関連するキーワードを入力する。

「Social Authority」(ソーシャルメディアでの信頼性)で並べ替えを行う。

続いて、当てはまると思う人物をスプレッドシートに加えていく。

ある程度の人数のリーダーを集めたと感じるまで、同じ作業を繰り返す。

Topsy

Topsyは、ソーシャルメディアでのシェアの数を基に、コンテンツをランク付けする検索エンジンである。このツールもまた、業界のリーダーを探す際に役に立つ。通常、何度も共有されるコンテンツを作成するのは、その分野の権威である。

http://topsy.com/を訪問し、当該の分野に関連するキーワードを入力する。

Resultsのサイドバーで、「Last 30 Days」(過去30日間)を選択する。

次に、Followerwokを使った際には導き出されなかった人物やサイトをチェックする。

当該の人物をスプレッドシートに加える。

最後に、インフルエンサーのリストを確認し、インフルエンサーがフォローしているユーザーをチェックする。

インフルエンサーのツイッターのプロフィールを見る。少数のユーザーをフォローしているかどうか確かめる。これで、業界のリーダーが誰だか分かる。


初めての接触

注目してもらうために、連絡する相手のリストがこれで完成した。続いて、サイトのオーナーにリンク、または、ゲスト投稿の機会を求める、無機質なメールを送信する人が多いが、これは誤りである。さりげなく(効果的)なアプローチがある。それは、「ファーストタッチコンタクト」と呼ばれる手法だ。ファーストタッチコンタクトでは、何も見返りを求めずに、コミュニケーションをスタートさせる。一回きりの連絡ではない点を肝に銘じておいてもらいたい。さりげなく、接触する必要はあるものの、インフルエンサーに記憶してもらえるまで、数週間に渡って、一貫してコミュニケーションを取らなければならない可能性もある。

ブログのコメント

ファーストタッチコンタクトの手法の中で、特に効果が高いのが、インフルエンサーのブログの記事に、思慮に富む、鋭いコメントを投稿する戦略である。あくまでも、インフルエンサーのサイトにコメントを残すのであり、価値のあるコメントを提供しなければならない。

理想を言えば、誰よりも早くコメントを投稿したいところだ。新たに記事が投稿されたことをすぐに知りたいなら、インフルエンサーのRSSフィードを購読するべきである。個人的に気に入っているのは、グーグルリーダー(閉鎖)だ。好きなブログを基に並べ替えを行い、関係構築を望む人達と連絡を取り合う上で役に立つためだ。

まず、http://www.google.com/readerにアクセスし、グーグルのアカウントを使ってサインインする:

「Subscribe」(購読)ボタンをクリックする。

次に、インフルエンサーのサイトの名前を入力する。


リーダーは、自動的に購読したブログの最新の投稿を表示する。

価値を加えることが出来ると思ったら、当該のブログの記事にアクセスする:

そして、ブロガーに感謝されるようなコメントを残す。

このような実用的な記事はとても役に立ちます。eメールに返信してもらうために、パトリックさんのアドバイスから学んだことがあります。それは、強力なコールトゥアクションを用意することです。(当然ですが)接触する際に抵抗が生じます。そのため、返信する理由を与えることを私は意識しています。サイト上で、質問を投げ掛ける、あるいは、改善を提案する努力をしています。

このようなコメントは、インフルエンサーの記憶に残るだろう。

ツイッターでも、インフルエンサーを魅了することが可能である。しかし、威勢よく振る舞い、注目を掴もうとする人達が多い。全てのツイートに反応するのではなく、返信するツイートを賢く選んでもらいたい。

最も「記憶に残る」ツイートは、質問、調査、または、ヘルプである。積極的にレスポンスを促していることが、感じられるためだ。つまり、この類のツイートは、返信するチャンスだと言えるだろう。

以下に質問形式のツイートの例を挙げる:

日曜夜の準備が終わった。今週、どんなプロジェクトに取り掛かるんだい?

全面的に信頼して、返信する。

トラフィックのソースを幾つか試すつもりです: スライドシェアとユーチューブ

こうすれば、インフルエンサーの記憶に残るはずだ(少なくとも1秒間は)

グーグルプラス

グーグルプラスは、業界のリーダーに接触する場所として適切である。ツイッターよりも密度が低いため、メッセージが目立つ可能性は高い。まず、接触したいユーザーを探す必要がある。

サークルに加える。

そして、コメントを投稿する。

ご覧のように、コメントを投稿していたのは私だけであった。ツイッターやフェイスブックでは、絶対に考えられない。

補足することが目的であり、スパムではなく、押しつけがましくないなら、eメールは、業界の一流のブロガー達と直接コネクションを作る上で、プラスに作用する。注記: この時点では、自分のことを知ってもらうことが目的である。そのためには、まずはメールを受信してもらう必要がある。

以下に、気づいてもらうための、eメールのテンプレートを幾つか紹介する:

  • ラブレター調のeメール

    このタイプのメールでは、ブログを高く評価している点をブロガーに伝える。

    …comが好きで好きでたまらないことを伝えたかったため、eメールを送らせてもらいました。今後も素晴らしい作品を期待しています。

  • 褒めちぎるeメール

    このeメールは、気に入った特定の(出来れば最近の)コンテンツを強調する。

    たった今「ストーカー扱いされずにeメールを送信する方法」にコメントを投稿しました。このような優れた作品をシェアしてくれたことに、個人的に感謝したかったので、メールを送らせてもらいました。この記事で提供されている情報は、ブロガーに接触するキャンペーンにおいて、大いに役に立ちそうです。有難うございました。

  • 質問eメール

    このeメールは、気になった点について、まともな質問をするため、接触することを前提としている。

    質問があります。「ストーカー扱いされずにeメールを送信する方法」の中で、何かしら個人的なメッセージを加えるべきだと指摘していましたが、どの程度個人的なメッセージが望ましいのでしょうか?インタビューの中で、好きなビールの銘柄が言及されていたら、メールの中で取り上げるべきなのでしょうか?あるいは、ブログで投稿されている事柄のみに絞った方が良いのでしょうか?

価値を用いて引き続き接触する

知ってもらうために、十分に時間と労力を割いたと感じたなら、リンクを獲得する作業に移る。ただし、いきなりリンクを要求しても、うまくいくはずがない — リンクを張りたくなるような理由を与える必要がある(説得の基本: 相手のメリットを考える)

ゲスト投稿

質の高いゲスト投稿は、リンクを獲得する手法の中で、王道とされている。事実、ゲスト投稿は、夢の取り合わせである — ターゲットのブロガーは、質の高いコンテンツを求め、一方、接触する側はリンクを求めている。また、既に知り合いになっているため、ゲスト投稿の提案は、取引や要求と受け取られることはなくなる。

却下されないように、ターゲットのサイトが、ゲスト投稿を受け入れる傾向があるかどうか確かめるべきである。

まず、ゲスト投稿のガイドラインや寄稿のセクションを探す:

このセクションが見当たらなかったら、次の検索の文字列を使って、過去にゲスト投稿を受け入れたことがあるかどうか確認する:

  • site:targetblog.com “ゲスト投稿”
  • site:targetblog.com “による投稿”
  • site:targetblog.com “ゲストの作者”

下の例にあるように、一部のブログは、ゲスト投稿用のカテゴリーを用意している:

後は、コンテンツを作成し、送るだけだ。

人気の高いコンテンツを改善する

大半の一流のブロガーは、「まあまあ」で満足することがないため、その地位を確立している。コンテンツの価値を出来るだけ高める努力を常に心掛けている。どうにかして、そのコンテンツをさらにレベルアップさせることが出来れば、見返りにリンクを張ってもらえる可能性がある。

実際に、あるブロガーは、パット・フリン氏の被リンク戦略を記録するスプレッドシートを作成した結果、リンクを張ってもらえた:

MyHourWorkWeek.comのエリックさんが、この被リンク構築戦略用のリンク構築およびサイトを記録するためのエクセルファイルを作ってくれました。詳細は、ここをクリック。

同じような取り組みを考えてもらいたい。

まず、当該のブログにアクセスし、サイドバーに「特に人気の高い記事」セクションが用意されているか確認する。

次のアイテムを使って、価値を加えることが出来る方法を考えてみよう:

  • 対話型ツール(このツールの魅力に打ち勝つことは不可能)
  • 総合的な指針
  • 動画
  • ダウンロード用のチェックリスト
  • カスタムデザイン(インフォグラフィック)

過去の記事を更新する

大半の有名なブロガーは、多忙を極めている。そのため、過去の記事 – たとえ人気が高い記事であっても – を更新する作業は、忘れられてしまうことが多い。と言うことで、素早く既存のコンテンツを更新する方法を見つけることが出来れば、見返りにリンクをもらえる可能性がある。

この取り組みには、近道はない — 過去の記事に目を通し、価値を加えることが出来る記事があるか確認していく必要がある。

まず、著作権の日付をチェックし、ブログが開設された時期を確かめる:

次にグーグルに向かい、「site:」検索オペレータを利用する。

過去のページだけが表示されるように、結果を並び替える。


次にサイトが開設された年の12月から、一年後に範囲を決める。

続いて、結果をざっと見て、更新を必要としている記事があるかチェックする。多数のリンクが掲載されている、もしくは、変化の激しいトピック(SEO、ピンタレスト等)を取り上げている記事を探す。

条件を満たす記事が見つかった: 外部サイトへのリンクが多く、ツイッターをトピックに挙げている(ツイッターは変化の激しいプラットフォームである)

まず、Screaming FrogのSEO Spiderを使って(http://www.screamingfrog.co.uk/seo-spider/でダウンロードすることが出来る)、リンク切れを探す。

URLをScreaming Frogにコピーする。

「External」(外部)タブをクリックする。

「Status Code」(ステータスコード)で並べ替えを行う。

リンク切れを起こしているリンクが多いようだ。

「Connection Timeouts」(接続タイムアウト)を盛り込む(通常、リンク先のサイトが存在しないことを意味する)

404も対象になる(ページが行方不明)

見たところ、リンク切れリンク構築に似ているものの、実際には、完全に異なる戦略である。リンク切れを当該のブロガーに教えて、自分のサイトにリンクを張ることを薦めるのではなくリンク切れを起こした全てのリンクに対して、代わりの記事を探す:

この取り組みを行うために必要な時間と労力を節約することが出来るため、、当該のブロガーから大いに感謝してもらえるのではないだろうか。ただし、リンクを求めるべきではない。リンクを張ってくれれば、それに越したことはないが、張ってくれなくても、下を向く必要はない。少なくとも、ブロガーに気に入ってもらえたはずであり、再び何か価値を提供した時、リンクをもらえる可能性がある。

BuzzStreamを使って効率化を進める

BuzzStreamは、インターネット上の関係を探し出し、記録する作業を簡素化してくれる、便利な(有料)サービスである。

まず、https://app.buzzstream.com/create_accountにアクセスして、無料のトライアルにサインアップする(クレジットカードが必要):

Buzzmarkerのツールバーをブラウザに加える:


サイトのURLを加える:

このツールは様々な取り組みに利用することが可能だが、その中でも特に効果が高いものを幾つか紹介していく。

連絡先の情報を簡単に探し出す & 集める

リンクを手に入れたいサイトを見つけたら、今度は、そのサイトのオーナーに接触する必要がある。そこで、Buzzmarkerを使って、連絡先の情報を探し、集めていく。

ページにアクセスする:

そして、ブックマークツールバーからBuzzmarkerのボタンをクリックする。

このツールは、自動的に連絡用のeメールアドレスやサイトの問い合わせ用フォームを探し出してくれる:

また、明確な連絡先の情報を提供していないサイトからwhois情報を取得することも出来る:

この連絡先の情報をフォームに加えていく:

関係構築の段階を管理する

多数のブログに接触している場合、誰に連絡を取ったのか記憶するのは(不可能ではないとしても)容易ではない。BuzzStreamを使えば、それぞれの関係から達成したい目標、そして、その経過を楽に記録することが出来る。

リンクを獲得したいサイトを訪問して、再びBuzzmarkerボタンを押す。

今回は、サイトおよび目標について、詳細を入力していく。

関係の段階を選択する。

続いてタスクを加える。

次にページの一番下までスクロールし、「Save」(保存する)をクリックする。

BuzzStreamのダッシュボードにログインすると、「website」リストに当該のサイトが加えられているはずだ:

変化があったら、エントリをクリックして、関係の段階を変更する。

プロスペクティング

プロスペクティングは、手当たり次第に調べるアプローチであり、他の方法では見過ごしてしまう優れたサイトを幾つか見つけることが出来る。このツールは、入力したキーワードに対するグーグルの結果を取得し、自動的に連絡先の情報とソーシャルメディアのアカウントを見つける。

BuzzStreamのアカウントの上部で、「Websites」ボタンをクリックする:

次に「Prospecting」ボタンをクリックする:

分野にマッチするキーワードを入力する。通常、競争の激しいキーワードで1ページ目にランクインしているサイトは、リンクを得る場所として、特に効果が高い(そして、難しい)と言えるだろう。

「Save」(保存する)をクリックする。

BuzzStreamは、検索を行い、結果を取得する。結果を見つけるには、「Prospecting」ボタンを押して、先程作成したプロフィールを選択する。

リンク候補にふさわしいサイトを見つけたら、「Like」ボタンをクリックする。

すると、「Prospect」(候補)リストに加えられる。

このような一般的な検索クエリは、プロスペクティングにおいて有効だが、通常は、(リンクを与えることに抵抗がある可能性がある)競合者のサイトが表示される。

ツール内で、高度な検索の文字列を使って、よりターゲットを絞ったページやサイトを探すことが出来る。例を挙げていく:

  • allintitle:参照 + キーワード
  • 寄稿 + “キーワード”
  • キーワード + “寄稿者”
  • キーワード + “参照情報 提案”

これで少しは人気者になれたのではないだろうか?

人気者グループの一員になったので、次に、大々的に実施することが可能な強力なリンク構築の手法: リンク切れリンク構築に取り掛かる。既に知っていても、リンク構築をさらにレベルアップさせることが可能なとっておきのテクニックを幾つか伝授するので、是非、参考にしてもらいたい。

究極のリンク構築ガイド


この記事は、Quick Sproutに掲載された「The Advanced Guide to Link Building : Chapter 06」を翻訳した内容です。[G+]

リンク切れリンク構築 – 究極のリンク構築ガイド7

一瞬、矛盾したタイトルに読めますが、SEOマニアの人なら知っているであろう、リンク切れしているページの管理人にリンク切れを伝えることによって、結果的に被リンクを得ようという古典的な手法。労力がかかることから、特に日本で真面目に取り組んでいる人は皆無の手法と思いますが、有料リンクが絶命品種に近くなった今の時代だからこそ、改めて初心に戻ってリンク切れを活用したリンク構築について考えてみませんか。リンク切れページの自動発見法から、相手に応じたメールの文例パターンまで用意されており、徹底的にやるってこういうことなんだな、と感銘を受けます。 — SEO Japan

関係構築と同じく、リンク切れリンク構築も、以前から存在する手法だが、被リンクウェブスパムが流行している間は、見過ごされることが多かった。現在、ホワイトハットなリンク構築戦略が増え続けており、リンク切れリンク構築に再び注目が集まっている。このチャプターでは、隠れたリンク切れリンク構築の機会を探し出し、eメールによる接触により、より多くの被リンクを獲得することが出来るように、幾つか近道を紹介していく。

リンク切れを起こしたリンクを持つページを探す

リンク切れしたリンクを持ち、関連性が高く、尚且つ、信頼されているページを特定する方法は幾つかある。しかし、その前に、リンク切れを速やかに発見する際に有効なツールをダウンロードする必要がある。

Domain Hunter Plus

まず、グーグルクロームのDomain Hunter Plusをダウンロードする。Domain Hunter Plusは、ページ上のリンク切れを素早くチェックしてくれる。

http://domainhunterplus.com/にアクセスする。「DOWNLOAD」ボタンをクリックし、指示に従い、エクステンションをインストールする。



緑の十字ボタンをクリックすると、自動的にリンク切れのチェックが行われる(また、リンク先のサイトが、登録の対象になっているかどうかもチェックしてもらえる)

Buzzmarker

このツールもまた時間を節約する効果がある(このツールの詳細は、チャプター 6「関係をベースとしたリンク構築」で確認してもらいたい)。Buzzmarkerは、連絡先の情報をあっと言う間に見つけてくれる。

検索の文字列

リンク切れリンク構築のターゲットを探す上で有効な文字列は、無数にある。通常は、多数の外部リンクを持つ、関連するページを探すことになる。

そこで、まずは次の文字列を試してもらいたい:

  • キーワード + “参照情報”
  • キーワード + intitle:参照情報
  • site:.gov キーワード + “リンク”
  • site:.edu キーワード + “推奨するサイト”
  • キーワード + “関連 リンク”

多数のリンクを掲載していると思えるページを探す。

Domain Hunter Plusを有効にする。

すると、全てのリンク切れしたリンクのリストが生成される。このデータをエクセルにエクスポートする。

これで、サイトのウェブマスターに送信するためのリストが手に入ったことになる。

最後に、Buzzmarkarを使って、サイトの連絡先情報を探す。

日付ベースの検索

日付ベースの検索を使って、リンク切れしたリンクを持つページを探す方法は、あまり知られていない。通常、ページが古ければ古いほど、より多くのリンク切れが起きている傾向がある。

グーグルで、検索の文字列を使って、検索を行う。結果が表示されたら、「検索ツール」ボタンをクリックする:


範囲を選択し、2、3年前から1年前の結果のみを表示させる。

まとめてリンク切れをチェック

このプロセスの仕組みを理解したら、ステップアップし、一度に大量のページを取得し、リンク切れを探す取り組みを行う。

この取り組みを行うには、次の2つのツールが必要である。

大量のページを一度にチェックする方法を紹介する。まず、http://home.snafu.de/tilman/xenulink.htmlにアクセスし、このソフトウェアをダウンロードする:

Simple Google Results

これは、グーグルの結果を、エクセルやテキスト文書形式で容易に表示させることが可能なブックマークレットである。

http://www.onlinesales.co.uk/google-results-bookmarklet/にアクセスし、緑色のボタンをファイヤーフォックスのブックマークツールバーにドラッグする。

  1. グーグルの検索結果を拡大する

    少なくとも50点の結果を一度に分析してもらいたい。そのためには、検索の文字列をグーグルに入力し、右側の歯車のボタンをクリックする必要がある。

    「グーグルインスタント検索の結果は表示しない」を選択する。

    ページあたりの表示件数を100に設定する。

    「保存」をクリックする。

  2. Simple Google Results

    これで、50-100件の結果が1つのページに表示されるようになった。続いて、結果を取得していく。

    Simple Google Resultsブックマークレットをクリックする。

    するとプログラムが、取得した結果用のタブを開く。

    ページの一番下までスクロールし、「Plain Lising」(プレーンなリスティング)の結果をコピーする。

  3. リストを整理する

    ViranteのDuplicate Keyword Deleter(http://www.virante.org/seo-tools/delete-duplicates)に貼り付ける。このツールは、重複するURLを全て削除する。

    「Submit Your Keywords」(キーワードを投稿する)をクリックする。

    このクリーンなリストをコピーし、今度は、メモ帳ファイルに貼り付ける。

    .txtファイルとして保存する。

  4. リストを分析する

    Xenu Link Sleuthを開く。まず、「Options」(オプション) 「Preferences」(好み)の順にアクセスする。「Maximum depth」(最大の深さ)を「1」に設定する。すると、Xenuは、アップロードしたページのリンクのみをチェックする。


    「Report」(レポート)のセクションで、「Broken links, ordered by page」(リンク切れ ページごと)以外のチェックを全て外す。

    「OK」をクリックする。

    ここで、Xenu Link Sleuthを開く。File Check URL Listの順にアクセスする。

    先程保存した.textファイルを開く。

    プログラムが、全てのリンクをチェックし終えるまで待つ。チェックが終わると、レポートを提供する必要があるかどうか問われるので、「Yes」をクリックする。

    ブラウザの新しいタブが開き、HTML形式でレポートが表示される。

    「Broken links, ordered by page」(リンク切れ ページごと)セクションまでスクロールする。

    このセクションに、リンク切れを起こしたリンクが、ページごとに掲載されている。このデータを保存するため、この情報をコピーする。

    エクセルに貼り付ける。

    これで、リンク切れを起こしたリンクを持つページが、最大で100ページ掲載されたリストが完成した。

Broken Link Index

このツールは、自動的にリンク切れを持つページをコピーする。嬉しいことに、無料でデータベースを検索することが出来る。

まず、http://brokenlinkindex.com/にアクセスする。自分のサイトの分野に関連するキーワードを入力する(若干広範なキーワードを選ぶことを薦める)


httpStatusCodeで並べ替える。

403と404のステータスコードを持つページを見つけたいところだ。

次にOpen Site Explorerでページのスタッツを確認するため、「OSE Link」をクリックする。

ドロップダウンメニューから「Only external」(外部リンクのみ)を選ぶ。

続いて「Filter」(絞り込む)をクリックする。

すると、このリンク切れを起こしているページにリンクを張っているページが表示される。後は、各サイトのオーナーに接触し、リンク切れについて知らせる。

ドメイン全体を分析する

誰にでも、リンクを得ることを夢見ているオーソリティサイトがあるはずだ。リンク切れが、その夢を叶えてくれるかもしれない。特定のドメインでリンク切れを探すツールに関しては、Free Broken Link Checker(http://www.brokenlinkcheck.com/の右に出るものはいない。

Free Broken Link Checkerにアクセスし、リンクを獲得したいサイトのホームボタンのURLを入力する。続いて、「Find Broken Links」(リンク切れを探す)をクリックする(大きなサイトの場合、スキャンに時間がかかることもある)

すると、リンク切れを起こしたリンクのリストが、リンクが掲載されているページのURLとエラーのタイプと共に表示される。

これからサイトのオーナーに接触し、(ついに)リンクを獲得する取り組みに移るため、このデータをどこかに保存しておく。

接触する

アウトリーチ(接触)は、リンク切れリンク構築において、最も重要な取り組みである。テンプレートをそのまま利用したようなありきたりのeメールでは、見返りを得ることは出来ない。あらゆるリンク構築アウトリーチキャンペーンにおいて、パーソナライズのスケールが重要な鍵を握る。そこで、ニッチ、そして、アプローチに応じて、1つ、または、複数のeメールのテンプレートを採用したいところだ(Yeswareを使って、記録することが可能)。しかし、テンプレート内に出来るだけ個人に特化した情報を盛り込む必要がある。

整理する

連絡の経過の記録を取っておくべきである。こうすることで、無視した人物にフレンドリーな「確認」メールを続けて送ることが出来るようになる。記録するためには、BuzzStreamやエクセル等のプログラムが便利である。ターゲットの大半とは「関係を構築」することが目的ではないため、ここではエクセルのみを利用する。

まず、スプレッドシートを作成し、分析したサイトの名前、URL、連絡先の情報(または問い合わせページ)、そして、リンク切れを起こしたリンクを記入する:

返信定型文

効果が証明されている、検査済みのテンプレートを幾つか紹介していく。eメールを送信する度に毎回テンプレートをコピー/貼り付けするのではなく、Gメールの返信定型文を使って、このプロセスをスピードアップさせるべきである。

まず、Gメールを開く。歯車のボタンをクリックし、「設定」を選択する。

「Labs」をクリックする。

「返信定型文」が現れるまでスクロールする。

「有効にする」を選択する:

一番下までスクロールし、「変更を保存」をクリックする。

新たにメールを作成し、「返信定型文」タブをクリックする。

「返信定型文を作成」を選ぶ。

定型文に名前をつける(下のテンプレートの名前をコピーしてもよい):

eメールの本文に利用したテンプレートを入力する。

再び「返信定型文」タブをクリックする。今回は、「保存」のカテゴリで名前を与えた定型文を選択する:

今後、新たにメールを作成する際は、返信定型文を選べばよい。

すると、返信のテンプレートがすぐに表示されるようになる。

Yeswareを利用する

開封率が高いeメールの件名を記録したいなら、Yeswareが便利である。

まず、http://www.yesware.com/にアクセスし、大きな「Add Yesware to Gmail」ボタンをクリックする。

次にブラウザへのソフトウェアのインストールを許可する。

プロンプトに従い、Gメールのアカウントにログインする。

次にGメールへのアクセスを許可する。

eメールを新たに作成する。クリックのトラッキングを有効にする。

異なる件名を試すことで、開封率の違いを計測し、今後のアウトリーチキャンペーンに応用することが出来る。

この台本では、リンク切れをたまたま発見したランダムなウェブサーファーの役を演じ….好きなサイトの一つを代わりのリンク先として「提案」する。

件名: Re: (サイトの名前)の問題

はじめまして、(サイトのオーナーの名前)様/さん

本日、(サイトの名前)をチェックしていたのですが、幾つかリンクが無効になっていることに気づきました。

このページ: (リンク切れを起こしたリンクを持つページ)

リンクを張ったこの2つのページは、もう存在しないようです:

(リンク切れ #1)

(リンク切れ #2)

代わりの参照情報が必要なら、私が先週見つけ、良いと思った次のページを薦めます:

(自分のページ)

この情報が役に立つことを願っています。また、今後も素晴らしい作品を期待しています。

(本名以外の名前)

当該のサイトが好きでたまらない(別のサイトを運営する)人物を演じる。アイドル的存在のサイトを支援し、リンクを自分のサイトに向けてもらうことが目標だ。

件名: (サイトの名前)に関して質問があります

初めまして、(相手の名前)様/さん

いつも(相手のサイトの名前)をとても楽しく読ませてもらっています。

昨日の午後、(相手のサイト)を代表する記事を熟読させて頂きました。

その時、特に「当該のページのリンク」を気に入りました。

しかし、この記事で掲載されていたリンクが、動作していませんでした。サイトがアドレスを変えてしまったようです。

大騒ぎするようなことではありませんが、どうしてもお伝えしたかったのです。

実は、同じトピックを取り上げた記事を最近投稿しました(記事のリンク)。

(相手のサイト)の大ファンとして、リンク切れを起こしたリンクを私のコンテンツへのリンクに交換して頂ければ、これ以上の名誉はありません。

それが不可能でも問題ありません。もちろん、今後も(割いてのサイト)を読ませて頂きます。

ご検討宜しくお願いします。

(自分の名前)

この台本は、2つのパーツで構成される。まず、eメールを送り、具体的な情報を示さずに、リンク切れがある点のみを伝える。その後、再びメールを送り、リンク切れの詳細…そして、自分のサイトへ向かう、代わりのリンクを紹介する。

件名: (相手のサイト)にリンク切れがあります

初めまして

(相手のサイト)に幾つかリンク切れがあるようです。

こちらのeメールアドレスが、適切な連絡先なのかどうか分かりませんでしたが、とりあえずメールを送らせてもらいました。

以上

(名前)

件名: (相手のサイト)にリンク切れがあります

度々失礼します。

それでは、以下に私が見つけた動作しないリンクを挙げていきます:

(リンク切れを起こしたリンク #1)

(リンク切れを起こしたリンク #2)

代わりに私のサイトのこのページにリンクを張ってもらると嬉しいです: ページのURL

この記事は評価が高く、リンク切れを起こしたページの代わりとして、うってつけだと思います。

ご検討宜しくお願いします

(自分の名前)

このテンプレートは、1997年のジオシティのサイトのようなサイトに向いている。返信率が非常に低いため、実際に当該のサイトを運営している人物がいるかどうかを確認することを目的としたメールである。返信があったら、時間をかけて接触する。

件名: (相手のサイト)の運営は続いていますか?

はじめまして

本日、たまたま(相手のサイト)を訪問し、とても有益な情報(そして、幾つかのリンク切れ)を見つけることが出来ました。

このサイトの更新がまだ行われているのかどうか知りたかったため、メールを送らせて頂きました。

ご返信して頂ければ幸いです。

(名前)

新しい(改善した)コンテンツを作成する

基本的に、出来るだけ質の高いコンテンツを代わりにウェブマスターに提供するべきである。リンク切れのリンク先のコンテンツに対して、関連性が高ければ高いほど良い。しかし、どうしてもリンクを獲得したいページがある場合、行方不明のリンク先のコンテンツの新しく、改善したバージョンを作成することも可能である。こうすることで、より楽にリンクを手に入れることが出来るようになるだろう。

Wayback Machine

まず、リンク切れを探す。

http://archive.org/web/web.php(Wayback Machine)にアクセスする。リンク切れのリンク先のページのURLをWayback Machineに入力し、「Take Me Back」(過去に遡る)をクリックする。

最近のキャプチャをクリックする。

すると、当該のページのコンテンツが表示される。

次に、同じ考え方を採用して(そして、改善を加えて)新たにコンテンツを作成する。今までリンクを張っていた(そして、もう存在しない)コンテンツよりも、さらに質の高いコンテンツを持っていることをサイトのオーナーに伝えれば、ほぼ間違いなくリンクを張ってもらえる

リンク切れリンク構築は、これでマスターしたはずだ。

続いて、リンク構築ツールの中で、特にパワフルなツール: ScrapeBoxを利用した戦略を伝授する。準備が出来ているなら、早速、チャプター 8: ScrapeBoxを使った上級者向けリンク構築に進もう。

究極のリンク構築ガイド


この記事は、Quick Sproutに掲載された「The Advanced Guide to Link Building : Chapter 07」を翻訳した内容です。[G+]

ScrapeBoxを使った上級者向けリンク構築 – 究極のリンク構築ガイド8

ブログの自動コメント投稿ツールとしてブラックハットなSEOマニアに有名なScrapeBox。日本でも密かに使っている人がいるとかいないとかいわれるツールですが、使いカタによってはホワイトハットなリンク獲得ツールとして使えるとのことで、あえてそれだけに一章を割いた内容を。日本語検証を十分にしていないので恐縮ですが、日本でも同種のブログツールはありますし、使い方から日本に適した手法を考えてみてはいかがでしょう。 — SEO Japan

ホワイトハットを信条とするSEOのグループに対して、「ScrapeBox」と囁くと、冷たい視線に晒される。ワードプレスのスパム対策プログラム — アキスメットのスパムフォルダーに寄せられる迷惑なスパムコメントの多くは、ScrapeBoxから発せられているためだ。しかし、あらゆるツールに共通することだが、ScrapeBoxも使い方次第である。事実、多くのホワイトハットなSEOエージェンシーが、このソフトウェアをシークレットウェポンの一つと見なしている。そこで、このチャプターでは、ScrapeBoxを…悪用するのではなく、適切な意図に基づいて利用する方法を紹介していく。

ScrapeBoxの基本

ScarpeBoxを利用したことがない方々に簡単にこのツールについて説明する。ScrapeBoxは、基本的に2つの機能を持っている — 検索エンジンの結果を取得する機能、そして、自動的にブログのコメントを投稿する機能である。ブログのコメント機能については、ここでは触れない。なぜなら、スパム丸出しの戦略であり、うまくいかないからだ。一方、結果を取得する機能は注目に値する。ScrapeBoxは、非常に強力なツールであり、多数の短調なホワイトハットなリンク構築のプロセスを容易に簡素化することが出来る。

その方法を伝授する前に、まずはこのツールの仕組みを簡単に説明していく。

ScrapeBoxのインターフェースには、4つのボックスが用意されている。以下の図で確認してもらいたい:

検索エンジンの結果を取得(左上) 取得した結果(右上) 検索エンジンとプロキシの設定(左下) コメントの自動投稿(右下)

右下のボックスは、自動的にコメントを投稿するための機能であり、ここでは割愛させてもらう。

もう一つ注目してもらいたい領域がある。それは、Manage Lists(管理リスト)だ。

このリストでは、ScrapeBoxが発見した結果を簡単に並べ替え、絞り込むことが出来る。

結果を取得する方法

まずは「Harvester」(収穫)セクションの設定から行う。

ここでは2つの重要な選択を行う:

「Footprint」(足跡)

そして、「Keywords」(キーワード)だ。

Footprintは、特定のサイトで現れる傾向のあるテキストを盛り込む際に利用する。例えば、「Powered by WordPress」は、ワードプレスのブログを探す上で一般的に用いられている。

栄養に関するページを持つ.govのウェブサイトを探していると仮定する。その場合、Footprintの欄にsite:govと入力する。

続いて、Footprintと組み合わせたいキーワードを盛り込む。例えば、キーワード「weight loss」(減量)を入力すると、ScrapeBoxは、自動的にsite:.gov weight lossで検索を行う。

多数のキーワードを追加して、ScrapeBoxに自動的にFootprintと組み合わせてもらうことが可能だ。収穫する準備が整ったら、Search Engine & Proxies(検索エンジン & プロキシ)の設定に移る。

利用したい検索エンジン、および、探し出したい結果の数を選択する。私は通常グーグルに限定し、500-1000件の結果を収穫するようにしている(250件目以降は、関係がない、もしくは、オーソリティをほとんど持たないサイトの結果ばかり)

検索の文字列の設定を幾つか行ったら、「Start Harvesting」(収穫を始める)ボタンをクリックする:

これで、「URL’s Harvested」(収穫したURL)のセクションにURLのリストが表示される:

PRをチェックする

収穫リストを最大限に活用するため、見つけたページのPR(ページランク)をチェックしていく。「Manage Lists」(管理リスト)から、「Check PageRank」(ページランクをチェックする)を選択する:

「Get URL PageRank」(URLのページランクを取得する)を選ぶ。

これで、ページランクごとに容易にページを並べ替えることが出来る。

基準に満たないページを全て削除していく。例えば、PR 3未満のページは不要だと考えているなら、PR 2のページが現れるまでスクロールしていく。

クリック & スクロールして、該当する結果をハイライトさせる(shiftを押したままにして、方向ボタンを使って、選択することも出来る):

右クリックして、「Remove selected URL from list」(選択したURLをリストから削除する)を選ぶ。

結果を絞り込む

複数の検索エンジンで結果を取得した場合、重複が幾つか発生する可能性がある。「Remove/Filter」(削除/絞り込み)ボタンをクリックすれば、簡単に重複したページを削除することが出来る。

「Remove Duplicate URLs」(重複するURLを削除する)を選択する。

同じドメインを結果に表示したくないなら、「Remove/Filter」のオプションで「Remove Duplicate Domains」(重複するドメインを削除する)を選び、重複するドメインを削除することも可能だ:

これで、PR順の重複のないリストが出来上がった。「Export URL List」(URLのリストをエクスポートする)ボタンから、このデータをエクセル、または、テキストファイルにエクスポートすることが出来る。好きなエクスポートのオプションを選ぶ(私自身はエクセルを採用している)

プロキシを利用する

ScrapBoxを定期的に利用するつもりなら、プロキシが絶対に必要になる。個人のIPから定期的に結果を取得していると、グーグルに利用を禁止されてしまう可能性が高い。つまり、グーグルでこれ以上検索を行うことが出来なくなる。幸いにも、容易に無料で現役のプロキシを見つけることが出来る。

しかも、技術的なスキルがなくても、設定することが可能である。

「ScrapeBox」のビルトインサービスを利用する

ScrapeBoxは、無料のプロキシをユーザーの代わりに見つけ、追加する、優れた機能を搭載している。

「Select Engines and Proxies」(検索エンジンおよびプロキシの選択)ボックスにアクセスして、「Manage」(管理)をクリックする:

次に表示されるウィンドウで、全ての「Suported source」(サポートされているソース)を選択し、「Start」ボタンをクリックする。

続いて「Apply」(適用)をクリックする。

利用する前にプロキシをテストしてもらいたい。機能していないプロキシを利用すると、ScrapeBoxは稼働しない。そのため、「Test Proxies」(プロキシをテストする)ボタンをクリックする。

「Test all proxies」(全てのプロキシをテストする)を選択する。

ScrapeBoxがプロキシのテストを終えるまで待つ(割と時間がかかる)。終わると、次のような表が表示される:

「Filter」(絞り込む)ボタンをクリックして、「Keep google Proxies」(グーグルのプロキシを維持する)を選択する。

続いて「Save」(保存)ボタンをクリックして、「Save selected proxies to ScrapeBox」(選択したプロキシをScrapeBoxで保存する)を選ぶ。

すると、利用可能なグーグルが承認したプロキシを確保することが出来る。

仕組みはこれで理解してもらえたはずなので、ScrapeBoxを使って、良質な被リンクを獲得する方法を伝授していく。

参照情報ページのリンク構築

参照情報ページのリンク構築は、ホワイトハットなリンク構築戦略としては、利用されることが少ない部類に入る。別のサイトにリンクを張るためだけに存在するページは他にあるだろうか?しかし、参照情報ページを探し、連作先の情報を獲得し、ウェブマスターに接触するには、時間がかかるため、この戦略を避ける人は多い。幸いにも、ScrapeBoxを使えば、参照情報ページのリンク構築のプロセスを大幅に簡素化することが可能である。

まずは、テスト済みのFootprintを1点ScrapeBoxに入力する:

  • intitle:resources
  • inurl:resources
  • inurl:links

当該の分野に関連するキーワードを入力する。

次に「Start Harvesting」(収穫を始める)ボタンをクリックする。

ページをPRで並べ替えて、価値の高いターゲットに狙いを絞る。

次にリストをエクスポートし、リンク切れをチェックする、あるいは、サイトのオーナーにeメールを送り、リンクを要請する。

競合者の被リンク分析

競合者の解析調査に勝るものはない。これは、リンクに値する、価値の高い、分野に関連するサイトを手っ取り早く発見することが可能な数少ない手法の一つに挙げられる。Open Site Explorer、Majestic、そして、Ahrefsは確かに素晴らしいツールだが、大量のリンクを持つサイトには向いていない。そこで、役に立つのがScrapeBoxである。

ScrapeBoxを開き、「Addon」(アドオン) 「Show available addons」(利用可能なアドオンを表示する)の順にクリックする。

ScrapeBox Backlink Checker 2を選択する:

「Install Addon」(アドオンをインストール)ボタンをクリックする。

アドオンを有効にするには、Harvesterの結果のセクションに競合者のホームページを入力する必要がある。サイトの名前を入力するだけでよい:

結果の件数を10に設定する。

結果を取得する。

被リンクの情報を取得したくないページを削除する。

「Addon」のメニューに戻り、ScrapeBox Backlink Checkerのアドオンを選択する。

「Load URL List」(URLリストを読み込む)をクリックして、「Load from ScrapeBox Harvester」(ScarpeBoxのHarvesterから読み込む)を選択する。

「Start」ボタンをクリックする。

終わったら、「Download Backlinks」(被リンクをダウンロードする)を選択する。

.txtファイル形式で保存する。

Backlink Checkerを閉じて、ScrapeBoxのメインメニューに戻る。「Manage Lists」の下から、「Import URL List」(URLリストをインポートする)を選ぶ。

続いて、保存したテキストファイルをアップロードする。

リスト内のリンクのPRをチェックする。

PRで並べ替えを行い、ページのURLまたはホームページのURLの基準を満たすページに限定する:

ゲスト投稿の機会を探す

ゲストとして記事を投稿する価値のある、関連性が高く、オーソリティレベルの高いサイトを探し出す作業は、リンク構築のプロセスの中で、最も短調な作業だと言われている。ScrapeBoxを使えば、ものの数分間で、多くのゲスト投稿のターゲットを探し出し — さらに低いPRのサイトを取り除くことが可能である。

まずは、ゲストによる投稿を受け入れる傾向のあるサイトを次のようなFootprintで探していく:

  • allintitle:ゲスト投稿 ルール
  • intitle:寄稿
  • 「ゲスト ブロガー」

ターゲットのキーワードとFootprintを組み合わせる。

結果を取得する。ただし、今回は、重複するドメインを削除する必要がある。ゲスト投稿を受け入れているかどうかを判断するには、投稿されたゲストの記事、または、ゲストブロガーのルールのリストは、1点あれば足りるためだ。

Click 「Remove/Filter」(削除/絞り込み)をクリックし、「Remove Duplicate Domains」(重複するドメインを削除する)を選択する。

PRをチェックする。ゲスト投稿のルールのページに関しては、PRは重要ではないため、「Get Domain PageRank」(ドメインのページランクを取得する)を選ぶ。すると、サイトのホームページのURLが表示される。

次に、PRで並べ替えを行い、早速、リンク構築に取り掛かる。

Outbound Link Checkerを利用する

ページランクは、限りがある。また、他の多数のサイトに囲まれてしまうなら、PRの高いページからリンクを獲得する作業に身を粉にして取り組んでも、時間の無駄になるだけだ。幸いにも、ScrapeBoxを使って、あらゆるページの外部リンクを一瞬にして見つけることが出来る。

「Addons」 「Show available addons」(利用可能なアドオンを表示)をクリックしていく。「ScrapeBox Outbound Link Checker」を選ぶ。

「Install Addon」(アドオンをインストール)ボタンをクリックする。

HarvesterからScrapeBoxに読み込んだドメインのリストを持っているなら、このリストを利用することも出来る。アドオンのメニューからプログラムを開き、「Load from ScrapeBox」をクリックする。

好みに応じて、テキストファイルからURLのリストをアップロードすることも可能である。ターゲットのページをテキストファイルにコピー & 貼り付けし、続いて、アドオンから「Load List」(読み込みリスト)をクリックし、「Load from File」(ファイルから読み込む)を選択する。

アドオンにURLが表示されたら、「Start」をクリックする。

すると、アドオンは、内部リンクと外部リンクの本数を表示する。

各リンクから得られるリンクジュースを出来るだけ多く獲得したいなら、リンクの本数が50-100、または、それ以下のページをターゲットにするべきである。そのため、「Filter」(絞り込む)ボタンをクリックする。

次に基準を選ぶ:

すると、アドオンは、自動的に100本以上の外部リンクを持つURLを削除していく。

マルウェアに感染したサイトを探し、助ける

作業量は多いものの、効果に関しては申し分のないホワイトハットなリンク構築の戦略がある — それは、マルウェアに感染したサイトのウェブマスターを助ける作戦だ。数ヶ月もの間、ハッカー達の餌食になったまま、放置されているサイトがある。そこで、白馬の騎士のように登場し、窮地を救うことが出来れば、喜んでリンクを与えてくれる可能性がある。ScrapeBoxを使えば、マルウェアに感染した、分野に関連するサイトを多数探し出すことが可能である。

マルウェアに感染したサイトを見つけるためのFootprintは存在しない。しかし、コンテンツ管理システムのPliggには、感染しているサイトがとても多い。次の2つのFootprintを使えば、Pliggのサイトを特定することが可能だ:

  • inurl:story.php?title=
  • “Five character minimum”

URLが読み込まれたら、「Malware and Phishing Filter」(マルウェアおよびフィッシング詐欺フィルター)アドオンをインストールする。

アドオンを稼働させ、「Load URLs from Harvester」(HarvesterからURLを読み込む)を選ぶ。

「Start」をクリックする。

このツールは、リスト内に感染しているページがあるかどうかチェックする。

感染しているページを見つけたら、決してアクセスしないこと!自分のPCまでマルウェアに感染させられてしまう可能性がある(とてもその確率は高い)

アクセスする代わりに、「Save Bad URL’s to File」(危険なURLをファイルに保存する)を選択する。

そして、リストを保存する。

マルウェアに感染したサイトのウェブマスターの連絡先情報を取得するため、ScrapeBoxの別のアドオン — ScrapeBox Whois Scraperを利用する。このツールは、実際にサイトを訪問することなく、感染したサイトのWhois情報を探し出すことが出来る。

ScrapeBox Whois Scraperをインストールしたら、アドオンを開き、感染したサイトのファイルを読み込む。

「Start」をクリックする。

すると、名前やeメールアドレス等のリストが生成される。

ファイルを保存する。次に、マントを羽織って、感染したサイトのオーナーに接触し、トラブルを解決するプロセスに進む。

ローカルSEOのサイテーションを逆行分析

ローカルSEOに取り組んでいるなら、サイテーション(言及)が、キャンペーンの成功を左右する点は、よくご存知のはずだ。しかし、Open Site Explorerを含むその他のツールを使って、競合者のローカルサイテーションを逆行分析しても、うまくいくとは限らない。なぜなら、NAP(Name 名前、Address 住所 & Phone Numbers 電話番号)のサイテーションは、被リンクとは限らず、リンク分析ツールには反映されないためだ。逆行分析することが出来ない場合、ローカルコミュニティのページやディレクトリを活用することは、事実上不可能に近い。しかし、ScrapeBoxを使えばこの状況を変えることが出来る。

「a dentist in Pawtucket, Rhode Island」(ロードアイランド州 ポータケット 歯科)で上位にランクインすることを望んでいると仮定する。まずは、グーグルでローカル検索を実施する:

上位にランクインしているサイトを訪問する。

サイドバーや問い合わせページで住所を探す。

住所をScrapeBoxのキーワードのセクションにコピーする。
重要: 住所を一列で表示すること。

番地を引用符で囲む(この作業を怠ると、検索エンジンは、ページにこの住所が掲載されていない結果を返すことがある)

通りの名前に幾つかバリエーションを加える。こうすることで、サイテーションが「avenue」の代わりに「ave.」または「road」の代わりに「rd.」と記されていても、住所を探し出すことが出来る。

最後に、結果に逆行分析を行う店舗(会社)のページを表示させないようにする作業を行う。 サイトが、サイドバーやフッターに住所を掲載している場合(実際に多くの地域の店舗が、この方式を採用している)、このドメインのページが結果に大量に掲載されてしまう可能性がある。site:オペレータを当該のキーワードの検索に加えることで、この状況を回避することが出来る。このオペレータは、このサイトのページが結果に反映されるのを阻止する役目を持つ。

このオペレータをScarpeBoxに入力したキーワードの最後に加えていく。

「Start Harvesting」(収穫を始める)ボタンをクリックする。すると、この方法でしか入手することが出来ない大量のサイテーションのターゲットを見つけることが出来る:

ホワイトハットなブログのコメント投稿

ScrapeBoxは、その自動ブログコメント投稿機能が原因で、評判を落としている。しかし、実際には、このツールは、ホワイトハットなブログコメント投稿に大いに役に立つ。ScrapeBoxを使えば、手動でコメントを投稿する価値のある、信頼されている、分野に関連するページを速やかに、そして、数多く探し出すことが可能である。

まず、ブログのコメントを認めているページを探すための(数ある)Footprintの一つをScrapeBoxのHarvesterに入力する:

  • site:.edu “コメント ログイン 必要” (ログインを必要とするサイトは、スパムに荒らされる可能性が低いため、このオペレータは有効だ)
  • site:.edu “コメントを投稿”
  • “新しいコメントを投稿”

次に、キーワードの欄に当該の分野のキーワードを幾つか入力する。

「Start Harvesting」をクリックする。結果が表示されたら、PRで並べ替えを行い、基準を下回る結果を削除するべきである(ブログのコメントに対しては、Domain PageRankではなく、URL PageRankを選択した方が無難である)

PRで並べ替える:

価値がなさそうなページを削除する。

大量のURLが抽出され、慎重にターゲットを選びたい場合、アウトバウンドリンクの数もチェックしておきたい。

今回は、「Load from ScrapeBox」(ScrapeBoxから読み込む)を選択する:

続いて、外部リンクが多過ぎると思われるURLを削除する。

これで、結果を保存して、作業リストとして利用することが出来る。

上出来だ。

これで、ScrapeBoxの使い方を完璧にマスターしたはずだ。チャプター 9: イメージをリンクに変えるでは、質の高いリンクを呼び込むイメージを作る方法を学ぶ。

究極のリンク構築ガイド


この記事は、Quick Sproutに掲載された「The Advanced Guide to Link Building : Chapter 08」を翻訳した内容です。[G+]

イメージをリンクに変える – 究極のリンク構築ガイド9

リンクといえばアンカーテキストの効果も影響してか、テキストベースのリンクのみがリンク構築において注目されてきましたが、もちろん画像やビデオ映像も立派なリンク対象コンテンツです。日本でも利用が増えてきたインフォグラフィックの活用法を始め、画像を使ったリンク獲得手法、そして自分の画像やインフォグラフィックを掲載しているサイトがリンクしていない時のフォロー方法まで、イメージをフル活用したリンク構築手法を紹介。 — SEO Japan

ゲスト投稿、アーティクルディレクトリ、プレスリリース– この3つの共通点を考えてもらいたい。すべて、リンクを獲得するために、言葉を利用している。しかし、テキストベースのリンク構築のみに固執すると、史上最強のリンク構築戦略の呼び声高い、イメージによるリンク構築を見過ごしてしまう。そこで、このチャプターでは、インフォグラフィックからアイコンに至るまで、質の高いイメージを屈強な被リンクに変える方法を伝授していく。

インフォグラフィックマーケティング

インフォグラフィックは、リンク構築担当者にとって、トロイの木馬のような存在だ。質の高いインフォグラフィックで武装していれば、普段は無視されるはずのオーソリティサイトに暖かく受け入れてもらえる。スモールビジネス(小規模な会社/事業者)は、一貫してインフォグラフィックマーケティングを用いて、NYTimes.comやBusiness Insider等から、リンクを獲得している。プロのデザイナーを雇えば、最高の作品が出来上がるものの、バイラル化に値するインフォグラフィックを容易に作成することが可能な無料のツールが存在するので、紹介していく。

  1. 既出の作品を把握する

    既に出尽くしたトピックを取り上げてしまうのは、痛恨のミスである。考えられるテーマは全てインフォグラフィック化されているように思えるものの、新しい角度でインフォグラフィックの作成に取り組むことは可能である。

    まず、グーグルで検索を行い、自分の業界に関連するインフォグラフィックを探し出す。

    • “キーワード” + “インフォグラフィック”
    • キーワード インフォグラフィック
    • 最高のキーワード インフォグラフィック(多くのインフォグラフィックを発見する上で有効)

    次にグーグルのウェブの結果と画像の結果に目を通す:

    曖昧な分野であっても、恐らく、数十点のインフォグラフィックが作成されているはずだ。それでも諦める必要はない — 新鮮なアイデアを後で考える。

    • Visual.ly

      Visual.lyは、インフォグラフィックのディレクトリとしては、ウェブで最大の規模を誇る。また、インフォグラフィックの現状を知る上でも、適している。

      http://visual.ly/にアクセスし、上部のツールバーにキーワードを入力する。


      結果に目を通し、どのような切り口が多く採用されている(あるいは採用されていない)のか確認する。

    • Pinterest

      Pinterestには、インフォグラフィックのアイデアが数多く眠っている。

      Pinterestにアクセスし、グーグルで利用した検索クエリと同じものを入力する:

      結果をチェックする。

  2. ホットな話題を探す

    これで、どのようなインフォグラフィックが既に出回っているのか、何となく把握することが出来たはずだ。次に、当該の分野で有効なアイデアを考えていく。

    http://visual.ly/に戻り、キーワードで検索を行う

    次に「Organize by Liked」(Likedで並び替える)を選択する。

    もしくは、「Viewed」(閲覧)で並び替える。

    すると、駄作が除外され、人気が出るインフォグラフィックのイメージが、湧いてくるのではないだろうか。

    また、当該の業界で特に効果的な作品のタイプを確認することも可能だ。検索する代わりに、下方向にスクロールし、「More Topics」(その他のトピック)を選択する。

    最もフィットするトピックを探す。自動車保険のサイトの例では、「Business」(ビジネス)または「Transportation」(輸送)のいずれかを選ぶ。

    後は、先程と同じようにLikedまたはViewedで並べ替えを行う。

    • Topsy

      Topsyは、インフォグラフィックの人気を計測する際に強い味方になる。Topsyにアクセスし、「キーワード インフォグラフィック」で検索をかける。

      サイドバーで「All Time」(過去の期間すべて)を選択する。

      続いて、リンクに関心を持っているため、検索のカテゴリで「Links」を選ぶ。

      これで、a) リンクが張られ、シェアされたことがある b) まだインフォグラフィックが作られていないトピックを発掘することが出来る。次に、インフォグラフィックに盛り込むデータを探す作業に移る。

    • グーグルのインデックス

      インフォグラフィックが「配信」されているかどうかを特定するには、グーグルでタイトルを検索する方法が最善だと思われる。こうすることで、インフォグラフィックが、配信されているサイトの数をある程度正確に予想することが可能になる。Visual.lyやTopsyで見つけたタイトルの一つをクオテーションマークで囲み、グーグルで検索する。


      結果のページの数を確認する。

      素晴らしいの一言に尽きる。結果の数は十分であり、確実に注目に値するトピックである。

  3. データをまとめる

    ニュースサイトや大学のPDFのレポート等、ランダムに情報を集める人が多い。このような場所は、信頼する情報を探す場所として適切ではあるものの、インフォグラフィックに関しては、お門違いの情報源と言える。なぜなら、出来るだけ多くの関連するサイトでインフォグラフィックを配信することが目的だからだ。つまり、インフォグラフィックが、開いた口が塞がらないほど優れたものなら話は別だが、ハーバード大学で配信してもらえる確率は非常に低い。しかし、業界内のオーソリティサイトで配信してもらうのは、決して難しくはない。そのためには、参照情報として引用し、褒めちぎる必要がある。

    まずは、業界内の実力者に注目する。業界のリサーチを行い、配信しているサイトに特に注意してもらいたい。ターゲットのキーワードでトップ10入りしているサイトのリンクが理想であるため、まずは、このサイトからのリンクを狙う:

    例えば、月々の保険料を下げる方法に関するインフォグラフィックを作成したいと仮定する。その場合、まず、トップ 10のサイトのブログを一つずつ見ていく。

    節約のアドバイスに関する記事を検索する。

    見つけた:

    このURLをコピーして、その他の情報源と共にスプレッドシートで保管する:

    インフォグラフィックの作成に必要な量の情報を得るまで、このプロセスを継続する — 少なくとも25点以上、参照情報を集めるべきである。インフォグラフィックの最後に、このオーソリティサイトを参照情報として盛り込んでいく。

  4. 本格的なデザイン

    インフォグラフィックをとことん極めたいなら、プロのグラフィックデザイナーを雇って、インフォグラフィックを作ってもらうべきである。毎日、多数のインフォグラフィックが配信されているが、本格的なデザインのインフォグラフィックは、圧倒的な存在感を持つ。しかし、予算が少ないなら、この目標を達成する上で役に立つ無料のツール — infogr.amの利用を薦める。

    まず、http://infogr.am/にアクセスして、無料のアカウントを登録する。

    「New Infographic」(新しいインフォグラフィック)をクリックする。

    自分のインフォグラフィックのトピックに最も適するテンプレートを選択する。スタンダードなテンプレートは、うまくいく傾向がある。「Use It」(このテンプレートを使う)をクリックする。

    タイトルや副題等、基本的な情報を入力する。

    「Add a Chart」(表を加える)ボタンをクリックして、データを加える。

    表のスタイルを選択する:

    「Add to Chart」(表に加える)をクリックする。

    表をダブルクリックすると、データを入力することが出来る。表にデータを入力していく。

    すべてのデータを入力し終えるまで、この作業を繰り返す。公開する準備が整ったら、「Publish」(配信)ボタンをクリックする。

    続いて、確認を行う。

    エンベッドコードをコピーし、自分のサイトに貼り付ける。

    ワードプレスを利用しているなら、「Text」タブをクリックして、テキストも貼り付けること:


    コピーが済んだら、一番下のinfogr.amのリンクを削除する(インフォグラフィックを作成したのは、自分自身であるため)

    次に、プロモーション活動を行う。

  5. エンベッドコードを取得する

    有効なエンベッドコードは、インフォグラフィックマーケティングキャンペーンで得られる被リンクの本数を増やす効果がある。エンベッドコードを誰かがサイトに貼り付けると、インフォグラフィックが表示され、被リンクが生成される。このステップに関しては、上級者向けSEOガイドで説明している: http://www.seojapan.com/blog/advanced-seo-8(日本語)(7. 簡単なコピー & 貼り付けの埋め込みコードを加える)

    ワードプレスのエディタでインフォグラフィックの下に以下のコードをコピーするだけでよい(Textタブを初めにクリックすること)

    <textarea rows="5" cols="70" onClick=select() >
    	<a href="(URL Of The Image File">
    		<img alt="" src="URL Of The Image File" />
    	</a>
    	<a href="(リンク先のURL #1">アンカーテキスト #1</a> by
    	<a href="(リンク先のURL#2">アンカーテキスト #2</a>
    </textarea>


    このエンベッドコードを使うと、インフォグラフィックを容易にシェアすることが可能になり、また、リンクを張るページ、そして、作品をシェアする際に利用するアンカーテキストを選ぶことが出来る。

  6. 宣伝する

    • インフォグラフィックディレクトリに投稿する

      インフォグラフィックを自分のサイトに投稿したら、今度は、宣伝を始める。インフォグラフィックを軌道に乗せるには、無料のインフォグラフィックディレクトリに投稿すると効果的である。サイトのディレクトリにインフォグラフィックを加えたいウェブマスターが、このタイプのディレクトリを利用する傾向が見られるためだ。投稿のプロセスは、割と単純なものが多い。

      OnlyInfographic.com(PR3)を例にとって、説明していく。

      まず、「Submit」(投稿)ボタンを探す(通常は上部のツールバーに掲載されている)

      ユーザーの情報を入力する。

      各インフォグラフィックディレクトリのリンクから最大の効果を得るため、各投稿に対して、150-300ワードの固有の説明文を作成する(インフォグラフィックがディレクトリの承認を受ける確率も上がる)。固有の説明文を作ることで、検索エンジンは、インフォグラフィックが現れる度に、固有のコンテンツだと考えるようになる。

      エンベッドコードを貼り付ける。

      この作業を繰り返す。followedリンクを得られるインフォグラフィックディレクトリを幾つか紹介する:

    • Reddit

      Redditは、Alexaのランキングでトップ 100入りしているものの、このツールを活用しているインターネットマーケッターはごく僅かである。しかし、Redditは、インフォグラフィックをさらに大勢の人に見てもらう上で、またとない機会をもたらす — シェアとリンクを増やすことが出来るかもしれないのだ。

      まず、Redditにアクセスして、無料のアカウントを作成する。


      投稿する準備が出来たら、「Submit a New Link」(新しいリンクを投稿する)ボタンをクリックする:

      続いて、詳しい情報を入力していく。この混雑したコミュニティで注目を集められそうな独特なタイトルを考えてもらいたい。

      Redditには、焦点が絞られたカテゴリー — 「subreddit」が多数用意されている。インフォグラフィックを出来るだけ大勢のユーザーに見てもらうには、適切なsubredditを選択する必要がある。(テレビゲーム、マーケティング、スマートフォン等)人気の高い、楽しい分野のインフォグラフィックを持っているなら、当該のトピックのsubredditに対してインフォグラフィックを投稿することを薦める。しかし、(保険や害虫駆除)等、面白味に欠ける分野のインフォグラフィックの場合、インフォグラフィックのsubredditに投稿するべきである。

イメージディレクトリ

イメージを使って、質の高いfollowedリンクを獲得することが出来るアイテムは、インフォグラフィックだけではない。イメージディレクトリは、オーソリティレベルの高い被リンクの宝庫である。また、PinterestやFlickrとは異なり、followedリンクが認められている。

利用するのがアイコンであれ、クリップアートであれ、あるいは、ベクターであれ、基本的なプロセスは同じである。

  1. 人気の高いトピックを把握する

    スパムの投稿を阻止するため、ほとんど全てのイメージディレクトリが、投稿を慎重に審査している。受け入れる作品に対する基準がとても高いディレクトリもある。しかし、有難いことに、ユーザーが求めているイメージを投稿すれば、ほぼ間違いなく承認してもらえる。仮に、アイコンのセットをhttp://www.iconspedia.com/(PR5)に投稿するケースを考えてもらいたい。

    まず、このディレクトリを訪問し、「Top Downloaded Icon Packs」(ダウンロード回数が多いアイコンのパック)をクリックする。

    続いて、よくダウンロードされている作品を確認する:

    モバイル、テクノロジー、そして、ソーシャルメディアに関連するアイコンが、このサイトでは人気が高いようだ。そのため、キッチンの機器ではなく、このタイプのテーマに基づいたアイコンのセットを作成した方が無難である。

  2. アイコンをデザインする

    アイコンの作成は、プロのデザイナーに作ってもらうことを強く薦める。Fiverr.comには、一流のアイコンデザイナーが名を連ねている。


    しかし、どうしても予算が厳しいなら、Coverticonを使って、無料でオンラインのアイコンを作成する手があるので、検討してもらいたい。このツールを使えば、イメージをアイコン形式に変更することが可能だ(元々のイメージの著作権を持っている必要がある)

    まず、イメージをhttp://converticon.com/にアップロードする。「Get Started」(始める)ボタンをクリックすると、サイトは、コンピュータからイメージのファイルを選択するよう要請する。

    デフォルトの状態では、.coファイルの検索が行われる。しかし、ここでは単純にイメージをアイコンのサイズに縮小する。ドロップダウンメニューから、Image(png, gif, jpeg)を選択する。

    コンピュータからアイコンを選択する。

    「Export」(エクスポートする)をクリックする。

    サイズを選択する(ベクターおよびアイコンの標準的なサイズは、128×128)

    「Save as」(名前を付けて保存)をクリックし、イメージを保存する。

  3. シェアする準備に取り掛かる

    イメージが完成したら、サイトにアップロードする工程に移る。こうすることで、容易にイメージをダウンロードするためのリンクをディレクトリに対して送ることが出来る。

    利用する全てのイメージをフォルダにまとめる。その後、フォルダを圧縮する。

    ワードプレスのダッシュボードにアクセスし、サイドバーの「Media」(メディア)タブをクリックする。

    「Add New」(新しいメディアを加える)をクリックする。

    圧縮したファイルをワードプレスにアップロードする。


  4. 投稿

    http://www.iconfinder.com/(PR6)を例にとって、ディレクトリにイメージを投稿する方法を説明していく。

    「Submit Icons」(アイコンを投稿する)ボタンをクリックする。

    必要な情報を入力していく(ホームページのURLの入力を絶対に忘れないこと!)。「I am the author of these icons」(私がアイコンを作りました)にチェックを入れる。

    「Please select a license」(ライセンスを選択してください)のドロップダウンメニューで、「Free for commercial use(Link to author)」(営利目的の無料利用を認める(作者にリンクを提供する)を選択する。

    ワードプレスに戻り、圧縮したアイコンのフォルダのURLをコピーする。

    次に、「Link to compressed file with icons」(アイコンを含む圧縮したファイルへのリンク)の欄に貼り付ける。

    コメント欄でイメージを自分が作った点をアピールすると良いだろう。

    「Submit」(投稿する)ボタンをクリックする。通常は、1-2週間後に反映される。

    その他のイメージディレクトリを紹介する:

画像の逆行検索

サイトに投稿したオリジナルのイメージ — インフォグラフィックや図表 — を他のウェブマスターに気に入ってもらえることがある。時折、ウェブマスター自身のサイトで掲載したくなるほど、気に入られることもある。しかし、イメージを自分のサイトに投稿した際に、作者のサイトにリンクを張り忘れてしまうことがある。この問題は、特にインフォグラフィックでよく見受けられる。そこで、リンクを忘れたウェブマスターに接触し、丁寧に、然るべきリンクを要請し、あっさりとリンクを獲得する方法を伝授する。

  1. イメージのURLを見つける

    まず、サイトに投稿したオリジナルのイメージのURLを特定する必要がある。Quicksproutのインフォグラフィックを例にとって、説明していく: How to Optimize Contact Forms for Conversions(http://www.quicksprout.com/2013/01/31/how-to-optimize-contact-forms-for-conversions/

    イメージを右クリック(Macではctr + クリック)し、「画像のURLをコピー」を選択する。

  2. イメージの逆行検索

    次に、グーグルの画像検索を開く: http://images.google.com/imghp?hl=en

    検索フィールドの小さなカメラのボタンをクリックする。すると、イメージの検索が可能になる。

    先程コピーしたURLをフィールドに貼り付け、画像で検索ボタンをクリックする。

    グーグルは、同じイメージを持つインデックス内のページを表示する。

  3. 出典先のリンクが掲載されていないページを探す

    結果のページを一つずつ訪問し、アトリビューション(出典先)のリンクを用いていないページを探す。

    該当するページを見つけた:

  4. 接触する

    最後に、サイトのオーナーに連絡を取り、リンクを要請する。脅迫するのではなく、作品を投稿してくれたことに感謝し、リンクを張ることを思い出してもらおう。

    件名: …(相手のサイト名)に関する質問

    はじめまして…(相手の名前)様

    本日、…(相手のサイト)を閲覧していた際、このインフォグラフィックを見つけました: …(インフォグラフィックの名前)

    信じられないかもしれませんが、実は、このインフォグラフィックを作ったのは、私なのです。

    …(相手のサイト)の読者の方々と共有して頂き、感謝しています。

    さて、時間のある時で構わないのですが、このインフォグラフィックを元々投稿したページにリンクを張って頂けると助かります。

    お忙しいでしょうから、HTMLコードを作成しておきました。後は、ワードプレスにコピー & 貼り付けて頂くだけで、リンクを張ることが出来ます。

    インフォグラフィックの出典先 <a href=”http://.com”>自分のサイトの名前</a>

    宜しくお願いします。

    …(自分の名前)

    このフレンドリーなアプローチは、効果が高い。無視されることもあるが、経験上、大半のウェブマスターはリンクを張ってくれる。多数のメールを数分間で送信することが出来る点を考慮すれば、イメージの逆行検索は、ROIの面で、最高のリンク構築の手法の一つに数えられるはずだ。

その調子だ!

リンク構築マスターへの道を順調に進んでいる。次のチャプターでは、非常に強力なリンク構築戦略を学ぶ。それでは、準備が整ったら、チャプター 10: 最強のゲスト投稿に進もう。

究極のリンク構築ガイド


この記事は、Quick Sproutに掲載された「The Advanced Guide to Link Building : Chapter 09」を翻訳した内容です。[G+]

最強のゲスト投稿 – 究極のリンク構築ガイド10

米国で以前から多用・悪用されてきたことから、SEOには効果がない・場合によっては取り締まるとGoogleが名言するまでとなったゲスト投稿を活用したリンク構築。日本でもブログを集約したメディアが人気となっているようですが、使い方によってはSEOはもちろん、ブランディング、トラフィック増加にゲスト投稿が役立つのは間違いありません。今回はSEO目線でゲスト投稿の正しいやり方を徹底的に解説した記事を。 — SEO Japan

ターゲットが絞られたトラフィック、そして、強力な被リンクを求めているなら、ゲスト投稿に力を入れるべきである。確かに、グーグルは、大量の、質の低いゲスト投稿に対しては、警告を発している。しかし、ゲスト投稿が、今後もリンク構築の基盤として盤石であることは間違いない。このチャプターでは、この時代を超越したリンク構築戦略から最高の結果を得る方法を学んでいく。

ゲスト投稿を行うサイトを探す

記事の作成に着手する前に、ゲスト投稿を受け入れているサイトのリストを作成する必要がある。交流を続けることで、特別にゲスト投稿の機会を与えてもらえるかもしれないが、まずは、ゲスト投稿を受け入れている点を公に認めているサイトから探すことを薦める。

整理する

多くの質の高いサイトを見つけることが出来るため、混乱する事態を避ける必要がある。そこで、エクセルで、サイトのホームページのPR(ページランク)、ゲスト投稿のガイドライン、そして、ツイッターのフォロワーの人数やコメントの本数等の計測基準(後程詳しく説明する)を記録するスプレッドシートを作成する。

グーグル検索の文字列

手っ取り早く、ニッチに関連するゲスト投稿の機会を探し出す上で役に立つ検索の文字列は、数多く存在する。

その中でも特に効果的なものを幾つか紹介する:

  • “キーワード” + “ゲスト 投稿”
  • “キーワード+ “寄稿”
  • “キーワード” + “この記事の投稿者”
  • intitle:ゲスト 投稿 ルール
  • intitle:ゲスト ブログ ルール

グーグル ブログ検索

また、知名度は劣るが、グーグルのブログ検索を使って、掘り出し物を見つけることも出来る。

http://www.google.com/blogsearchにアクセスし、「レギュラー」のグーグルで利用した文字列を検索にかける。通常は、全く異なる結果が提示される。

新鮮な結果を得るため、「検索ツール」をクリックし、期間を1ヶ月以内に限定する。

成長著しいグーグル+は、堂々とゲスト投稿を受け入れているサイトの隠れた宝庫でもある。しかし、グーグルのインデックスほど規模は大きくないため、通常、若干検索クエリの範囲を広くする必要がある。

「新着順」をクリックする。

このサイトは期待できそうだ。

恐らく、グーグルでは見られない結果の組み合わせが提示されるのではないだろうか。

https://twitter.com/search-homeにアクセスし、広範な検索の文字列を入力する。

すると、最近、ゲストによる投稿を配信したサイト、もしくは、別のサイトで記事を投稿した作者が結果に表示される。

My Blog Guest

My Blog Guest(MBG)は、ゲストブロガーの楽園である。このサイトでは、ゲスト投稿を積極的に探しているウェブマスターを見つけることが出来る。PRの低いサイトも多数リストアップされている。しかし、徹底的に調べれば、ダイヤモンドの原石が見つかることもある。

まず、アカウントを作成する(無料)。次に、「Looking for a guest author」(ゲストオーサーを探している)セクションにアクセスする。

サイトにフィットするカテゴリーを選択する。

後は、結果に目を通し、基準を満たすサイトを探すだけだ。ページ上部の「Topic Blog」のリンクをクリックすると、投稿者のいるサイトを楽に探し出すことが出来る:

本格的に調べる

これで、積極的にゲスト投稿を受け入れている、関連するサイトを、ある程度集めることが出来たはずだ。続いて、出来るだけSEOおよびトラフィックの価値の高いブログに焦点を絞るため、リストの絞り込みを行う。PRや関連性(詳しくはチャプター 2: 完璧なリンクを求めてを参考にしてもらいたい)等の明らかな基準以外にも、良質なコンテンツに値するかどうかを判断する上で、注目するべきポイントは幾つかある。

SimilarWeb

ゲスト投稿から得られる、短期および長期のリファラートラフィックの量を知りたいなら、SimilarWeb.comの利用を薦める。このサイトは、ゲスト投稿の今後のトラフィックのポテンシャルを予測する上で役に立つ。

ゲスト投稿リストに掲載されているサイトのドメイン名を入力する。

サイトのトラフィックを正確に把握することが出来るわけではないものの、このツールは、サイトの人気をある程度把握することは可能である。

サイドバーの「Traffic Sources」(トラフィックソース)のセクションに注目してもらいたい。SimilarWebを自分のサイトで使ってみたところ、恐ろしいほど正確なデータが提供された。

Direct(直接)は、ゲスト投稿を行った後に発生する急激な増加を示している。Search(検索)は、サイトの検索エンジンのトラフィックのポテンシャルを表している。検索経由のトラフィックは、長期間に渡って、ゲスト投稿(および自分のサイト)に安定してトラフィックをもたらす。

ブログのコメント

ブログのコメントとリファラートラフィックの間には直接的な相関関係が存在する。ブログのコメントは、サイトが「本物」かどうかを特定する際に、グーグルが、基準として注目している可能性がある。私自身、ブログの記事が獲得する傾向のあるコメントの本数に着目している。

目標にする本数は、具体的に決まっているわけではない。しかし、記事1本につきコメントが1-2本(あるいは、それ以下)しか投稿されないサイトは対象にするべきではない。

明白なトラフィックのメリットの他にも、ブログの記事をSERPで上位にラインクインさせる上で役に立つソーシャルシグナルも注目に値する(つまり、サイトに送られるリファラートラフィックが増える)。また、ソーシャルシグナルは、リンクの価値を高める効果もある。これは重要なポイントである。記事がシェアされるかどうかは、基本的にゲスト投稿の内容に左右されるが、過去のソーシャルシェアの実績は、予測の基準として有効である。Blog Social Analyzerを使えば、このデータを容易に入手することが出来る。

まず、ゲスト投稿を行う予定のサイトのRSS フィードを探す(大半のサイトはドメイン/feedを利用している)

続いて、http://www.rypmarketing.com/tools/rss-social-analyzer.phpにアクセスし、当該のサイトのRSSのURLを貼り付ける。

すると、最新の記事が獲得した、ツイート、フェイスブックのいいね!を含むシェアの量が表示される。

多くのソーシャルシェアを手に入れる傾向があるなら、ゲスト投稿もまた大勢の読者にシェアしてもらえる可能性が高い。

ゲスト投稿のトラフィックとSEOのポテンシャルを特定する上で、ブログのツイッターのフォロワー数と範囲もまた有効である。ツイッターのフォロワーの人数は、ツイッターのプロフィールに掲載されている:

フォロワーの人数でサイトの人気をある程度理解することが出来るものの、Followerwonkを使えば、影響力の高さを知ることが出来る。このツールは、誰がフォローしているのかを分析する。フォローしている人物の影響力が高ければ高いほど、「ソーシャルオーソリティ」も高い。

http://followerwonk.com/bioにアクセスし、ユーザーの経歴欄にあるワードを幾つか入力する(ユーザー名以外)

すると、ソーシャルオーソリティが表示される。

出来る限り、ソーシャルオーソリティが20以上のサイトをターゲットにするべきである。

良質な記事を作成する

ゲスト投稿を受け入れ、基準を満たすサイトを見つけたら、次に記事を作成する工程に移る。ゲスト投稿が承認され、山火事のように広がる環境を作るためには、当該のサイトで成功する傾向のある記事のタイプを把握するのが一番である。投稿する記事をサイトのオーディエンスに対して調整することが出来るようになるためだ。

当該のサイトで特に人気を集めている記事を手っ取り早く見つけたいなら、大半のブログがサイドバーで提供している、人気の高い記事のウィジェットをチェックすると良い。QuickSproutでも、過去のポピュラーな記事を掲載している。

私がQuickSproutに寄稿するとしたら、インスタグラムのフォロワーを獲得する方法に関する記事を書くか、あるいは、ビジネスの名言をリストアップする(投稿済み)。もちろん、SEO、スモールビジネスの成功、あるいは、ソーシャルメディアを使ってトラフィックを獲得する方法を取り上げても構わない。

LinkTally.com

大半のサイソバーのウィジェットは、5-10本の記事しか表示しない。記事のアイデアが浮かんでいるなら、LinkTallyを使って、そのトピックのパフォーマンスを知ることが出来る。例えば、QuickSproutにコンバージョンの最適化に関する記事を投稿したいと仮定する。サイトの検索バーにトピックのキーワードを入力していく:

最初に表示された2-3つの結果のURLをコピーする。次にhttp://linktally.com/のURLの欄に貼り付ける。

すると、当該の記事が獲得したソーシャルシェアの数が表示される。

大量のシェアを確保する傾向のある特定のトピックを見つけたら、そのトピックに狙いを定めるべきである。

Open Site Explorer

被リンクを多く獲得しているページを見て、ゲスト投稿のトピックを判断する手もある。意外にも大量のリンクが張られた記事が必ずしも多くのソーシャルシェアを獲得するとは限らない(その逆もあり得る)。そのため、注目する価値があると言えるだろう。

http://www.opensiteexplorer.org/にアクセスして、サイトのホームページのURLを入力する。

「Top Pages」(上位のページ)タブをクリックする:

Page Authority(ページオーソリティ)が特に高いページを探す。

ゲスト投稿の記事を作成する際、トピックとして考慮してもらいたい。

eメールでまとめる

記事の作成に入る前に、私は、トピックのアイデアリスト、そして、既に投稿した自分の作品へのリンクを記したeメールをサイトのオーナーに送ることがある。この工程を経ることで、記事を投稿する価値がある点を強調することが出来る。

以下に、効果的な台本を掲載する。

件名: …(相手のサイト)へのゲスト投稿

はじめまして、…(相手の名前)様

いつも…(相手のサイト)を楽しく読ませて頂いています。今回は、オリジナルの、価値がふんだんに詰まったゲスト投稿の記事を提案させて頂きたいと思います。

…(相手のサイト)でパフォーマンスの優れたトピックを調べてみました。すると、次のアイデアが浮かびました:

-タイトル #1

-タイトル #2

-タイトル #3

私が以前…(オーソリティサイト)と…(オーソリティサイト)に投稿した記事をご確認して頂くことも可能です。

ご感想を聞かせて頂けると幸いです。

宜しくお願い致します。

…(自分の名前)

記事を作成する

最後に、読者を虜にする記事を作成する。ケーススタディ、長いリスト、詳しいhow-toガイド等は、特に受け入れられる確率が高い。あらゆるタイプのコンテンツにも言えることだが、ゲスト投稿用の記事にも、刺激的なタイトルを書き、コンテンツの要点を描き、好奇心をくすぐる文章を綴るアプローチが有効である。

まず、記事のトピックをグーグルで検索する:

20位までの結果のタイトルを確認する。

優れたタイトルをエクセルにコピーする。

見つけたタイトルと調和するオリジナルのタイトルが出来上がるまで、捻りを加える。

この例では、「12 Ways Market on Pinterest Like a Fortune 500」と言うタイトルを考案した。

次にワードプレスのエディターを使って、記事の小見出しを加え、記事の要点を作る。

後は空欄を埋めれば、完成だ。

リストサイトでのゲスト投稿

リストサイトをターゲットにゲスト投稿を行う、一風変わったアプローチもある。リストサイトとは、トップ 10リスト、トップ 20リスト等を投稿するサイトを指す。このタイプのサイトは、ユーザーが作成したコンテンツを何も言わずに受け入れてくれる。もちろん、リンクも与えてくれる。サイトはユーザーが作った記事を「ゲスト投稿」とは呼ばないため、ゲスト投稿の機会を探すためにSEOのスタッフが利用する検索の文字列では、浮上しない。

  1. リストサイトを探す

    以下の文字列を使えば、楽にリストサイトを割り出すことが出来る:

    • トップ 10 リスト
    • “リスト 投稿”
    • “トップ 10″ + “投稿”

    結果が表示されたら、「リストを投稿する」ページがあるかどうか確認する。

    ページが見つからなかったら、最近投稿されたリストをチェックする。作者の経歴欄が掲載されているなら、恐らく、eメールで問い合わせれば、リストを投稿してもらえるだろう。

  2. ガイドラインを読む

    通常のゲスト投稿と同じように、リストサイトは、割と厳しいルールを課していることが多い。ただし、通常は、フォーマットに関するものであり、あまりシビアではない。それでも、リストを投稿する前に、一度、目を通してみるとよい。

  3. リストを作って、投稿する

    どんなトピックに関するリストを作っても構わないが、出来れば、自分の分野に関連するリストを作るべきである。例えば、減量に関するサイトを運営しているなら、「問題になった減量方法 トップ 10」や「実際に脂肪を燃焼する10の食べ物」等のリストを作成したい。

    以下にリストを投稿することが可能なリストサイトを紹介する:

このようなオーソリティサイトでのゲスト投稿は、作者と検索エンジンの関係を親密にするはずだ!

ページにPRをとことん注入したいなら、チャプター 11: ページランクを注入するに進んでもらいたい。それでは、暫しのお別れだ。

究極のリンク構築ガイド


この記事は、Quick Sproutに掲載された「The Advanced Guide to Link Building : Chapter 10」を翻訳した内容です。[G+]

ページランクのファネリング – 究極のリンク構築ガイド11

SEOの過去の遺物といわれつつも、未だに多少の参考情報程度には使われているページランク。その数値の真偽はともかく、それなりのページランクのサイトから被リンクを獲得していく価値は、Googleが何をいうにせよ、まだまだあるようには思います。今回は、ページランクを上げたい・被リンクを増やしたいという人のための、ネット上の各種人気サイトを活用したリンク獲得の方法を。英語圏のサイトが中心ですが、日本でも多少は使えると思いますし、同様の手法に日本で取り組むことももちろん可能です。 — SEO Japan

確かに、ページランクの重要性は、過去と比べると低くなっている。しかし、今でもグーグルのアルゴリズムの欠かせないパーツであることに変わりはない(今後もこの点が変わることはないだろう)。つまり、低いPRのページからのリンクでは、多くのオーソリティを獲得することは出来ない。しかし、幸いにも、ページランクをリンクのページに注入することで、低いPRの被リンクを大幅にパワーアップさせることが可能である。

ページランクの仕組み

ページランクは、水のようにインターネット上を流れている。すべてのリンクが、リンク先のページにPRを「漏らしている」のだ:

ページのPRが高ければ高いほど、被リンクを通して、より多くのPRが送られてくる。そして、サイトのPRが高ければ高いほど、オーソリティとして、グーグルに見てもらえる確率は高くなる。

PR=オーソリティ

PRを注入する前の準備

PRの注入は、投稿リンク — プロフィールのリンクやポートフォーリオのリンク — に対するジュースを大幅に増やす効果がある。

大半の投稿リンクは、PR 0、または、PRの測定不能なページに掲載されている。事実、検索エンジンがインデックスすることが出来ないほど、奥深くに埋められているケースもある。この類のページは、内部リンクや外部リンクが向けられていないため、「孤児」ページと呼ばれる。通常、PRの低いページのリンクは、サイトにほとんどオーソリティをもたらさないため、価値がない。

しかし、サイトのPRをリンクが掲載されているページに注入することで、補強することが出来る。そのためには、ドメインの内部リンクをリンクのページに構築する必要がある。

SEO Toolbarを使ってnofollowタグをチェックする

一般的に、PRは、nofollowタグを持つリンクを介しては、流れない。PRをnofollowタグが付けられたページに注入しようとしても、あまり効果はない。そのため、nofollow属性を速やかにチェックする能力が重要になる。

嬉しいことに、SEOBookが提供するSEO Toolbarを使えば、楽にチェックすることが可能だhttp://tools.seobook.com/seo-toolbar/でダウンロードすることが出来る)

チェックしたいリンクまでスクロールしていく:

矢印のアイコンをクリックする。

nofollowのリンクは赤く表示される:

オプション: MozBar

MozBarとは、Moz独自のページオーソリティを表示する、クロームとファイヤーフォックスに対応するツールバーである。ページのオーソリティもまた、リンクを張るページのポテンシャルを特定する上で、良い判断材料になる。

http://moz.com/tools/seo-toolbarにアクセスする。続いて、ツールバーをダウンロードし、インストールする。

Mozの無料のアカウントを持っているなら(あるいは持っていないなら)、ドメインのオーソリティ、ページのオーソリティ、そして、ページに向けられたリンクの合計のみ表示される:

プロのアカウントを持っている場合、ページおよびドメインに対するルートドメインのリンクの本数も把握することが出来る。

高いPRを注入するサイトを探す

PRの注入自体にはさほど時間はかからないものの、大量のリンクを抱えているなら、それだけ作業に必要な時間も嵩んでいく。そのため、まずは、注入のポテンシャルが特に高いサイトを探す必要がある。こうすることで、時間に見合うだけの価値を持つサイトに焦点を絞ることが出来るようになる。

通常、DA(ドメインオーソリティ)が高いほど、注入するオーソリティも高くなる。

ホームページのURLをOpen Site Explorerに入力する:

「followed + 301」をトップダウンメニューから選択する:

「Domain Authority」(ドメインオーソリティ)で被リンクを並べ替える:

CSVとしてリストをダウンロードする。

このリストには、自分のサイトに向かうfollowedリンク先のURLが表示されている。DAの高いリンクから低いリンクの順番で掲載されている。

このリストだけでも役に立つが、グーグルからページランクの情報も手に入れたいところだ。

そこで、Linking Domain(リンクを張るドメイン)タブをクリックする:

このリストを.csvファイルでエクスポートする。

すると、リンクを張っているドメインのリスト(個別のページではない)が完成する:

リストでドメインのPRを探すため、http://www.bulkpagerank.com/に向かい、リストから最高で500のドメインをコピーする:

次に、BulkPageRank.comツールに貼り付ける :

このリストをエクスポートする。

.csvからPRの情報をリンク元のURLのリストを掲載したスプレッドシートにコピーする:

これで、上位のリンク、DA、そして、PRを一箇所にまとめることが出来た。

この先、獲得したリンクをこのリストに加えていくことが出来る。

Likeを使った注入術

次に、オーソリティをサイトに注入するプロセスに入る。Like(いいね)を利用すると、ページランクを容易に注入することが出来る。たった数分間で、大量の高いPRのページをLikeして、プロフィールのページにリンクジュースを豊富に送り込むことが可能だ。それでは、人気の高いイメージベースのソーシャルメディアサイト、ピンタレストを例にとって説明していく。

まず、リンクを張るページをメモする:

リンクが掲載されているURLもチェックする:

サイトで良質なコンテンツを探し、Likeをクリックする:

Likeによって、ページにリンクが加えられたかどうかを確認する。通常、ページの下の方にコンテンツをLikeした人物のリストを用意している。ピンタレストの場合、ハイパーリンク化されたプロフィールの写真が投稿される。

続いて、リンクがfollowedかどうか確かめる:

赤く表示されなかった。良い傾向だ。

コンテンツをLikeすると、当該のページからPRの一部がプロフィールページ、そして、自分のページに流れる。

コメントを使ってPRを注入する

大半のサイトは、外部に向かうブログのコメントのリンクには、「rel=nofollow」属性を加える。しかし、通常は、サイトの自分のページへ向かうfollowedリンクの作成は認めていることが多い。

今度は、8Tracks.comを使って説明する。

まず、プロフィールのURLをメモに取る:

次に、コメントを認めているページを探し、コメントを投稿する。スパムするのではなく、適切なコメントを残す必要がある。

コメントの投稿者の名前(自分の名前)を介して、自分のページのURLにfollowedリンクが向けられていることを確認する:

問題はなさそうだ。このプロセスを繰り返し、PRの注入を続ける。

フォローしてPRを注入する

他のユーザーをフォローすると、プロフィールページに向かうリンクを多数獲得することが出来る。ポートフォーリオサイトのBehance.netを使って、強力な被リンクを確立する方法を説明していく。

自分のプロフィールページを探す:

「Creatives to Follow」(フォローする作品)をクリックする:

すると、メンバーのリストが表示される:

出来るだけ大勢のメンバーをフォローする。

フォローする度に、当該のメンバーのプロフィールページから、自分のプロフィールページに向けて、内部リンクが向けられる。

コンテンツをアップロードして、PRを注入する

特定のサイト — 特にオーディオ共有サイトやアーティスト向けのポートフォーリオサイト — は、ユーザーに対して、オリジナルのコンテンツの投稿を促している。コンテンツを実際に投稿すると、プロフィールに向けられたリンクが与えられる。

文書共有サイトのScribd.comを使って、説明する。

Scribdにアップロードされた文書内のリンクはnofollowであるものの:

作者のプロフィール欄のリンクはfollowedである:

所有しているコンテンツを.pdf、.text形式でアップロードし、このページへのリンクを増やしていくことが可能だ。

Scribdやその他の文書共有サイトにコンテンツを手早くアップロードしたいなら、既に自分のサイトで投稿したブログの記事をアップロードする手法を薦める。

まず、既にブログで投稿したコンテンツをコピーする:

マイクロソフトのワードに貼り付ける(グーグルドキュメントを使って、.docxファイルとしてエクスポートする手もある)

続いて、ファイルをPCに保存する。

Scribdに戻る。ページの右上にある「Upload」(アップロード)ボタンをクリックする:

次に、「Select Files to Publish」(投稿するファイルを選択する)をクリックする:

文書をアップロードする:

文書の詳細を記入する:

「Save and Continue」(保存して続ける)をクリックする。

これで、文書のリンクから、プロフィールにリンクが向けられたことになる:

コンテンツをアップロードすればするほど、プロフィールページに向けられるリンクの数も増える。また、最高傑作をアップロードすれば、カテゴリー別のホームページ等、高いPRのページでピックアップされる可能性がある:

参加を介してページランクを注入する

数年前までは、人気の高いSquidooは、リンク構築の関係者にとっての楽園であった。ホームページはPR7を誇り、多くの内部リンクを持つこともあり、数本のPRの高いコメントを投稿するだけで、SquidooのプロフィールをPR3またはPR4にすることも不可能ではなかった。残念ながら、Squidooは全てのコメント(内部のページに向けられたものも含め)をnofollowにする決断を下したのであった。

それでも、このPR天国を活用する術が完全になくなったわけではない。

ご覧のとおり、一部のレンズ(ページ)は、他のユーザーが意見を挟むことが可能な質問を投稿している。質問に答えると、プロフィールページにdofollowリンクが向けられる(さらに、Squidooのレンズをグーグルで上位にランクインさせたいユーザーのために、ボーナスとして、プロフィールページに注入したPRが、レンズのページにも流れる仕組みになっている)

PRの高いページでリンクを獲得する方法を見つけることが出来るか否かが鍵になる。調査に参加することで、この条件がクリアされる。一番難しいのは、調査やユーザーの投稿を呼びかけるコンテンツを持つレンズを見つける作業である。しかし、このタイプのレンズの人気が高くなるにつれ、大半のポピュラーなレンズで見つかる可能性は高くなる。見つかったら、票を投じるか、レスポンスを返す。

ちなみに、私は車のワックスに関するレンズを見つけた:

答えを投稿したら、プロフィールへ向かうdofollowリンクを得ることが出来る。

ただし、レンズのトピックに関連する答えを提供する必要がある(管理が行き届いているレンズもあるため)

Squidooの他にも、HubPages等、PRの注入に利用することが可能なコミュニティサイトはある。このチャプターで紹介した戦略を利用して、PRを注入することが出来ない場合、このようなコミュニティサイトが役に立つだろう。

Open Site Exploreを使って、オーソリティの高いページを見つける

これで、PRの注入については熟知してもらえたはずなので、この取り組みを最大限に活かす手法を伝授する。ドメインの中で格段にオーソリティの高いページからPRを注入すると、大幅に効率を高めることが出来る。

まず、注入するサイトのホームページをOpen Site Explorerに入力する:

「Top Pages」(上位のページ)タブをクリックする。

オーソリティの高いページが表示される。

リストを確認して、PRの注入に利用するページを特定する。次の2つのページは、良いターゲットになりそうだ:

続いて、このページのコンテンツにLike、コメント、または、返信していくと、適当にページを選んだ場合と比べ、遥かに多くのPRをプロフィールページに注入することが出来るようになる。

素晴らしいの一言に尽きる!

ゴールまでもう少しだ。まだ、余力が残っているなら、チャプター 12: グレイハットなリンク構築に進もう。

究極のリンク構築ガイド


この記事は、Quick Sproutに掲載された「The Advanced Guide to Link Building : Chapter 11」を翻訳した内容です。[G+]

グレイハットなリンク構築 – 究極のリンク構築ガイド12

ここまで全11章に渡って紹介してきた究極のリンク構築ガイド、最後の章は補足的、いやお待ちかね?なグレイハットなSEO手法を少しご紹介。今日のGoogleにおいてリスクが高い手法であることは間違いありませんし、仮に取り組む場合は自己責任でお願いいたします m(_ _)m 情報として知っておくに止めておくことをSEO Japanとしては推奨します。 — SEO Japan

グレイハットな戦略に触れることなく、リンク構築のガイドを作成することは不可能である。一部の戦略は、グーグルの利用規約すれすれだが(完全に違反するものもある)、このタイプのアプローチに対して、ある程度リスクを背負うこともやぶさかではない場合もある。実際に、このチャプターで紹介する手法の一部 – 有料ディレクトリのリンク構築 – は、グーグルに承認されている。しかし、今後、検索エンジンの怒りを買う可能性がある点は、否定できない。そのため、あらゆるグレイハット、もしくは、ブラックハットの戦略に共通することだが、自らの責任で利用してもらいたい。

ブログネットワークを構築する

理想を言えば、同分野の信頼されているサイトからのリンクを手に入れたい。ゲスト投稿やその他のホワイトハットな戦略は、このような強力なリンクを獲得する上で効果があるものの、単純にブログネットワークを構築して、容易に得られることもある。

  1. 古いリンクページと参照情報ページを探す

    大量のリンクが向けられた、古い、期限切れのドメインの購入すると、絶大な影響力を持つブログネットワークを瞬く間に構築することが出来る。

    GoDaddy Auctionsで大勢のライバルと期限切れのドメインを巡って争うことも出来るが、ドメイン登録費用と同じ価格で、強力な期限切れのドメインを獲得することが可能な、あまり知られていない方法がある。

    まず、Xenu Link Sleuthのリンク切れチェッカープログラムを: http://home.snafu.de/tilman/xenulink.htmlでダウンロードし、インストールする。

    続いて、グーグルを使って、リンクの長いリストが提供されているページを見つける。リンクが多ければ多いほど、期限切れのドメインに向かうリンク切れしたリンクが掲載されている確率は高くなる。

    様々な検索の文字列が想定される。以下に、創造力を刺激する文字列を幾つか紹介する:

    • “キーワード” + “リンク”
    • “お気に入りのサイト”
    • “企業パートナー”
    • “最高 ジャズ ウェブサイト 2003″
    • site:.edu “役に立つウェブサイト”

    検索結果が表示されたら、「検索ツール」をクリックする。

    しばらくアップデートされていない古いページに狙いを絞る。

    これで結果は、次の期間に限定されるようになる:

    結果に表示されたサイトの一つにアクセスする。

    ページのPR(ページランク)をチェックする。

    これなら申し分ない。

    次に、アウトバウンドリンクを多く持っているかどうか確認する(この場合、多ければ多いほど良い)

  2. リンク切れを探す

    再びXenuに戻る。「Options」(オプション) 「Preferences」(好み)の順にクリックする。

    Maximum depth(最大深度)を1に設定する(当該のページ上のリンクのみをチェックするため)

    「File」(ファイル)と「Check URL」(URLをチェックする)をクリックする。

    見つけたページのURLを入力する。

    続いて、「OK」をクリックする。

    Xenuは、リンク切れのリストを表示する。特定のタイプのエラー表示 — 「No Such Host」(ホストが存在しません) — を探してもらいたい。このメッセージは、サイトが、有効なホストにリンクを向けていない、つまり、ドメインが誰にも登録されていない可能性があることを示唆している。

    「Status」(ステータス)をクリックして、エラーで並べ替えを行う。

    次に結果をエクセルにエクスポートする。

  3. 利用可能なドメインを登録する

    エクセルでファイルを開き、「No Such Host」エラーが表示されたページをすべて見つける。ドメインをメモして、https://www.namecheap.com/domains/domain-name-search/bulk-domain-search.aspxにアクセスする。

    見つけたドメイン名を入力する。


    残念!既に全て取得されていた。大抵、25ページを試して、ようやく、強固なリンク切れを1本見つけることが出来る。しかし、1日この作業を行えば、通常は、強力なリンクプロフィールを持つ期限切れのドメインを5-10サイト掘り出すことが出来る。

  4. ブログネットワークを構築する

    目立たないブログネットワークを作成するには、足跡を出来るだけ残さないように気をつける必要がある。つまり、それぞれのサイトを別のIPアドレスでホストし、非公開のwhois情報を用いて、そして、各サイトで異なるテーマ(テンプレート)を利用すると良い。

    エクセルを使って、ネットワークを簡単に管理することが出来る。スプレッドシートを作り、ドメイン名、ホスト、IPアドレス、そして、テーマの欄を用意する:

    後は、サイトに独自のコンテンツを投稿していくだけだ(もちろん、サイトにリンクを張る必要がある)

段階的なリンク構築

既存のリンクの力をアップさせる上で、段階的なリンク構築が大いに役立つ。リンクピラミッド、リンクホイール等の複雑なアプローチは人気が高いが、大抵、得られる価値よりも多くの問題を引き起こす。それどころか、もともと価値のないページにガラクタのようなリンクを向ける傾向がある(フォーラムのプロフィールリンクやブログのコメント)。それよりも、投稿リンク、ゲスト投稿、その他の質の高い階層 1のリンクを追加の単一の階層を使って、パワーアップさせる方が、遥かに効果的である。

  1. シード記事の作成 & スピン

    二番目の階層をインデックスしてもらうため、コンテクスチュアルな二層目のリンクに焦点を絞るべきである。The Best Spinnerを使って、オリジナルのシード記事をスピンすれば、この作業を容易に実施することが出来る。このプログラムは、スピンソフトウェアの中で、最も大きな類義語のデータベースを持っている。

    まず、オリジナルの記事をコピーし、このソフトウェアに貼り付ける。

    「Auto-Select Synonyms」(類義語の自動選択)をクリックして、記事のスピンを任せることも可能だ。しかし、個人的には、読むことが出来る文章になるように、自分で記事をスピンすることを薦める。その場合、記事内のワードやフレーズを右クリックする。

    すると、類義語のリストが表示される。好きなだけ多くの類義語を加えて構わない(理に叶っている場合)。青の括弧内のワードは全て類義語であり、コンテンツをスピンするために利用することが出来る。

    記事全体で意味が通じる類義語を見つけるまで、この作業を繰り返す。

    終わったら、「Publish」(配信する)をクリックする。

    続いて、「Generate Articles」(記事を生成する)をクリックする。

    20-40点の記事をスピンしたバージョンをエクスポートする。

  2. 適切なウェブ 2.0のサイトを作る

    ウェブ 2.0は、かつてのように被リンク構築の万能薬としての効果は期待できないものの、今でもリンクに十分なパワーを送り込んでいる。事実、グーグルは、充実し、活発で、適切なウェブ 2.0のサイトの価値を認めている。そこで、時間をかけずに、読みやすいスピンした記事を使って、ウェブ 2.0サイトを多数作ることが出来る方法を伝授する。

    まず、影響力の強いウェブ 2.0のサイトでブログを作成する:

    大半のウェブ 2.0サイトを設定するプロセスは、割と簡単だが、グーグルに確実にインデックスしてもらい、サイトに価値のあるリンクを向ける方法を手順を追って紹介していく。タンブラを例にとって説明する。

    まず、https://www.tumblr.com/にアクセスする。続いて、登録し、eメールを確認する。

    サイトの名前、または、ターゲットのキーワードを使って、ユーザー名を決める(利用可能な場合):

    ウェブ 2.0のサイトにおいては、まず、アバターと経歴欄を含む詳細を出来るだけ埋めていく必要がある。

    次に、1本目の投稿を加える。「Text」ボタンをクリックする。

    キーワードを詰め込んだタイトルを作成する(The Best Spinnerを使って、記事のタイトルをスピンすることが出来る)。スピンした記事の一つを貼り付ける。

    サイトの嵩を増やすため、イメージを追加し、ユーチューブの動画をエンベッドする:

    後は、サイトに向かうリンクを入力し、「Publish」(投稿)ボタンをクリックするだけだ。

  3. 階層 1へのソーシャルブックマーク

    階層 1のリンクにソーシャルブックマークを送り込む手もある。大量のソーシャルブックマークを介してスパムすることに意味はないものの、少量のブックマークを使って、リンクが掲載されているページに活力を与えることは可能である。

    無料でソーシャルブックマークを構築することが可能なサービス — SocialADR.comを利用する。

    http://socialadr.com/にアクセスして、無料のアカウントを作成する。ダッシュボードにログインしたら、「Social Accounts」(ソーシャルアカウント)と「Setup Wizard」(セットアップウィザード)をクリックする。

    57

    すると、すぐにソーシャルブックマーキングサイトでアカウントを作成することが出来る。他のサイトのコンテンツをブックマークすると、クレジットを得られる。このクレジットを自分のページに対するソーシャルブックマークに変えることが出来る。もしくは、単純にクレジットを購入することも可能である。

    ウィザードが、各アカウントを設定する上で必要な手順を説明していく:

    終わったら、「Quick Share」(すぐにシェアする)ボタンをクリックして、幾つかクレジットを獲得する。

    ブックマークを得る準備が整ったら、「Bookmarks」と「Add Bookmark」(ブックマークを加える)をクリックする。

    スピンしたブックマーク用のタイトルと説明文を加える。

    幾つか関連するタグを入力する。

    カテゴリーを加える。

    一番下までスクロールし、「Save」(保存)をクリックすると、ブックマークは待機状態になる。

    すると、翌日または翌々日に反映されていく。

ウェブディレクトリ

現実を直視しよう — 大半のウェブディレクトリは、全く利用する価値がない。しかし、一部のディレクトリは、信頼性とオーソリティをサイトにもたらす。効果のあるディレクトリはとても少ないため、「40万サイトのディレクトリに投稿します!」と謳うサービスよりも、影響力のある少数のディレクトリに投稿する方が無難である。

以下に投稿する価値のあるディレクトリの一部をリストアップしていく:

投稿からより多くのパワーを得る

大半のウェブマスターは、ターゲットにしている、最も関連するカテゴリーにサイトを投稿する。これは、大きな過ちである。実は、最もPRの高いカテゴリーを選ぶと、ディレクトリのリンクの価値を倍増させることが出来る。

例えば、Canny Link Directoryにビジネスのウェブサイトを投稿するケースを想定する。

一見したところ、Business Software(ビジネスソフトウェア)のカテゴリーは、理に叶っているように思える。

しかし、ページのPRを見てみると、測定不能であることが分かる。

投稿の効果を上げるため、サイトにとって適切であり、尚且つPRの高いカテゴリーを探す。

Cannyでは、カテゴリー「Business Opportunities(ビジネスの機会)」がPR 4を獲得している。

カテゴリーに関連しているなら(たとえ多少無理があっても)、出来るだけオーソリティの高いカテゴリーに投稿するべきだ。

寄付と後援による被リンク構築

寄付と交換条件で、dofollowリンクを獲得する取り組みは、グーグルの視点では、NGである。しかし、寄付による被リンク構築は、強力且つ熟成したリンクを獲得する上で、費用対効果が非常に高いため、ホワイトハットのキャンペーンに盛り込みたい手法だと言えるだろう。

以下に、宝の山を見つける際に役立つ検索の文字列を幾つか挙げていく:

  • “寄付” + “リンクを加える”
  • “キーワード” + “スポンサー”
  • “寄付” + “下 リンク”
  • “企業スポンサー”
  • “スポンサー” + “リンク あなたの”
  • “寄付者 名簿”

スポンサーにfollowedリンクを提供しているページを探す。


見つけたら、寄付(通常はPayPal経由)して、リンクを獲得する。

以上!

これで上級者向けリンク構築ガイドを全て読み終えたことになる。それでは、積極的にリンクを構築していこう!

究極のリンク構築ガイド


この記事は、Quick Sproutに掲載された「The Advanced Guide to Link Building : Chapter 12」を翻訳した内容です。[G+]

検索エンジンをスパムするリスク

久々にSEOの話題の気がしますが汗、今回はSEOはSEOでもスパム寄りなSEOをする際のリスクについて語った記事をサーチエンジンランドから。 — SEO Japan

spam-confusion-ss-1920

毎年、私は時間と専門知識を立派な活動に投じている。今年は、Googleのスパムペナルティを解除しようと試みる小さな会社に手を貸すことにした。

支援したくなった理由を明かそう。Googleのペナルティを受けたのは1年以上前であり、それ以来、この小さな会社は、3社のSEO会社が作成したリンクを一掃する作業を行ってきた。その中には、「柄の悪い」ネットワークも存在した。

その時、自分のウェブサイトがスパムペナルティを科され、1年以上も検索エンジンのトラフィックを失ったらどうするか私は考えてみた。

なかなか鋭い疑問だったと私は思う。

検索エンジンのトラフィックを失う影響

仕事柄、私はスパムペナルティにより、検索エンジンのトラフィックを失う影響を何度か見てきた。

その一部はオンラインパブリッシャーであった。トラフィックの大半は検索エンジンから寄せられていた。検索エンジンのトラフィックを失った結果、広告収益は減少してしまった。その上、検索エンジンで見つけてもらうには、有料検索広告を使うしかなく、よって広告費は嵩んだ。

どちらも数値化することが出来る。すべての検索エンジンのトラフィックを失うと、どれだけ収益は減少するのだろうか?適格な検索エンジンのトラフィックを維持するためには、いくら広告に支出する必要があるのだろうか?この2つのシナリオを数値化するだけでも、有意義である。

また、1-10段階でオンラインの評判への影響を評価してもらっている。もちろん、この評価は若干感情に左右される。ほぼ全てのクライアントは、オンラインでの評判をとても重視していると主張する。

ウェブパブリッシャーに関しては、最新の情報の情報源として認識されることは、成功する上で欠かせない条件である。

このような影響を私が指摘するのは、ウェブサイトの運営者が、特定のSEOの手法を実施する選択を行う前、あるいは、SEO会社を採用する前に、適格な検索エンジンのトラフィックを失う財務および評判におけるインパクトを計算していることを確認したいためだ。

現在、適格な検索エンジンのトラフィックを獲得している場合

現在、検索エンジンのトラフィックを獲得していると仮定する。その際、収益のリスクにおいては、単純に計算することを薦める。次のアイテムを盛り込んでおこう:

  • リード
  • ダイレクトセールス
  • 短期間、または、1度切りのセールス
  • 繰り返しのセールス、または、繰り返しの注文
  • 広告の経費
  • アウトソースの経費(アウトソースした場合)
  • 検証(GoogleやBingでクエリを検索しても、ウェブサイトが見つからない場合どうなるのか?)

スタッフの時間や人件費等の経費も忘れずに組み込んでもらいたい。.

この作業は、100%正確な数値を出すためではなく、トラフィックを失った際に、オンラインでの影響力にどの程度のインパクトをもたらすのかを大雑把に見積もるために実施する。

現在、適格な検索エンジンのトラフィックを少ししか得られていない場合、または、全く得られていない場合

「リスクはない」と考えたくなるかもしれない。しかし、実際にはこのような状況においても意外なコストが存在する。

ウェブサイトを作り、立ち上げ、そして、維持するために、どれぐらいの時間と資金を投じたのだろうか?ホスティング、デザイン、開発、ネット接続等のコストが生じているはずである。

ナビゲーショナルなクエリからのみトラフィックを受けているとしても、このトラフィックを失うとどのような影響が出るのか考えてもらいたい。

注記: ナビゲーショナルクエリとは、検索エンジンのユーザーが特定のウェブサイト、または、ウェブサイトの特定のページにアクセスすることを望む際に用いるクエリを指す。ナビゲーショナルクエリのことがよく分からないなら次の記事に目を通しておこう:

脅しではなく、これが現実

この記事を書いたのは、脅すためではなく、検索エンジンのガイドラインを無視して、マイナスの影響を受けているサイトを頻繁に見かけるためだ。

また、スパムペナルティによって、SEO業者が全般的に信頼されていない現状も私は実感している。

例えば、州の家庭内暴力からの避難所のサイトに関して、お互いにリンクを張るべきだと私は思っている。このようなタイプのリンクネットワークは、家庭内暴力の被害者を助けることが出来るかもしれない。

しかし、スパムペナルティを科され、1年以上もトラフィックを失ったサイトに対しては何と言えばいいのだろうか?相互リンクに関しては、検索エンジンのユーザーと検索エンジンに対して、(上の例のように)コンテンツが正当であることを証明する正当で、望ましいアプローチとは言い難い。

大勢のSEOのエキスパートはGoogleやBingの品質ガイドラインに忠実に従っているため、残念で仕方ない。

この記事から学んでもらいたいのは、スパムペナルティのリスクを無視するべきではないと言うことだ。この忠告を素直に受け入れてもらいたい。きっと後悔はしないはずだ。

他の読者の方々と分かち合いたいスパムペナルティに関するストーリーを持っているなら、コメント欄で発表してもらえると嬉しい。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもSearch Engine Landを代表しているわけではない。


この記事は、Search Engine Landに掲載された「Calculating The Risk Of Search Engine Spam」を翻訳した内容です。

まだまだ人口リンクが通用する部分もある検索エンジンのアルゴリズムですが、ペナルティを受けるリスクは当然あるわけですし、その際のトラフィック減少は避けられません。そのリスクを考えた上でSEOに取り組みましょう、という極めて当たり前の記事でしたが、中々そこから脱却しきれない方もまだ多いと思います。こういった記事が完全に過去のものとなる日はいつ頃になるのでしょうか。 — SEO Japan

Googleが進化すると、検索経由のアクセスが激減する?

Googleのデータ構造化活用が進んでいますが、その結果、Googleが検索結果ページに取得したデータを積極的に表示し、その結果、検索結果ページから外部URLリソースへの誘導が減るのでは、という懸念が広がっているようです。それに対するSEOの専門家の見解を紹介する記事をサーチエンジンランドから。 — SEO Japan

google-white2-algorithm-seo-ss-1920

最近、Googleは、Structured Snippets(構造化スニペット)を導入したと発表した。構造化スニペットとは、関連するデータを直接検索結果に表示する取り組みである。

Googleによると、表示されるコンテンツは、ナレッジグラフ、そして、その他のデータソースから抽出されるようだ。

Search Engine Landのニュース編集者、バリー・シュワルツは、記事「Googleの構造化スニペットが見つかる場所」の中で、Googleが、ウェブサイトのコンテンツを直接検索結果に表示する姿勢を強化することで、サイトのビジターが減ると懸念していた。

Googleが、検索結果の表示に関する決断を下した後では、何を言っても後の祭りだが、構造化スニペット、そして、Googleが所有権を持たないウェブサイトのコンテンツを引き続き抽出する行為に関して、5名のSEOのエキスパートに意見を聞くことにした。

それでは、一流のエキスパートによる見解を、早速、紹介していこう:

構造化スニペットに対するSEO業界のリアクション

ann-smarty-400

アン・スマーティー

構造化スニペットに対して、懸念を持っていますか?

スマーティー: 今のところ、懸念を持つような状況には遭遇していません。

経験上、構造化スニペットの情報は、十分とは言えず、サイト内部にもっと情報があることをユーザーに伝える効果があります。構造化スニペットは、リスティングを目立たせ、好奇心を刺激するように思えます。

そのため、私は心配していません。

Googleによる、ウェブページから答えを抽出し、直接検索結果に表示する継続的な取り組みに対して、どの程度懸念を持っていますか?

Googleが、検索エンジンではなく、パブリッシャーのような役割を果たそうとしている点に関しては、懸念を抱いています。しかし、今回の件に関しては、情報を把握する試みをウェブマスターに押し付けるのではなく、自力で解決しているため、満足しています。

今回に関しては、Googleは「このコードを使いなさい。時間を割いてウェブページをコーディングをやり直せば良いことが起きるかもしれません。数年後にこの実験を中止する可能性はありますが…」と言っているわけではないのです。

今回、Googleは、既存のコードと情報を活用しているだけであり、今後の展開を楽しみにしています。

eric-enge-400-white

エリック・エンゲ

Googleの構造化スニペットに関する意見を聞かせて下さい。

エリック・エンゲ: Googleのこのタイプのスニペットには、大勢の人達が懸念を持つようになると思います。当然です。それは致し方ないでしょう。

以下のSupermanの例を見れば分かるように、データはimore.comのウェブサイトから抽出され、SERPに表示されています。

Eric Enge structured snippets image

ここで2つの興味深い疑問が浮かびます:

1. Googleが表示する情報はパブリックドメインに該当するのか?

私は法律の専門家ではありませんが、妥当な情報だと思えるパブリックドメインの情報なら自由に利用することが出来ると確信しています。著作権の対象にならないからです。

例えば、オリンピアはワシントン州の州都です。この情報を個人のウェブサイトから学んだとしても、関連しているなら、利用することが出来ます。つまり、パブリックドメインの情報を基にパブリッシングのビジネスを構築するのは得策とは言えません。

2. 米著作権局が定義するフェアユースに該当するのか?

該当するなら問題はありません。フェアユース(公正利用)の概念は複雑であり、許容範囲は曖昧です。第三者のサイトから得るコンテンツの量が鍵を握ると思います。

別のサイトを引用する人達、あるいは、第三者の著作権保護された作品のフェアユースの利用を試みる人達の間では、ソースを明らかにする行為は常識です。しかし、アメリカの著作権局は、「著作権のある作品のソースを示す行為は、許可を得る行為の代わりにはならない」と指摘しており、これだけでは十分ではない可能性があります。

フェアユースの議論は、米国に限られ、法律は国によって異なる点を忘れるべきではありません。Googleは、この件に関して、いずれ説明を求められるでしょう。

shari-thurow-400

シャリ・サロー

構造化スニペットに関して、懸念を持っていますか?

シャリ・サロー: はい。しかし、大勢のSEOのエキスパートとは異なる懸念を持っていると思います。

Googleの経営陣が、簡単なクエリに対して答えを与えて、UXを良くしたいと望む理由は理解しています。

私の懸念は、Googleがウェブサイトからトラフィックを「盗む」ことではありません。むしろ、Googleが推奨する方法で、多くのサイトが、単純な情報を知るためのクエリに対する答えをフォーマット化したため、Googleが誤って答えを提供してしまうことの方が怖いのです。

どのようにコーディングしようが、どのような形式を用いようが、質の低いコンテンツは、質の低いコンテンツです。

例えば、WikipediaのSEOの定義をチェックして下さい。この定義には私は納得できません。構造化スニペットによって、この定義は受け入れられてしまうのでしょうか?その可能性はあります。

それが私の懸念です。提供する情報が事実に基づいている点を証明するために、Google、あるいは、他のサービスの好むフォーマットに合わせなければいけない状況は好ましくありません。

Googleは、どのようにこの問題を解決すると思いますか?

シャリ・サロー: 適切な引用に関して積極的に関与するなら、ナレッジグラフに対する引用が、100%疑う余地がない点をGoogleは裏付ける必要があります。つまり、何もかも明らかにしなければならないのです。

Googleが、ウェブページから答えを抽出し、直接、検索結果に表示するアプローチを強化している点に関して、どの程度懸念を持っていますか?

シャリ・サロー: 検索結果のリスティングのために、コンテンツを取り出す行為ですか?正直に言うと、Googleが登場する前から、検索エンジンは、ウェブページから一部を抽出してきました。.

価値の判断は、厄介な問題です。現在、Googleの言うことは何でも真に受ける状態になっています。Googleが上位に格付けした文書は、「正しい」答え、もしくは、「最善」の答えだと心から信じているのです。

私達の社会では、検索結果を批判的に評価する方法も、クエリを形成する方法も教えていません。

私はテクノロジーに偏ったデザインは好きではありません。Googleはこの傾向を強めており、私が懸念を抱いているのは、まさにこの点です。

この問題に関して、何か特別なことをしていますか?

シャリ・サロー: 当然です。現在、Googleでテストを行っています。そのうち結果を発表する予定です。

AJ Kohn headshot

AJ コーン

Googleが検索結果にコンテンツを直接する方針を推進している件を問題視していますか?

AJ コーン: Googleの構造化スニペットに関しても、Googleがウェブページから答えを取り出し、検索結果に表示する取り組みに関しても、特に心配していません。

「ザック・エフロン 年齢」、「アルフ 声優」等の問いに対する答えを提供する取り組みに収益を依存してきたのなら、今まで運が良過ぎたのです。

このようなクエリの裏側にある隠れた意図を理解し、答えに関する豊かなUXを提供することが出来るかどうかが、勝者と敗者を分けるでしょう。

Derek Edmond headshot

デレク・エドモンド

ウェブページから答えを抽出し、直接検索結果に表示する取り組みをGoogleが推進している点に関して、懸念を持っていますか?

デレク・エドモンド: 広告収益を引き続き得るために、ユーザーをGoogleに留める必要がある事実に関しては、理解しています。また、大方、構造化スニペットを表示するサイトにメリットを与えるように情報を提示しているような気がします。

私達に出来ることはほとんどないため、特に懸念は持っていません。

ウェブサイトのパブリッシャーには、お馴染みのことですが、結局、私達ユーザーは力不足なのです。Googleの要求に応えざるを得ないのです。今回の件からも分かるように、オンラインビジネスを運営しているなら、自分でオーディエンスとネットワークを構築することが、何よりも重要だと言えるでしょう。

Googleは、営利団体であり、時代の最前線を進み、利益を得るためには、ルールの範囲内でなら、何をしても許されるのです。

とは言いましたが、Googleの成功は、文字通り、第三者のソースから情報をキュレートする能力にかかっています。Googleの取り組み、そして、(参照情報、そして、リンクに対する一連の基準に関して)第三者に強制する取り組みとの間には、笑ってしまうほど、皮肉としか言えない矛盾があります。

この新しい方針により、仕事のアプローチを変更、もしくは、修正しましたか?

デレク・エドモンド: いいえ、全く変えていません。

個人的な意見ですが、検索エンジンの結果で上位にランクインすることで得られる見返りは、Googleが、情報に基づいて構造化スニペットを表示したために少量のトラフィックを失うリスクよりも重要だと思います。

そもそも、Googleが、私達(もしくはクライアント)の情報に基づいて、構造化スニペットを表示するなら、それは信頼、そして、ブランド構築、そして、マーケティング戦略を認証した証だと考えています。


この記事は、Search Engine Landに掲載された「Reaction: What SEOs Think About Facts & Answers Showing In Google Search Results」を翻訳した内容です。

色々な意見はあるようですが、この傾向が進んでいけば、多少のトラフィックは減るでしょうね。そもそもバーティカルサイトなどは既にGoogleのユニバーサル化で、相当トラフィックを落としているわけですし。極端な話、将来的にはGoogleが勝手にウェブページの情報を集約して全てGoogle Glassやスマホの音声上で、大半の情報収集は解決してしまう、なんてことも十分ありえるわけですし。ソーシャルメディアやアプリの普及で、ウェブサイトやウェブページの意味や意義が問われている今日ですが、10年後、というか、5年後でも相当変わっていそうですし、ウェブ集客の概念自体が全く違うものになっているかもしれません。

記事にあった「ザック・エフロン 年齢」、「アルフ 声優」のSEOが運が良すぎた、というコメントには笑ってしまいましたが、Google自身がキーワードを意識したSEOを推奨していませんし、ロングテールのワードにニッチに対応するSEO自体が既に終焉を向いつつあります。SEOのみでトラフィックを意図的に増やすことは以前と比べ格段に難しくなってきているのは事実ですし、SEOを意識しつつコンテンツマーケティングなりソーシャルなりに他面的に取り組むのが重要になっていくのでしょう。SEO一本で勝負してきた専門家には辛いところもあるかもしれませんが、、、それがウェブの進化でありそこで働く者の宿命でしょうか。 — SEO Japan

Click Z Live Chicago-次世代のWebサイト・ユーザビリティとSEO。最高のユーザー体験を提供するための方法とは。

優れたWebサイトを構築するためには、提供するサービスだけではなく、サイトの使いやすさやレイアウトなども考慮に入れる必要があります。こうした様々な要素を高めることで、ベストなユーザー体験を提供することができますが、どういった基準で考えればよいのでしょうか?– SEO Japan

原題:Next-Generation Website Usability: How to Optimize Your Site for the Best User Experience
Speaker:Shari Thurow, Founder & SEO Director, Omni Marketing Interactive

ユーザーエクスペリエンスとは何か?

避けたいこと
あなた自身の、マーケティング部門の、デザインチームの、技術チームの個人的な意見は全て避けるべきだ。ユーザーエクスペリエンスとはユーザーについてであるべきなのだ。

ユーザーとどう関わるべきか?
例えば、10代の場合は、細かいことは気にしないだろう。彼らとどう関わっていくべきか?ドクターのように患者を理解し、患者が理解できる言葉を用いて説明する。Webも同様だ。例えば、日本の場合は地方によって言葉が違うし、男女の違いもアメリカより大きい。そうした違いは理解するべきだ。

ユーザーエクスペリエンスとは(いくつかの定義)
“ユーザーエクスペリエンスとはエンドユーザーが企業、サービス、商品にかかわる全てのことに関係する。”
“ユーザーエクスペリエンスをデザインする場合の対象は、インターフェイス、レイアウト、ビジュアル、テキスト、ブランド、サウンド、相互関係の全てを含む。これらの要素をコーディネートすることでユーザーとのベストな関わり方を構築することができる。”

ユーザーエクスペリエンスを向上させよう

ユーザーエクスペリエンスの7つの要素
1.Usable(使用可能な状態であること)
2.Findable(発見される状態であること)
3.Useful(便利であること)
4.Valuable(価値があること)
5.Credible(信頼性があること)
6.Desirable(望まれているものであること)
7.Accessible(アクセス可能であること)

1.Usable
名詞にするとUsability(ユーザビリティ)。そして、ユーザビリティはユーザーエクスペリエンスではない。また、個人的な意見でもない。Webサイトにおけるユーザビリティはタスクとゴールが常に存在する。あなた自身が設定し、到達できるものだ。

ユーザビリティとは
Webサイトがユーザーの求める特定の行動を、効果的に、効率的に、満たすために使用されるようにすること。

ユーザビリティにおける6つの要素
1-1.Effectiveness(有効性)
1-2.Efficiency(効率性)
1-3.Learnability(学習しやすいサイトか)
1-4.Memorability(容易に覚えてもらえるか)
1-5.Error Handling(エラーハンドリング)
1-6.Satisfaction(充足感)

1-1.Effectiveness(有効性)
訪問者はあなたのWebサイトで目的を完了できるか?できていない場合は、どんな要素がユーザーの煩わしさやあきらめを生み出しているのか?例えば、サインインか登録のみのサイトである場合は、チェックアウトもできるようにしよう。

1-2.Efficiency(効率性)
訪問者があなたのサイトで特定のタスクを終えるまで、どのくらいの時間がかかるか?ステップはいくつ設定しているか?

ヘルプ画面について
注目すべきはヘルプタイムとプロダクティブタイム。ヘルプタイムは問題が生じたときにユーザーがそれを解決するまでの時間。プロダクティブタイムは、ユーザーがヘルプを使用しない、生産性のある時間の総量。また、全てのサイトはサポートセクションを作成するべきだ。なぜなら、全てのユーザーを完璧に満足させるサイトなどは存在しないのだから。

1-3.Learnability(学習しやすいサイトか)
訪問者が今まで一度も訪れていない場合、あなたのサイトの使い方を学ぶまで、どのくらいの時間が必要か?また、容易に行うことができるか?ナビゲーション、ラベリング、クリック(タップ)ボタン、などが対象になる。ナビゲーションはわかりやすく設置しよう。

タブレットで行うべきこと
・タップ可能な領域は、タップ可能に見えるようにし、実際にタップ可能にする。
・意図しないタッチを防ぐ。多くのクリック可能なボタンを限られたスペースに配置しない

・読みやすいよう、高いコントラストを用いる。Color Contrast Checkerでは、色覚障が
いのユーザーでもはっきりと読むことができるかを確認できる。タブレットに求められるフォントサイズは異なることを忘れないこと。

タブレットで行うべきでないこと
・インフォメーションアーキテクトの概念を含まない。
・一般的なタブレットにおける操作(タップ、フリック、ピンチ等)に対応していない。

1-4.Memorability(容易に覚えてもらえるか)
以前訪問したユーザーが、目的を再度達成するために、どの程度簡単に早くあなたのサイトを思い出すことができるか。サイトのことを覚えてもらえれば、再度訪問しくれるようになる。

1-5.Error Handling(エラーハンドリング)
どういったエラーを、どのくらいの頻度で、ユーザーが典型的に犯すか。サーバーのエラーは起こりやすいか?また、こうしたエラーからの回復は、どの程度かかるか?

1-6.Satisfaction(充足感)
ユーザーはあなたのサイトをどの程度気に入っているか?ユーザーはあなたのサイトを友人に薦めたいと思っているか?

ユーザービリティのまとめ
・ユーザービリティは個人の意見ではなく、完了すべきタスクだ。
・ユーザービリティのテストはユーザーが何を行うかだけではなく、なぜ行うかを明らかにする。
・ユーザービリティのテストには、上記6つの基準を使用しよう。

2.Findable
名詞はFindability(ファインダビリティ)。ロケーションとナビゲーションの質についての基準。特定の目的が簡単に発見されるようになっているか?システムや環境がどの程度ナビゲーションと検索をサポートしているか?

ファインダビリティにおける3つの要素
理想的な状況は、コンテンツが、ブラウジング、他人への質問(会話)、検索、の3つを経由して発見されるようになっていること。ソーシャルでの露出(最適化)、検索エンジンの最適化、検索広告、の3つを駆使すると言い換えることもできる。ファインダビリティの対象はユーザーとテクノロジー(検索エンジン)だ。両方のニーズを満たすための、インフォメーションアーキテクトを目指そう。

3.Useful
名詞はUsefulness(利便性)。その商品、サービス、情報、ナビゲーション、検索機能はユーザーにとって便利であるか?利便性のあるコンテンツはリンクを獲得しやすく、ソーシャルでの拡散も期待できる。ツール、ハウツーやアドバイス、動画、参照記事やガイドなどが例に挙げられる。リンクビルディングはサイトの構築段階から組み込むべき概念だ。

4.Valuable
組織の目的は、ROIの達成と顧客満足度の向上の2つにある。そのためには、ユーザーの目的と期待を満たさなければならない。

5.Credible
名詞はCredibility(信頼性)。そのサイトが提供するものを、ユーザーが信頼し、信用することに影響する要素。テキスト、ラベル、継続的な発行などの要素がある。スタンフォード大学による、Webサイトの信頼性を高めるためのガイドラインを参照して欲しい。サイトで使われる色も影響する。例えば、アメリカではオレンジは警告とチープなイメージがある。

6.Desirable
そのコンテンツは、ユーザーから本当に求められているものか?望まれているコンテンツは、イメージのパワーと価値、アイデンティティ、ブランドやその他の感情的な要素に訴えかける。

色について
エモーショナルなデザインは単純に見かけ以上の効果を産む。また、個人の主観・好みで決定されるべきではない。例えば、色は地域、性別、心理状況、認識のされやすさ、などの様々なコンテクストによって意味が決定される。紫は男性にとっては最も魅力的なカラーだ。黄色はインドではハッピーな色だが、アメリカでは危険を意味する。

7.Accessible
ユーザーとテクノロジーの両方にとってアクセス可能にしなければならない。Webサイトは(全人口の10%以上もいる)障がい者にとってもアクセス可能であるべきだ。Facebookのロゴが青である理由をご存知じだろうか?マーク・ザッカーバーグ氏は色覚障がいなのだ。特定の色が見えない人に配慮したカラーバリエーションが望まれる。

開発者とデザイナーとのバランス
機能性とデザイン性を巡ってしばしば議論になるだろう。そうした場合は、ユーザーエクスペリエンスの定義から始めてみよう。それぞれの個人的な意見は必要ない。チェックリストを提示してそれらを満たしているかを確認させるのだ。チェックリストに含める要素は、上記の7つを参考に。決定が難しければ、ユーザービリティディレクターという担当を作るのも一つの方法だ。また、アナリティクスはコンテクストを伝えてはくれない。人と話すのが一番の近道だ。

まとめ
・ユーザーエクスペリエンスはオフラインの世界にも影響を与える。
・ユーザビリティはユーザーエクスペリエンスではない。しかし、ユーザーエクスペリエンスの決定的な要素だ。
・ユーザーエクスペリエンスを向上させるために、上記7つの要素を意識しよう。

複数の要素がありますが、うまくまとめてくれたセッションだと感じています。検索エンジンと障がい者(全人口の10%以上とは知りませんでした!)を含めたユーザーの両方を満たす設計、ということを強調していました。いわゆるSEOで気にする点とは異なるものばかりでしたが、こうした点を改善し、顧客満足度を高めることで、結局はSEOの目的も達成できるのかもしれません。サイト設計者やシステム担当との兼ね合いは難しいとは思いますが、ぜひとも挑戦したい分野ですね。
– SEO Japan