上級者向けSEOガイド9/9 : YouTube&スライドショー、モバイル&ローカル、ソーシャルメディア連携

少し前に連続して紹介した上級者向けSEOガイド、全て投稿したと思っていたら、最後の1本を忘れていました汗。ということで、慌ててここに紹介したいと思います。これまで紹介してきた内部最適化、外部リンク構築等のダイレクトなSEO手法に限らない、YouTubeからプレゼン資料、モバイルにローカル、ソーシャルメディア連携までトラフィック増加に役立つ様々な手法とティップスを一挙に紹介してくれている最後にふさわしい記事になっています。 — SEO Japan

ウェブだけでなく、その他の検索のバーティカルで、サイトを運営しているなら、良質なトラフィックを活用することが出来る立場にいる。バーティカルは、SEOにおいては頻繁に取り上げられるトピックではないが、コンバートしやすい、ターゲットの絞られたトラフィックを獲得することが可能である。

このチャプターでは、ローカル、モバイル、スライドショー、ユーチューブ等をピックアップして、説明していく。


1. モバイルフレンドリーなウェブサイト – CSS

モバイルのユーザー専用のレイアウトを表示するための選択肢が、数多く存在する。ただし、「m」のサブドメイン等、重複するページを利用する問題が消えるわけではない。

そのため、重複するコンテンツの問題を解決し、より良いモバイルのユーザーエクスペリエンスをもたらす、動的なCSSを利用するメソッドを手順を追って説明していく。主に2つのプロセスに分けられる。

1. ユーザーエージェントを特定する

2. 正しいCSSファイルを提供する

注記: このメソッドは、ワードプレス、またはその他のPHPベースのCMSに利用することが出来る。

ステップ 1 – ユーザーエージェントを検出するコードを作成する

a. まずは、通常、ヘッダーに表示される、次のコードの列を利用する。

<link rel="stylesheet" type="text/css" media="all" href="" />

‘href’の部分は空である。ここにPHPを加えていく。

b. このPHPを利用する。

<?php

if(preg_match('/(up.browser|up.link|mmp|symbian|smartphone|midp|wap|phone|android)/i', strtolower($_SERVER['HTTP_USER_AGENT']))) {

echo "**LINK TO MOBILE CSS FILE**";

}

else {

echo "**LINK TO NON MOBILE CSS FILE**";

}

?>

このPHPコードはベーシックなコードであり、モバイルブラウザを検知すると、モバイルのCSSファイルを供給する(次のステップで作成する)。検知しない場合(“else”)、通常のCSSファイルを供給する。

c. コードをまとめる – すると次のようなコードになる:

<link rel="stylesheet" type="text/css" media="all" href="<?php

if(preg_match('/(up.browser|up.link|mmp|symbian|smartphone|midp|wap|phone|android)/i', strtolower($_SERVER['HTTP_USER_AGENT']))) {

echo "**LINK TO MOBILE CSS FILE**";

}

else {

echo "**LINK TO NON MOBILE CSS FILE**";

}

?>" />

上のコードをコピーし、header.phpファイル(または、利用しているCMSに応じて、同じような場所)に貼り付ける。

その際は忘れずに“LINK TO … FILE” を実際の絶対パスに置き換えること。

ステップ 2 – 固有のモバイルCSSファイルを作成する

ここでは2つの選択肢が用意されている。

オプション 1 – CSSファイルを新たに作成する。サイトがどれだけ複雑なのか、そして、CSSにどれだけ精通しているかに左右される。全てのクラスとidの要素を一から特定しなければならず、そのため、個人的には、この選択肢はお薦めしない。

オプション 2 (最善のオプション) – 既存のCSSファイルをコピーして、モバイルで利用することが出来るように変更を加える。この作業は、次のような基本的な作業を行うだけで済むことがある:

基本的な再設定

html, body {
        background: #fff;
        padding: 3px;
        color: #000;
        margin: 0;
        }

フロートを削除する(アイテムを単一のカラムで表示する)

* {
        float: none;
        }

フッターやサイドバーを隠すことが出来る

#sidebar, #footer {
        display: none;
        }

ヘッダーを正規化することが出来る

h1, h2, h3, h4, h5, h6 {
        font-weight: normal;
        }

イメージの大きさをコントロールする

#content img {
        max-width: 250px;
        }

全てのアイテムを中央に集める

.center {
        width: 100% !important;
        text-align: center;
        }

モバイル向けにリンクをフォーマットする

a:link, a:visited {
        text-decoration: underline;
        color: #0000CC;
        }
a:hover, a:active {
        text-decoration: underline;
        color: #660066;
        }

iPhone特有のスタイルを加えることが可能

@media only screen and (max-device-width: 480px) {

        html {
                -webkit-text-size-adjust: none;
                }


2. オンラインスライドショーの最適化

スライドは、オンラインであまり利用されることがないコンテンツの一つに数えられる。動画、イメージ、ニュース、そして、ブログのコメントを最適化している人は大勢いる。しかし、スライドショーは競争の激しいマーケットで、実は上位にランク付けされるポテンシャルを持っている。

「startup」で7位に表示されているランド・フィッシュキン氏のスライドショーを確認してもらいたい。

スライドショーを上位にランクインさせるために、できることが幾つかある – そして、スライドショーへのビジターを増やし、ことによると、リファラーのトラフィックをサイトにもたらすことが出来る。

1. ターゲットのキーワードを選ぶ)

フィッシュキン氏は、次のキーワードを選んでいる:

[marketing for startups]

[inbound marketing for startups]

2. タイトル、URL & オンページの要素を最適化する

スライドをアップロードする際は、タイトルのフィールドが<title>タグとURLになる。そのため、必ずターゲットのキーワードをタイトルに組み込む必要がある。

フィッシュキン氏が作成したタイトルは、個性的ではあるものの、キーワード「inbound marketing for startups」が含まれている。

ご覧のように、タイトルとURLにこのキーワードが含まれている – 長さも理想的である。

3. スライドショーをクリック可能にする

スライドの一番下にリンクを組み込む必要がある。SEO的な価値はないものの、大量のリファラーのトラフィックをもたらす可能性がある。

4. ウェブサイトにスライドショーをエンベッドする

ランド・フィッシュキン氏は、スライドショーをSEOmozのブログにエンベッドしている。

5. プレゼンテーションをSlideshareのホームページに掲載する

Slideshareを利用すると、初日に大勢のユーザーに共有され、見てもらえた場合、プレゼンテーションをホームページに掲載してもらえることがある。その結果、さらに多くのページビューとトラフィックを獲得することが出来るようになる。

  1. 共有する準備が整ってからスライドをアップロードすること。
  2. スライドを投稿したらすぐにソーシャルネットワークで共有し、当該のネットワークの知り合いに共有してもらおう。
  3. bitly.comを使って、容易に共有することが可能なリンクを作る。

6. プロフィールを最適化する

スライドショーのプロフィールには、リンクを加えることが出来る。これはfollowedリンクではないが、それでも、リファラーのトラフィックをもたらす価値がある。

おまけのアドバイス: その他のプレゼンテーションサイトを試してみよう:

Slideshare以外にも多くのスライドショーのサイトが存在する:

www.slideboom.com

www.authorstream.com

www.sliderocket.com

www.prezi.com

www.scribd.com

www.myplick.com

Slideshareほどユーザーは多くないが、それが故に目立つことが出来る可能性もある。


3. ユーチューブを使ってサイトにトラフィックをもたらす

注記: このセクションで紹介するアドバイスの一部は、「ホワイトハット」の範疇を若干超えている。リスクの許容範囲および判断については、皆さんにお任せする。私は単純に技術的な事実を指摘しているだけであり、このような利用を常に推奨しているわけではない。しかし、オプションがあることを知っておく点は重要である。

それでは、ユーチューブで動画の視聴回数を増やし、リファラーのトラフィックを呼び込む方法を紹介する。

また、質が高くない動画を使って、アカウントを埋めたくなる気持ちは分かるが、長い目で見ると、出来るだけ質の高いコンテンツを利用した方が望ましい結果を得られる。

順番は重要ではないので、以下の手順を「パート」と呼ぶことにする。

パート 1 – 複数のアカウントを作る

リフォーム業界に関連するサイトを運営していると仮定する。会社の名前は「Quality Hardware」である。

その場合、次のブランドページを用意しておきたいところだ:

  1. /qualityhardware

また、その他の人を形容するアカウントも作る:

  1. /diyguy
  2. /homerepairman
  3. /toolshandyman
  4. /hammersandnails

1つのスプレッドシートにまとめ、アカウントと進捗状況を記録していく。

パート 2 – 3-4本動画を作成する

宣伝しているウェブサイトの要点を表現する動画を3-4本作成する。

質が高く、短い動画を心掛ける。

パート 3 – 動画に少し変更を加える(アカウントごとに変更する)

次に同じ動画を複数のアカウントに投稿していく。その際、ユーチューブの自動検出システムに同じ動画としてフラグを立てられることがないように、少し変更を加えていく必要がある。変更を加える方法は幾つかある:

  1. 音楽を変える
  2. 背景の色を変更する
  3. タイミングを少し変える(こうすることで、異なるプレビューのイメージを得ることが出来る)
  4. キャプションの色を変える

パート 4 – アップロードする

準備が整ったら、若干変化を加えた動画を全てのアカウントに投稿する。同じ動画を利用するのは3つのアカウントに留めておこう。

つまり、7つのアカウントを運営し、4本の動画を持っているなら、7つのアカウントに展開していくことになる。

  1. 最適化されたタイトル、ディスクリプション(概要)、そして、タグを利用する – 最適化のベストプラクティスを用いて、キーワードを絞る。
  2. また、クリック可能なリンクを動画自体にオーバーレイ表示させるアイデアも検討してもらいたい。
  3. 動画を文字に起こす(ユーチューブの自動文字起こし機能は、通常、質が低いため、自分で作成し、アップロードするべきである)。

キャプションをアップロードする

1. 既にキャプションがあるかどうかを確認する。

a. ユーチューブのアカウントにサインインする。

b. 動画にアクセスする。

c. 「Caption」(字幕)にアクセスする

2. キャプションが既に存在するなら、クリックして、読んでみる。

フレームごとに分割されている – 通常、自動文字起こしツールによる作業は質が低い(笑えるぐらい)。

次のように「Download」をクリックする。

4. 編集して、新しい字幕ファイルをアップロードする。

パート 5 – リファラーのリンクを組み込む

リファラーのリンクを組み込む際は、ディスクリプション(概要)内に掲載することになる。次の手順に従って、リンクを動画に含めよう:

  1. ディスクリプションの冒頭に導入する。さもなければ、奥深くに埋まり、ユーザーに見てもらえなくなる。
  2. 「http://」を含む全てのURLを掲載する – こうすることで、クリック可能になり、nofollowリンクとして有効になる。
  3. グーグルのURLビルダー - http://support.google.com/googleanalytics/bin/answer.py?hl=en&answer=55578を使って、各リンクの成果をより具体的に計測する。
  4. サイト内の深いページにリンクを張る場合は、URL作成のベストプラクティスを採用し、キーワードと記述的なワードをURLに組み込む努力をしてもらいたい。

パート 6 – 再生回数を早く増加させる。

オーガニック & 自然なマーケティングを私は常に提案している。そのため、以下のウェブサイトの利用を薦めているわけではない。しかし、実在することは確かであり、利用するかしないかは皆さん自身で判断してもらいたい。

次の無料のサービスは、手っ取り早く視聴回数を増加させる上で役に立つ。動画の視聴回数はユーチューブにおいて、重要な要素の一つに数えられる。

http://vagex.com/

http://view2.be

http://enhanceviews.net

http://u2bviews.com/

当然だが、公正ではないオプションを利用する前に、自然且つ長期的なメソッドを一通り用いて、動画への注目を高める努力をしてもらいたい。

パート 7 – その他のユーチューブのランキングの要素

  1. お気に入り
  2. コメント
  3. 共有
  4. グッド!
  5. 登録
  6. ページ/動画への外部リンク

おまけのアドバイス:

次の方法は事前に準備する作業が少し多いものの、ユーチューブの動画の再生回数を速やかに増やす上で効果が見込める。

  1. 再生回数が多く、また、ランキングの高い、似ている動画を探す。
  2. 当該の動画のタイトル、ディスクリプション(概要)、そして、タグを確認し、自分の動画にフィットするように少し変更を加える。
  3. Post your video
  4. 次に自分の動画、そして、参考にした動画へのコメントを要請する。ユーチューブが、2本の動画のつながり、そして、願わくば価値を見出してもらうことを期待する – ユーチューブが、再生回数の多い動画と新しい動画を関連付け、新しい動画のランクを上げる可能性がある。

また、動画をウェブサイトにエンベッドしているなら – 自動再生を回避するべきである。ユーザーに嫌がられるだけでなく、エンベッドされた動画の再生回数がカウントされないと言うデメリットがあるためだ。


4. ローカル検索のテクニック

多くのローカルSEOのガイドは、リスティング全体で同じNAP(名前、アドレス、電話番号)を利用する、または、サイテーションの数を増やす等の一般的なアドバイスを終始している – このガイドでは、この手の基礎を皆さんが既に心得ていると仮定して、話を進めていく。

アドバイス #1. WHOISの情報 – NAPと一致していることを確認する。

 http://whois.domaintools.com/を使って、whoisを確認する。

アドバイス #2. ローカルのリスティングに登録する際は、実際のビジネスの場所から登録する。

アドバイス #3. GPSのデータサービスを使って、リスティングを修正する。以下に私が知っているサービスを幾つか挙げる。

http://mapreporter.navteq.com/

http://mapinsight.teleatlas.com/mapfeedback/index.php

それでは各サイトのプロセスを説明する

NAVTEQ

まず、加えたいリスティングが既に存在するかどうかチェックする。シアトルにあるこのピザレストランを例にとって説明する。

次に新しいリスティングを加える、または、既存のリスティングを編集していく。

情報を入力する。

TELEATLAS

Teleatlasでも同じようなプロセスを実施する。

アドバイス #4 – マイクロフォーマットのhCardを使って、連絡先の情報を表示させる。

hCardsは、人物や団体に関する情報をセマンティックに表示するために幅広く利用されている。

http://microformats.org/wiki/hcard

hCardをこのピザレストランのために作るとしたら、次のようなコードを用いることになるだろう:

<div class="vcard">

 <a class="fn org url" http://www.piecoras.com/">Piecoras</a>

 <div class="adr">

   <span class="type">Work</span>:

   <div class="street-address">1401 East Madison Street</div>

   <span class="locality">Seattle</span>,  

   <abbr class="region" title="Washington">WA</abbr>&nbsp;&nbsp;

   <span class="postal-code">98101</span>

   <div class="country-name">USA</div>

 </div>

 <div class="tel">

  <span class="type">Work</span> +206-322-9411

 </div>

 <div>Email:

  <span class="email">info@piecoras.com</span>

 </div>

</div>

hCardを作るため、このコードをテンプレートとして利用してもらって構わない。


5. フェイスブックのオープングラフをインストールする

これは高度なガイドである点を思い出してもらいたい。大半のウェブサイトは、残念ながら、フェイスブックのいいね!ボタンをウェブサイトに完全に統合しているとは言えない。ここからは、細部にこだわり、基本的なアプリのアカウントの作成、そして、オープングラフのメタタグの導入等、いいね!ボタンを完全にインストールする方法を手順を追って説明していく。

このガイドでは、いいね!ボタンをウェブサイトに導入するメリットを理解していると仮定する。詳細な説明はフェイスブックの文書で確認してもらいたい –  http://developers.facebook.com/docs/reference/plugins/like/

このプロセスは6つのステップに分けられる:

        1. フェイスブックアップ IDを作成する

        2. いいね!ボタンのコードを取得する

        3. オープングラフのタグを入手する

        4. いいね!ボタンのコードを統合する

        5. オープングラフのコードを統合する

        6. デバッガを使って確認する

尚、このセクション全体で、フェイスブックにログインする必要がある点に注意してもらいたい。 :-)

ステップ 1: フェイスブックアップ IDを作成する

フェイスブックページのアプリにアクセスし、“create a new app”をクリックする。

https://developers.facebook.com/apps/

ここでは、アプリを作成するための基本的な情報を入力する。アップ ID #のみを獲得する。

アップの名前にウェブサイトの名前を利用することも出来る。Continueをクリックする。

次の画面にアップ ID #が表示されているはずだ。番号をテキストエディタに保存しておこう。

アップを作成する残りのプロセスに取り掛かる。先程も申し上げたように、目的はあくまでもアップ IDを獲得することだが、フォームの入力を最後まで行う必要がある。

アイコンを加えることが出来る。

フォームの入力を完了し、変更を保存する。これでアップのIDを取得するステップは終了した。続いて、いいね!ボタンのコードを取得する段階に進む。

ステップ 2: いいね!ボタンのコードを取得する

いいね!ボタンおよびオープングラフのフォームは次のURLに用意されている:

http://developers.facebook.com/docs/reference/plugins/like/

はじめに、いいね!ボタンのコードを獲得する。非常に簡単に手に入れることが可能である。

“URL to Like”を空白にしておく(ボタンがどのページに配置されているにせよ、フェイスブックに動的にこの欄を埋めさせるため)。後はデザインと機能の選択を行うだけだ – ボタンのサイズ、顔を見せるかどうか等、皆さんの判断に任せる。

次にコードを取得する。

「Get Code」をクリックすると、次のウィンドウが表示される。

(私がこの記事を綴っている時点では)ワードプレスはHTML5と完全に互換しているわけではないため、XFBMLフォーマットを選んでおきたい。 恐らく、皆さんの多くがワードプレスを利用していると思うので、このフォーマットが現時点では最善の選択だと言える。

正確なアップ IDをドロップダウンメニューから選択する必要がある(ステップ 1で作成したID)。

ここでは、コードの3つのセクションを全てコピーし、テキストエディタに保存しておく(アップ IDと共に)。

アップ IDがマッチしていることを再確認しておこう。

これでコードを保存した。次にオープングラフのタグを取得する工程に移る。

ステップ 3: オープングラフのタグを入手する

オープングラフのタグは、ウェブサイトのヘッダーに挿入する。オープングラフのコードを獲得したページ(スクロールダウン)と同じページを利用する。

http://developers.facebook.com/docs/reference/plugins/like/

ここでは3つのフィールドに記入する。残りは空白にしておく(やはりフェイスブックに動的に記入してもらうため)。

ドロップダウンからウェブサイトのタイプを選択する。ウェブサイトの名前を入力する。

アップ IDを覚えているだろうか?IDを「Admin」に貼り付ける。

ステップ 4: いいね!ボタンのコードを統合する

繰り返すが、皆さんがワードプレスを利用していると仮定して話を進める。コードの導入部の大きな塊を「body」のすぐ下に配置していく。 ワードプレスの大半のユーザーにおいては、Editor -> header.phpファイルを採用することになる。

まず、Appearance -> Editorにアクセスする。

そこから、header/phpファイルに向かう。

オープニングの<body> タグを見つける。

一つ目のコードの塊をコピーして、[body]タグのすぐ下に貼り付ける。

次に、htmlタグ内に2つ目のコードを貼り付ける。フェイスブックの文書によると、このコードは、インターネットエクスプローラの一部のバージョンでの互換性を確立する効果があるようだ。

3つ目のコードはいいね!ボタンの部分である。今までのコードはいいね!ボタンを助ける補足のコードである。

Quicksproutでは、いいね!ボタンを右側のサイドバーに用意している。

大半のワードプレスのユーザーは、ワードプレスのウィジェット内に搭載することになる。そこで、Appearance -> Widgetsにアクセスしていく。

テーマによっては、“right sidebar”、“post sidebar”、あるいは、“pages sidebar”と呼ばれるサイドバーが用意されている可能性がある。基本的に、いいね!ボタンを掲載したいページの全てのウィジェットに対して、同じ作業を実施しておきたい。一つのサイドバーにボタンを加えれば済む人もいれば、2つ、または3つのサイドバーを利用する必要がある人もいるだろう。

“Text” ボックスを“available widgets”からドラッグして、落とす。テキストボックスを使うと、HTML等を使って、コードを挿入したり、作成したりすることが可能になる。これは多目的のウィジェットであり、いいね!ボタンのコードに最適である。

タイトルを入力することも出来る。すると、テキストエリアに見出しが加えられる。

いいね!ボタンの3つ目の部分をコピーし、“Text”ウィジェットに貼り付ける。

- ツイートボタンやピンタレスト等、その他の要素をテキストボックスに加えることも可能である。

ステップ 5: オープングラフのコードを統合する

最後のステップは最も技術が要求される手順である。しかし、ここまで辿りついたなら、諦めないでほしい。完全にオープングラフを導入することで得られるメリットを考えると、努力する価値はある。

PHPを統合するため、オープングラフのコードを新しいファイルに移し、php.fileの拡張子を使って名前をつける。このファイル自体を利用するわけではないものの、こうすることで、テキストエディタは、シンタックスとマッチさせるために色をつけるため、コードが見やすくなる。

心配する必要はない。基本的に、オープングラフのタグを完成させるために切り取り & 貼り付けを繰り返し、最終的にワードプレスのheader.phpファイルに配置するだけだ。

次のような.phpファイル内のコードが表示される。

1. テーマのタイトルタグのコードを取得する。

当然だが、タイトルタグと同じオープングラフのタイトルタグを作成する。いいね!ボタンが利用される際に、ウェブでページが表示される構造をコントロールする必要がある。

これはワードプレスのテーマのheader.phpファイルである。<title>と</title>の間のアイテムをコピーする。

テーマのheader.phpファイルに再びアクセスし(Appearance -> editor)、<title>タグを探し出す。タイトルタグの間のコードをクリップボードにコピーする。実際のコードは重要ではない。タイトルがウェブサイトで正しく動いていると仮定する。このコードは、テーマまたはSEOプラグインによって、若干異なる可能性がある。正確にコピーすることが肝要だ。

これは、コードが割と標準的であり、Yoastのワードプレス用のSEOプラグインを利用している典型的な例である。Yoastの素晴らしいプラグインを利用すると、タイトルタグのコードは常に次のように表示される:

<?php wp_title(‘ ‘); ?>

タイトルタグのコードを、次のように、オープングラフのタグ内のタイトルのプロパティの間に貼り付ける:

これは、オープングラフのタグのタイトルのプロパティにYoastのタイトルタグのコードを貼り付ける方法である。

2. 次にURLのプロパティを埋めていく必要がある。ここでは、現在のページのURLを動的にこのフィールドに挿入していく。

以下のコードのスニペットを利用する:

<?php echo $_SERVER[“HTTP_HOST”] . $_SERVER[“REQUEST_URI”] ?>

このコードを切り取り、オープングラフのタグのURLのプロパティにそのまま貼り付ける。

3. 次に、フェイスブックの指示に背き、イメージのフィールドを空白のままにしておく。なぜかと言うと、こうすることで、コンテンツを共有してくれる人には(大抵)表示させたいイメージを選ぶオプションが与えられるためだ。

4. サイトの名前を入力する。

5. アップ IDを覚えているだろうか?ここでも“app_id”フィールドにIDを入力する。

これでオープングラフのタグの準備が完了した。

7. オープングラフのコード全体をウェブサイトの<head>に貼り付ける。

再びheader.php (Appearance -> editor)にアクセスする。コードの<head>エリア内でその他のメタタグ(メタディスクリプション等)のすぐ下に貼り付ける。

これで最も難しいステップはクリアした。次にデバッグを実施する。

ステップ 6: オープングラフのテスト & デバッグ

このステップは絶対に必要なわけではないが、テスト用のツールが存在するので紹介しておく。また、オープングラフのコードのソースを確認し、ざっと目を通し、全て適切に表示されているかどうかチェックすることを薦める。

デバッガにアクセスするには、次のURLを訪問する:

http://developers.facebook.com/tools/debug

デバッグを実施したいページのURLを入力して、実行する。


6. Click to Tweetを作成する

引用または短いアイデアをリストアップした文書を持っていると仮定する。その場合、ボタンをクリックするだけで、そのまま引用をツイートすることが出来たら、言うことはないはずだ。実は、 http://clicktotweet.com/と呼ばれるツールを利用すると、その願望を実現することが出来る。

ステップ 1 – コンテンツを準備する

短いアイテムのリストなら何でも構わない。例えば、私は「ツイッターのパワーユーザーになるための100通りの方法」を取り上げた記事を投稿している - http://www.quicksprout.com/2012/01/30/100-ways-to-become-a-twitter-power-user/

この記事の中で、私はツイッターの事実を並べたリストを提供している:

  1. Seventy-two percent of power users publish a blog post once a month.
  2. Seventy percent comment on other blogs.
  3. Sixty-one percent write at least one product review a month.
  4. Sixty-one percent will leave comments on news sites.
  5. Power users are six times more likely to guest post.
  6. Five times more likely to run a blog.
  7. Seven times more likely to post to Wikis.

このリストをツイート可能なツイートに変えていく。一緒に試すことが出来るように、コンテンツを準備してもらいたい。

ステップ 2 – Click to Tweetを使って、リンクを作成する

1. ツイートを組み立てる。

  1. Quote
  2. Link
  3. Author

ここでは、それぞれ次のアイテムを利用していく:

  1. Quote – "Seventy-two percent of power users publish a blog post once a month."
  2. Link – http://bit.ly/JlMcWi  <–bitlyのリンク
  3. Author – via @neilpatel

すると次のようなツイートが出来あがる:

"Seventy-two percent of power users publish a blog post once a month." http://bit.ly/JlMcWi via @neilpatel

2. このツイートをClick To Tweetにつなげる。

3. Generate Link!をクリックする。

ステップ 3 – コンテンツ内にリンクを加える。

次のように各引用の後にハイパーリンクを加えるだけでよい:

<li>Seventy-two percent of power users publish a blog post once a month.</li>

<a href="http://clicktotweet.com/tL79h">Tweet this fact!</a>

どのように表示したいかに応じて、次のように、引用自体をクリック可能にすることも出来る:

<li><a href="http://clicktotweet.com/tL79h">Seventy-two percent of power users publish a blog post once a month.</a></li> – Click to Tweet This Fact!

全ての引用、または、事実に対してこの作業を行おう。


7. ユーザーがソーシャルネットワークにログインしているかどうかを確認する

次のコードを利用すると、サイト内で直接、ユーザーが、ツイッター、グーグルプラス、または、グーグルにログインしているかどうかを把握することが出来るようになる。フェイスブックについては、APIを介して作業を行う必要があるが、その他のネットワークに対しては、特殊な次善策が必要になる。

このメソッドを用いると、ログインしているソーシャルネットワークに応じて、コンテンツを異なる方法で表示させることが出来る。判断は皆さんにお任せする。

ユーザーのプライバシーを留意し、不安を与えるような行為は慎むべきである。また、このコードは第三者のソースに左右され、いつ壊れてもおかしくない。この点はその他のメソッドにも言えることだが、今のところ問題なく動作している。

ステップ 1 – ヘッダーにコードを加える

この例では、htmlの文書をテキストエディタを使って、設定する。機能を説明していくので、状況に応じて利用してもらいたい。

このコードを<head>セクションに加える。

注記: ワードプレスを利用しているなら、このコードをheader.phpファイルに貼り付けることが可能である。

それではコードを一つずつ見ていこう:

これは単純に基本のスタイルシートを呼ぶ:

<link rel="stylesheet" href="styles.css">

このセクションはツイッターとグーグルのAPIを呼び出す:

<script src="https://ajax.googleapis.com/ajax/libs/jquery/1.7.1/jquery.min.js"></script>        

<script type='text/javascript' src='http://platform.twitter.com/widgets.js?ver=1.1'></script>

このセクションは、ログインしているかどうかを表示する関数を加える:

<script type="text/javascript">

                

                        function show_login_status(network, status)

                        {

                                if (status)

                                {

                                        $("#" + network + "Status").html("Currently logged into <span class='red'>" + network + "</span>");

                                }else{

                                        $("#" + network + "Status").html("Not currently logged into <span class='green'>" + network + "</span>");

                                }

                        }

        </script>

次に<body>を加えていく。

ステップ 2 – ログインしているかどうかを表示するためのHTML

次のコードをHTMLに加える。

重要な部分を赤線で囲んだ。これは、ユーザーがログインしているかどうかを表示するidとクラスである。

以下にコードを掲載する:

<div class="container">

        <section>

                <div class="row">

                        <div class="page-header">

                                <h1>Detecting Social Networks Logged Into</h1>

                        </div>

                                

                        <p>You can see below it is detecting if I am logged into Twitter, Google or Google Plus.</p>

                        

                        <div id="TwitterStatus" class="outputStatus"></div>

                        <div id="GoogleStatus" class="outputStatus"></div>

                        <div id="GooglePlusStatus" class="outputStatus"></div>                

                                

                </div>

        </section>

</div>

加えるコードは残りあと一つだ。

ステップ 3 – ログインしているかどうかをチェックする機能

このコードをHTMLの下の方に追加する。

この部分は、グーグルとツイッターにユーザーがログインしているかどうかを答えさせる力を持つ。

コードを掲載していく:

<img style="display:none;" onload="show_login_status('Google', true)"

onerror="show_login_status('Google', false)" src="https://accounts.google.com/CheckCookie?continue=https://www.google.com/intl/en/images/logos/accounts_logo.png" />

<img style="display:none;" onload="show_login_status('GooglePlus', true)"

onerror="show_login_status('GooglePlus', false)" src="https://plus.google.com/up/?continue=https://www.google.com/intl/en/images logos/accounts_logo.png&type=st&gpsrc=ogpy0" />

<img style="display:none;" src="https://twitter.com/login?redirect_after_login=%2Fimages%2Fspinner.gif" onload="show_login_status('Twitter', true)" onerror="show_login_status('Twitter', false)" />

このコードは、イメージ(実際にイメージを表示するわけではない)を呼び出すことで、動作している。ユーザーがログインしている場合、‘true’を返し、ログインしていない場合は、‘false’を返す。

これが最終的なアウトプットだ。


8. グーグルプラスのバッジをインストールする

次に、グーグルプラスのバッジをサイトにインストールする手順を紹介する。このバッジから、個人のグーグルプラスのページにリンクを張ることになる。

準備: グーグルプロフィールのIDを探す

グーグルプラスのプロフィールページ - http://plus.google.com/ にアクセスし、ログインする。URLにプロフィールのIDが掲載されている。私のページのURLで確認してみよう:

この長い数字の列が私のIDだ。

IDを探し、保存しておく。

ステップ 1: バッジのプロフィールの設定ツールにアクセスする

次のURLを訪問する - https://developers.google.com/+/plugins/badge/personal-config

大勢の人達が、グーグルバッジのページにアクセスしようとする - https://developers.google.com/+/plugins/badge/  – しかし、実際には役に立つどころか混乱を招く可能性がある。

そのため、私はプロフィールの設定ツール - https://developers.google.com/+/plugins/badge/personal-configに直接アクセスすることを進める。

このページでは、容易にグーグルプラスのバッジに加える必要があるアイテムを作成することが出来る。

ステップ 2: プロフィールのIDを入力し、コードを取得する

準備段階で見つけたIDを覚えているだろうか?そのIDを下のボックスに貼り付けよう:

チェックマックと“looks good”がIDの隣に表示されている点を確認してもらいたい。

“badge”と言語を選択する。

上級者向けのオプション

グーグルはこの情報を明らかにしていないが、実は幾つか異なる表示のオプションを利用することが出来る。

オプション A – 名前を表示させる

幅 260が最適だと私は判断した。名前を掲載する場合、最も小さなサイズが260ある。

オプション B – 2つのバッジを並べて表示させる

このオプションはあらゆるサイトに利用することが出来るはずだ。最低限の余白付きで2つのバッジを維持する上で、最適なサイズは170である。

オプション C – 2つのバッジを重ねて表示させる

幅 100ピクセルは許容される最小のサイズであり、最低限の余白付きで2つのバッジを重ねて表示させるレイアウトとして、最も望ましい。

どのサイズを選んだにせよ、自動的にコードが生成されるはずだ:

このコードは2つのセクションで構成されている:

1. 全てのページの[head]に掲載されるJavaScript(全てのページにバッジを掲載すると仮定)。

2. 実際のボタンのコード。HTML内でボタンを表示させたい場所に挿入する。

それでは、実際にコードを加えていこう。

再び(このガイドで何度も実施してきたように)ワードプレスでAppearance->Editorの順にアクセスし、header.phpファイルを見つける。

ステップ 3: サイトにコードを加える

コードの最初の部分を<head>に貼り付ける。

出来れば、その他のJavaScriptのコードのそばに配置したいところだ。

コードの2つ目のパーツをボタンを表示させたい場所に貼り付ける。私のサイト(Quicksprout)の場合、グーグルプラスのバッジを掲載するなら、次の場所に表示させるだろう:

私はこの部分をウィジェットを使って管理しているため、ワードプレスでウィジェットにアクセスして、コードを加える。その方法を紹介する。

Appearance->Widgetsにアクセスする。

ボタンを置く場所に応じて、既存のテキストウィジェットまたは新しいウィジェットを使う。

コードをテキストウィジェットに貼り付ける:

注記: 貼り付けたものの、サイトにフィットしないなら、このステップでもサイズを調整することが出来る。


結論

最後まで辿りつき、このガイドで紹介したテクニックを実装することに成功した皆さんには、お祝いの言葉をかけてあげたい。SEOは、大変な仕事になることもあるが、見返りは得られるはずだ。優れたコンテンツを作成し、ソーシャルネットワークで活発に交流を行う取り組みに加え、このガイドのアドバイスの大半に従ってきたなら、きっと無我夢中で作業に打ち込んできたのだろう。しかし、その努力は必ず報われるだろう。

上級者向けSEOガイドの記事一覧はこちらから


この記事は、Quick Sproutに掲載された「Chapter 9: Search Verticals」を翻訳した内容です。

相変わらずの濃すぎる内容でした。。。かなりマニアックな世界に入りつつありますが、1つ1つどれもチャレンジする価値(=トラフィックが増える)は確実にあるはず。最後に少し間が空いてしまった今回のSEOガイドですが、新シリーズもありますので今後また新たに紹介していきたいと思います! — SEO Japan [G+]

上級者向けSEOガイド8/9 : 外部リンクを構築する15の手法

上級者向けSEOガイドも後2記事となりました。前回、コンテンツを活用した外部リンク手法についての解説がありましたが、今回はより具体的なリンク構築手法を一挙15種類紹介した記事を。英語圏で普及しているツールベースの手法が中心でかなりマニアックな内容が多いですが、その用途・意味を考えれば日本でも応用できるものばかり。これからのリンク構築に勝ち抜きたい人は一読の価値あり。軽く一読して気になる内容を読むだけでも学べる点は多そうです。 — SEO Japan

このチャプターの1つ目のセクションでは、単純にサイトを投稿する(そして、followedリンクを獲得することが可能な)場所をリストアップしていく。このチャプター全体では、15通りのリンク構築の方法を手順を追って説明する。そこで、皆さんには、これから紹介する方法を採用するか、あるいは、自分でアイデアを出していってもらいたいと思う。


1. サイトをfollowedリンクを使って投稿する

このセクションでは、followedリンクを容易に獲得することが可能な有名なサイト、そして、知名度の低いサイトを紹介していく。

全てのサイトが今でも有効だとは限らないので注意してもらいたい。このガイドを作成する時点では有効であったが、インターネットの世界は変化が早く、皆さんが利用する頃には役に立たなくなっている可能性もある。

http://9rules.com/

http://associatedcontent.com/

http://barrywise.com

http://bibsonomy.com/

http://blog.fiberdreams.com

http://blog.ruski.co.za

http://Blogengage.com/blogger

http://bloggeruniversity.blogspot.com

http://bloggingzoom.com/

http://blogoria.com/

http://bluehatseo.com

http://blueverse.com

http://bumpzee.com/

http://businessfinancemag.com

http://buzzmarketingwithblogs.com

http://clipclip.com/

http://corank.com/

http://current.com/

http://currybet.net

http://deardrmoz.com

http://digg.com/

http://dotcommogul.net

http://edopter.com/

http://extremejohn.com

http://flickr.com/

http://google-adsense-templates.co.uk

http://graphicdesignblog.co.uk

http://gravitycube.net

http://grokdotcom.com

http://growsmartmaine.org

http://harry.sufehmi.com

http://howtowakeupearly.com

http://IncSub.org

http://Indiano.net

http://justaddwater.dk

http://kikolani.com

http://kirtsy.com/

http://kthread.com

http://lillieammann.com

http://linguisticszone.blogspot.com

http://linkagogo.com/

http://linkedin.com/

http://links.org.au

http://memestreams.net/

http://mister-wong.com/

http://mixx.com/

http://moreearnings.com

http://mybloglog.com/

http://mylinkvault.com/

http://nowpublic.com/

http://OddBlogger.com

http://phpcafe.net

http://polygeek.com

http://postonfire.com/

http://pqinternet.com

http://propeller.com/

http://radpixels.com

http://randomhacks.net

http://realestatetestblog.com

http://seobythesea.com

http://seolutions.net

http://socialmediapower.com

http://technorati.com/

http://thejunglemarketer.com

http://uncommonphotographers.net

http://wallpaperstop.com

http://wassupblog.com

http://weblogtoolscollection.com

http://wordpressmax.com


2. ブランドの言及からリンクを獲得する

このメソッドは、とりわけ、有名なブランドや影響力の強い人に向いているかもしれない。しかし、知名度が低くても、ブランドの言及が行われ、実際にはリンクが与えられなくても、最終的にリンクを獲得するメリットを受けられるだろう。

グーグルアラートと/RSS & IFTTTを利用する

メンション(リンクなしの言及)が行われた際にすぐに通知してもらえるようにグーグルアラートを設定する。ここでは、私のブランドのメンションに対して、グーグルのインデックスをモニタリングしていく。以下にクエリの例を幾つか挙げていく:

-site:quicksprout.com -site:crazyegg.com -site:kissmetrics.com "neil patel"

-site:quicksprout.com -site:crazyegg.com -site:kissmetrics.com quicksprout

-site:quicksprout.com -site:crazyegg.com -site:kissmetrics.com crazyegg

-site:quicksprout.com -site:crazyegg.com -site:kissmetrics.com kissmetrics

次に以下の通りにアラートを設定していく。

結果をeメールで受信すると、リンクを得ている点を確認することが出来る。スクリーミングフロッグを介して、結果のリスト全体をまとめてチェックすることも可能である。

おまけのアドバイス: RSSやIFTTTを使ってモニタリングする

デフォルトの状態では、グーグルアラートは、当該の検索に付随する新しいコンテンツを見つけた際に、eメールで通知を行う。しかし、もっと早く通知してもらいたいはずだ。または、より長期的なスパンで結果を分類したい状況も考えられる。

そこで、メンションが発生した時点でテキストメッセージを送信してもらう設定を行う。

まず、アラートをRSSフィードとして作成する:

アラートを確認し、グーグルリーダーのリンクをクリックして、グーグルリーダーでアラートを開く。

グーグルリーダーから、‘view details’にアクセスする。

フィードのアドレスをコピーする。

次にIFTTT.comを訪問し、新しいレシピを作成する。RSS リーダーをトリガーとして利用する。

SMSをアクションとして選択する。すると、ブランドのメンションが行われる度にテキストで通知してもらえるようになる。

また、オンラインでメンションを受けた際に、全てのメンションをデリシャスでブックマークすることも可能である。ブックマークの目録を作ることも、もしくは、1週間または2週間に1度、まとめてメンションを確認することが出来る。

RSS フィードをトリガーに設定し、デリシャスをアクションとして選択する:


3. ScrapeBoxを使って、ブログにスピーディーにコメントを投稿するホワイトハットな手法

ScrapeBoxは、通常、ブラックハットのツールと見なされることが多い。しかし、ホワイトハットなリンク構築ツールとして利用することも可能である。このセクションでは、完全にホワイトハットなアプローチで、- 効率を上げることを意識して – ブログに速やかにコメントを投稿する賢明な方法を手順ごとに説明していく。

このメソッドでは、ScrapeBoxの“Comment Poster”を“manual poster”モードで利用する。

主にScrapeBoxの右下のセクションを利用することになる。

ステップ 1 – テキストファイルを開く

ScrapeBoxを使ってテキストファイルを参照し、次のコメントのフィールドを埋めていく:

Name – コメントを投稿する際の名前のリスト

Websites – ウェブサイトのリスト(名前からリンクを張る)

Emails – 名前と連動するeメールアドレスのリスト

Comment – 作成したコメント

Blog Lists – コメントを投稿するために収集したブログのリスト

続いて:

Openをクリックする。

各フィールドに対するテキストファイル(予め作成したもの、もしくは自分で作ったもの)を選択する。

選択した状態のイメージを掲載する:

[E]をクリックすると、編集ウィンドウが表示され、ScrapeBoxで直接編集することが出来る。


4. DMozからリンクを獲得する

Dmozは、よくご存知の方もいるかもしれないが、ページランクが高く、また、ウェブに存在する期間が長いため、非常に価値が高い。

しかし、Dmozが多くのサイトにかすめ取られている点はあまり知られていない – つまり、リンクを獲得すると、リンクをかすめ取られ、他の場所で利用されてしまう可能性があるのだ。

リンクを得る場所を選ぶ

カテゴリを選ぶ際に重要なファクターが2つほどある。

1. 関連性 - Dmozは、それぞれのカテゴリーに対して数名のエディターを配置しており、そのため、自分のサイト/ビジネスにフィットする異なるカテゴリを複数選び、それぞれのカテゴリに投稿することが可能である。反応が早いエディターもいれば、遅いエディターもいる。

2. ページランク - この点を考慮する人は少ない。Dmozだからと言って、全てのページが有益だとは限らない。

それぞれのページのページランクのレベルをチェックし、当該のページのリンクの本数で振り分けよう。ページランクが高く、外部へ向かうリンクが少ないページが理想である。

例: 「Travel」のカテゴリを探していると仮定しよう。このURLの構造を使って、Travelのカテゴリを全て確認する:

http://www.dmoz.org/search?q=travel&start=0&type=more&all=no&cat=

次のような結果が表示されるはずだ:

リンクの本数が少ない、関連するカテゴリを探す。Travelは100本を超えるカテゴリが多いため、100以下を探す。

有力なカテゴリが2つ見つかった。

どちらのページもPRは4であり、ODP(オープンディレクトリプロジェクト)としては良好な部類に入る。

リンクの本数が55本のみの“Specialty Travel: Family”のカテゴリは、役に立ちそうだ。

ODPのページの有益なカテゴリに手っ取り早くアクセスしたいなら – opensiteexplorer.orgを利用し、内部ページでレポートを実行する手もある。

1.  www.opensiteexplorer.orgにアクセスする。

2.  http://www.dmoz.orgを選択する。

3. ‘Top Pages’ のタブをクリックする。

4. 上位のページを速やかに分析するには、レポートを.csvにエクスポートする。

投稿

2つの上位のカテゴリを選択したら、以下のプロセスに従って投稿しよう。

1. 最適なカテゴリのページを選び、投稿を行う。

        a. リンク希望するカテゴリのページで、‘submit a URL’をクリックする。

        b. 指示およびガイドラインに従う。

2. 2ヶ月待つ。

3. 2ヶ月間経ってもリンクが手に入らないなら、第二希望のカテゴリに投稿する。

4. 誰にも対応してもらえないなら、希望するカテゴリに対して、交互にこのプロセスを数ヶ月おきに繰り返そう。リンクを得るには、忍耐力、そして、一貫した取り組みが求められることがある。

5. 8-12ヶ月経過してもリンクが得られないなら、3つ目のカテゴリを試すべきである。諦めないでもらいたい。粘り強く、そして、我慢強くこのプロセスを続けていれば、リンクを獲得することが出来るだろう。


5. Disqusを使ってリンクをコメントに組み込む

ブログのコメントは、リンクがnofollowed扱いされるため、そして、コメントのリンクはグーグルから重要視されないため、価値は高くはないものの、- メリットがゼロと言うわけではなく、事実、リファラーのトラフィックも獲得することが可能である。

Disqusのコメントシステムを使って、サイトを容易に探す方法を伝授する。

Disqusの長所は、利用方法が容易な点と、そして、コメントがすぐに表示される点である。

1. まず、Disqusでコメントを獲得する予定のカテゴリに対して登録する。

ユーザーネームはリンクのアンカーテキストとなる。アンカーテキストとしてキーワードを幾つか試したくなるかもしれないが、調子に乗り過ぎないように気をつけてもらいたい。

2. 次に、Disqusを使って当該のカテゴリのブログを検索する。次のタイプのクエリは有効である:

"powered by disqus" travel photography

何かしらのSERP分析ツールを用意しておこう – MozのSERP分析ツールまたはSEOQuake等。

3. ページランク、またはDA/PAが高い結果を選択する

4. コメントを投稿する。

ソースの多くはコメントが0本である。そのため、投稿するコメントが1本目に表示される可能性があり、リファラーのトラフィックが得られる確率は高くなる。

おまけのアドバイス: 最近のリンク

1. グーグル検索を絞り込む

検索を過去1週間に絞り込み、すぐにコメントを投稿すると効果がありそうな結果を選び、投稿を読む人が最も多いタイミングでコメントを投稿しよう。

2. グーグルアラートを作成する

検索またはカテゴリの動きの頻度に応じて、このようにアラートを設定しておく。

また、コメントを投稿する機会が生まれた瞬間に把握するため、複数のアラートを作成しておくことを薦める。


6. リンク切れリストの構築

ステップ 1. 基本のアイテムを用意する

このタイプのリンク構築には、以下のような基本のアイテムが必要になる:

  1. グーグルのクエリブックマークレット - http://www.onlinesales.co.uk/google-results-bookmarklet/
  2. TextWrangler等のテキストエディタ
  3. スクリーミングフロッグまたはXenu Link Slueth
  4. Wayback Machine - www.archive.org
  5. コンテンツを作成するウェブサイト

上述した全てのツールにアクセスすることが出来るなら、次の段階に進む。

ステップ 2. グーグルのクエリを特定する

最適なクエリを探し当てるまでに、異なるクエリを幾つか試す必要があるかもしれない。旅行業界、特にホテルの分野のサイトに対するリンクを構築していると仮定する。その場合、.eduか.govのサイトからリンクを獲得したいはずだ。

次のようなクエリを試してみる:

site:.edu intitle:"hotel industry" -inurl:pdf -inurl:doc -inurl:ppt

site:.gov intitle:"hotel industry" -inurl:pdf -inurl:doc -inurl:ppt

site:.edu intitle:"hotel management" -inurl:pdf -inurl:doc -inurl:ppt

site:.gov intitle:"hotel management" -inurl:pdf -inurl:doc -inurl:ppt

200-5000の結果を持つクエリを探す。これで、大き過ぎず、小さ過ぎないターゲットを設定したことになる。

ステップ 3. URLを抽出する

クエリを獲得したら、URLを抽出して、テキストエディタに落とす。

1. 検索の設定を100に設定する。

再び検索を実施し、100点の結果を表示させる。

ブックマークレットを実施し、Plain Listingsをコピー & 貼り付けする。

.txtファイルとして保存する。

ステップ 4. スクリーミングフロッグ(またはXenu Link Sleuth)を介してURLをチェックする

ここでとっておきの技を使う。スクリーミングフロッグを使って、1度に100本のURLをチェックし、リンク切れを探す。その方法を紹介する。

スクリーミングフロッグをList Modeに設定する。

作成したばかりのテキストファイルを選択する(URLのリスト)。

非常に重要なステップ - 適切な設定を行う。

スクリーミングフロッグをcheck external links とsearch depth 1に設定する。

Startをクリックする – 全ての外部のページをチェックし、クロールするまで、ある程度時間がかかる。

ステップ 5. 関連性に関して、URLのリンク切れを調べる

見つかった外部リンクを確認する。

結果をCSVにエクスポートする – URLをエクスポートして、保存し、行動を起こしたアイテムを記録していく。

ステップ 6. 失われたコンテンツを調べる

スクリーミングフロッグで直接、リンク切れのコンテンツ(404)にリンクを張っているページを確認することが出来る。

自分のサイトに関連するページを見つけたら、 www.archive.orgを訪問して、リンク切れのページの過去の姿を確かめ、既に持っているコンテンツかどうか、または、作り直すことが出来るかどうか確認する。

その後、コンテンツを作り直し、当該のサイトに接触しよう。


7. 簡単なコピー & 貼り付けの埋め込みコードを加える

コンテンツ内で、そして、リンク構築として、インフォグラフィックを利用したことがある人は大勢いるはずだ。その際、誰でも分かるHTMLの切り取り & 貼り付けコードを忘れずに掲載しただろうか?その方法を紹介する。

それでは、KissMetricsのインフォグラフィック「How Do Colors Affect Purchases?」を例にとって説明していく –

http://blog.kissmetrics.com/color-psychology/

ページ上に簡単に切り取り & 貼り付け可能なHTMLを加える方法を手順を追って紹介していく。

ステップ 1 – HTMLモードに切り換える

HTMLを入力するので、HTMLのエディタで作業を行う準備をしておくと便利である。

ステップ 2 – ページでイメージを表示させる

エンベッドボックスを作る前に、イメージがその他のコンテンツと共にページ上に表示される点を確かめる必要がある。

ステップ 3 – <textarea>を設定する

<textarea>ラッパーには、HTMLでエンベッドボックスを表示する効果がある。また、コードが配置される場所でもある。

以下にコードを掲載する:

<textarea rows="5"  cols="70" onClick=select() >

</textarea>

  1. “Rows” & “cols”は高さと幅を調整する。
  2. onClick=select()は、自動的にボックス内部でコンテンツを選択する便利なJavaScriptである。

ステップ 4 – コンテンツを<textarea>内に配置する

この作業には2つの重要なポイントがある。

1. イメージの参照とイメージへのリンク – 読者がページにコードを貼り付けると、実際のイメージがページに掲載されることになる。つまり、イメージを視覚的に読み込む段階である。しかし、重要なポイントは、あくまでもリンクとアンカーテキストの獲得である。

2. ここでインフォグラフィックから大きな被リンクの価値を得られる。自分自身のリンクとアンカーテキストをコードに配置することになる。

以下にコードを掲載する:

<textarea rows="5"  cols="70" onClick=select() >

<p>

<a href="http://blog.kissmetrics.com/wp-content/uploads/2010/08/color-purchases-sm.png">

<img src="http://blog.kissmetrics.com/wp-content/uploads/2010/08/color-purchases-sm.png" alt"how do colors affect purchases?" />

</a>

</p>

<p>

<a href="http://blog.kissmetrics.com/color-psychology/">Color Psycology Infographic</a> by <a href="http://www.kissmetrics.com/">KISSmetrics</a>

</p>

</textarea>

このコードを利用する際は、忘れずにリンクとイメージのソースを変更すること。

ステップ 5 – ページのプレビューを見る

ページをチェックし、問題がない点を確認しよう。

テキストエリアに適切なコードが全て表示されているなら、問題ない。


8. ツイッターのプロフィールを使ってリンク構築を行う

このメソッドは効果が高く、また、簡単に実行に移すことが出来るものの、美的な好みに左右される可能性がある。また、単純ではあるものの、見過ごされていることが多い変更を行う必要がある。

ツイッターにアクセスし、プロフィールの編集画面を表示させる。

次のように、URLおよびツイッターのハンドルをBioに加える:

その際、ツイッターをデータのソースとして利用している、ツイッターリスト等のその他のサイトは、リスティングにこの2本のリンクを最終的に掲載することになる。つまり、ツイッターのプロフィールとウェブサイトに対して、自動的にリンクを構築する。

サイトの一部を以下に挙げていく:

www.tagwalk.com

www.crowdreel.com

www.snpros.com

www.twitperts.com

www.retweetrank.com

www.favorious.com

www.twtbizcard.com

www.favstar.com

www.tweetlevel.com

www.listorious.com

www.twitaholic.com

www.twittercounter.com

www.twellow.com

tweet.grader.com

www.klout.com

各ツイッターのサイトにアクセスし、プロフィールを作成、または獲得すると、リンクに対する最適化を強化することが可能になる。


9. Tyntを使ってリンク構築を行う

Tyntは、コンテンツがコピーされ、ウェブ中に貼り付けられる度にリンクにトラフィックをもたらすツールだが、利用している人は多くはない。

1.  www.tynt.comにアクセスする。

2. フォームに記入し、無料で登録を行う。

3. JavaScriptが表示される – まずはこのJavaScriptをカスタマイズしていく。

Customize Scriptをクリックする。

4. Customize Address Tracking Barをクリックする。

5. Address Bar Trackingを有効にして、保存する。

6. 次にAttributionをカスタマイズしていく。

7. ここで設定を少しカスタマイズし、一味加える。ツイッター/フェイスブックのプロフィールを追加する。タイトル、URL、または双方をリンクのアンカーテキストとして選択することも出来る。

8. 保存する。すると、メインの画面に戻る。

9. JavaScrpitのコードをクリップボードに貼り付ける。

10. 締めの</head>タグの直前にコードを貼り付ける。ワードプレスを利用しているなら、Appearance->Editor->Header.php の順にアクセスしていく(次のスクリーンショットを参考にしよう)。

11. 一番下に用意されているコードを使って、コードをテストする。


10. リンクに値するドメインを探す

2012年、どのようなドメイン名が求められていただろうか?恐らく、次のような特徴を持つドメイン名は人気が高かったはずだ:

  1. 比較的短い
  2. 言いやすい
  3. スペルが簡単(一度だけ説明してもらえば分かる)
  4. unique
  5. 低価格で購入可能
  6. 描写的で明白

2012年においては、被リンクを獲得する上で、ドメイン名は非常に重要視されていた。ペンギンが行われる前は、キーワード主体のアンカーテキストが求められていたが、現在は、ブランド中心のアンカーテキストが必要とされている。そのためには、固有のブランド名とドメイン名がどうしても必要になる。例えば、Bagsterと言うブランドは、ゴミ収集業者、そして、 www.bagster.com - バイク関連の業者が利用している。

以下に優れたドメイン名を考え出す上で役に立つツールとテクニックを挙げていく。

ステップ 1 – ワードを幾つか集める

好きなワードを20-30点集めたリストを作る。生産性ツールを販売しているソフトウェア会社を例に挙げて説明する。まず、類語辞典を調べ、 “productive”と“productivity”を入力する。そこから、(最善の)ワードを得る:

prolific

inventive

creative

useful

fruitful

effective

efficiency

work rate

output

yield

helpful

次に、イメージ – 名詞で会社を連想するワードを考える。生産性ツール製品の多くは、machineを連想させるので、類語辞典に「machine」を入力する:

appliance

device

engine

tool

automation

これで候補のワードを幾つか手に入れることが出来た。早速、実際に利用していこう。

ステップ 2 – Bustanameを使って、ドメインをチェックする

複数のワードを組み合わせて、一度に利用状況を確認することが可能な  www.bustaname.comと呼ばれる素晴らしいツールが存在する。まず、基本的な設定を行う。ここでは良質なアイデアを得るための魅力的な設定を提案している。

次にステップ 1のリストのワードを貼り付ける:

リスト内に結果が表示され、利用可能なドメインが明らかになる。

カーソルを次のように合わせると、さらにアイデアを得ることが出来る。

「readability」(読みやすさ)でソートする機能は便利である。

次に、気に入った名称を右側にある3つ目のリストに加え、購入、あるいは、後で確認するため保存することも出来る。

ステップ 3 – Domain Makerを利用する

同じウェブサイトで、「Domain Maker」と呼ばれるツールが用意されている。このツールの基本的な設定も紹介しておく:

設定およびワードで色々試し、優れたドメイン名のアイデアを得てもらいたい。

固有の名称が必要である点を思い出してもらいたい。.com、.org、.net、さらには.bizの全てのgLTDが利用可能なドメイン名を見つけたいところだ。全てのgLTDを確保し、ブランドを守るためである。

そのための設定を次のように実施する:

ステップ 4 – Knowemを使って、ソーシャルメディアをチェックする

例えば、yieldy.comが素晴らしい名前だと思ったなら、- ソーシャルで使われいるかどうかを確認する必要もある。

 www.knowem.comを使って、確認しよう。

先客がいたようだ。

ソーシャルネットワークでも利用することが可能な名前が見つかるまで、調査を続けよう。

また、Knowemには、ドメイン名と商標を同時に確認する機能も備わっている – この機能を使って、商標登録されたことがあるものの、期限が過ぎているため、取得可能な商標をチェックすることが出来る。


11. 失ったリンクを取り戻す

ブランドの言及のモニタリングに似ているが、捻りを加える必要がある。この方法では、URL自体の言及(メンション)を監視することになる。例えば「Neil Patel」の代わりに、「quicksprout.com」に注目する – リンクを受けることを意図して独特のドメイン名を利用している場合、より効果が高い。

このメソッドでは、アラートが役に立つが、同時に、過去に遡って検索を実行しておきたいところである。URLのメンションが過去に行われているものの、気づいていない可能性があるからだ。

1. 高度な検索を実行する

手始めにintext:quicksprout.com -site:quicksprout.com を実施する。

大きなサイトを運営している場合、検索をさらに絞り込むことを薦める。“past year”と“order by date”で絞り込みをかけてみよう。最近のメンションを使うと、成功する確率は高くなる。

良好な結果が表示されるようになったら、このガイドで再三紹介しているSERPs Reduxブックマークレットを使って、URLをエクスポートする。

結果をコピーし、テキストエディタに貼り付ける。

スクリーミングフロッグを開く。リストモードでURLにクロールを実行する。

次にCustomのフィルターを設定する – 幾つかのフィルターでno linkをトラップし、残りのフィルターでlinksをトラップする。

スパイダーを実施する – そして、結果の一部を確認する:

役に立たない結果も幾つか混じっているかもしれないが、以下の結果は有望である。

やはり、financialpost.comはリンクを張ることなく、quicksprout.comを言及していた。


12. セカンドレベルのリンク構築

自分のサイトに対するリンク構築に関しては、既によく理解してもらえたのではないだろうか?他のサイトに対するリンク構築からも – 適切に利用すれば – メリットを得ることが出来る。ホワイトハットな方法、そして、あまりホワイトハットではない方法の2通りの方法でこの取り組みを実施することが出来る。

コンセプト

まず、追跡可能な状態でウェブサイトを運営する必要がある。eブックを販売している人もいれば、ワードプレスのテーマを配布している人もいれば、あるいは、eメールの登録を目標にしている人もいるだろう。いずれにせよ、このようなコンバージョンを活性化するページを選出する必要がある。

次に、コンバージョン率の高いページへのリファラーの訪問を特定する。

最後に、セカンドレベルのリンクを構築することで、リファラーのページをSERPで上位にランクインさせる。

その方法

ステップ 1 – サイトでページを特定する

大半のサイトは、容易に特定することが出来るはずだ。例えば、Quicksproutでは、次のページがそのページに当たる:

http://neilpatel.com/?utm_source=sidebar&utm_medium=michaelarrington&utm_campaign=ads

追跡用のURLもまた、トラフィックのソースを見わける上で役に立つ点に注目してもらいたい。

ステップ 2 – コンバージョンしやすいリファラーを特定する

分析ソフトウェアを使って、トラフィックを分割し、ランディングページに向かう、通常よりもコンバージョン率の高いトラフィックを特定する。

例えば、Search Engine Journalのこの記事が、コンバージョン率の高いリファラーのトラフィックをもたらしていると仮定する:

http://www.searchenginejournal.com/brand-name-seo-title-tags/10269/

ステップ 3 – リファラーのページのランキングを調べる

セカンドレベルのページにリンクを張る取り組みの目標は、当該のページのランクを高めて、より多くのトラフィックを自分のサイトにもたらすことである。

ここでは、タイトルタグ内のブランド名が重要であり – フレーズ「brand name in title tag」は良質な基準になるだろう:

ご覧のように、Search Engine Journalのページは、現在、この用語で3位にランク付けされており、その結果、より多くのトラフィックが私のランディングページに寄せられている。

ページを特定したら、自由に利用することが可能なリンク構築のメソッドを使って、普段通りにリンク構築を行おう。


13. セカンドレベルのリンク候補

ファッション関連のウェブサイトを運営していると仮定する – その場合、elle.comやvogue.comからリンクを手に入れたいはずだ。いずれ手に入れることが出来るかもしれないが、このようなサイトのリンクのオーソリティを出来るだけ早く活用したい場合は、どうすればいいのだろうか?

これらのサイトがリンクを張っているサイトからリンクを獲得しよう。それでは、候補のサイトを速やかに発見する方法を紹介していく。

1. グーグル検索を微調整する

このテクニックは紹介済みである。グーグルを使って、候補の第一リストを作成する。しかし、今回のケースでは、今後、リンクを獲得することになるオーソリティの高いサイトをリストアップしていく。

ファッション関連のブログを運営していると仮定する – その場合、elle.comやvogue.comからもたらされたリンクを獲得しておきたいところだ。

次のような検索を実行する。

この検索に関する重要なポイントを幾つか挙げていく:

- ブログ検索を利用する

- ホームページを表示させる設定を用いる

- intitle:オペレータを利用する

これで、細かい絞り込みを行い – BESTの結果のみを表示させることが出来るようになる。

2. SERPs Redux ブックマークレットを使って、トップ 10の結果をテキストファイルに落とす

ここでもSERPのスクレイパーツールを使って、結果をテキストファイルに落とし、スクリーミングフロッグにインポートする。

3. スクリーミングフロッグを使って10本のURLをクロールする

このステップでは、何よりも設定が重要である。

スクリーミングフロッグを、コアのリストから1レベル離れた外部のサイトをクロールさせる必要がある

- 検索の深さを1に設定する

- External Linksをチェックする

- 外部のnofollowedリンクをクロールする

すると次のようなリストが提供される:

重要な調整を幾つかリストに加えていく:

- HTMLを表示する設定に変更する。イメージ、JS等を含める必要はない。

- 外部リンクを閲覧していることを確認する :)

- inlinkでソートする。被リンクが多ければ多いほど、サイトにもたらせれているオーソリティは高くなると考えられるためだ。

最後にエクスポートする。


14. 被リンクの評価を実施する

サイトで積極的にリンク構築を行ってきたにせよ、あるいは、新しいサイトを運営しているにせよ、また、古いサイトを運営しているにせよ、自分のサイトに寄せられたリンクの情報を把握する方法を知っておく必要がある。ここでは、高度な方法およびツールを紹介する。それでは、このプロセスを細分化し、手順ごとに説明していく。

パート 1 – リンクのデータを集める

オープンサイトエクスプローラ(OSE)

SEOmozのオープンサイトエクスプローラ - www.opensiteexplorer.orgは、ウェブ上のリンクの情報に関して、最も範囲が広く、そして、最も多くのデータを得られるツールとして名高い。このガイドで紹介する機能の多くは、有料のSEOmozのメンバーに提供されているものだが、無料のメンバーシップを選んだとしても、大半の機能にアクセスすることが出来るだろう。

1. OSE エクスプローラ – 準備とCSVレポートのダウンロード

 www.opensiteexplorer.orgにアクセスし、ログインする。

4つのレポートを実行し、エクスポートする:

  1. 被リンク
  2. 上位のページ
  3. リンク先のドメイン
  4. アンカーテキスト

quicksprout.comを例にとって、リンクを評価するプロセスを実演する。

被リンク

まずはサイトのURLを入力し、Searchをクリックする。“inbound link”レポートはデフォルトの状態だが、少し調整を加えていく。

Inbound Linkの設定を次のように変更する:

  1. Only external(外部リンクのみ)
  2. Pages on this root domain(このルートドメイン上のページ)

Filterをクリックして、CSVファイルをダウンロードする。

CSVをダウンロードする。OSEがビジー状態になっている場合、数分間要することもある。

上位のページ

次にTop Pagesのレポートをダウンロードする。

この手順は割と単純であり、設定を行う必要はない。Top Pagesタブをクリックして、CSVをダウンロードする。

リンクを張るドメイン

Linking Domainsのレポートにおいては、「Pages on this root domain」(このルートドメイン上のページ)のみに絞り込み、リンクを張るドメインのサイト全体の情報を漏れなく手に入れる必要がある。

Filterをクリックして、CSVにエクスポートする。

アンカーテキスト

最後にアンカーテキストのレポートを実行する。

  1. アンカーテキストの設定をphraseのままにしておく。
  2. all pages on this root domainのリンクを表示させる。

Filterをクリックして、レポートをエクスポートする。

2. OSE – 4つのCSVを全て開く

クロームには、4つのレポートを一度に表示させる便利な機能が存在する。

ブラウザの一番下に4つのレポートが全て表示されているはずであり、右側には「Show All」と記されたボタンが用意されている。「Show All」をクリックして、4つのレポートを開く。

マイクロソフトのエクセルを使って、4つのCSVを全て開く。

3. OSE – 4つのCSVを組み合わせ、一つのエクセルのスプレッドシートにまとめる

新しいスプレッドシートを作成する。

各CSVシートのタブを新しいエクセル文書にドラッグする。つまり、4つのタブを新しいエクセルのシートにドラッグする。

全てのタブを集めたら、次のように表示されるはずだ

4. OSE – ヘッダーとフレームの固定

幾つか最終的な準備をエクセスに加えて、分析を容易に行える環境を作っておきたい。自分で考えて設定を行うことも勿論可能だが、とりあえず個人的に好きな設定を紹介していく。

一番上の列をボールド表記に変える。

ウィンドウ枠を固定する。

セルA2を選択する。

Window->Freeze Panesの順にアクセスする。

これで一番上の列(ヘッダー)は、スクロールしても固定される。

同じ作業をその他のシートでも行う:

  1. ヘッダーをボールド体に変える
  2. ヘッダーを編集する
  3. ウィンドウ枠を固定する

これで、4つのレポートが完成し、OSEのデータを調査する準備が整ったことになる。

Majestic SEO

オープンサイトエクスプローラほど多くのデータが得られるわけではないものの、Majestic SEOのインデックスはとても新鮮であり、また、過去のデータを見ることも出来るため、特定のタイプの分析の役に立つ可能性がある。

無料のアカウントを試してみよう(アカウントを作成し、ログインする必要はあるが、料金を支払う必要はない)。

サイトに入る:

まずは、[historical]インデックスを見たいのか、または[fresh]インデックスを見たいのかを確認する:

最初に「historical」のデータを見ていく:

サイトを所有しているなら、無料でレポートを作成することが出来る(所有していない場合、料金を支払う必要がある)。

有料版の方が多くのデータを提供するものの – 無料版でも十分に多くの情報を集めることが可能だ。

例えば、Top Pagesのレポートにアクセスしてみる:

一番下までスクロールし、「download CSV」を探す:

OSE + Majesticのマッシュアップ

最後に、MajesticとOSEのデータを並べて表示させる方法を伝授する。

ファイルを作成する。2つのエクセルシートをここでは用意する:

Majesticの上位のページのレポートを利用する。最新のレポートを持っていないなら、OSEでレポートを作成する:

CSVにエクスポートし、エクセルで開く。次に2つのCSVを1つのシートにまとめる:

vlookupを使って比較する際は、2つのカラムが同じでなければならない点に注意してもらいたい。Majesticは、URLの最後のスラッシュがない状態でデータをエクスポートする。一方、OSEはスラッシュ付きでエクスポートする。

通常のFind関数を使って、スラッシュを削除し、テキストエディタに置き換える:

$はTextWranglerでは、「列の最後尾」に対するグレップのコマンドである。

エクセルに再びコピーする:

vlookupを利用する:

=VLOOKUP(A2,ose!A2:I26,2)

vlookupに慣れていない方のために、簡単に説明しておく:

A2 – 配列とマッチさせるセル

ose! – データを引き出す別のスプレッドシート

A2:I26 – マッチを探すテーブル配列の範囲

2 – 1つ目のカラムの後にデータを引き出し、1つ目のシートに持ち出す2つ目のカラム

次に、テーブルの残りに引き下げるために、各カラムの文字およびセルの番号の前に絶対符号(ドルマーク)を加える必要がある。

vlookupは次のように表示される:

=VLOOKUP(A2,ose!$A2:$I$26,2)

全ての行に引き下げる:

右側の各カラムで同じ作業を繰り返す – 最後の数字を変更し(1ずつ増やす)、ソースのシートから次のカラムを手に入れる。

全体を埋めると、MajesticとOSEのデータを組み合わせた優れたスプレッドシートが完成し、分析に用いることが出来る。

Link DetectiveとOSEを使ってリンクのデータを分析する 

Link Detective - www.linkdetective.com - は新しい無料のツールである。 このツールは、OSEの被リンクのデータを視覚化する上で大いに役立つ。Link Detectiveは、基本的に、ブログロール、フッター、ブログのコメント等のグループに全てのリンクを振り分けるツールである。不明なリンクが幾つか現れるはずだが、自分(または競合者)が獲得しているリンクのタイプを把握することが出来るようになるだろう。

 www.linkdetective.comにアクセスする。

ユーザー名とパスワードを作成する。

すると新しいプロジェクトを作成することが可能になる。

プロジェクトの名前を決める。次にOSEのCSVファイルをアップロードする。このファイルは「inbound link」タブのCSVでなければならない。

確認のメッセージが表示される。レポートが終わると(通常、10-60分間)、eメールが届く。

eメール内のリンクをクリックして、レポートを確認する。基本的に2通りのレポートを見ることが出来る – リンクのタイプとアンカーテキスト。

リンクのタイプのレポート


15. 拡大可能な接触のアプローチ

大規模な接触を効率良く行う上での鍵は、オートメーション – 自動化である。小規模な取り組みの場合、自力を主体としたメソッドでも対応することが出来るかもしれないが、取り組みの規模を拡大し、最大の効果を得るためには、やはり自動化が必要になる。

接触のアプローチに対して、ある程度、自分で管理し、コミュニケーションを個人に特化させたい場合は、「セミオートメーション」に留めることも可能である。

幸いにも、このプロセスを支援するツールが幾つか存在する。ツールをざっと確認し、巧みに利用するコツを紹介していく。

ツール:

  1. GメールのCanned Responses
  2. Rapportive
  3. Boomerang
  4. Tout
  5. BuzzStream
  6. ThankThankNotes
  7. Send and Archive
  8. FollowUpThen

GメールのCanned Responcesを利用する

まず、GメールでCanned Responsesが有効になっている点を確認してもらいたい。

次に設定を行うため、まずは新しい草稿を作成する。署名は全て削除する - 完全に空白にしておく必要がある。

通常の接触するタイプのeメールの草稿を作る。

次にCanned Responseとして保存する。

接触用のメールで利用する準備が整ったら – 新しい草稿を始める。

FollowUpThenを利用する

http://followupthen.com/ は新しいツールである。Boomerangに似ているが、機能がより充実している。

このツールは次のようなケースにうってつけである:

  1. 数週間以内に返信したいeメールがあるものの、受信箱から取り出す必要がある場合
  2. リードに一ヶ月後に再度接触する場合
  3. 返信がない場合に、自分自身と受信者に自動のリマインダーを送信する場合

有料のプロバージョンjには、テキストメッセージとカレンダーを介してリマインダーを受信する機能が用意されているが、ここでは無料版を使って説明する。

自動のリマインダーを受信者に送信する。

CC: cc欄にアドレスを入力すると、自分と受信者の双方に向けてリマンダーが送信される。

3days@ – リマインダーが3日後に再び送信されることを意味する。

1ヶ月後にリードに再び接触する。

候補のサイトに接触したものの、「今はリンク/記事/ストーリー等は不要なので、1ヶ月後にもう一度尋ねて欲しい」と言うリアクションが返ってきた場合 – このリマインダーが役に立つ。

Bcc: 送信者のみがリマインダーを受け取る。

1month@ – 一ヶ月後に再び接触用のメールを送信する。


ここまで到達したなら、サイトにトラフィックが続々と押し寄せているのではないだろうか?残すところ、チャプターはあと1つだけだ。チャプター 9では検索のバーティカルを取り上げる。動画、イメージ、ローカルを利用しているなら、是非、目を通してもらいたい。

上級者向けSEOガイドの記事一覧はこちらから


この記事は、Quick Sproutに掲載された「Chapter 8: Link Building Techniques」を翻訳した内容です。

冒頭にもあった通り、リンクサイトやツールの紹介が中心でしたし(SCRAPEBOXは英語圏スパマー向けのツールなので不用意に使わない方が無難かと・・・)、個別の手法を見ていくと今の時代にここまでやる意味ある?というものもありますが、仮にここに書かれている(ようなこと)の半分だけでも実施すればサイトのトラフィックは嫌でも上がるでしょうね。全て行うかはともかく、この徹底ぶりに見習う点は限りなく多いと思います。– SEO Japan [G+]

上級者向けSEOガイド7/9 : コンテンツによる被リンク構築

今回の上級者向けSEOガイド、待っていた方も多いのでは?と思われる外部リンク戦略について。時代を反映して「コンテンツを活用した」被リンク構築ガイドになっていますが、さて米国でも特Aクラスのリンク構築アーティストといわれる筆者が上級者向けに書き下ろした被リンク構築の秘密とは?– SEO Japan

リンク、共有、そして、トラフィックを増やす上での「質の高いコンテンツ」の重要性については、耳にタコが出来るほど聞かされているはずだ。このチャプターでは、素晴らしいコンテンツを作成する方法 – そして、適切なテクニックをコンテンツに取り入れ、パフォーマンスをさらに高める方法を手順を追って説明していく。

まず、“トップリスト”を作成してリンクを集めるアプローチを説明する。


1. 「トップ」リストを作成し、リンクを獲得する

この戦略はとりわけ新しいわけではないものの、この取り組みを手早く実行する方法に関する詳しい情報は少ない。

この手法は、基本的に、コンテンツの構築を中心に据えており – 特定分野に関するニッチな「トップ10」や「トップ20」のリスト(註:いわゆる、「まとめページ」)を作成する。例を挙げる:

http://www.webdesignschoolsguide.com/library/top-100-blogs-for-small-business-cost-cutting-inspiration.html

http://www.delish.com/food/best-of-food-blogs

http://www.socialmediaexaminer.com/top-10-social-media-blogs-the-2012-winners/

すべてのリソースが多くの被リンクを獲得している点に注目してもらいたい。しかし、全てのトップリストがこのようなパフォーマンスを実現するわけではない。それでは、その違いを見ていこう。

既に多くのオーディエンスを抱えているなら、まず、リストに含めるウェブサイトを使って、知り合い、そして、緊密なつながり持つ人達を見つけよう。

次に、ソーシャル面の強さを基準として(ウェブサイトの強さではない)、ブログを選択し、絞り込む。

既に知り合いになっているオーディエンス + ソーシャルの強さ = コンテンツは成功を収めるが成り立つ。

Simply Measuredを使って、ツイッターのフォロワーをエクスポート & 分析する

1. 次のURLにアクセスする: http://simplymeasured.com/free-social-media-tools#report-20

2. 分析するツイッターのユーザー名を入力する。

3. レポートを実行し、「pay with tweet」(ツイートで支払う)を選択する(すると無料で利用することが出来る)。注記: 分析している同じアカウントで「pay with a tweet」を行う必要はない。

4. 結果が表示されたら、エクセルにスプレッドシートをダウンロードする – ここから楽しいプロセスに入る。

まず、フォロワーのリストを、リストを作成するトピックで絞り込んでいく。ここでは、トップ10のフードブロガーリストを作成していると仮定する。

フィルターを設定する:

良好な結果が得られた。

次に、このデータをグーグルドキュメント、または、別のスプレッドシートに落とし、その他のブロガーとミックスする。

この時点で、フォロワーの人数でリストを整理し、非フォロワーを加えていくため、「フォローしよう」カラムを加える。

続いて、Followerwonkを使って、さらに際立つブロガーを加えていく。

クオテーションで ______ブロガーを囲む。「ブログ」の代わりにブロガーを利用する理由は、より多くの人(会社ではなく)を集めることが出来るためだ。クオテーションマークを用いることによって、当該のトピックで自分自身をブロガーと名乗っていることが条件になる。ブログをたまたま運営し、食べ物が好きな人は対象から外れる。

例えば:

検索の範囲を拡大する必要があるかもしれないが、まずは、このような具体的な検索から手をつけていくべきである。

その後、クロームのスクレイプ用プラグイン、または、Followerwonkのプロのアカウントを使って、データを引き出し、スプレッドシートに加える。

10,000-20,000のフォロワーを持つ人を探そう。このタイプのブロガーからは注目してもらいやすく、また、ソーシャルメディアでの影響力も強い。

                                                                                                                                                                                                                                                                                                                                                                                             

続いて、ミックスしたリストの中で、「トップフードブロガー」リストの中で取り上げるブロガーを10-20名選択する。既にフォローしてもらっている人もいるかもしれないが – リストで取り上げてもらうことに感謝して、コンテンツを共有し、リンクを張ってもらえるだろう。すると、共有とリンクの数が増加し、さらに高いレベルのインフルエンサーに注目してもらえる可能性が高くなる。

アドバイス

シリーズ化する - 1度きりで終わりにしないでほしい。1年に1度、四半期に1度、または、月に1度リストを作成することで、さらに注目を得られるはずだ。

ブロガーにコンテンツを投稿する前に、事前に知らせておこう - ツイートまたはメールを送信し、リストを承認してもらおう。事前にその存在を把握していると、投稿した際に共有してくれる可能性は高くなる。


2. PDFを使ってリンクを構築する

このガイドでは、PDFの基本的な作成方法を心得ていると仮定して話を進めていく – そのため、大量のチェックリストを提供する – ただし、具体的なプロセスや順番は皆さんにお任せする。

有益で、構成に工夫を凝らしたコピーを作成し、キーワード戦略を利用しよう。

イメージの利用: altタグを作成する。

ファイル名でキーワードを利用する。

適切に最適化されたURLのように、PDFのファイル名は重要な鍵を握る。そのため、キーワードが豊富に詰まったファイル名を利用しておきたいところだ(ユーザーにとって便利)。その際は、キーワードの間にハイフン (-)を挟もう。

メタデータを最適化する

また、通常のウェブサイトと同じように、メタデータが、重要な最適化のステップとして登場する。アドビリーダーのフルバージョン –  http://www.adobe.com/products/acrobat.html もしくは無料のウィンドウズ用のPDFエディター  http://www.becyhome.de/becypdfmetaedit/description_eng.htmのいずれかを手に入れる必要がある。

次の領域を最適化する:

タイトル – ウェブページのタイトルタグになる。

オーサー – オーサー別に分類する。また、PDFではオーサーごとにグループ分けされることが多い。

主題 – SERPのディスクリプションとして、グーグルに利用されることがよくある。また、文書の1行目の影響を受ける可能性もある。

キーワード – 5-10点のキーワードを利用する。

文書でリンクを利用する。

通常のSEOと同じように – PDF内で内部リンクを幾つか利用する。

ファイルのサイズに注意する。

ページスピードの重要性は日に日に高まっている。アドビリーダーを使って、PDFを作成しているなら – PDF Optimizer->Advanced->right-sizeにアクセスしよう。

また、“Optimize for fast webview”を使って、PDFの読み込みを1度に1ページに設定しておこう。

最善のバージョンを選択する。

バージョン 1.5または1.5以下を利用しよう。全てのユーザーが最新のバージョンを持っているわけではなく、一部の読者がファイルを開くことが出来ないリスクを避けたいはずだ。

読み取りの順序を最適化する。

アドビリーダー PDFを使って、読み取りの順番の設定を行う。

読み取りの順序を表示させ、編集を行う方法は以下の通りだ:

1. Advanced>Accessibility>Add Tags to Documentの順にアクセスする。

2. 次にAdvanced>Accessibility>Touch Up Reading Orderを選択する。

サイトのルートディレクトリの近くにPDFをアップロードする。

URLの前の方にキーワードを配置しておくと、検索において最高のパフォーマンスを実現し、また、ユーザーに覚えてもらいやすいメリットも期待できる。私のサイト クイックスプラウトで作成したPDFは、短いURLの模範である: http://www.quicksprout.com/businessmistakes.pdf

ウェブサイトの強固なページからPDFにリンクを張る。

これはユーザーにとって役に立つだけでなく、強力なオーソリティをPDFにもたらす効果も見込める。

コンテンツの重複を避ける

あらゆるページに言えることだが、PDFのコンテンツが他のコンテンツとは異なる点を確認してもらいたい。

PDFをPDFディレクトリに加える。

以下にリストを掲載する。

DocStoc.com

Calameo.com

Ebook88.com

GetFreeEbooks.com

Free-Ebooks.net

SharewareEbooks.com

E-booksDirectory.com

EbookDirectory.com

MemoWare.com

EbookJungle.com

PDFで電子書籍を作成したなら、次のサイトを試してもらいたい:

http://www.changethis.com/

http://www.free-ebooks.net/

http://www.getfreeebooks.com/

http://www.thefreesite.com/

http://www.ebookjungle.com/

http://e-library.net/

http://ebookdirectory.com/

http://www.memoware.com/

http://www.ebook88.com/

http://www.sharewareebooks.com/

http://www.ebookee.com/

http://www.feedbooks.com/

http://directory.pdf-search-engine.com/

http://www.howto.co.uk/

http://www.e-booksdirectory.com/

http://books.google.com

http://www.ideamarketers.com/bids/bookprocess.cfm


3. イメージを利用したリンク構築

イメージを使ったリンク構築に関しては、SEOmozに投稿した記事で取り上げたことがある: http://www.seomoz.org/blog/the-10-golden-rules-to-attracting-authority-linksしかし、ここでは更に高度な技術を紹介する。

先程紹介した投稿では、オンラインでイメージのライブラリを構築し、ユーザーに容易にイメージを見つけ、利用してもらい、リンクを介して出所を明らかにしてもらう方法を取り上げている。

しかし、この方法だと、ユーザーが来るまで待たなければならない。今回は、同じ方法を説明するものの、イメージを求めている可能性がある人達に接触する方法も併せて紹介する。

例えば、ニューヨーク市の写真を持っている、または、現在ニューヨークで生活し、頻繁にスマートフォンで質の高い写真を撮影しているとしよう。つまり、既にニューヨークの写真のライブラリを持っていることになり、役に立つと考える可能性がある人達(そして、リンクをくれる可能性がある人達)に写真を提供することが出来る。

次の手順を踏み、この取り組みを実施していく:

1. 写真を集め、フォーマット化する。

2. 写真を利用する可能性がある人達を探し出す。

3. 接触する価値のある人達に絞り込む。

4. 接触するための文章を作成し、連絡を取る。

ステップ 1: 写真を集め、フォーマット化する

カメラを最高の画質に設定する。質の高い写真を手に入れるには、まずは、出来るだけrawの画質に近づける必要がある。

例えば、iPhoneを使っているなら、HDRに設定する。

すると、最高の画質の写真をiPhoneで撮影することが出来るようになる。

次に – コンピュータに
速やかにアップロードする。Bump等のサービスを利用することが出来る -
 https://bu.mp/ - iPhoneのスペースバーを「バンプ」するだけで、写真をiPhoneからコンピュータにアップロードすることが可能である。

アップロードに利用する手段に関係なく、最高のファイルのサイズおよびピクセルのサイズを利用してもらいたい – iPhoneでは「実際のサイズ」と呼ばれている。

常に整理整頓を心掛けよう。写真をアップロードし、保存する度に、分類していこう – 街の写真なら次のようなカテゴリーを私は薦める:

/people

/architecture

/streets

/attractions

/events

/nature

そして、- like empire-state-building-dusk.jpgのように関連するファイル名をつけてもらいたい。

続いて、ファイルとリンクを用意する。

次に、写真に対して、容易にリンクを張ることが出来る手段を用意しておきたいところだ – 作成済みのHTMLを活用しよう。

<img src=”empire-state-building-dusk.jpg” alt=”photo by Neil Patel of the empire state building” title=”gorgeous dusk view of the empire state building”>

<br>

<a href=”http://photos.quicksprout.com/architecture/empire-state-building-dusk.jpg”>Free image</a> courtesy of Neil Patel and <a href=”http://quicksprout.com”>Quicksprout</a>

これで、クレジット、リンクを一度に提供することが出来るようになる。

ステップ 2: 写真を必要としている人達を探す

大勢の人々、そして、サイトが、ターゲットに含まれる可能性がある:

ブロガー

ニューヨーク市のビジネス

街の写真を必要としている会社

しかし、このターゲットの中で、次の基準を用いて、さらに絞り込んでいこう:

  1. オーサーが一人だけのサイト
  2. 連絡を取る相手が容易に見つけられるサイト
  3. PRまたはDAが高いサイト
  4. ソーシャルメディアの影響力が強いサイト
  5. オーサーのオーソリティが高いサイト
  6. RSSの購読者が多いサイト
  7. 良好なリンクプロフィールを持つサイト(悪質なサイトからのリンクは不要)

また – 既に知り合いになっている人達から取り掛かる手もある。良質な写真を求めているウェブサイトを運営している知り合いはいるだろうか?

それでは – 次のフォーマットを用いてスプレッドシートを作成していく:


URL

Single Author

Contact

DA

FB Shares

G+ Circles

RSS Readers

Link Profile

domain.com

Y

name@domain.com

67

545

3,200

300

4

(スプレッドシートの例)

それぞれのフィールドは次の意味を持つ:

URL = 候補に挙げているウェブサイト

Single Author = Yはオーサーが一人、Nは複数のオーサーが在籍するサイト

Contact = eメールアドレス

DA = SEOmozのドメインオーソリティ

FB Shares = ホームページのフェイスブックでの共有数

G+ circles = 人物または企業が登録されているサークルの数

RSS readers = RSSの購読者数(フィードが用意されている場合)

Link profile = 1は悪い、2は良い、3はとても良い、4は最高

次のリソースを使い、スプレッドシートをサイトおよびメトリクスで埋めていく。

それでは、接触する人達を実際に探すプロセスをこれから説明する。

利用するツールを挙げていく:

https://followerwonk.com/

http://www.socialmention.com/

http://klout.com

http://www.google.com/blogsearch

http://topsy.com

http://amplicate.com/

http://zerply.com/

http://twtrland.com/

Followerwonkを使って、デモを行っていく。良質な写真を持っていないブロガーを探す必要がある。- フォトグラファー、アーティスト、グラフィックデザイナー、または、写真を利用する可能性が高い人達ではなく – 文書に力を入れている人達が、このカテゴリに該当することが多い。

“blogger writer”等の検索は有効である。ブログを運営しているものの、ライティングに焦点を絞っており、写真を苦手にしている人達を見つけることが出来るためだ。

このような検索を実行したら、グーグルクロームのスクレイパープラグインを使って、グーグルドキュメントに落とす - https://chrome.google.com/webstore/detail/mbigbapnjcgaffohmbkdlecaccepngjd

求めている情報をダブルクリックし、Scrape Similarをクリックする。

ウィンドウがポップアップ表示され、データを新しいグーグルドキュメントのファイルに転送することが出来るようになる。

このような手法を用いることで、割と早く、良質なリストを手に入れることが出来る。リストを手に入れたなら、メトリクスを調べ、接触する上で最適なブロガーを見つけてもらいたい。

接触の取り組みにおけるベストプラクティスを利用し、連絡を取り、質の高い写真を利用することが出来るように手を貸してあげよう。


4. 3DのJavaScriptのページまたはマイクロサイトをHTML5とCSS3で作成する

この取り組みを実施しているサイトはあまり多くない。GitHubのオープンソースのコードを少し利用するだけで、3Dのプレゼンテーションやランディングページを作ることが出来る。HTML5とCSS3で構築されるため、コンテンツはクロール & インデックスしてもらえる。

以下のURLにコードが用意されている。

https://github.com/bartaz/impress.js

ステップ 1 – コードをダウンロードする

ステップ 2 – サーバーにインストールする

ファイルをローカル、テスト、または、利用中のサーバーの必要なディレクトリに貼り付けるだけで、インストールすることが可能だ。

ステップ 3 – スライドショーを作成する

スライドショーを作成するためには、インストールに含まれているindex.htmlファイルを編集する必要がある。このコードには、あらかじめ設定されたデモのスライドショーが含まれている。このコードを拝借することも、あるいは、削除して、一から自分で作ることも出来る。

注記: このコードを編集する際は、ここで表示されているパーツから上の部分を編集しないように注意してもらいたい。

次のURLでデモを見ることが出来る - http://bartaz.github.com/impress.js/#/bored

全て“impress” <div>の内側に収める必要がある。

自分でスライドショーを考案することが出来るように、関数を利用する方法を幾つか紹介しておく。

それでは、スライドショーのidのクラスとパラメータを全て挙げていく。


フィールド

説明

id – (何でも好きなものを使うことが可能だ。あるいは空のままにしておくことも出来る)

URLに表示される“ページ”やスライドの名前。空白のままにしておくと、/slide-1と表示される(1つ目のスライド)

class=”step slide”

“スライド”をスライドさせて表示する

class=”step”

スライドを“ターン”させて表示する

data-x

キャンバス上で、要素の中心から水平の位置

data-y

キャンバス上で、要素の中心から垂直の位置

data-scale

要素の拡大 例えばdata-scale=”5”はその他の要素の5倍の大きさを意味する

data-rotate

アイテムを回転させる 例えば、data-rotate=”80”は時計回りに80度回転させる

data-z

3つ目の次元、深さを調整する

footnote

この要素でコンテンツを囲むと、一番下で小さく表示される

data-rotate-x

x軸を中心に回転する

data-rotate-y

y軸を中心に回転する

それでは幾つか例を挙げていく

例 1 – シンプルなテキスト

<div id="bored" class="step" data-x="-1000" data-y="-1500">

       <q>Suppose you want to <b>spice up</b> your online presentation or microsite.</q>

</div>

例 2 – イメージ付き

<div class="step slide" data-x="1000" data-y="-1500">

       <q>You can create a <strong>stunning visualization </strong>

       <br>…and even include images

       <br>

       <br><img src="neil.jpg"></q>

</div>

例 3 – スライドのステップを拡大

<div id="title" class="step" data-x="0" data-y="0" data-scale="5">

       <span class="try">then you should try</span>

       <h1>impress.js<sup>*</sup></h1>

       <span class="footnote"><sup>*</sup> no rhyme intended</span>

</div>

例 4 – 回転

<div id="its" class="step" data-x="850" data-y="3000" data-rotate="90" data-scale="5">

       <p>This is an example <strong>of rotation </strong> <br/>

       caught mid turn <br/>

       by the screen capture software!!<br/>

       <i>(very slick)</i></p>

</div>

Had to capture it mid turn to give you the idea:

例 5 – 3つ目の次元 – 深さ

<div id="tiny" class="step" data-x="2825" data-y="2325" data-z="-3000" data-rotate="300" data-scale="1">

       <p>use <b>some fun</b> 3D elements</p>

</div>

この要素は、遠くからズームインしているように表示される(要素が置かれている「g」に注目してもらいたい)。

例 6 – 3Dのティルト

<div id="its-in-3d" class="step" data-x="6200" data-y="4300" data-z="-100" data-rotate-x="-40" data-rotate-y="10" data-scale="2">

       <p><span class="have">have</span> <span class="you">you</span> <span class="noticed">noticed</span> <span class="its">it's</span> <span class="in">in</span> <b>3D<sup>*</sup></b>?</p>

       <span class="footnote">* awesome, right?</span>

</div>

上の例をそのままコピーし、自分のコンテンツと置き換えることも、もしくは、自分で考案したレイアウトを試すことも出来る。


このチャプターでは、リンクに値するコンテンツを作成する上での正攻法を伝授した。しかし、従来のリンク構築に関するアドバイスとトリックは、まだ紹介していない。心配ご無用。次のチャプターでは、15通りのリンク構築の手法を紹介する。検索でのパフォーマンスを大幅に改善するため、サイトとコンテンツに適用していってもらいたい。

上級者向けSEOガイドの記事一覧はこちらから


この記事は、Quick Sproutに掲載された「Chapter 7: Link Building with Contents」を翻訳した内容です。

リスト記事、PDF、画像、HTML5によるプレゼンと数は少な目ながらも相変わらずどれも徹底された内容でした。リンク構築のアドバイスだけでなく、きちんと情報を拡散するためのノウハウまで(しかもかつてない程、丁寧に)出し切っている所が流石です。PDFをSEOに活用しているサイトは余り日本ではないと思いますが、一度徹底的にやってみるのもまた差別化につながるかもしれません。画像配布はアイデア自体はシンプルですが、こういうことをきちんとやっている人は限りなく少ないですよね。HTML5を活用したプレゼンテーションはSlideshareでは飽き足りないあなたにピッタリかも?次回のリンク構築戦略も楽しみな内容でした。– SEO Japan [G+]

上級者向けSEOガイド6/9 : キーワードリサーチ

いよいよ残り少なくなってきた上級者向けSEOガイド、ここにきて検索マーケティングの基本作業ともいえるべきキーワードリサーチについて。Googleのキーワードツールを終了しましたし、ある意味タイムリーな話題かもしれません。前半はどちらかというと英語圏向けの内容になっていますが、後半は相変わらずのマニアックさ全開のキーワードリサーチの方法が解説されており、キーワードリサーチマニアは一度は読んでおきたい。– SEO Japan

このガイドを読んでいると言うことは、グーグルアドワーズのキーワードツールを使ったことがあるはずだ。このガイドでは、このツールの利用方法の説明は省かせてもらう。このチャプターでは一般的なキーワードリサーチツールを通り越し、ターゲットにするべき最高のキーワードを探す上で、あまり語られることがないメソッドを取り上げていく。


1. グーグルアドワーズのキーワードリサーチを超えるツール

大勢の人達がアドワーズでキーワードのデータを獲得する。しかし、キーワードおよび検索の量に関する情報源は他にも存在する。その幾つかをこのセクションで紹介していく。

1. ビング

新しいビングのキーワードリサーチツールは、まだ成長段階にあるが、チェックする価値はある。

サインイン(またはアカウントを作成)する

基本的な設定から見ていく。ビングのキーワードツールは、グーグルのキーワードツールとは若干異なる。30日に設定すると、その期間の検索量を把握することが出来る。

データをエクスポートする。

正確な検索の量がもたらすメリットを活かし、ロングテールを特定する:

検索量の値を比較するため、グーグルアドワーズを取り込むことも可能だ:

それでは、データをもう少し絞り込んでいく。言語を英語に変更し(英語がターゲットの言語であると仮定) – そして、日付の範囲を6ヶ月に拡大する。すると、大量のデータが提供され、より良い判断を下すことが出来るようになる:

[strict mode] – ビング版の「完全一致」に設定する:

2. WordtrackerとSEO Bookのキーワードリサーチツール

ここでは無料版を紹介するが、有料のプロバージョンに登録することも可能である。

SEO Bookでレポートを実施して、CSVをエクスポートする:

Overall Daily Estimates(1日全体の推測)を使って、ウェブ全体からの潜在的なトラフィックを計測する:

3. Wordpot

意外に思うかもしれないが、Wordpotでも、キーワードに関する情報を得ることが出来る。

定義、類義語、関連するワードを見ることも出来る。

4. ユーチューブのキーワードツール

ユーチューブの動画を最適化しているなら、動画の検索量を知りたくなるだろう – 興味がなかったとしても、このツールはキーワードの発想を得る上で効果的である。

一番下にスクロールし、“add all 100”をクリックし、CSV、またはその他のファイルにエクスポートする。

また – 例えば[search marketing]で、ユーチューブで上位にランクインしたいケースを想像してもらいたい。

1. ユーチューブで用語「search marketing」を検索する。

2. 上位の動画の探す。

3. この動画をキーワードツールに入力する – すると、当該の動画の上位のキーワードが判明する。

既存のレポートにこのキーワードを加えることも、または、初めからやり直すことも出来る。

5. Local Marketing Source – ローカルキーワードツール

ローカルのキーワードのバリエーションを作る上で便利なツールである。ただし、検索の量を調べることは出来ず、キーワードのリストが表示されるだけである。

郵便番号、半径、そして、キーワードを設定していく。

リストを作成し、CSVにエクスポートする。


2. サジュエストスクレイパーツールを利用して、キーワードのアイデアを得る

ウェブは毎日データを収集している。これは実際に入力されているデータであり – ユーザーが何を探しているのかが反映されている。

検索サジェストは、実際にユーザーが入力しているワードを探す場所として最適である。この取り組みは、直接的なコンテンツのアイデア、そして、キーワードの候補をもたらすことがある。このプロセスにおいては、出来るだけ多くのアイデアを得る点が重要視される。

多くのSEOのエキスパートが、非常に便利なツールを見過ごしている。それではツールを紹介していく。

まず、サジェストスクレイパーツールをリストアップする。

http://www.ubersuggest.com

http://soovle.com/

http://tools.seobook.com/general/keyword-information/

http://www.zuula.com/

http://www.keywordbuzz.net/

役に立つツールばかりだが(ubersuggestには様々なツールが用意されている)、今回は、SoovelとKeywordBuzzを使ったトリックを幾つか伝授する。

Soovle

Soovleを2通りの方法で利用する。まず、通常のサジェストスクレイパーとして利用する方法を紹介する。

1. エンジンの数を15に設定する。出来るだけ多くのキーワードを得るためだ。

2. リサーチしているトピックに関係する基本となるキーワードの入力を始める。

3. クローム用のスクレイパーを使って、グーグルドキュメントに入力する。

わざわざ全てのワードを切り取り & 貼り付けたい人はいないはずだ。スクレイパーのxPathを少し調整するだけで、グーグルドキュメントに落とすことが出来る。

デフォルトの結果にはキーワードは含まれていない。

[4]を削除する。

再びスクレイプする(あるいはエンターキーを叩く)。

結果をグーグルドキュメントにエクスポートする。

4. 生のデータの絞り込み & 整理を行う。

この結果には、余分な情報が掲載されており、整理する必要がある。その他のdivからのデータや重複するキーワードが存在する。

1-10行を削除する。

一番下の余分な2つの行を削除する。

アルファベット順でキーワードをソートする。

次に重複するキーワードをフィルターにかけていく。セルB2で次の数式を実行する:

=if(A2=A3,true,false)

この数式は、アイテムが同じならtrueを、異なるならfalseを表示する。

角にカーソルを合わせて(十字が表示されるまで待ち)、ダブルクリックする。

これで、重複しているかどうかを判断することが可能になる。

次のステップに進む前に、true/falseをコピーし、valuesとしてそのまま貼り付けておく。すると、true/falseの表示を変えずに、公式だけを削除し、ワードを残すことが出来るようになる。

次にカラムBを下向きにソートしていく。

すると全てのTRUEが上に表示される。これが重複するキーワードである。

「TRUE」の行を全て削除する。

約100点の固有で多様なキーワードが残った。

トレンドを把握するためにSoovleを利用する

それでは、速やかにトレンドを把握したい人のために、Soovleを使って、トレンドのキーワードを手に入れる方法を指南する。

1. 星をクリックする。

その日のトレンドになっているワードが表示される。

2. ブラウザでCtrl-Fを実行する。ニッチに関連するワードを検索する。

興味深い結果を探し出す。‘lifeproof iphone 4 case’は面白そうだ(聞いたことがない)。

3. 当該のワードをサジェストスクレイパーに入力する。

KeywordBuzz

keywordbuzz.netを使った方法を1つだけ紹介する。私の知る限り、次の機能を持つスクレイパーはKeywordBuzzのみである。

まず、検索スクリーンにアクセスし、キーワードを入力する。

テキストファイルとしてダウンロードすることが出来るだけでなく、.com、.net、そして、.orgのドメインの利用状況をその場で確認することも可能である。

‘check’をクリックすると、良質なドメイン名のアイデアを得ることが出来る。

補助的なチュートリアルや情報サイトを使って、ブランドのトラフィックを増やすためのアイデアも手に入る。


3. グーグルのCorrelateツールを利用する

グーグルのCorrelate(コラレート)もまた、取り上げられることはあまりないが、キーワードリサーチ、とりわけ季節的なトレンドのキーワードリサーチに利用することが出来る –  http://www.google.com/trends/correlate/

例を使って利用方法を説明していく – ‘red wine’と入力した際の結果を以下に掲載する:

検索の量と時間の相関関係を掴むことが出来る。トレンドを調査し、枠組みにとらわれないキーワードのアイデアを得る上で、このツールは便利である – それでは実際に利用してみよう。

アドバイス #1 – トピックのアイデアを得る

例えば、食べ物をテーマに取り上げるブログを運営しており – 赤ワインに関する記事を時々作成する必要があると仮定する。その場合、赤ワインに加えることが可能なその他のトピックを知りたくなるはずである。

red wineのコラレートの結果を以下に掲載する:

大勢のユーザーが赤ワインを検索する時と同じ時間帯にチーズに関連する検索も行っていることが分かる。これはある程度予測できた結果だが、考えもしなかった、ターゲットの絞られたキーワードのアイデアが次々に現れるはずだ。また、このようなトレンドは赤ワインと隣り合っているため、季節的なトレンドを考慮し、コンテンツを投稿するタイミングを少し改善することも出来る。

さらに多くのキーワードを表示させることも、そして、CSVにエクスポートすることも可能である。

アドバイス #2 – ロケーションを考慮したアイデア

グーグルコラレートの位置情報機能は、共通の利益を持つ、具体的な地域のオーディエンスをターゲットにする上で有効である。これは季節的なアイテム、または、一年を通して検索のパターンが変化する関心事に応用することが出来る。

例えば、グリル等を販売するコマースサイトを運営していると仮定しよう。その場合、「outdoor party」を検索しているユーザーに注目するはずである。この検索のパターンは、季節、そして、顧客の関心とマッチすることが分かる。

An initial correlation shows:

“poison oak”と“boat registration”にも同じような検索のパターンがみられるが、ターゲットを絞り、ロケーションに対する相関関係を見ていく。

結果を以下に表示する:

コネチカット州とサウスカロライナ州の住民が、antigua all inclusiveに興味を持っていることが判明した。.

この情報をどのように利用すればいいのだろうか?

アウトドアでパーティーをする(そして、グリルを買う)季節になったら、この2つの州に住む顧客に対して、Antiguaへの旅行チケットを贈呈する手が考えられる。


4. 内部のサイト検索を調べる

多くのサイトのオーナーは、キーワードを得る一番分かりやすい場所を見逃している。自分のウェブサイトだ。と言っても、私は、ビジターが、サイトに到達する際に利用したキーワードのみに言及しているわけではなく、それよりも、むしろサイト内でユーザーが実行している検索について、ここでは指摘したい。

このメソッドは、eコマースサイト等の大規模なサイトを運営している場合、とりわけ有効である。多くのデータを獲得し、また、ユーザーがサイトをどのように利用しているのかを把握し、そして、考え付かなかったキーワードのアイデアを得ることも可能だ。

既にサイトに検索機能を用意していると仮定して話を進めていく。アナリティクスでの設定方法、そして、データを効果的に利用する方法を紹介する。

ステップ 1 – サイトで検索がどのように行われているかを確認する

サイトが利用しているURLのパラメータが必要になる。

例えば、私がデモを行うサイトのURLを以下に掲載する:

検索パラメータがどこにあるか分かっただろうか?

/search.php?search=search+example

“search example”が、入力されたキーワードである。

パラメータは“search”である(ヒント – PHPでは、クエッションマークの次)。

ステップ 2 – アナリティクスで設定する

アナリティクスのプロフィールページにアクセスする。

管理者の領域にアクセスする。Profile Settingsをクリックする。

プロフィールの設定画面で、「Site Search Settings」までスクロールする。

ステップ 1で見つけたクエリのパラメータをフィールドに入力する。また、Strip query parameters out of the URL(URLからクエリのパラメータを剥がす)を選択しておく。

ステップ 3 – データの利用方法

キーワードリサーチにこのデータを活用する最善の方法を伝授する。ここでは、アナリティクスを使ってこの方法を実施するが、データをエクスポートして、さらに活用することも可能だ。

まず、サイトの検索キーワードを確認する。

この作業を一度も実施したことがないなら、少なくとも6ヶ月間に縮小することを薦める。

データに複数の異なるフィルターを適用していく(より“長期的”なフィルターに対して、高度なセグメントを利用することも可能)。

この一つ目のフィルターは、頻繁に検索されるものの、大勢のユーザーが検索した後にサイトを去る検索である(自分のサイトにフィットするように数字を調整する必要があるかもしれない)。このキーワードを基に新しいコンテンツを構築していくべきである。

次のような結果が表示される可能性もある:

あるいは、対極的なフィルターをかけることも出来る。例えば、回数は多いものの、サイトに残るユーザーが多い検索を調べる手が考えられる。繰り返すが、実際の数字は、サイトでのユーザーの行動に左右されるだろう。

ステップ 4 – 行動を起こす

どちらのフィルターを利用するにせよ、今すぐに行動を起こすことが出来るリストが手に入ったはずだ。

  1. 検索回数は多いものの、ビジターがサイトを去るワード = コンテンツを作成する。
  2. 検索回数は多く、ビジターがサイトに残るワード = キーワードリサーチを行い、当該のワードを基に最適化を実施する。

5. コマンドラインから検索サジェストを取得する

ステップ 1 – 初めのJSファイルを抽出する

グーグルは、検索で提案するワードを算定する際、スクリプトを実行している。そこで、ブラウザに次のURLを入力し、JSファイルを生成することが出来る。

次のURLをブラウザに貼り付ける。

http://www.google.com/s?sugexp=pfwl&cp=15&q=<search term here>

<search term here>をキーワードに置き換える。ここでは、marketingを利用する。

http://www.google.com/s?sugexp=pfwl&cp=15&q=marketing

ブラウザに貼り付ける。

すると、自動的にJSファイルが生成され、ダウンロードされる。

JSファイルを開くと、提案される生の用語を見ることが出来る。

この状態ではあまり実用的ではない。それでは、さらに説明を続けていく。

ステップ 2 – .shファイルを作成する

このコードをコピーし、テキストエディタに貼り付ける。

#!/bin/bash
q=$(echo "$1" | sed 's/ /%20/g')
curl
-s "http://www.google.com/s?sugexp=pfwl&cp=15&q=$q" | sed 's/\[/\n\[/g' | cut -d'"' -f2 | tail -n +4

.shファイルとして保存する。単純にsuggest.shと言う名前で保存することも出来る。

ステップ 3 - ターミナル(Mac)でコードを実行する

以下のコマンドをターミナルで実施する

./suggest.sh "marketing"

すると次のような結果が生成される:

marketing jobs in wa

marketing solutions

marketing plan

marketing solutions wa

marketing jobs

marketing strategies

marketing drive

marketing mix

marketing internships

(一部の結果はローカル化されている)


6. キーワードの頻度分析を実施する

キーワードの頻度分析を実施するためのツールが数多く開発されている。無料のものもあれば、有料のツールもある。しかし、レポートを自分で実施する権限を得た方が無難である。これからその方法を一つ紹介する。

ステップ 1 - .shコードを作成する

このコードを切り取り、テキストエディタに貼り付ける:

#!/bin/bash

input=$1

IFS=$'\n'
# for keyword files...
if [ -e "$input" ]; then
   cat "$input" | sed 's/ /\n/g' >> tmp
   for word in $(cat "$input" | sed 's/ /\n/g' | sort | uniq); do
       count=$(grep -c "^$word\$" tmp)
       echo -e "$count\t$word" >> tmp_o
   done
   cat tmp_o | sort -hr
   rm tmp tmp_o
# for web pages…
elif [[ "$input" =~ "http://" ]]; then
   # check if links is installed. found solution at http://stackoverflow.com/questions/592620/check-if-a-program-exists-from-a-bash-script
    type links >/dev/null 2>&1 || { echo >&2 "This script requires 'links' but it's not installed.  Aborting."; exit 1; }
   links -dump "$input" | sed -e 's/ /\n/g;s/\(.*\)/\L\1/' | sed 's/\W//g' >> tmp
   for word in $(cat tmp | sort | uniq); do
       count=$(grep -c "^$word\$" tmp)
       echo -e "$count\t$word" >> tmp_o
   done
   cat tmp_o | sort -hr
   rm tmp tmp_o
fi

Save this as a file – anything will work, such as keyword.report.sh

ステップ 2 – スクリプトを実行する

Macでターミナルを開く

2通りの方法でスクリプトを実行することが出来る – ファイル、または、URL。

ファイル

bash keyword.report.sh keyword.file.txt

‘keyword.report.sh’は.shファイルの名前であり、‘keyword.file.txt’は分析するコンテンツ付きのファイル名である。

URL

bash keyword.report.sh http://quicksprout.com

同じように、‘keyword.report.sh’は.shファイルの名前であり、後はURLを加えるだけだ。


既にキーワード & データの強力なリストを手に入れているはずだ。これで、サイトは早く動き、クロール可能になり、セマンティイクの面でも正確であり、最高のキーワードを獲得したことになる。次は寝ている間にリンクを集めてくれるコンテンツを目標に据え、作成していく。

上級者向けSEOガイドの記事一覧はこちらから


この記事は、Quick Sproutに掲載された「Chapter 6: Keyword Research」を翻訳した内容です。

相変わらずの徹底ぶりでした。マニアックすぎてここまでやる必要あるのか、と思いたくなる手法も多かったですが、アナリティクスを活用したサイト検索のデータ取得は、サイト検索機能を導入しているウェブマスターは活用しておきたい機能ですね。– SEO Japan [G+]

上級者向けSEOガイド3/9 : schema、エンティティ&セマンティック検索対応

上級者向けのSEOガイドを紹介する記事シリーズ第三弾は、セマンティック検索対応について。相変わらず徹底的に網羅された内容です。知識としては何となく知っていても、本格的に対応している人やサイトはまだまだ少ないのが現状とは思いますが、とりあえずこの記事をブックマークしておけば何かの時には使えそうです。 — SEO Japan

サイトはクロール可能 & インデックス可能になり、スピードも大幅にアップした。 チャプター 3ではさらにギアを上げ、新しい検索の要素を取り上げていく。検索は、セマンティックな“現実に近い”環境に向かって動きつつある。つまり、検索エンジンが人物、場所、映画、会社等の実際の物事の間の関係を理解する環境である。今すぐこの流れに乗り、ウェブサイトに反映していこう。


1. Schema.orgのメタデータを実装する

schema.orgは世界共通のメタデータのマークアップであり、2011年に主要な検索エンジンによって導入された。このマークアップは、ウェブサイト上の意図されたタイプのコンテンツをエンジンに伝えるために用いられている。schema.orgをフル活用していない人達はまだ大勢いる。

ここでは、複数の種類のschemaの実装方法、そして、正確なマークアップをHTMLコードに統合する方法を紹介していく。

パート 1 – マイクロデータの基本的なアトリビュート

  1. itemscope
  2. itemtype
  3. itemprop
  4. itemid
  5. itemref

この5つの要素を例を使って分かりやすく説明する。

以下にschemaのメタデータがない状態のコードを掲載する:

<!DOCTYPE HTML>

<html lang="en">

<head>

<meta charset=utf-8>

<title>メタデータなしのページの例</title>

</head>

<body>

<section>

<h1>何でもいい</h1>

<span>作者: デレック・シバーズ</span>

<span>Category : business</span>

<a href="http://sivers.org/ayw/">本について</a>

</section>

</body>

</html>

特別なマークアップはどこにも見当たらない、普通のHTMLである。次に、メタデータ付きのコードを掲載する:

<!DOCTYPE HTML>

<html lang="en">

<head>

<meta charset=utf-8>

<title>マイクロデータ付きのページの例</title>

</head>

<body>

<section itemscope itemtype="http://schema.org/Book">

<h1 itemprop="name">Anything You Want</h1>

<span>作者: <span itemprop="author">デレック・シバーズ</span></span>

<span>カテゴリー : <span itemprop="genre">ビジネス</span></span>

<a href="http://sivers.org/ayw/"><span itemprop="detail">本について<span></a>

</section>

</body>

</html>

一つずつ要素を見ていく。

1. Itemscope

<section itemscope itemtype="http://schema.org/Book">

</section>

bookに関するものは全てitemscopeの要素の間に入る。検索エンジンに「中身はすべて本に関するコンテンツ」があることを伝えている。

2. Itemprop

<h1 itemprop="name">何でもいい</h1>

itempropは本の名前を意味する。

<span>作者: <span itemprop="author">デレック・シバーズ</span></span>

<span>カテゴリー : <span itemprop="genre">ビジネス</span></span>

<span>カテゴリー : <span itemprop="genre">ビジネス</span></span>

<a href="http://sivers.org/ayw/"><span itemprop="detail">本について<span></a>

また、Itempropは、本の作者、カテゴリ、そして、ジャンルを表す。ここまでは、簡単である。

<span>タグを使って、itemporpの要素を挿入する。

パート 2 – schemaをブログで利用する

恐らく、皆さんの多くは何らかのタイプのブログを運営しているのではないだろうか。ブログにもschemaを利用することが可能である。ワードプレスを用いているなら、テーマの作者を確認し、schemaを利用することが出来るか確認しよう。利用することが出来ない場合、ワードプレスはタグをはぎ取ってしまう。これはワードプレスの設定に左右される。以下に一般的な例を挙げる。

a. schemaのないコード

<!DOCTYPE HTML>

<html lang="en">

<head>

<meta charset=utf-8>

<title>マイクロデータなしのブログの記事の例</title>

</head>

<body>

<div>

        <h1>…ズルせずに、上位にランクインするオーソリティを構築するためのヒント</h1>

        <p>まず、オーソリティを定義していく – ドメインのオーソリティとは、上位にランク付けさせるドメインのポテンシャルを意味する。ランキングが高ければ高いほど、オーソリティが高くなる。そして、オーソリティが高ければ高いほど、ランキングも高くなる。</p>

        <p>それでは、その方法を紹介していく:</p>

        <p>1. トピックごとにページのグループにリンクを張る</p>

        <p>2. 特定の一つのページにより多くのリンクを張る</p>

        <p>3. ドメインベースの外部リンクを主役のページに送る</p>

        <p>4. キーワードの共食いを避ける</p>

        <p>5. 関連するウェブサイトから、外部のリンクを主役のページにもたらす</p>

        <p>6. リンクをページの上部に配置する</p>

        <p>7. このコンセプトを理解する上で役に立つ図を使った解説</p>

        <p>8. 壊れているページを修正する</p>

</div>

</body>

</html>

b. Schema付きのコード

<!DOCTYPE HTML>

<html lang="en">

<head>

<meta charset=utf-8>

<title>マイクロデータ付きのブログの記事の例</title>

<a rel="author" href="https://profiles.google.com/103074333439002308043/about">Bidhan Chatterjee</a> </head>

<body>

<div itemscope itemtype="http://schema.org/Blog">

<h1>…ズルせずに、上位にランクインするオーソリティを構築するためのヒント</h1>

        <p>まず、オーソリティを定義していく – ドメインのオーソリティとは、上位にランク付けさせるドメインのポテンシャルを意味する。ランキングが高ければ高いほど、オーソリティが高くなる。そして、オーソリティが高ければ高いほど、ランキングも高くなる。</p>

        <p>それでは、その方法を紹介していく:</p>

        <p>1. トピックごとにページのグループにリンクを張る</p>

        <p>2. 特定の一つのページにより多くのリンクを張る</p>

        <p>3. ドメインベースの外部リンクを主役のページに送る</p>

        <p>4. キーワードの共食いを避ける</p>

        <p>5. 関連するウェブサイトから、外部のリンクを主役のページにもたらす</p>

        <p>6. リンクをページの上部に配置する</p>

        <p>7. このコンセプトを理解する上で役に立つ図を使った解説</p>

        <p>8. 壊れているページを修正する</p>

</div>

</body>

</html>

c. 要素の説明

1. Rel = Author

HTMLの<head></head>にこのタグを加える理由が知りたい人もいるだろう。理由は、グーグルがこの方法で作者を言及することを認めているためだ。

見ての通り、とてもシンプルである:

<a rel="author" href="https://profiles.google.com/103074333439002308043/about">Bidhan Chatterjee</a>

このコードを<head>に加えた後、グーグルプラスのプロフィールをブログに向ける – この方法は、後で取り上げるグーグルオーサーシップのセクションで紹介する方法と同じである。

2. Intemscope

<div itemscope itemtype="http://schema.org/Blog">

この要素もまた、コンテンツが話題にする やアイテム のタイプを伝えるために用いられる。 

おまけ: ソーシャルシェア用のschema

ソーシャル共有データをschemaに組み込むことも出来る。要素itemprop とinteractioncountが役に立つ。以下に例を挙げる

<meta itemprop="interactionCount" content="FacebookLikes:8"/> <meta itemprop="interactionCount" content="GooglePlus:3"/>

テスト

ここでも、グーグルが提供するリッチスニペットのテスターを使って、マークアップをテストするべきである: http://www.google.com/webmasters/tools/richsnippets


2. 動画のインデクセーション – 動画をschema.orgでマークアップする

schema.orgを使って動画をマークアップすると、クリックスルー率が大幅に改善する。下のスクリーンショットでは、SEOmozが動画のメタデータを使ったことで、SERP内のビジュアルが著しくパワーアップしたことが分かる。

コードを追加すること自体は難易度が高くないが、適切なマークアップを知る必要がある。

始める前に、幾つか前提となる条件を挙げていく:

  1. 動画を自分自身でホスティングしていること(ユーチューブのエンベッドには適応することが出来ない)
  2. HTMLにアクセスし、コードを編集することが出来る

ステップ 1: 通常の動画のコードをページに貼り付ける

典型的な動画のエンベッドコードを以下に掲載する:

<h1>ニール・パテル</h1>

<h2>動画: ブロガー向けの高度なSEO</h2>

<object …>

 <param …>

 <embed type="application/x-shockwave-flash" …>

</object>

<p>SEOおよびマーケティングのエキスパート、ニール・パテルが提供する特別な動画。大量のリードをブログに送り込み、コンバージョン率の7つの秘密を学ぶ。</p>

ステップ 2: VideoObjectを囲む

<div>でコードを包む

VideoObjectデータを加える

ステップ 3: 基本的なマークアップを加える

以下に基本的なプロパティを挙げていく;

  1. Name
  2. Thumbnail
  3. Duration
  4. Description

「name」「description」のフィールドは、既存のコンテンツを囲む<span>タグの内側に加えられる :

プロパティ「duration「thumbnail 」は、通常、nameの下、そして、実際の動画の前に加えられることが多い<meta>内に掲載される

注記: 「duration」はISO_8601フォーマットを採用している。ISO_8601の詳細は次のURLを参考にしてもらいたい: http://en.wikipedia.org/wiki/ISO_8601

ステップ 4: さらにマークアップを加える

MediaObject(VideoObjectのオブジェクト)に対して、好きなプロパティを加えることが出来る:

  1. associatedArticle
  2. bitrate
  3. contentSize
  4. contentURL
  5. duration
  6. embedURL
  7. encodesCreativeWork
  8. encodingFormat
  9. expires
  10. height
  11. playerType
  12. regionsAllowed
  13. requiresSubscription
  14. uploadDate
  15. width

あるいは、動画専用のプロパティを加えることも可能だ:

  1. caption
  2. productionCompany
  3. thumbnail
  4. transcript
  5. videoFrameSize
  6. videoQuality

以下に[upload date]と[width]と[height]を加えたコードの例を掲載する:

動画のマークアップを加え、競合者に差をつけよう。

完成したコード

<div itemprop="video" itemscope itemtype="http://schema.org/VideoObject">

<h2><span itemprop="name">動画: ブロガー向けの高度なSEO</span></h2>

<meta itemprop="duration" content="T1M33S" />

<meta itemprop="thumbnail" content="neil-patel-video-thumbnail.jpg" />

<meta itemprop="uploadDate" content="2012-04-01T08:00:00-05:00" />

<meta itemprop="width" content="640" />

<meta itemprop="height" content="480" />

<object …>

 <param …>

 <embed type="application/x-shockwave-flash" …>

</object>

<p><span itemprop="description">;SEOおよびマーケティングのエキスパート、ニール・パテルが提供する特別な動画。大量のリードをブログに送り込み、コンバージョン率の7つの秘密を学ぶ。</span></p>

</div>


3. ヤフー!のサーチモンキー RDFa

RDFa マイクロフォーマットは、ヤフー!がより簡単に情報を特定し、分類するために利用するマークアップ言語である。

RDFはResource Development Frameworkの略である。

RDFを使って、コマースサイトの商品、スケジュール & コンテンツを検索エンジンに説明することが出来る。

RDFはHTMLで書かれているのではなく、XML フォーマットが用いられている。

これから、このコードをコンテンツに追加する方法を、幾つか例を使って紹介していく。

パート 1 – 識別子を理解する

resource - URL上に存在するもの全て

property - 名前付きのresource(例えば、ウェブページ上のコンテンツのタイプ) – author、homepage、book、movie等

property value – propertyの特徴、例えば本の作者や映画に出演する俳優

次に「statement」を形成していく。「statement」は、subject、predicate、そして、objectで構成される。

statement[QuickSproutの作者はNeil Patel]は次のようにまとめられる:

subject: http://www.quicksprout.com

predicate: author

object: Neil Patel

パート 2 – 例

1. 全てのRDFはXMLの宣言 & RDFのラッパータグで始まる

2. 次にRDFのシンタックス、そして、データが参照するURLを宣言する:

3. ドキュメントで描写されるアイテムを宣言する

ここでは、具体的なCD「Thriller」を取り上げており、CDが存在するURLを参照している。

4. resourceのpropertyである要素を加える

ラッパータグ<cd:artist></cd:artist>(またはcountry、price等)を使って、参照しているアルバムのpropertyを宣言することが可能だ)。

パート 3 – 完成したコードの例

以下に完成したコードの例を掲載する。ニーズに応じて、この例を利用し、修正することが出来る。

<?xml version="1.0"?>

<rdf:RDF

xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#"

xmlns:cd="http://www.cdstore.com/cd01">

<rdf:Description

rdf:about="http://www.cdstore.com/cd01/Thriller">

        <cd:artist>Michael Jackson</cd:artist>

        <cd:country>USA</cd:country>

        <cd:company>Epic Records</cd:company>

        <cd:price>12.99</cd:price>

        <cd:year>1982</cd:year>

</rdf:Description>

</rdf:RDF>

最後に、バリデータを使って、作品をチェックしよう: http://www.w3.org/RDF/Validator/


4. サイトにダブリンコアを加える

ダブリンコアもまた、ウェブ上のデータを説明するために用いられるメタデータのフォーマットである。ダブリンコアは様々な要素を採用している。その一部を以下に掲載する:
  1. title – resourceに与えられる名前
  2. creator – コンテンツを所有する人物または組織
  3. subject – コンテンツのトピック
  4. description – コンテンツの説明
  5. publisher – resourceを公開した人物
  6. contributor – コンテンツに貢献した人物/span>
  7. date – resourceが公開された日付
  8. type – コンテンツが該当するカテゴリ
  9. format – リソースが提示される仕組み
  10. identifier – URL等のコンテンツに対する数字の識別子
  11. source – コンテンツが引き出された元の場所
  12. language – コンテンツの作成に用いられている言語
  13. relation – コンテンツとその他のresourceとの関係。例えば、当該のコンテンツが、本のチャプターの1つかどうか
  14. coverage – resourceが物理的に置かれている場所
  15. rights – 著作権情報へのリンク

パート 2 – 例

実際のダブリンコアのメタデータの例を掲載する。このコードは、quicksprout.comの仮想の文書を表示する:

<head profile="http://dublincore.org">

<title>ニールパタルがダブリンコアを分かりやすくひも解く</title>

<link rel="schema.DC" href="http://purl.org/dc/elements/1.1/" />

<link rel="schema.DCTERMS" href="http://purl.org/dc/terms/" />

<meta name="DC.Identifier" schema="DCterms:URI"

content="http://quicksprout.com/fakeitems/dublincore/" />

<meta name="DC.Format" schema="DCterms:IMT" content="text/html" /> <meta name="DC.Title" xml:lang="EN" content="Dublin Core Tutorial" />

<meta name="DC.Creator" content="ニール・パテル" />

<meta name="DC.Subject" xml:lang="EN" content="ダブリンコアのメタタグ" />

<meta name="DC.Publisher" content="I'm Kind of a Big Deal, LLC" />

<meta name="DC.Publisher.Address" content="neil@neilpatel.com" />

<meta name="DC.Contributor" content="ニール・パテル" />

<meta name="DC.Date" scheme="ISO8601" content="2012-06-01" />

<meta name="DC.Type" content="text/html" />

<meta name="DC.Description" xml:lang="EN"

content="このチュートリアルは、ニール・パテルが提供する上級者向けSEOガイドの一部です。" />

<meta name="DC.Identifier" content="http://quicksprout.com/fakeitems/dublincore/" />

<meta name="DC.Relation" content="QuickSprout.com" scheme="IsPartOf" />

<meta name="DC.Coverage" content="I'm Kind Of A Big Deal, LLC" />

<meta name="DC.Rights" content="著作権 2012 ニール・パテル 全ての権利を保有" />

<meta name="DC.Date.X-MetadataLastModified" scheme="ISO8601" content="2012-06-01" />

<meta name="DC.Language" scheme="dcterms:RFC1766" content="EN" />

おまけ: ダブリンコアのジェネレータ

投稿済みのウェブページにこの無料のダブリンコアのジェネレータを実行してみよう: http://www.ukoln.ac.uk/metadata/dcdot/


5. グーグルのrel=authorタグを複数の作者が存在するサイトに実装する方法

rel=authorを複数の作者が存在するサイトに実装する方法は2つある。

簡単な方法

この簡単な方法では、リンクを各投稿から、rel=authorを使って、対応するグーグルプロフィールページに向けるだけである。

ステップ 1: 個別の作者のプロフィールに各投稿からリンクを張る

AとBの2本の記事が投稿されたブログを運営していると仮定する。Aを書いたのは私だが、Bは別の作者によって投稿された。この場合、それぞれの投稿に対して、次の作業を実施することになる:

A

オプション A: グーグルプラスのバッジ

先程も申し上げた通り、 https://developers.google.com/+/plugins/badge/personal-configにアクセスしてコードを作成する(自分のグーグルプラスのIDを利用すること)。しかし、この場合、自分が作成した個別の投稿にコードを貼り付けるだけである。

オプション B: rel=authorタグを利用する

<a href="https://plus.google.com/109412257237874861202?rel=author">Neil Patel</a>

これも従来のrel=authorタグの利用方法である。名前とグーグプラスのプロフィールのIDを自分のものに置き換え、自分が作成した投稿またはページのみに貼り付ける。

新しい代案: 特別なパラーメタのリンクを利用する

<a href=”https://plus.google.com/112759904453577892472?rel=author>+Neil Patel<a/>

作者のプロフィールにリンクを張る方法の中で、これは最も簡単である。上のコード(名前とリンクを自分のものに置き換えること)を作成したページに貼り付けるだけでよい。

B

最適なオプションを選択し、上述のステップを繰り返す。しかし、この場合、ゲストの作者一人一人にauthorのリンクを加えていく必要がある。

オプション A: グーグルプラスのバッジ

グーグルプラスのバッジのコードを https://developers.google.com/+/plugins/badge/personal-configで切り取り、貼り付ける。今回は、ゲストの作者のプロフィールの情報を利用する。

オプション B: rel=authorタグを利用する

ゲストの作者に対するタグの例を掲載する:

<a href="https://plus.google.com/100613060119695637213?rel=author">Guest Author</a>

全てのページで、ゲストの作者に対してこのプロセスを繰り返したら、ステップ 2に進む。

ステップ 2: それぞれの作者が“contributor”リンクを寄稿した全てのブログに張る

サイトに寄稿した作者は、サイトに対するリンクをそれぞれのグーグルプラスのプロフィールの“contributor”のセクションに加える必要がある。“contributor”セクションには好きなだけリンクを加えることが可能であり、どれだけ多くのサイトにコンテンツを提供していたとしても、自分が作者である点を証明することが可能である。

例えば、3つのサイトに寄稿するSujan Patelのプロフィールを見てみよう:

上級者向けのメソッド

ステップ 1: すべての作者にプロフィールページを設定する

この上級者向けのメソッドでは、すべての作者に個別のページを用意する必要がある。次のスクリーンショットを見れば分かるように、SEOmozは巧みにこの取り組みを実施している。

一部のワードプレスのテーマはこの機能を内蔵している。この機能が提供されていないなら、セクション「ワードプレスで作者のプロフィールを自分で設定する」を確認してもらいたい。

ステップ 2: ブログの投稿からプロフィールページへのrel=”author”リンクを加える

作者が1人しかいないブログで、“rel=author”リンクをグーグルプラスのプロフィールに向ける方法を思い出してもらいたい。複数の作者が在籍するブログでは、rel=authorを当該のウェブサイトのプロフィールページに向けることになる。

ステップ 3: 経歴ページからグーグルプロフィールへのrel=”me” を加える

次に、3本目のリンク – 経歴のページからグーグルプラスのプラフィールページへのリンク – を作成する。

このリンクは最後のつながりを確立する。すると次のような鎖が出来あがる:

投稿 (rel=author) -> 経歴/プロフィール (rel=me) -> グーグルプラスのプロフィール

ステップ 4でも説明していくが、この鎖は逆方向でも同じように作用する。

グーグルプラスのプロフィール(contributorリンク) -> 経歴/プロフィール

ステップ 4: グーグルプロフィールから、作者の経歴ページに逆にリンクを張る

現時点で、リンクをグーグルプラスのプロフィールから、寄稿するサイトに追加する方法には、既に慣れているはずである。

この最後のステップでは、リンクが、自分が寄稿しているウェブサイトの経歴/プロフィールのページ直接向けられている点に注目してもらいたい。私のグーグルのプロフィールからSEOmozに戻るリンクは次のようになる:

http://www.seomoz.org/users/profile/361137


6. グーグルのrel=authorタグを作者が1人のサイトに実装する

作業に取り掛かる前に: グーグルプロフィールを設定する

この時点で、まだグーグルプロフィールを設定していないなら、今すぐに設定してもらいたい。これは、グーグルプラスのページを作る取り組みと同じぐらい重要である。

作者のプロフィールを設定すると言うコンセプトは、基本的に2つの場所にリンクを張ることを意味する。次のようにウェブサイトからグーグルプロフィールに相互にリンクを張ることになる:

ウェブサイトの全てのページ (rel=author) -> グーグルプラスのプロフィール

グーグルプラスのプロフィール (contributor) -> ウェブサイト

一度全てのステップを踏めば、割と簡単に実施することが出来るが、知っていてもらいたい複数のオプションと細かい設定があるので、紹介していく。

ステップ 1: rel=authorをサイトに加える

オプション A

グーグルプラスのバッジをサイトにインストールする

https://developers.google.com/+/plugins/badge/personal-config 

上のスナップショットに表示されているように、コードを取得し、サイトの掲載したい場所に貼り付ける。ワードプレスを利用している場合、サイドバーのウィジェットに通常は掲載される。

自分のグーグルプラスのプロフィールのIDを利用すること。

オプション B

サイトの全てのページからグーグルプラスのプロフィールにrel=authorのアトリビュートを使ってリンクを張ることが出来る。

これはオーサープロフィールが導入された時に、初めて利用することが可能になった方法である。

ブログの全てのページの自分の名前から、グーグルプロフィールにリンクを張る必要がある。

ワードプレス等のコンテンツ管理システムを利用し、自分の名前が記入された「about」ボックスを利用することが出来るなら、フッターやサイドバーのウィジェットを介して、この作業を簡単に実施することが可能である。

以下にコードを掲載する。サイドバーやフッターに切り取り & 貼り付けよう:

<a href="https://plus.google.com/109412257237874861202?rel=author">Neil Patel</a>

当たり前だが、自分の名前とグーグルプラスのプロフィールのIDを利用する必要がある。

最新の代案 – ステップ 1: 特別なパラメータのリンク

ブログのページからグーグルのプロフィールにリンクを反対に張る、この新しいシンプルな方法はあまり知られていない。これは、rel=authorが初めてリリースされた際に、HTMLを編集することなくリンクを実装する簡単な方法としてデビューした。

まず、作者の名前がサイトのページに表示されている点を確認し、次のリンクに変える:

<a href=”https://plus.google.com/112759904453577892472?rel=author>+Neil Patel<a/>

私の名前の前に+が記されている点に注目してもらいたい。これは、URLの最後に特別なパラメータを利用していることをグーグルに伝える上で効果がある。ここでもやはり、自分のグーグルプラスのプロフィールのURLを利用してもらいたい。

このメソッドでは、rel=authorアトリビュートやグーグルプラスのバッジを利用する必要がない。

3つのどのメソッドを利用していても、これで、グーグルのプロフィールをサイトに向ける準備は整ったことになる。

ステップ 2: グーグルのプロフィールからサイトにリンクを返す

ログインして、プロフィールページにアクセスし、Edit Profileをクリックする。

プロフィールの“contributor”セクションを利用する

ブログをリンクとして加える

リッチスニペットのテストツールを使ってテストを行う - http://www.google.com/webmasters/tools/richsnippets

するとオーサーシップを正確に実装したかどうか、そして、SERPでページがどのように提示される可能性があるかが分かる。


7. エンティティ検索

エンティティ検索は、まだ生まれたばかりの分野である。現段階では、特定のタイプの人、ウェブサイト、または、企業しかこの機能を利用することは出来ないが、間もなく一般公開される見込みである。

このセクションは、他のセクションとは異なり、コンセプトに焦点を絞って説明していく。

エンティティ検索とは?

「ナレッジグラフ」と呼ばれることが多い。あまり意味を持たない単なるキーワードではなく – 人、場所、そして、物事を結びける。例えば、キーワード「boston」は場所を意味するかもしれないが、バンド名でもある。

「boston」に対する現在のナレッジグラフを見ていこう。

このデータは、どのようにしてこの場所に提示されたのだろうか?グーグルは、ウィキペディア等の各種のデータレポジトリからデータを引き出している。

SERPの右側に掲載されるナレッジフラフは、結果のようにエンティティが表示される場所として、最も目立つ場所と言えるだろう。隠されることもあるが – ここにエンティティのタイプの結果が表示される。

インプライドサイト検索

グーグルは長らくこのサイト検索から距離を置いているが、インプライドサイト検索と言う機能が実在する。通常のsite search:に関しては、ご存知の方が多いのではないだろうか。

それではインプライドサイト検索の結果を見ていく:

上位の6つの結果は全てquicksprout.comのページである – グーグルはquicksproutを会社 – エンティティと認知しており、そのため、この検索を上位の検索結果に対するサイト検索に書き換えることが出来る。

related search オペレータ

この機能を利用している人はあまりいないが、quicksproutのrelated: searchの結果を見ていこう。

ご覧のように、ウェブ開発、ブログ、そして、分析のトピックとのquicksproutの関係が明確に表れている。このようにエンティティの関連性は役に立つ。このようなサイトの間では重要なキーワードが共有されているわけではないが – それでもお互いに関連するサイトとして表示される。

この、エンティティとの関連性が、誰にでも当てはまるわけではない点を実証するため、以下に結果がゼロのrelated:searchを掲載する。

自然言語検索

「自然な言語検索」でもエンティティの結果が表示される。これには、質問、文、もしくは、ロングテールのディスクリプションの検索クエリが該当する。

例 – “what’s the capital of florida?”

グーグルは質問に対する答えを返している。これは「キーワード」よりも、フロリダが州であり、タラハシーがフロリダ州の州都であることが最も重要視されている。

グーグルにエンティティとして見てもらうことのメリットが、徐々に理解してもらえるようになっただろうか?ウェブ上で複数の場所で表示され、オーソリティを高める効果が見込める。

次のセクションでは、エンティティベースのソースに選んでもらう上で役に立つ具体的な方法を紹介する。


8. エンティティベースのソースにサイトに加える

一つ前のセクションでは、グーグルにエンティティとして見てもらうことの重要性、そして、エンティティとして出来るだけ多くの関連する情報を持つことの重要性を説明した。それでは、実際にエンティティ検索を活用するにはどうすればいいのだろうか?フリーベースに取り上げてもらう必要がある。

以下に、グーグルがエンティティの情報を得るために利用する場所が掲載された、私の知る限り最も広範なリストを提供する。

  1. abc.state.va.us/Pricelist/RUM_(IMPORTED).html
  2. Adherents.com
  3. ArXiv
  4. Baseball Almanac
  5. Berlin International Film Festival
  6. Books and Writers kirjasto.sci.fi/
  7. bornrich.com
  8. Boston.com
  9. Bureau of Labor Statistics, Unemployment in US
  10. Bureau of Labor Statistics, Unemployment in US Counties
  11. Bureau of Labor Statistics, Unemployment in US States
  12. Câmara dos Deputados
  13. celebritynetworth.com
  14. Center for Responsive Politics
  15. ChefMoz
  16. chickipedia
  17. Claud Butler
  18. croctail.corpwatch.org/
  19. Crore
  20. Crunchbase.com
  21. Database
  22. databasebasketball.com
  23. databaseFootball.com
  24. DatabaseOlympics
  25. DayLife.com
  26. E-LIS
  27. en.citiZENdium.org/wiki/
  28. English Wikipedia
  29. Eurostat, Minimum Wage in Europe
  30. exploredia.com
  31. Facebook
  32. Factual
  33. famenetworth.com
  34. FDIC
  35. Food and Drug Administration
  36. Forbes
  37. France
  38. Freebase
  39. GEBCO Undersea Features Gazetteer
  40. Geographic Names Information System
  41. Geonames.org
  42. German Wikipedia
  43. Google Plus
  44. Healthcare Cost Report Information System
  45. https://protecfuelsaver.com/diesel-fuel-cleaner
  46. https://protecfuelsaver.com/gas-fuel-cleaner
  47. https://protecfuelsaver.com/oil-system-rehab
  48. https://protecfuelsaver.com/PROTEC-Internal-Engine-Cleaner
  49. Hulu
  50. IES NCES Public Library Survey
  51. imdb.com
  52. Infochimps
  53. InstantEncore
  54. Internet Movie Database
  55. Internet Speculative Fiction Database
  56. Internet Speculative Fiction Database
  57. ISO 15924
  58. ITIS
  59. Library of Congress
  60. Library of Congress id.loc.gov/
  61. Lurkmore.ru
  62. MBLWHOI Library
  63. Medpedia
  64. Metaweb topic merging algorithm
  65. Mexican INEGI statistics
  66. Million
  67. MusicBrainz
  68. MySpace
  69. Named entity recognition
  70. National Center for Education Statistics
  71. National Fire Department Census Database
  72. National Oceanic and Atmospheric Administration
  73. Nature
  74. Netflix
  75. Nielsen Company
  76. Official Website
  77. Open Library
  78. Open Library Project
  79. OurAirports
  80. Paragliding Earth
  81. Pocket Statistical Data on Switzerland 2006
  82. Pocket Statistical Data on Switzerland 2007
  83. Public domain
  84. PubMed Central
  85. Quotationsbook
  86. Ranker.com
  87. Reference.com
  88. Securities and Exchange Commission sec.org
  89. Simon Property Group
  90. SkyGrid
  91. Slovak Statistical Office
  92. Stanford University
  93. StarCraft and StarCraft II Wiki
  94. The Football Database
  95. The Hollywood Reporter
  96. The National Institute of Statistics, Spain
  97. The TVDB
  98. The World Factbook
  99. therichest.org
  100. topics.nytimes.com
  101. TVRage
  102. tvrage.com
  103. U.S. Food and Drug Administration National Drug Code Directory
  104. UN Stats
  105. Unified Medical Language System Release 2011AB
  106. United States Census Bureau
  107. United States Census Bureau, Population
  108. United States Department of Housing and Urban Development
  109. United States International Trade Commission
  110. United States Securities and Exchange Commission
  111. Virtual INternet Authority File viaf.org/
  112. Wikipedia
  113. Wikipedia Categories
  114. Wikipedia infoboxes
  115. World Bank, World Development Indicators

フリーベースは、上に挙げた全ての場所からデータを引き出す。それでは、フリーベースに自分のサイトを追加する方法を伝授する。

Freebase

注記: フリーベースへの登録を、ディレクトリへの投稿、または、スパムと一緒にしないでもらいたい。フリーベースは、編集可能な公開されているデータベースである(グーグルが買収したメタウェブが始めた)。リンクを落とす場所でも、投稿を行う場所でもない(いずれにせよ、あまり効果はないだろう)。ここでは、エンティティの情報が完全であり、誤りがないことを確認してもらいたい。

1. アカウントを作成する

2. アカウントを作ったら、Edit Modeを選択する(編集するトピックを閲覧するのが楽になる)。

3. 次にエンティティが存在するかどうか確かめる

何度もエントリする行為は、ひんしゅくを買う(削除される)。ページで、検索ボックスを使って、エンティティが存在するかどうか確認しよう

4. 見当たらなかったら – 「トピック」を探す

トピックは、エンティティが最もフィットするカテゴリである。例えば、ZapposはCompanyに振り分けられ、American IdolはTV Programに分類される。

QuickSproutにはInternet Companyが最も適すると考えられるため、このトピックのページにアクセスする。

5. トピックページにアクセスしたら、「view all」をクリックする

6. 次に「add more topics」をクリックする

7. 再びエンティティに対する検索を行い、確認する – 表示されなかったら、「create new topic」をクリックする

8. リストに新しいトピックが表示される – クリックする

9. Edit Modeに設定しているため(ステップ 2)、新しいトピックに対する情報を追加 & 編集することが出来る

繰り返すが、これはセールスページではない。事実に基づくウィキペディアのエントリのように扱ってもらいたい。


このチャプターはここで終わるが、schemaやエンティティ検索の重要性を深く理解してもらえたのではないだろうか。ウェブサイトを「未来の検索」フレンドリーにする上で役立ててもらいたい。

上級者向けSEOガイドの記事一覧はこちらから


この記事は、Quick Sproutに掲載された「Chapter 3: New Search」を翻訳した内容です。

相変わらずの充実度でした。余りに種類がありすぎて、どこから対応していけばいいかわからない、、、(スミマセン、正直私も迷います)という意見もあると思いますが、まずは検索結果の表示内容に直接インパクトがありそうなものから徐々に対応していくのが結果も出ますし確実そうですね。 — SEO Japan [G+]

上級者向けSEOガイド2/9 : サイトスピードとパフォーマンス改善

米国のカリスマウェブマーケッター、ニール・パテルが書き下ろした上級者向けのSEOガイドを紹介する記事シリーズ第二弾。今回はランキングへの影響はもちろん、それ以上にサイト内のユーザーアクションにも大きな影響があるといわれるサイトスピードやパフォーマンスの確認&改善方法について。この種の記事はこれまでにも様々な所で紹介されていますが、その中でも網羅度&マニアック度はNo.1クラスの充実した内容です。 — SEO Japan

チャプター 1では、サイトをクロール可能 & アクセス可能にするための方法を伝授した。チャプター 1を完了し、ウェブ上のその他の多くのサイトよりも優れたサイトにすることが出来れば、まずまずの出だしと言えるだろう。

次にさらにレベルを上げ、サイトをスピードアップさせて、より効率良く動かす上で役に立つテクニックを紹介していく。効率を高めることが出来れば、ユーザーエクスペリエンスだけでなく、検索エンジンにとってもプラスに働くはずだ。

このチャプターを読み進めていけば、サイトを期待通りの早さで動かす方法に関するアドバイスを得られるはずである。


1. サイトのスピードを計測する

ページスピード、または、ページのロード時間は、ランキングを少し押し上げる効果が期待できるだけでなく、ユーザーもサクサク動くサイトを好むため、欠かせない要素の一つである。ビジターに早さを提供する取り組みは非常に重要度が高い。

サイトスピードを計測する2つの方法を紹介する。

1. グーグルのPageSpeed Online

2. グーグルのクローム向けPageSpeedプラグイン

1. PageSpeed Onlineを利用する

ステップ 1 – Google PageSpeed Onlineにアクセスする

 https://developers.google.com/pagespeed/にアクセスする

ステップ 2 – ホームページでツールを実行する

すると総合スコアが得られる。ホームページのスコアは、サイト全体の基準として、有効である。

次に、優先順位がつけられた課題のリストを詳しく見ていくことが出来る:

まずは優先順位の高いアイテムと中ぐらいのアイテムに絞るべきである。アイテムをクリックすると、詳細が表示される。

このツールを利用すると、各アイテムに対する詳細な提案が得られる。一般的な問題の解決策に関しては、このガイドの後半で紹介する。とりあえず、ここではツールを使って、問題を診断する。

ステップ 3 – 内部のページでツールを実行する(特にホームページとはスピードが異なる可能性が高いページ)

私のサイト クイックスプラウトには、その他のページとは毛色が完全に異なるページが1つある –  http://www.quicksprout.com/pro/

そのため、PageSpeedツールをこのページで実行し、違いを見つけておく。なぜなら、これはセールスのページであり、重要度が高いためだ。

ステップ 4 – モバイルのサイトスピードをテストする

右上の“mobile”タブをクリックする

内部のページのテストも忘れずに実施すること


2. ページのロードをアナリティクスで追跡する

ページのロードスピードをアナリティクス内部で測定することが出来る点は、ご存知の方も多いだろう。しかし、その他にも幾つかこのアプローチを活用する方法があることは、あまり知られていない。

2つの方法で手順を紹介していく:

1. ワードプレスで計測する

2. ワードプレス以外のサイトで計測する

パート 1 – ワードプレスで追跡を設定する

ステップ 1 – 通常の追跡コードをインストールする

通常の分析追跡コードをワードプレスにインストールする方法、さらには、ページスピードのコードのスニペットをインストールする方法に関しても、既にご存知なのではないだろうか。

ここではGoogle Analyticator プラグインを利用する。

これは基本中の基本だが、ヒントになるはずである。ここに追跡コードをインストールする。

次に、ページスピードを設定する前に、ユーザーの追跡を正確に設定しているかどうかを確認する。念には念を入れよう。

以下のシンプルな3つの手順に従う必要がある:

1. “no”を選択する

2. トラフィックを追跡したくないユーザーにチェックを入れる(私ならadminのみにチェックを入れる)。

3. “Remove”を選ぶ – これが一番簡単な方法だ。

次にサイトスピードの設定に移る。この分析プラグインでは、とてもシンプルな設定方法が用意されている。

“enabled”になっていることを確認する。

簡単過ぎると思った方もいるのではないだろうか。しかし、これはあくまでも上級者向けのガイドである。これで基本の設定はカバーしたので、幾つかさらに重要な機能を加えていく。

ステップ 2 – Sample Rateを設定する

あまり知られていないが、sample rateを設定することが出来る。通常、グーグルアナリティクスは、サイトスピードのデータの大半を測定の対象から外している(デフォルトでは1%のみ)。そのため、、小規模なサイトを運営しているなら、多くの重要なデータを見失っている可能性がある。

Sample Rateは、トラッカーの初期設定の前にインストールする必要があり、適切なボックスを利用する必要がある点に注意してもらいたい。

以下にコードのスニペットを掲載する(Asyncのスニペット):

_gaq.push(['_setSiteSpeedSampleRate', 5]);

数字の‘5’に注目してもらいたい。これは、新しい sample rateである – 全ての訪問の5%を指す。一ヶ月に訪問が1万回以下の小規模なサイトの場合、この数字を50、もしくは100に上げても問題ないが、理に適った量のデータの収集に徹してもらいたい。

しかし、サイトが、1日に10000回以上訪問される場合、グーグルは、自動的に1%のサンプルのみを集める可能性がある点を留意しておこう。

出来るだけサイプルの規模を抑えつつも、データを集める上で十分な量に指定することを薦める。

ステップ 3 – ソースコードを確認する

適切に動いていることを確認するため、常にソースコードを確認する癖をつけるべきである(adminとしてコードを閲覧することが許可されないため、ワードプレスにログインしている間は、チェックするべきではない)。

次のスクリーンショットのように、Track Pageviewの上にSample Rateのコードが表示されているはずだ。

パート 2 – ワードプレス以外のサイトで設定する

基本的に同じようなプロセスだが、全ての手順を説明していく。

ステップ 1 – グーグルアナリティクスを探し出す

サイトの設定によっては、ヘッダーを処理する.phpファイルを持っている人もいれば(ワードプレスのように)、ヘッダーが用意された静的なHTMLファイルを持っている人もいる(この場合、全てのファイルをアップデートしなければならない)。

私たちの例ではheader.phpを利用している。

ステップ 2 – ページロード時間のコードを加える

基本的なことだが、ページロード時間のコードを忘れずにアナリティクスに加えておこう:

以下にアナリティクスのコードを掲載する。ページロード時間のコードは太字で表記しておく:

<script type="text/javascript">

 var _gaq = _gaq || [];

 _gaq.push(['_setAccount', 'UA-1589983-1']);

 _gaq.push(['_trackPageview']);

 _gaq.push(['_trackPageLoadTime']);

 (function() {

   var ga = document.createElement('script'); ga.type = 'text/javascript'; ga.async = true;

   ga.src = ('https:' == document.location.protocol ? 'https://ssl' : 'http://www') + '.google-analytics.com/ga.js';

   var s = document.getElementsByTagName('script')[0]; s.parentNode.insertBefore(ga, s);

 })();

ステップ 3 – Sample Rateコードを加える

次に同じようにsample rateコードを加えていく:

再び、次のコードを利用する:

_gaq.push(['_setSiteSpeedSampleRate', 5]);

数字を使って(今回は5)ページスピードを計測するサイトの割合を調節することが出来る。

レポートの場所

次の順にアクセスしていくと、このデータを見ることが出来る:

Content->Overview->Site Speed

次の手順を見過ごす人達が多いので注意してもらいたい。“page timings” ->にアクセスし、“technical”をクリックする。

この画面は、サイトのスピードに何が影響を与えているのかを示している。

アナリティクスの設定をテストする

最後にアナリティクスのクローム用プラグイン Debuggerを使ってテストを行う -

https://chrome.google.com/webstore/detail/jnkmfdileelhofjcijamephohjechhna

以上


3. ヤフー!のYSlow プラグインを利用する

ステップ 1 – YSlowをインストールする

 http://yslow.org/にアクセスする。

ブラウザにYSlowプラグインをインストールする(インターネットエクスプローラ以外)。

ステップ 2 – YSlowを開き、実行する

rulesetには3つの選択肢が用意されている:

1. YSlow (V2) – 23 ruleのフルセットを実行する

2. Classic (V1) – 初めの13のruleを実行する

3. Small Site or Blog – 小規模なサイトに適用される14のruleを実行する

1ヶ月間の訪問が1万以下の場合に限って、small site or blogを利用するべきである。1万を超えるなら、YSlow (V2) を選ぶことを薦める。

テストしたページを読み込む。“Run Test”をクリックする。

ステップ 3 – 結果を確認する

Overall performance score – 85(B)を目指そう。

また、結果のタイプでレポートを絞り込むことも出来る。

優先順位付けの戦略として、私ならまずはFに力を入れる。

各レポートには、簡単な説明、そして、ヤフー!のディベロッパーサイトに掲載されている詳細へのリンクが記載されている。

YSlowに返された一つ目のエラーを確認する。

Make Fewer HTTP Request

“This page has 23 external Javascript scripts. Try combining them into one.

This page has 7 external stylesheets. Try combining them into one.

This page has 19 external background images. Try combining them with CSS sprites.”

これは一般的なエラーであり、CSSとJSファイルが最適化、そして、縮小されていないために起きている。

この分野の改善に関しては、”LESSを使ってCSSを最適化する”セクションを参考にしてもらいたい。

それでは、特に簡単な分野の一つ – 大きなイメージの縮小に取り掛かろう。


4. 大きなイメージを見つけて縮小する

大きなイメージは、サイトスピードの低下の要因となっていることが多い。そこで、大きなイメージを見つけ、縮小するための方法を紹介していく。

メソッド 1 – グーグルの画像検索

グーグルの画像検索を使って、大きなイメージを発見することが可能だ。これは、手っ取り早く、簡単に見つけられるイメージを探し出すメソッドとしてうってつけである。。

ステップ 1 – グーグルの画像検索にアクセスする

images.google.com

ステップ 2 – サイト検索を行う

site:quicksprout.comで検索をかけると、グーグルがインデックスした私のサイトのイメージが全て表示される:

ステップ 3 – セーフサーチをオフにする

確実にすべてのイメージを表示させる必要がある。

ステップ 4 – サイズで絞り込みを行う

まずは控えめなサイズ – larger640×480以上を選び、絞り込みをかける。

ステップ 5 – 結果を見る

結果を見る際は、「大きな」イメージになるべきではないにも関わらず、最終的にサイズが大きくなっているイメージを見つけてもらいたい。CSSやHTMLで、望む大きさにサイズが変更されている可能性がある。

以下に結果ページを掲載する。私はこのイメージが気になった:

写真をクリックすると、実際のサイズは遥かに大きいことが分かる。


これは明らかに大きなイメージを手っ取り早く探す手法である。続いて、スケールに応じて、より効果が高いアプローチを紹介していく。

メソッド 2 – スクリーミングフロッグ SEO スパイダーを利用する

スクリーミングフロッグを使って、サイトをクロールし、ファイルサイズごとに大きなイメージを表示させていく。

ステップ 1 – サイトをクロールする

チェックしたいサイトをクロールする。

次にイメージをクリックする。

Over 100kbで絞り込む。

サイズで絞り込みをかける。

.csvにエクスポートする。

スプレッドシートを使って、イメージの縮小プロセスの進捗状況を記録していく。大きなイメージを大量に抱えているなら、この作業には時間がかかるかもしれない。


5. グーグルクロージャーを使って、スピードを最適化する

JavaScriptを縮小して、単一のファイルに変えることで、ウェブサイトのスピードを改善することが出来る。なぜなら、多くの大きなファイルではなく、単一の小さなファイルをダウンロードすれば済むようになるためだ。これから、グーグルのクロージャーツールをインストールし、JavaScriptを全て縮小する方法を伝授する。

  1. グーグルのコンパイラークロージャーサイトにアクセスする
    ウェブサイトのURL: http://code.google.com/p/closure-compiler/
  2. downloadをクリックする
    リンク「compiler-latest.zip」をダウンロードする。
  1. ZIP ファイルを開く

    Mac:
    ZIP ファイルをダブルクリックする。すると、「JAR」ファイルが含まれる同じ名前のフォルダが生成される。

  2. JAR ファイルを全てのJavaScriptが存在するフォルダにコピーする

    この例では、compiler.jarファイルをJavaScriptがあるフォルダにドラッグしている。

  1. コマンドラインのウィンドウを開く

    Mac:
    Finderにアクセスし、 Applications > Utilities > Terminalの順に開いていく。ウィンドウズ:
    Startをクリックし、“command prompt”を入力し、“command prompt”をクリックする。
  2. JavaScriptが保存されているフォルダに変える

    Mac:
    “~/” を入力すると、JavaScriptのフォルダの場所が特定される。

    この例では、私のJavaScriptが、code、os2、public、JavaScriptと言うフォルダのホームディレクトリに存在することが判明している。

    ウィンドウズ:
    “cd \”を入力すると、JavaScriptのファイルが存在するフォルダが明らかになる。
  3. Javaのコマンドを入力して、縮小したJavaScriptのファイルを生成する

    ウィンドウズおよびMac:
    次のコードを入力する: “java -jar compiler.jar –js jquery.js jquery_spinner.js –js_output_file output.js

    “jquery.js”と“jquery_spinner.js”を縮小したいJavaScriptのファイル名に置き換える。順番が重要なら、適切な順序で入力していく。

    output.js”を置き変える

    この例では、jquery.jsと“jquery_spinner.”と呼ばれるプラグインをコンパイルした:

4. 縮小したJavaScriptファイルをプロジェクトに戻す

この例では、列 8を加え、JavaScriptをHTMLファイルに追加した。

5. 最後にテストして、全て動作するかどうかを確認する


6. CSSファイルとJSファイルを最適化する

二つ目のセクションと三つ目のセクションでは、サイトのパフォーマンスを評価する方法を取り上げた。次に、CSSファイルとJSファイルを、「LESS」を使って最適化する上級者向けの方法を伝授する。

LESSは動的なスタイルシートの言語であり、CSSを作成する。ここでは、LESSコンパイラーに自動的にCSSファイルを縮小させ、ユーザーがページをダウンロードするスピードを上げる、高度なテクニックを紹介する。

  1. Lessのアプリケーションをダウンロード & インストールする
    Lessは、CSSファイルを圧縮するための無料のアプリケーションを用意している

    Mac:
     http://incident57.com/less/を訪問し、Less.Appをダウンロードする。

ウィンドウズ:
 http://winless.org/を訪問し、WinLessアプリケーションをダウンロードする。

  1. Lessをコンピュータにインストールする。
    Mac: ダウンロードをダブルクリックし、LessアプリをApplicationのフォルダに移動する。
  1. Lessアプリケーションを開く
    Mac:
    Applicationフォルダをクリックし、Lessをダブルクリックする。
  1. CSSファイルが保存されているフォルダを開き、CSSファイルの名前を「.less」に変える。
    この例では、ワードプレスのテーマのCSSファイルを取り上げ、すべて「.less」に変更している。

    変更前:
    変更後:

  1. Lessファイルを持つフォルダをLessアプリケーションにドラッグする

    この例では、Lessファイルを含むフォルダをアプリケーションにドラッグして移動している:
  1. Click、そして、Compileをクリックしていく
    すると、ダウンロードのスピードアップにつながる、新しいCSSファイルが生成される。
  1. Lessは、開いている間に、自動的にLessファイルをCSSファイルに縮小する。
    アプリケーションが開いている時は、Lessファイルを変換する度に、自動的に縮小版CSSがアップデートされる。

Lessのファイルは通常のファイルと同じように表示されるため、編集することが出来る:

しかし、縮小したCSSファイルは次のように表示される:

この例では、ファイルサイズを2000削減した。大きな違いではないが、小さな最適化を重ねていくことで、ユーザーはより早くサイトをダウンロードすることが可能になる


7. グーグルのApache向けMOD_SPEEDをインストールする

  1. グーグルのApache向けMOD_SPEEDをインストールする

Apacheサーバーでウェブサイトを運営しており、サーバーの設定をモジュールレベルで変更する権限を持っているなら、MOD_PAGESPEEDをインストールして、容易にスピードアップを実現することが可能だ。

警告: このテクニックは難易度が非常に高く見えるが、実際にはサーバーレベルでApacheを設定した経験がある人にとっては、割と簡単である。しかし、経験のない人が自力でこのアプローチを実施してしまうと、ウェブサイト全体がダウンする事態になりかねない。Apacheのモジュールをインストールし、ウェブサーバーをコマンドラインから設定する方法を知っていることが前提である。この方法が分からないなら、経験豊かなプロのウェブ開発者かシステム管理者に任せるべきである。 

MOD_PAGESPEEDの詳細は次のURLで確認してもらいたい: https://developers.google.com/speed/docs/mod_pagespeed/using_mod

Debianベースのサーバーを利用している場合(DebianやUbuntu等):

  1. サーバーにSSHで接続する
  2. mod-pagespeed .debパッケージをダウンロードする。

    サーバーが32-bitのマシンなら、次のコマンドを利用する:
    wget https://dl-ssl.google.com/dl/linux/direct/mod-pagespeed-beta_current_i386.deb

    64-bitのマシンの場合は、次のコマンドを利用する:
    wget https://dl-ssl.google.com/dl/linux/direct/mod-pagespeed-beta_current_amd64.deb

  3. .debパッケージをインストールする

    コマンドラインに次のコードを入力する:
    dpkg -i mod-pagespeed-*.deb
  4. 壊れた依存性を修正する

    次のコードをコマンドラインに入力する:
    apt-get -f install

RedHatベースのサーバーを利用している場合(RedHat、Fedora、またはCentOS):

  1. サーバーサーにSSHで接続する
  2. mod-pagespeed .debパッケージをダウンロードする

    サーバーが32-bitのマシンなら、次のコマンドを利用する:
    wget https://dl-ssl.google.com/dl/linux/direct/mod-pagespeed-beta_current_i386.rpm

    サーバーが64-bitのマシンなら、次のコマンドを利用する:
    wget https://dl-ssl.google.com/dl/linux/direct/mod-pagespeed-beta_current_x86_64.rpm

  3. Yumパッケージマネージャーを使って、“at”をインストールする

    次のコードをコマンドラインに入力する:
    yum install at
  4. 壊れた依存性を修正する

    次のコードをコマンドラインに入力する:
    rpm -U mod-pagespeed-*.rpm

MOD_PAGESPEEDを設定する

  1. 編集するApacheの設定ファイルを開く

    UbuntuまたはDebianを利用しているなら、ファイルは次の場所にある:

    /etc/apache2/mods-available

    CentOS、Fedora、または、Redhatを利用しているなら、ファイルは次の場所にある:
    /etc/httpd/conf.d
  2. pagespeed_moduleのディレクトリを探す。
    IfModuleディレクティブの内側にある。

module per folderを有効または無効にする
サイトの.htaccessファイルに次の列を加える:

ModPagespeedを有効にするには:
ModPagespeed on

ModPagespeedを無効にするには:
ModPagespeed off


8. ブラウザのキャッシング(ワードプレス以外のサイト)

恐らく、皆さんの多くがワードプレスのサイトを運営しているはずである。そこで、パフォーマンスをスピードアップする上で役に立つプラグインを幾つか紹介していく。

しかし、まずは、ワードプレスを利用していない人達のために、スピードを最適化するための技術的な情報を提供する。

ここでは、ブラウザのキャッシングを活用するため、.htaccessファイルを利用する高度なテクニックを幾つか取り上げる。グーグルのPageSpeed Onlineで警告を受けたなら、以下のテクニックを利用して、問題を解決してもらいたい。

注記: .htaccessファイルの編集に慣れている必要がある。編集するべきかどうか分からないなら、ウェブマスターに声をかけるべきである。

ステップ 1 – FTPサーバーにログインして、.htaccessファイルをバクアップする

好きなFTPクライアントを利用するか、または、FileZillaをダウンロードして、利用する: http://filezilla-project.org/

FTPを介してログインする方法をご存知だとは思うが、念の為に簡単に説明しておく:

Host: ウェブサイトの名前

Username

Password

Port: 大抵の場合、ここは空白のままにしておく。

ステップ 2 – .htaccessファイルを探す

このファイルはルートディレクトリに存在する。隠れているファイルを見られる状況にしておく。さもないと、気づかない可能性がある。

注記: 場合によっては、.htaccessファイルを持っていない可能性もあるが、その場合は、新しいファイルを作成すればよい。テキストエディタで新しい文書を作り、名前を.htaccessにする。

ステップ 3 – .htaccessファイルをダウンロードして、バックアップする

次に、.htaccessファイルをダウンロードし、バックアップを保存する。安全に編集するためだ。万が一、ミスがあったら、復元しよう。

FileZillaで、右クリックし、ダウンロードする:

テキストエディタで開く。

次に、‘save as’をクリックし、テキストファイルとしてバックアップのコピーを保存する:

これで、編集する準備が整ったことになる。

ステップ 4 – コードを加える

手順ごとにコードを紹介していく。最後に切り取り & 貼り付けすることも出来るが、手順を追うことで、仕組みを理解することが可能になる。また、個人的に、実際に入力することを薦める :-)

写真ファイル

1. RewriteEngineを有効にする – .htacessファイルでまずこの作業を行うべきである

2. <file>のラッパータグを加える

3. ラッパー内にファイルのタイプを加える

4. キャッシングを生成し、最長時間を1週間に設定するコードを加える

5. 同じコードをその他の写真ファイルのタイプにも加える – .png & .gif

– ここでは、写真のキャッシュの時間は1週間に設定している。写真が変わる頻度、そして、ユーザーが訪問する頻度に応じて、自分のサイトに適切な時間の枠を指定する必要がある。

CSS

コードは基本的に同じだが、CSSでは異なる時間の長さを選んでいる。

するとCSSは1日でキャッシュされるようになる。繰り返すが、期間は、CSSファイルを変更する頻度、そして、ユーザーがサイトを再び訪問する頻度に左右される。

Javascript

JavaScriptのキャッシングのコードも基本は同じだが、ここでは、1ヶ月に設定する。

この期間は、サイトのJavaScriptへの依存の度合い、そして、変更される頻度に左右される。

時間の早見表

以下にそれぞれの時間の枠を秒数で計算した値を挙げていく:

  1. 5分間を秒数にすると = 300
  2. 1日を秒数にすると = 86,400
  3. 1週間を秒数にすると = 60,4800
  4. 1ヶ月間を秒数にすると = 2,629,000
  5. 6ヶ月間を秒数にすると = 15,774,000
  6. 1年間を秒数にすると = 31,536,000(無限に近い)

先程も申し上げた通り、サイトにとって妥当な時間枠をファイルのタイプで組み合わせることも、マッチさせることも出来る。自信がないなら、安全を優先させ、若干時間の枠を短くすることを薦める。


このチャプターで紹介したアドバイスに従い、伝授したテクニックを実行すれば、サイトのスピードは確実に上がるはずである。次のチャプターでは、検索の新しい & 画期的な領域を取り上げていく。競合者に遅れを取りたくないなら、これから紹介するアドバイスに従ってもらいたい。

上級者向けSEOガイドの記事一覧はこちらから


この記事は、Quick Sproutに掲載された「Chapter 2: Site Speed and Performance」を翻訳した内容です。

Pagespeedはもちろん各種ツールのマニアックな解説からして凄かったですが、Google画像検索を使った画像サイズのチェック方法のアイデアなど、筆者のニール・パテル、探究心の塊というかオタク中のオタクというか、、、正にSEOはもちろんウェブマーケを追及するために生まれてきた人間といっても過言ではないような?今後の記事も期待できそうでワクワクしてきた適度なSEOオタクの私でした。 — SEO Japan [G+]

上級者向けSEOガイド1/9 : インデクセーションとアクセシビリティの深い関係

米国のカリスマウェブマーケッター、ニール・パテルが書き下ろした上級者向けのSEOガイドを今日から一章ずつ紹介していきたいと思います。どの記事もその辺のSEO関連書籍を凌駕しかねない充実の内容ばかり。第一回目は検索エンジンにクロールされるための究極のサイト作りと手法についてページネーションから.htaccess、サイトの正しい移行方法から各種ツールの使い方まで徹底解説。 — SEO Japan

上級者向けSEOガイド チャプター 1へようこそ。このチャプターでは、インデクセーションおよびアクセシビリティを考慮してウェブサイトを評価 & 最適化する上級者向けの手法を伝授していく。

ただし、検索エンジンに対するアクセシビリティだけでなく、実際のユーザーに対するアクセシビリティにも配慮する。要するに、このチャプターには、エンジンとユーザーに対するベストプラクティスが網羅されていることになる – まるで、グーグル翻訳をインストールして、AJAXをクロール可能にするようなものだ。

このチャプターで取り上げた手法をウェブサイトに必要に応じて適用すると、並外れてクロール可能 & アクセス可能なウェブサイトに生まれ変わるだろう。

1. 検索エンジンのようにサイトを閲覧する

SEO目的でサイトを最適化する際、検索エンジンの視点に立って考えるべきではないだろうか?また、検索エンジンが見ているように、サイトを見るべきである。ご存知のように“ソース”を閲覧して、ブラウザ向けのHTMLソースを見ることが可能である。しかし、検索エンジンの視点でサイトを閲覧し、技術的なSEOの穴を見つける上で効果が高く、すぐに利用することが可能なメソッドを私は発見した。

ステップ 1: プラグインをインストールする

ここではファイヤーフォックスが便利である。以下にプラグインを挙げる:

ウェブディベロッパー - https://addons.mozilla.org/en-US/firefox/addon/web-developer/

ユーザーエージェントスウィッチャー - https://addons.mozilla.org/en-US/firefox/addon/user-agent-switcher/

ステップ 2: ファイヤーフォックスでJavaScriptを無効にする

「preferences」 & 「content」にアクセスし、「Enable JavaScript」のチェックを外す。

メニュー、リンク、そして、ドロップダウン等のアイテムをJavaScriptを使わずにグーグルボットに提供する必要があるため、この作業を実施する。JavaScriptに埋められていると、グーグルはクロールすることが出来ないのだ。

ステップ 3: ウェブディベロッパープラグインを使ってCSSを無効にする

グーグルボットがHTMLの順番でコンテンツをクロールするため、CSSを無効にする必要がある。CSSのスタイリングは、コンテンツの順序を曖昧にしてしまうことがあるためだ。

ステップ 4: ユーザーエージェントをグーグルボットに設定する

ステップ 5: ウェブサイトを立ち上げ、閲覧する

クイックスプラウトはグーグルボットの目にはどのように見えているのだろうか?

これはページの上部のみである(すべてページを掲載すると、とても長くなってしまう)。しかし、クリック可能なリンクとしてメニューが表示されており、その他のテキストやリンクはグーグルボットに全て公開されている点は伝わるはずだ。

このようにして、ウェブサイトを閲覧すると、思わぬ発見をすることがある。

チェックするべきポイントを幾つか挙げていく:

  1. メニューのリンクはすべて表示されているだろうか(ドロップダウンも)?
  2. すべてのメニューアイテムとリンクは、プレーンテキストとして表示されているだろうか?
  3. すべてのリンクはクリック可能だろうか?
  4. この手法を利用することにより、以前は隠されていたテキストが表示されるだろうか(隠されたテキストは、グーグルボットに警告を送る。悪意があって隠しているわけではなくても、グーグルボットから隠すべきではないはずだ)?
  5. サイドバーやウィジェットのコンテンツは、上部に掲載されているだろうか?忘れないでもらいたいことがある。特に重要なリンクやコンテンツは、HTMLの上部に掲載されているべきである。この点は、大規模なサイトにとっては特に重要である。

それでは、問題のあるサイトの例を以下に掲載する。

このサイトの問題点は、メニューのテキストが実際にはテキストではなく、イメージである点である。要するに、グーグルボットに与えるテキストのシグナルが存在しないのだ。被リンクに対するアンカーテキストの重要性は皆さんもご存知のはずである。内部リンクにとってもテキストは同じように重要である。上のウェブサイトでは、ホームページから注がれるリンクジュースの価値を余すところなく受けている内部のページは存在しないことになる。

検索エンジンの視点でオンサイトの調査を実施したら、次にウェブスパイダーを使ってサイトをクロールする段階に移る。


2. スクリーミングフロッグを使ってサイトをクロールする

スクリーミングフロッグとは?

スクリーミングフロッグ SEO スパイダーを利用すると、ウェブサイトをクロールし、見るだけで、サイトを今までよりも遥かに簡単に且つ素早く構築する方法に関して、重要な情報を得ることが出来るようになる。数分後には、サイトの見え方に関して新たな見解を得ているはずである。

これは実践ガイドであるため、自分のウェブスパイダーを利用するメリットの詳細を知りたいなら、次のスクリーミングフロッグの文書を参考にしてもらいたい:

http://www.screamingfrog.co.uk/seo-spider/

注記: スクリーミングフロッグは無料で1度に500ページまでクロールすることが可能である。そのため、500ページ以上持つ大きなサイトでこのツールを利用する場合、年間ライセンスを購入する必要がある。ここでとっておきの次善策を紹介しよう。サブディレクトリを入力してクロールさせることが出来る – 例えば http://www.quicksprout.com/2012/では、2012年の投稿のみを対象にしている。 複数のサブディレクトリでこの作業を実施すると、少しずつではあるが、サイト全体をクロールすることが出来る。

ステップ 1: サイトをクロールする

ステップ 2: クロールを保存する

ステップ 3: ページレベルをチェックする

ステップ 4: クロールのエラーを確認する

ステップ 5: 長いタイトルを探し、修正する

ステップ 6: 長いデスクリプションを探し、修正する

ステップ 7: インデクセーションの設定を確認する

おまけのアドバイス: 何らかのHTMLを持つ全てのページを見つける方法

ステップ 1: サイトをクロールする

スクリーミングフロッグを立ち上げ、サイトでクロールを実施する。

このタスクには、サイトの大きさに応じて、2 – 20分間を要する。

ステップ 2: クロールを保存する

ファイルフォーマット.seospiderでサイトのクロールの結果を保存するべきである。こうすることで、プログラムを閉じてしまった場合、または、後に見直したい場合でも、再びクロールを行わなくても済む。ただし、サイトに大きな変更を加えたら、再びクロールする必要がある点を忘れないでもらいたい。いずれにせよ、このデータがあれば、クロールを記録しておくことが出来る。

ステップ 3: ページレベルをチェックする

これはあくまでも上級者向けのガイドであり、SEOを確実に改善する、本当の意味での変化をウェブサイトにもたらすことを目標に掲げている。そのため、サイトに適用することが可能なスクリーミングフロッグの情報を獲得する取り組みに焦点を絞って説明させてもらう。

ウェブサイトの奥深くに埋められたページを持っているなら、ユーザーにとっても、SEOにとっても、マイナスに働いてしまう。そのため、スクリーミングフロッグを使って、簡単にこのようなページを見つけ、行動を起こすことが出来るようにリストアップする方法を紹介する。

クロールを行った後、サイトの内部で集められた全てのデータを表示するメインの「Internal」ページに移動する。

ドロップダウンメニューの下のHTMLを選択する。

右端までスクロールする。

「level」をクリックして、ページレベルごとにコンテンツをソートする。

クイックスプラウトでさえ、4-7ページの深さにある過去の投稿が幾つか存在する。

因みに、crosslinker(http://wordpress.org/extend/plugins/cross-linker/ )等のワードプレス用のプラグインの利用を検討してもらいたい。内部でリンクを張り、投稿をリンクで結ぶ上で役に立つためだ。

スクロールして左端に戻ると、新しい投稿を作成する際に、優先的にリンクを張っておきたいページのリストが完成しているはずだ。

リストをCSVフォーマットにエクスポートする:

これで、エクセルから直接、新しい投稿でリンクを張ることが可能な、優れた実用的なURLのリストを手に入れたことになる。

また、リンクを張る際は、当該のリファレンスが、関連しており、有益であり、そして、記述的なキーワードが豊富に詰まったアンカーテキストである点を確認してもらいたい。

ステップ 4: クロールのエラーを確認する

次に、上部のメニューのその他の項目を調べていく。スクリーミングフロッグには多くの掘り出し物が眠っているものの、探し出す方法を知らなければ宝の持ち腐れである – これからその方法を伝授する。

もちろん、グーグルウェブマスターツールでもクロールのエラーに関するデータを得ることが可能だが、データが不完全、または、古い可能性がある。また、この方法は、リンクを張っている全てのリンク切れを起こしている外部 リンクを見つけることも出来る。加えて、自分のツールでサイトをクロールする度に、最新の正確なリストを得られるメリットがある。

  1. 「Response Codes」をクリックする
  2. フィルタードロップダウンメニューから「Client Error 4xx」を選択する
  3. CSVでエクスポートする

こうすることで、400レベルのエラー(通常は404)を返すページのみのリストを得ることが可能になる。

ステップ 5: 長いタイトルを探し、修正する

タイトルタグとメタディスクリプションには、推奨される長さがあることは、皆さんもご存知のはずである。やはり、ウェブマスターツールからこの類のデータを手に入れることが出来る。

スクリーミングフロッグで入手可能なデータは完全であり、ソート & フィルターすることが可能である。

  1. 上部のメニューで「Page Titles」をクリックする。
  2. メニューから「Over 70 Characters」を選択する。
  3. CSVにエクスポートする。

CSVファイルを開く。

アドバイス: すぐに「名前を付けて」保存することを薦める。さもなければフォーマットにより変更を失う可能性がある。

このエクセル文書で、新しいタイトルに対して新たにカラムを作成しておこう。また、長さに対するカラムも作成するべきである。

エクセルで、新しいタイトルタグを作る度に、自動的に文字数をカウントする容易な手段が欲しいだろうか?それなら、このシンプルな数式を「new length」のカラムに加えよう。

=LEN(E3)

当然だが、新しいタイトルを入力したセルを参照する必要がある。

次に

  1. 数式のセルを選択する。
  2. 数式のセルの右下にカーソルを合わせる。
  3. カーソルが十字型に変化するまで待つ。
  4. スクエアをコラム全体に下方向にドラッグする。

これで全ての新しいタイトルタグの長さをカウントしてもらえるうようになる。

ステップ 6: 長いデスクリプションを探し、修正する

長いデスクリプションを探し、修正する作業は、一つ前の作業に似ている。

デスクリプションのメニューにアクセスする。

フィルタードロップダウンメニューから「Over 156 Characters」を選択する

CSVにエクスポートする

新しいタイトルタグと同じように、エクセスで新しいディスクリプションの作成に取り掛かることが可能だ。ここでも、新しいカラムを作り、数式 =LEN(E2) を使って、自動的に新しいデスクリプションタグの長さをカウントさせよう。

ステップ 7: インデクセーションの設定を確認する

「meta and canonical」メニューにアクセスして、インデクセーションの設定を確認する必要がある。次のようなエラーを探すべきである:

  1. カノニカルタグの欠如
  2. 誤ったカノニカルタグ(異なるページに向けられている等)
  3. インデックスされるべきなのにも関わらず、「noindex」タグがつけられているページ。
  4. インデックスされるべきではないにも関わらず、メタタグが欠けている、あるいは「index」がつけられているページ。

おまけのアドバイス: 何らかのHTMLを持つ全てのページを見つける方法

さらにテクニカルな内容に踏み込む。特定のHTMLを持つ全てのページを探し出したい状況を想像してもらいたい。例えば、クイックスプラウトで、新しいタブやウィンドウで開くリンクを持つページを全て見つける必要があると仮定する。

1: Configurationメニューから「Custom」を選択する

2: 探したいHTMLを「Filter 1」に入力する。

注記: 入力したHTMLを含まないページを探すことも可能だ。最高で5つのフィルターを入力することが出来る。

3: サイトを再びクロールする

4: メニューで「Custom」を選ぶ

5: フィルタードロップダウンメニューから「Filter One」を選択する

これで、新しいタブまたはウィンドウで開くリンクを持つページが全て判明したことになる。

このメソッドは、何も変わらないなら、既存のサイトにとって大きくプラスに働く。しかし、サイトのデザイン変更を準備している場合はどうすればいいのだろうか?それなら、デザイン変更に備えて、自己評価するべきである。


3. サイトのデザイン変更を自己評価

次にサイトのデザイン変更を行う際の評価プロセスを、手順を追って説明していく。これは、ウェブサイトを進化させる上で、そして、オンラインでのオーソリティをアピールする上で重要なステップとなる。また、このステップでも、トラフィックを取り逃さないことを心掛けてもらう。

上級者向けSEOガイドのこのセクションが対象にしているのは、新しいサイトを作りながら、次のようなベストプラクティスに従っている人達である:

  1. クロール可能なことを確かめる
  2. 新しいXMLサイトマップを投稿する
  3. 301リダイレクトを導入する

進捗状況を確認するためのスプレッドシートを作成する

以下に、新しいサイトを立ち上げる際に、このようなメトリクスを測定する方法を示すモデルのスプレッドシートを掲載する。


日付

インデックスされたページ数

キャッシュの日付

PR

DA

WMTのエラー

注記

4/1/2012

4,200

3/23/2012

6

71

525

新しいサイトを立ち上げる

4/8/2012

3,750

4/7/2012

5

67

679

新しいサイトのキャッシュが行われる

4/15/2012

4,150

4/12/2012

6

70

482

エラーの修正作業を開始

インデックスされたページ数を測定

グーグルの site: searchを利用する

キャッシュの日時を測定する

グーグルのcache:sitename.com検索をここでも利用する。

キャッシュの日時は、アルゴリズムでグーグルがサイトのどのバージョンを利用しているのかを判断する上で、最も役に立つ。

ページランクを測定する

PRはメトリクスとして重要視されているわけではないが、今でもサイトの価値の目安を得る上では有効である。

SEOquakeのツールバーは、ページランクを手っ取り早くチェックすることが可能である。次のURLからインストールしてもらいたい: http://www.seoquake.com/

SEOmozのドメインオーソリティーを測定する

このメトリクスは、SEOmozがリンクスケープのインデックスをアップデートするタイミングによって、遅延が生じることがある。それでも測定する価値はある – ツールバーは次のURLで入手することが可能だ:: http://www.seomoz.org/seo-toolbar

DAのオーソリティでは次のポイントに注目してもらいたい

「not found」エラーを測定する

ウェブマスターツールを利用し、「not found」のエラーを確認し、スタッツを入手する。

このツールおよびステップを介して、出来るだけサイトをスムーズに移行することが可能になる。  


4. 公開する前に新しいサイトをテストする

このチュートリアルでは、URLを入力すると、テストウェブサイトに向かうようにコンピュータを設定し、本当のURLを使って、サイトを公開する前にテストすることが出来る状態を作っていく。

  1. 新しいウェブサイトのIPアドレスを取得する。 
    ウェブサイトをホスティングしている場所によって、方法は大幅に変わるが、基本的に、管理者パネルのどこかに掲載されているはずである。見つけられなかったら、ホスティングサービスに電話して、尋ねよう。
  2. ホストのファイルを編集して、IPアドレスに向ける
    Macを利用しているなら:

    A. Application folder > Utilities > Terminalの順にアクセスしていく

  1. terminalアップの中で、「sudo nano /etc/hosts」と入力する。
    ユーザー名とパスワードを必要に応じて入力する。
  2. ファイルの最後に、以下の列を入力する:
    111.222.333.444 www.newdomain.com
    111.222.333.444をステップ 1で入手した実際のIPアドレスに、www.newdomain.comを新しいドメインに置き換える。
    Control-Oを押し、エンターを押す。

    E. Control-Xを押し、エディターを終了する。 

    F.

    terminalウィンドウを閉じる

    ウィンドウズのコンピュータを利用しているなら:

    A. Startをクリックし、「notepad&quot」を検索ボックスに入力し、スタートメニューでノートパッドを表示させる

    B. ノートパッドで右クリックし、「run as administrator」を左クリックする。
    許可を求められたら、「はい」を選択する

    C.

    ファイルをクリックし、開く

    D. ファイル名のボックスで、「\windows\system32\driver\etc」を入力し、Enterを押す。sp;

    E. ファイルのタイプのプルダウンを「text file」から「all files」に変更する。

    F. 「hosts」をダブルクリックする。

    G. ファイルの最後に、次の列を入力する:
    111.222.333.444 www.newdomain.com
    111.222.333.444をステップ 1で入手した実際のIPアドレスに、 www.newdomain.comを新しいドメインに置き換える。
  3. ブラウザを開いて、ウェブサイトをテストし、思い通りに表示されているかどうか確認する。新しいウェブサイトに対するURLを入力する。すると、hosts fileエディターは、テストのサイトにアクセスさせるようになる。
  4. テストを行ったら、ステップ 2で加えた変更を戻す必要がある。単純に、ファイルに戻り、加えた列を削除するだけでよい。

5. ダウンタイムなしで新しいサイトに移行する

警告: 何か誤るとサイトをダウンさせる可能性があるので、細心の注意が必要である。

新しいウェブサイトに移行する際は、以下のガイドラインに従い、ダウンタイムを出すことなく、安全な移行を心掛けてもらいたい。アップデートされたIPを世界中のサーバーが入手するには約1日を要するため、少なくとも、新しいサイトの運営を開始してから1週間は新旧のサーバーを両方とも稼働させる計画を立てておこう。

  1. 新しいドメインのTTLを5分間に設定する
    方法はホスティングサービスやドメイン登録サービスによって異なる。通常は、ドメインのコントロールパネルに設定が用意されているはずだが、見つからなかったら、ドメイン登録サービスに連絡し、サポートを要請しよう。

    GoDaddyを利用しているなら:

    A) GoDaddyのウェブサイトにログインする

    B) My Accountをクリックする。Domainsを探し、Launchをクリックする

    C) ドメインの1つをクリックする

    D) DNS Managerまで下にスクロールし、Launchをクリックする

    E) ホストの下で「@」を探し、「TTL」の下にある鉛筆のアイコンをクリックする

    F) メニューをプルダウンして、最短の時間(1/2時間)を選択する

    CNAMEがつけられた「www」を持っているなら、同じように1/2時間に変更しておくべきである。

  2. ドメインのDNSの設定を見つける
    これでサイトのテストの実施 & TTLの変更を終えたことになる。次に、ドメイン名のDNSの設定を変える作業に移る。

    まず、現在のドメイン登録サービスにアクセスし、現在のDNSの設定を探す。次に、新しいホスティングサービスにアクセスし、現在のドメイン登録サービスに入力する必要のある新しいDNSの設定をメモする。

    手続きはホスティングサービスによって、そして、ドメイン登録サービスによって異なる。

    通常は、ドメインのコントロールパネルに設定が用意されているはずだが、見つからなかったら、ドメイン登録サービスに連絡を取り、テクニカルサポートを要請しよう。

  3. 現在のドメインのDNSの設定を変更する。
    双方の登録機関の設定を新しいホスティングサービスでメモしたDNSのアドレスにしたら、どこを変えればいいのかは検討がつくはずだ。既にステップ 3で見つけている。
  4. ステップ 1で加えた列を削除して、hosts ファイルを解除する。
    元々加えた列を削除する作業以外は、基本的にステップ 1の手順に従ってもらいたい。
  5. 5分間待ってから、新しいウェブサイトにアクセスしてみよう。
    ブラウザのキャッシュとクッキーをクリアする必要があるかもしれない。新しいウェブサイトがアップしたら、これで完了。アップしなかったら、ステップ 4の作業をリバースし、古いウェブサイトに戻そう。

6. クロール可能なAJAX(JQuery GETを利用)

この例では、jQueryのpostメソッドを使って、クロール可能なAJAXを作る方法を紹介する。このチュートリアルでは、「XMLHttpRequest POST」メソッドを利用する。

このベストプラクティスに関する詳細は次のURLで確認してもらいたい:

http://googlewebmastercentral.blogspot.com/2011/11/get-post-and-safely-surfacing-more-of.html

  1. HTMLテンプレートを作成する。

  2. jQueryをサイトに加える
    この例では、列 4が加えられている。

  3. 「DIV」タグを固有のIDと共に、本文の動的なコンテンツが向かう場所に加える。
    この例では、列 8が加えられている。

  4. サイトに「DIV」タグにコンテンツを読み込むJavaScriptを追加する。
    この例では、列 10-15が加えられている。

  5. PHP スクリプトを作成する。
    例のコードは、例のブログの投稿をアウトプットする。
  6. ウェブサーバーでスクリプトを試す。
    次のようなページが表示されるはずである:

  7. ページのソースを確認する。
    このHTMLテンプレートと同じようなソースになるはずである。
  8. Inspect Elementをチェックする。
    DOMに動的なコンテンツが読み込まれているはずである。次のようなソースが表示されるはずだ:

7. クロール可能なAJAX(ハッシュなし)

このチュートリアルは、更新することなく、動的なコンテンツを読み込むものの、URLを変更するウェブサイトを対象にしている。グーグルは、HTMLのスナップショットに対するクエリの文字列内で、ルーティング「_escaped_fragment_」を推奨している。HTMLをグーグルボットに、JavaScriptをユーザーに表示するためだ。

同じ成果をもたらす方法は他にも多くある。方法はウェブサイトの設定に左右される。この例では、PHPを使って、何を表示するべきかを判断する。

次のようなURLを持っているなら: “http://www.example.com/index.php” スピードアップを図るため、コンテンツを動的に、そして、非同期的に読み込むJavaScriptでページを作るPHPが理想である。

次のようなURLを持っているなら: “http://www.example.com/index.php?_escaped_fragment_” インデックス & クロール可能な通常のHTMLのページを作るPHPが必要である。

この方法のベストプラクティスに関する詳細は次のページで確認しよう: https://developers.google.com/webmasters/ajax-crawling/docs/getting-started

  1. まず、ヘッダーに適切な「meta」タグを加えるPHPスクリプトを作成する.  
    こうすることで、クエリの文字列「_escaped_fragment_」を用いて、ページをクロールすることが可能な点を検索スパイダーに伝えられる。この例では、「head」タグ全体を生成する関数を作成した。 

    注記:  列 10に、スパイダーに「espcaped fragment」を使ってクロールするよう伝えるメタタグが記されている。
  2. 次に、ページを表示させる関数を作成する。
    この例では、「render_post」は因数「$render_snapshot」を持つ。デフォルトの状態では、このページは通常のページをユーザーに対して表示する。「render_snapshot」が正しい場合、グーグルボットに対して同じコンテンツのHTMLページを表示する。

    注記:
    このPHPの列 25は、ページがHTMLか動的かの判断を行う。
    列 26-29は、コンテンツを取得し、DIVタグ内にHTMLを返す。
    列 31-37は、jQueryを使ってコンテンツを返し、動的にHTMLをDIVタグ内に加える。


  3. 次に、「escapted fragment」のクエリの文字列を処理するコードを加えていく
    この例では、_escaped_fragment_が見つかった場合、HTMLを使って投稿を表示する。

  4. 次に、content.phpファイルを作成する。
    この例では、コードはJSONをHTMLに変換する。
  5. 最後に、ajax_crawling.jsonを作る。
    これはあくまでもデモに過ぎないが、複雑な設定のウェブサイトにもこの原則を当てはめることが出来る。通常、コンテンツはデータベースから届けられる。このデモでは、単一のファイルである。

  6. ユーザーによってレンダリングされるページをテストする:
    次のようなページが表示されるはずだ:
  7. view sourceを確認する
    コンテンツはJavaScriptを使って動的に加えられているため、表示されていないはずである。

  8. Inspect Elementsのビューを確認する。
    Inspect Elementのビューでは、JavaScriptが実行された後のHTMLに似ているため、コンテンツは表示されている。


  9. ボットのビューを「_escaped_fragment_」をURLの最後に加えてチェックする。
    ダイナミックなページと同じページが表示される:

  10. ボットのビューを確認しよう。
    JavaScriptのない通常のHTMLのようなソースが表示されるはずである。

8. クロスドメイン Rel=canonical

いつクロスドメインを利用するべきか

これは大勢の人達が混乱するポイントであり、実装する前に、このタグを利用するべきタイミングについてを説明していく。

  1. 古いサイトのコンテンツ、または、重複するコンテンツを新しいサイトにを動かす必要がある時 – そして、古いサイトがサーバーサイドのリダイレクトを提供していない時。
  2. ただし、出来るだけ古いサイトでオンサイトの重複を削減した後、利用するように心掛けてもらいたい。
  3. 代わりに301リダイレクトを実装することが可能であり、ユーザーエクスペリエンスの面で好まれるなら、301リダイレクトを利用しよう。
  4. また、ページでrel = canonicalとnoindexを併用するべきではない。このページは、リダイレクトを拾ってもらうため、インデックス可能でなければならないためだ。
  5. 両方のページでコンテンツが同じ場合、または違いが僅かな場合に利用しよう。

実装する方法

通常のcanonicalタグを実装する方法と基本的に同じである。

1. ページを準備する

2. (オリジナルの)1つ目のページでソースコードを編集可能な状態にする

3. 古いページの「head」セクションにタグを加え、新しいページに向かわせる:

        <link rel="canonical" href="http://www.example.com/example-page-name/>

「example-page-name」は新しいページのURLである。

以下のインフォグラフィックの投稿をクイックスプラウトから…

http://www.quicksprout.com/2012/06/11/5-ways-to-get-your-infographic-to-go-viral/

…KISSmetricsに移動するケースを想定する。現実的ではないかもしれないが、とりあえず、移動することにする。次のURLに移動するプロセスを説明する:

http://blog.kissmetrics.com/5-ways-to-get-your-infographic-to-go-viral

その他のアドバイス

  1. リンクをrelativeではなくabsoluteにする(http:// etcを丸ごと含む)
  2. 301と同じように、canonicalの連続を避ける
  3. これは絶対的なルールではなく、あくまでもグーグルに対するヒントであるため、グーグルのインデックスとウェブマスターツールでグーグルがこのタグに従っているかどうかを確認しておきたいところだ。

9. httpsの重複するコンテンツのエラーを修正

皆さんもご存知だとは思うが、httpsとはプロトコルであり、ページをワールドワイドウェブに安全に転送する規約である。ショッピングカート等のページ、ログインページ、そして、その他の安全なページには、httpsのアドレスを設定するべきである。しかし、この取り組みでは、URLに「s」を加えるため、コンテンツの重複を生む可能性がある。

通常は、httpsは、インデックスに含めるべきではない。基本的には公開しないページであり、検索結果に返す必要がないからだ。

クロールレポートやサイト評価で、httpsを持つURLがサイトで重複していることが明らかになったなら、この問題を解決するために以下の3つの手順を踏んでもらいたい:

1. インデックスされているページを特定する

2. インデックスされている理由を診断する

3a. 存在するべきではなページを301リダイレクトする

3b. 存在するべきではないなら、インデックスから削除する

ステップ 1 – インデックスされているhttpsのページを探す

httpsを持つ、インデックスされているページを探し出す次のグーグル検索を実施する

  1. site:yourdomain.com inurl:https

crazyeggのウェブサイトは何の問題もないように思える。flash loaderを除けば、htttpsのページはインデックされていない。

KissMetricsはインデックスにhttpsが存在するサイトの典型的な例である。

この2つ目のページは通常のブログの投稿であり、インデックスされるべきではない(このページで3つ目)。

また次のページは、httpsを利用するべきではあるものの、インデックスに含まれるべきではないページである

それでは、インデックスされるべきではないページを発見したら、どのように対処すればいいのだろうか?インデックスから削除したい、不要な古いページと同じように、そもそもなぜインデックスに含まれたのかを解明する必要がある。

ステップ 2 – インデックスに含まれた理由を診断する

例として上のブログの投稿を利用する。それでは、ページを詳しく見ていこう。

グーグルクロームは、URLにhttpsが存在するものの、このページが安全が保証されていないことを指摘している。これは、当該のページが、このこのような方法でインデックスに含まれるべきではない点を裏付けている。

内部または外部からリンクが張られたことが原因でインデックスに含まれた可能性が高い。そこで、複数のツールを使って、リンクのソースを発見する試みを行う。

まずは、スクリーミングフロッグを利用する。サイトを完全にクロールする必要があるためだ。

スクリーミングフロッグで、ウェブサイトのルートドメインを入力する(なぜなら、KissMetricsのように、中にはwww/blog等異なるサブドメインで運営しているサイトもあるからだ – ウェブサイト全体が完全にクロールされている点を確かめる必要がある)。

サイトをクロールする際は、当該のページのURLを検索し、表示されるまで待つ。

その後、クロールが完了するまで待ち、「In Links」を精査する。

「to」カラムをチェックし、「https://」を利用しているリンクがあるかどうか確認する

この例では、ページのhttps://版に向けられる内部リンクは見つからなかった。

内部リンクが見つかったら、内部リンクを変更し、httpsバージョンをhttpバージョンに301リダイレクトする必要がある。

内部リンクが見つからなくても、外部リンクが見つかる可能性がある。この場合、必ずしも設定を変える権限を持っているとは限らない。そのため、httpバージョンに301リダイレクトする。すると、ユーザーをhttpバージョンにリダイレクトし、最終的に、httpsバージョンをインデックスから削除/置き換えることが出来る。

ステップ 3a – 内部リンクを修正する

ベストプラクティスとして、常にサイトで「absolute」の内部リンクを利用してもらいたい。

例えば、次のURLにリンクを張る代わりに: /2012/04/30/6-ways-to-generate-more-traffic-out-of-your-images/

私なら次のURLにリンクを張る: http://www.quicksprout.com/2012/04/30/6-ways-to-generate-more-traffic-out-of-your-images/

http://を含むURLのパス全体が含まれている点に注意してもらいたい。

ワードプレスを利用しているなら、自動的にこの作業は行われるはずである。しかし、一部のカスタムサイトまたは他のCMSのサイトでは、自動的に修正してもらえない可能性があるので、自分で修正しなければならない。

エラーを修正する

httpsのリダイレクトに関する指南については、「htaccess hacks」のセクションを参照にしてもらいたい。


10. Rel=nextを用いるページネーション

ページネーションは、オンページのSEOおよびアーキテクチャにおいて、処理が最も難しい取り組みの一つに数えられる。しかし、現在、グーグルは、「next」および「prev」の利用を認めており、一連のページを持っていることを伝えやすくなっている。

ワードプレスのようなCMSを利用している場合、Yoast SEO等、様々なプラグインが提供されている。しかし、自分でサイトを作った人のために、あるいは、ピュア HTMLで自力でコーディングしたサイトを運営している人のために、上述した新しいタグを使って、ページネーションを是正する方法を紹介する。実は割と簡単である。インターネットでは最高のリソースを見つけるのは難しいが、ここでは万全の対策を伝授する。

ステップ 1 – 一連のページを特定する

Zapposを例に説明していく。以下に男性用のスニーカーのページ 1を掲載する。

メニューでページ 2、3等が確認できるため、一連のページ数が振られたページの中で、このページが1ページ目であることを特定した。

以下にページ 1のURLを記載する

http://www.zappos.com/mens-sneakers-athletic-shoes~dA

続いてページ2、ページ3のURLを記載する

http://www.zappos.com/mens-sneakers-athletic-shoes~dB

http://www.zappos.com/mens-sneakers-athletic-shoes~dC

注記: ページを変更するため、Zapposは文字(a、b、c)を利用している。

ステップ 2 – rel=”next”を1ページ目に加える

このように、一連のページを特定すると、ページ 1のみに「next」タグがつけられているはずである。なぜなら、一連のページの最初のページだからだ。そのため、ページ 1に対して、「head」セクションで次のコードを加える:

<link rel="next" href="http://www.zappos.com/mens-sneakers-athletic-shoes~dB”>

ステップ 3 – 中間のページにrel=”next” とrel=”prev”を加える

1ページ目と最後のページを除く全てのページに「next」と「prev」タグが必要である。前後のページが存在するためだ。ページ 2(mens-sneakers-athletic-shoes~dB)に次のタグを加えることが出来る。

<link rel="prev" href="http://www.zappos.com/mens-sneakers-athletic-shoes~dA”>

<link rel="next" href="http://www.zappos.com/mens-sneakers-athletic-shoes~dC”>

ステップ 4 – rel=”prev”を最後のページに加える

一連のページの最後のページには、そのページの一つ前のページのみを参照すればよいため、次のタグを加える:

<link rel="next" href="http://www.zappos.com/mens-sneakers-athletic-shoes~dY”>

Zが最後のページであると仮定している。

注記

cannonicalタグをnext/prevと関連させて含めることが出来る。

absoluteまたはrelativeのURLを利用することも可能だが、個人的には出来る限りabsoluteの利用を薦める。


11. .htaccessを使ってエラーページをリダイレクトする

以下のプロセスに従う必要がある:

1. エラーページを作成する – このページには特別なスクリプトを与える。

2. .htaccessファイルを設定し、エラーページへリダイレクトする。

ステップ 1 – エラーページを作成する

エラーが返されるページを作成する – 名称は何でも構わない – error.phpを薦める。

このページで、上部に次のコードを加える:

<?php
switch($_SERVER["REDIRECT_STATUS"]){
        case 400:
                $title = "400 Bad Request";
                $description = "The request can not be processed due to bad syntax";
        break;
        case 401:
                $title = "401 Unauthorized";
                $description = "The request has failed authentication";
        break;
        case 403:
                $title = "403 Forbidden";
                $description = "The server refuses to response to the request";
        break;
        case 404:
                $title = "404 Not Found";
                $description = "The resource requested can not be found.";
        break;
        case 500:
                $title = "500 Internal Server Error";
                $description = "There was an error which doesn't fit any other error message";
        break;
        case 502:
                $title = "502 Bad Gateway";
                $description = "The server was acting as a proxy and received a bad request.";
        break;
        case 504:
                $title = "504 Gateway Timeout";
                $description = "The server was acting as a proxy and the request timed out.";
        break;
}
?>

このPHPコードは、それぞれのタイプ別に異なるタイトルを作成する。こうすることで、異なるファイルを大量に作らなくても済む。すべて一つのファイルで実施することが出来る。

この例では、それぞれのエラーページに対して、固有のタイトルとディスクリプションを一つだけ作成している。しかし、変数を加えて、好きな固有のコンテンツを作成することが出来る。

ステップ 2 – .htaccessを設定する

多くのエラーコードをエラーページにリダイレクトしなければならない。以下の列を.htaccessに加えてもらいたい。

ErrorDocument 400 /error.php
ErrorDocument 401 /error.php
ErrorDocument 403 /error.php
ErrorDocument 404 /error.php
ErrorDocument 500 /error.php
ErrorDocument 502 /error.php
ErrorDocument 504 /error.php


12. RSS フィードを最適化する

RSS フィードはブログで大きな役割を担っている。しかし、このフィードを最適化することで得られるメリットの大きさを見過ごしてしまうことがたまにある。以下の実践的なアドバイスに従ってもらえば、RSS フィードを最大限まで活用することが出来るようになるだろう。

ここではフィードバーナーを利用していると仮定する。

ヘッダーでデフォルトのRSS フィードを置き変える

フィードバーナーを利用していると仮定した場合、ウェブサイト上の全てのリンクは適切なフィードに向けられているだろうか?クイックスプラウトのヘッダーセクションは、フィードバーナーのフィードに向けられている。

この作業を実施していないなら、header.phpファイル(ワードプレスの場合)、または、利用しているCMSが認める場所で、フィードのURLを変更する必要がある。

header.phpファイルでRSSのリンクを見つける

フィードバーナーのフィードのURLに置き換える

フィードバーナーでは早さが命

フィードバーナーには簡単に有効にすることが出来る機能が幾つか存在する。全て利用していることを確認してもらいたい。

Activate SmartFeed

SmartFeedは、あらゆるリーダーとの互換性を確立させる上で便利である。

Optimize->Smartfeedの順にクリックする

Activateをクリックする

FeedFlareを有効にする

Feedflareはリンクをフィードの下に掲載し、フェイスブックでの共有、eメール、deliciousでのブックマーク等の行動をユーザーに要請する手段である。

これは、あらゆるRSSフィードにとって絶対に欠かせないアイテムである。

Optimizeタブで、FeedFlareをクリックする。

表示したいリンクを選択する。 フィードは、フィードをウェブサイトに送信した際に、RSS フィードに表示されるアイテムを意味する。サイトは、ウェブサイトに表示されるアイテムを意味する。

Activateボタンは見にくい位置に掲載されているので注意してもらいたい。一番下に用意されている。

次に、「パーソナル」なフレアを幾つか加えていく。これは、ユーザーが作成したクエリであり、一連のデフォルトのフレアのセットには存在しない。

「Browse the Catalog」をクリックする。

利用可能なフレアを閲覧する。好きなフレアを見つけ、「Link」をクリックする。

するとこのフレアのタブが開く。URLをコピーする。

最初のスクリーンに戻る。フレアのURLを貼り付ける。次に「Add New Flare」をクリックする。

フレアが上に表示される。表示する場所を選ぶ(フィード、サイト、または、その双方)。

下でフレアのプレビューを見ることが出来る。アイテムをドラッグ & ドロップして順番を整えることが出来る。

忘れずに「Save」をクリックすること。 見過ごしやすいので注意してもらいたい。

PingShotを有効にする

PingShotは、アップデートが発生するとフィードバーナーに通知する機能である。PingShotにはフィードの提供をスピードアップする効果が見込める。

Publicize->PingShotの順にアクセスし、「Activate」をクリックする。

フィードのオリジナルのソースにリンクを張る

RSSフィードが許可なく利用され、別のサイトで重複する事態に直面したことはあるだろうか?(このガイドの恩恵を受け)人気の高いサイトを運営しているなら、常にこの問題を抱えているはずだ。グーグルボット、またはユーザーは、どちらがオリジナルのソースなのか分からず混乱している可能性がある。

そのため、これからRSSフィードの下に「自分」こそがコンテンツのオリジナルのソースである点を伝えるリンクを加える方法を伝授する。この手法を実行すると、検索エンジンとユーザーにとって格好の判断材料になるだけでなく、被リンクを得られる可能性がある。

1. RSS ソースリンクをブロガー(ブログスポット)に追加する

Settings -> Site Feedの順にアクセスする

以下のコードを加える:

<hr />
<a href="http://www.myblog.com">My Blog Name</a>

2. RSS ソースリンクをワードプレスに追加する

Appearance -> Editor -> functions.phpの順にアクセスする

次のコードを加える:

function embed_rss($content) {
 if(is_feed())
    $content .= "<p><a href='". get_permalink() ."'>'";
    $content .= get_the_title() ."</a></p>";
 return $content;
 }
add_filter('the_content', 'embed_rss');

これでコンテンツのオリジナルのソースに対するリファレンスをRSSフィードに用意することが出来る。それでは、いつものように正しく表示されているかテストしよう。

Thank Youを作成する

パーソナライゼーション、そして、読者への感謝のメッセージは大いに効果がある。以下にシンプルなメッセージをフィードに設定する方法を紹介していく。

Optimize->BrowserFriendly->Content Optionsの順にアクセスする

‘enable’をクリックして、個人的なメッセージを入力する。

RSSのeメールを送るタイミングを決める

送信する時間を管理して、より多くのRSSのeメールを開けてもらう。

Publicize->Email Subscriptions->Delivery Optionsにアクセスする

時間帯、オーディエンスにとって最善の時間を選択する。午前9-11時を薦める。

ワードプレスのRSSをフィードバーナーにリダイレクトする

ワードプレスに内蔵されている標準のRSSフィードを利用している人がいてもおかしくはない。そのRSSフィードを購読している人がいる可能性もある。「フィードバーナーリダイレクト」と言うプラグインを利用すると、すべてのフィードがフィードバナーを経由するように設定することが出来る。

プラグインは次のURLで手に入れることが可能だ - http://wordpress.org/extend/plugins/tentbloggers-feedburner-rss-redirect-plugin/

1. ワードプレスのセットアップでインストールする。

2. 有効にする。

双方のフィールドにフィードバーナーのURLを入力する。これで完了。


13. 動画のサイトマップ

動画をサイトまたはブログに投稿しているなら、とりわけ、メタデータでマークアップしているなら、動画のサイトマップを用意するべきである。こうすることで、グーグルやビングが動画のコンテンツに気づき、処理し、インデックスするプロセスが大幅にスピードアップする。

オプション A – 自力で作成する

サイトの規模が小さく、投稿する動画が2、3本しか存在せず、また、たまに投稿する程度なら、自分で動画のXMLサイトマップを容易に作成することが可能である。/span>

まず、XML構造のスケルトンのテンプレートを提供する。後はデータを加えていけばよい。

これは必要なフィールドを持つだけの最もベーシックなテンプレートである。

ステップ 1: 空のXMLファイルを作成する

  1. ファイルを作成する。名前は何でも構わないが、個人的に好きなファイル名を挙げておく: sitemap_video.xml
  2. 次に以下のようにルートディレクトリに保存する: http://www.quicksprout.com/sitemap_video.xml

先程も申し上げた通り、ファイル名、そして、保存場所は何でも構わないが、サイトマップをウェブマスターツールに投稿する際にこの情報が必要なので忘れないように気をつけてもらいたい。

ステップ 2: 次のコードをXMLファイルに貼り付ける

<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9"

       xmlns:video="http://www.google.com/schemas/sitemap-video/1.1">

 

  <url>

    <loc></loc>

    <video:video>

      <video:thumbnail_loc></video:thumbnail_loc>

      <video:title></video:title>

      <video:description></video:description>

      <video:content_loc></video:content_loc>

      <video:player_loc allow_embed="yes" autoplay="ap=1"></video:player_loc>

    </video:video>

  </url>

</urlset>

上のコードを説明しておく:

テンプレート内のプロパティの大半は任意だが、とりあえず全てを紹介したかったので掲載しておいた :-)

必要なフィールド

  1. ページのURL
  2. 動画ファイルのURLまたはプレイヤーのURL
  1. タイトル
  2. ディスクリプション
  3. サムネイル

それでは、例のテンプレートに情報を記入していく。このテンプレートでは、その他のプロパティは省略し、必要な要素に絞る:

動画1本に対するXML動画サイトマップの基本的なコード

<url>

<loc>http://www.quicksprout.com/videos/neil-patel-video-1.html</loc>

<video:video>         <video:thumbnail_loc>http://www.quicksprout.com/thumbs/thumbnail.jpg</video:thumbnail_loc>

<video:title>Advanced SEO for Bloggers</video:title>

<video:description>An exclusive video with SEO expert Neil Patel. Drive ridiculous amounts of leads to your blog and learn the 7 secrets of conversion rate optimization.</video:description>

<video:content_loc>http://www.quicksprout.com/video.flv</video:content_loc>

</video:video>

</url>

その他のプロパティを追加する

次のように、動画のサイトマップに追加することが可能なプロパティが数多く存在する:

<video:duration>

<video:expiration_date>

<video:rating>

<video:view_count>

<video:publication_date>

<video:tag>

<video:tag>

<video:category>

<video:restriction>

<video:restriction>

<video:restriction>

<video:gallery_loc>

<video:gallery_loc>

<video:price>

<video:requires_subscription>

<video:uploader>

<video:uploader>

<video:platform>

<video:platform>

<video:platform>

<video:live>

例のテンプレートに上のプロパティを幾つか加え、動作を確認しよう。

 <url>

    <loc>http://www.quicksprout.com/videos/neil-patel-video-1.html</loc>

    <video:video>

      <video:thumbnail_loc>http://www.quicksprout.com/thumbs/thumbnail.jpg</video:thumbnail_loc>

      <video:title>Advanced SEO for Bloggers</video:title>

      <video:description>An exclusive video with SEO expert Neil Patel. Drive ridiculous

                      amounts of leads to your blog and learn the 7 secrets of

                      conversion rate optimization.</video:description>

      <video:content_loc>http://www.quicksprout.com/video.flv</video:content_loc>

      <!–optional properties–>

      <video:duration>750</video:duration>

      <video:rating>4.1</video:rating>

      <video:view_count>54321</video:view_count>    

      <video:publication_date>2012-04-01T19:20:30+08:00</video:publication_date>

      <video:family_friendly>yes</video:family_friendly>  

      <video:restriction relationship="allow">IE GB US CA</video:restriction>

      <video:requires_subscription>no</video:requires_subscription>

      <video:live>no</video:live>

    </video:video>

  </url>

これは一目見れば分かる類のプロセスである。認められている個別のフィールドの詳細は、グーグルの文書で確認してもらいたい。

ステップ 3: グーグルウェブマスターツールにサイトマップを投稿する

オプション A – ウェブマスターツールに直接投稿する

グーグルにXMLサイトマップを投稿する手法としては、この手法を薦める。

- ウェブマスターツールにサインインする

- ウェブサイトのプロフィールを見る

- Site Configuration->Sitemapsにアクセスする

- 右隅の“Add/Test a Sitemap”をクリックする

- サイトマップの名前を入力し、投稿する。

オプション B – robots.txtファイルに以下の列を加える -

サイトマップ: http://www.example.com/sitemap_video.xml

あらゆるXMLのサイトマップに共通することだが、robots.txtファイルが適切に設定されていると、グーグルはrobot.txtの情報を基に動画を発見し、処理していく。


14. .htaccessのテクニック

これから紹介するアドバイスは、クライアントがApacheを利用している場合のみ有効である。ウィンドウズ IISを利用しているなら、IISのテクニックを参照すること。

  1. サーバーで.htaccessファイルを探し出す。
    (“サーバーで.htaccessを探す方法”を参照)
  2. .htaccessを見つけたら、テキストエディタを使ってファイルを編集する。
    ウィンドウズを利用しているなら、 Notepadを薦める。Macを利用しているなら、  TextWrangler等の無料のテキストエディタをダウンロードしよう。
  3. .htaccessファイルで何をしたいのかを決め、コードの列を加える:

自分で404ページを作るには

“ErrorDocument”を利用し、最後にオリジナルの404ページへのURLを加える。例:

ErrorDocument 404 http://www.example.com/my-custom-404-page.html

フォルダーをパスワードで保護するには

A. まず、htpasswdファイルを作成する。オンラインツールを利用すると簡単に作成することが出来る: http://www.tools.dynamicdrive.com/password/

B. 左側に希望するユーザー名を、そして、当該の人物に与えたいパスワードを右側に入力する。

C. “path to .htpasswd”ボックスで、公開しないフォルダーを記入する。通常は、次のように、ホームのディレクトリを入力すると安全である:“/home/myusername”

D. submitをクリクし、ダウンロードした.htpasswdファイルを“/home/myusername”に置く。

E. 次にこの情報を.htaccessファイルに入力する。

AuthUserFile /home/myusername/.htpasswd

AuthName EnterPassword

AuthType Basic

require user some_users_name

some_users_name”をこのフォルダで許可されるユーザーネームと置き換える。

IPアドレスでユーザーをブロックするには

次の4つの列を.htaccessファイルに入力する:

Order allow, deny

Deny from 111.222.333.444

Deny from 555.666.777.888

Allow from all

“deny from,”の列で、例のIPアドレス“111.222.333.444”をブロックしたいIPアドレスに置き換える。

リファラーでユーザーをブロックしたいなら

以下の3つの列を.htaccessファイルに加える:

RewriteEngine On

RewriteCond %{HTTP_REFERER} somedomain\.com [NC]

RewriteRule .* – [F]

複数のリファラーをブロックしたいなら、次のようにRewriteCondの列を増やす必要がある:

RewriteEngine On

RewriteCond %{HTTP_REFERER} somedomain\.com [NC,OR]

RewriteCond %{HTTP_REFERER} anotherdomain\.com [NC,OR]

RewriteCond %{HTTP_REFERER} 3rdDomain\.com [NC]

RewriteRule .* – [F]

最後の列を除く全ての列が“[NC,OR]”で終わっている点に注目しよう。

index.html以外をデフォルトのページに指定するには

“home.html”をデフォルトのページに指定したいと仮定する。その場合、次の列を.htaccessファイルに利用してもらいたい:

DirectoryIndex. home.html

古いドメインを新しいドメインに301リダイレクトするには

以下の列をhtaccessファイルに加える。

RewriteEngine on

RewriteCond %{HTTP_HOST} ^olddomain.com [NC,OR]

RewriteCond %{HTTP_HOST} ^www.olddomain.com [NC]

RewriteRule ^(.*)$ http://www.newdomain.com/$1 [R=301,NC]

"olddomain.com"を古いドメイン名に置き換える。すると、古いドメインからWWWで始まる新しいドメインにリンクを301リダイレクトするようになる。

ウェブサイト上のリソースへの直リンクを防ぐには

次の列を.htaccessファイルに加える:

RewriteEngine on

RewriteCond %{HTTP_REFERER} !^$

RewriteCond %{HTTP_REFERER} !^http://(www\.)?mydomain.com/.*$ [NC]

RewriteRule \.(gif|jpg|js|css)$ – [F]

mydomain.comをドメイン名に置き換える。この列によって、GIF、JPG、JS、そして、CSSファイルへの直リンクを阻止することが可能になる。

HTTPS://からHTTP://へ全てのページをリダイレクトするには

次の列を.htaccessファイルに加える:

RewriteEngine on

RewriteCond %{SERVER_PORT} !^80$

RewriteRule ^(.*)$ https://www.domain.com/$1 [NC,R=301,L]

domain.comを実際のドメインに置き換える。

HTTP://からHTTPS://へ全てのページをリダイレクトするには

.htaccessファイルに次の列を加える:

RewriteEngine on

RewriteCond %{SERVER_PORT} !^443$

RewriteRule ^(.*)$ http://www.domain.com/$1 [NC,R=301,L]

domain.comを実際のドメインに置き換える。

1つのURLをHTTPS://からHTTP://にリダイレクトするには

URLがhttp://www.domain.com/mypage.htmlだと仮定する

RewriteEngine on

RewriteCond %{HTTP_HOST} !^80$

RewriteCond %{HTTP_HOST} ^www.domain.com/mypage.html [NC]

RewriteRule ^(.*)$ http://www.domain.com/mypage.html [NC,R=301,L]


15. グーグルボットを検知する

ユーザーエージェントとしてグーグルボットを検知しておくべきである。その理由は数多くあるが、皆さんの想像に任せておく。 :)

1.  次のコードを文書の「body」のどこかに切り取り & 貼り付けする

if(strstr(strtolower($_SERVER['HTTP_USER_AGENT']), "googlebot"))

{

   // what to do

}

2. Replace with your content

“// what to do”を好きな指示に置き換える。

アドバイス: To make it HTML

次のコードを加える:

if(strstr(strtolower($_SERVER['HTTP_USER_AGENT']), "googlebot"))

{?>

          <h1>Put your HTML here</h1>

<p>anything you’d normally do</p>

<?php

}

PHPの各パーツを分ける。

if(condition){} - this is just a simple function that says “if x is true, do y”.

次にネスト化したステートメントの内側から作業する。

‘HTTP_USER_AGENT’ - これはブラウザ特有のIDの文字列を引き出す

$_SERVER – これはヘッダー、パス、スクリプトのロケーション等、ウェブサーバーによって生成される情報を持つ配列である

strtolower – 全てのアルファベットを小文字に変えた状態で文字列を返す

strstr – 最初のneedleの発生からhaystackの最後までを含むhaystackの文字列の一部を返す

{

        // what to do

}

フォワードスラッシュ // はコメントを残すためだけに用いられる。つまり、波括弧の間に望む動作を挟めばよい。

ビジュアルを好むなら – このコードは分かりやすい:


16. サイトにカスタム検索エンジンを加える

グーグルのカスタム検索エンジンは強力なツールになり得るものの、このツールを利用していないサイトは意外と多い。それでは、サイトにカスタム検索エンジンをインストールする手順を説明していく。

- http://www.google.com/cseにアクセスする

ステップ 1: タイトルとディスクリプションを作成する

ステップ 2: 検索に含めるサイトを加える

ここでちょっとしたテクニカルなノウハウが役に立つ。

サイトのURLをただ単に加えるのではなく – アスタリスク (*) をURLの後ろに加えて(例

http://www.quicksprout.com/*)サイト全体を検索することが出来るようにしなければならない。

ステップ 3: Editionを選択して、確認する

この作業を完了すると、カスタム検索エンジンをサイトに実際にインストールする前に試す機会が得られる。

Let’s check it out!

カスタム検索エンジンで[twitter tips]を検索すると、良質な検索結果が表示された。また、エンジン内のサイトのバラエティも申し分ない(プレミアム版を購入しない限り、広告が表示される点に注意)。

それでは、これからサイトにインストールするプロセスを説明する。

カスタム検索エンジンをサイトにインストールする

このタイプのインストールは、新しいページか新しい投稿のいずれかに行うことになる。例では新しいページを利用するが、新しい投稿にも同じ方法を用いることが可能である。

ステップ 1: “new page”にアクセスする

ステップ 2: HTMLモードで編集する

JavaScriptのコードをページに貼り付けるため、HTMLモードで編集を行う。

ステップ 3: コードを貼り付ける

プレビューを見る


17. 複数の言語のマークアップとグーグル翻訳

グーグル翻訳をインストールして、別の言語を話すビジターにもサイトを楽しんでもらう方法をこれから伝授する。これは割と新しいテクニックであり、利用している人はまだ少ない。そのため、早い段階で導入しておくことを薦める。

 http://translate.google.com/translate_toolsにアクセスする

段階 I – コードを取得する

翻訳をサイトに実装するため、まずはオプションを選択し、コードのスニペットを生成する。

ステップ 1: ページ全体またはページの一部を翻訳するかを決める

大抵、ページ全体を翻訳したいのではないだろうか。しかし、一部のテキストを異なる言語に翻訳したい場合でも、ページの一部のみを翻訳する選択肢があるので心配しないでもらいたい。

ステップ 2: ウェブページの言語を選択する

大抵の場合、英語を選択することになる。

ステップ 3: Optional Settingsを表示させる

十字マークをクリックして、optional settingsを開く。

optional settingsを使って、サイトの翻訳を完全にカスタマイズすることを私は薦める。

翻訳される言語を選択することが出来る。

翻訳ボックスの表示方法を選択することが出来る。個人的には、「inline」と「dropdown only」が良いと思う。

さらに上級者向けの設定も用意されている。ここでは、ページを翻訳する必要がある読者に自動的にバナーを表示する。また、グーグルアナリティクスで利用を追跡する。

アドバイス: グーグルアナリティクスのIDを早く見つける方法

1. 自分のウェブページにアクセスする

2. ソースを見る

3. Control F(クロームの場合)を押して、テキストを探す

4. “ua-”(ダッシュ付き)を検索する

選択を終えたら、完成したスニペットのコードが表示されるはずだ。

ページのプレビューを見る

コードをコピーして、サイトに加える前に、翻訳ボタンのプレビューを見ることが出来る。

段階 II – コードをサイトにインストールする

これでコードの準備が整ったので、これからサイトに実際にインストールしていく。ワードプレスのようなコンテンツ管理システムを利用しているなら、割と簡単にインストールすることが可能だ。ここでは、コードを挿入するスポットを探す作業のみ説明する。

ステップ 1: 翻訳ボックスを表示する場所を決める

翻訳ボックスをインストールする基本的な場所は次の2つである。

オプション A – クイックスプラウトのように、ヘッダーのどこかに表示する:

オプション B – クックスプラウトのこのページのようにサイドバーのどかに表示する:

ステップ 2(オプション A): コードをヘッダーにインストールする

再びソースコードを確認すると、コードを挿入する必要のある場所が見えてくる:

検索ボックスとロゴの間に挿入する必要がある。

1. ワードプレスにログインする

2. 「editor」にアクセスする

3. 「Header」を選択する

4. header.phpファイルの翻訳コードを貼り付ける

翻訳ボックスを表示させる場所をコードで探し出し、header.phpファイル内でスニペットを貼り付け、保存する。

ステップ 2(オプション B): サイドバーにコードをインストールする

新しいテキストのウィジェットを作成することが出来るため、このオプションの方が少し難易度は低い。

1. ウィジェットにアクセスする

2. サイドバーに新しい「Text Widget」を加える

3. 翻訳コードをウィジェットに貼り付ける

これで完了。今後は異なる言語のユーザーにもサイトを楽しんでもらえる。


18. 悪意のある、または害をもたらす可能性のあるリンクをブロックする

時折、ハッカー、または、悪意のない経験の浅い人達が、クエリパラメータを最後に加えたリンクを送ってくることがある。例を以下に挙げる:

http://www.quicksprout.com/?neilpatelscam

(このような方法でリンクを張ってもらいたくない)

また、悪意のあるクエリの文字列が異なるページに向かわせてしまうこともある:

http://www.quicksprout.com/page/2/?neilpatelscam

http://www.quicksprout.com/page/3/?neilpatelscam

このページはそのままインデックスされ、本物のページをインデックスで置き換えてしまう可能性がある。可能性こそ低いものの、万が一の時は、修正する必要がある。以下に、そのための.htaccessのコードを掲載する:

# FIX BAD LINKS
<ifModule mod_rewrite.c>
RewriteCond %{QUERY_STRING} querystring [NC]
RewriteRule .* http://example.com/$1? [R=301,L]
</ifModule>

単純に次の手順に従ってもらいたい:

1. .htaccessがルートディレクトリに存在することを確認する。

2. このコードを.htaccessファイルの一番下に掲載する。

3. “querystring” を利用されている悪意のあるクエリ文字列と置き換える。

4. example.comをサイトのURLと置き換える。

5. 複数のクエリ文字列を加えるには、“pipes” ( | )を“or”を表現するために用いる:    

           例えば、neilpatelscam|quicksproutripoff|badblogger

6. 最後に1週間後または2週間後にグーグルで、次のようなsite: queryを実行して、インデックスから削除されている点を確認する:

        site:quicksprout.com/?neilpatelscam


19. オンサイト分析向けのブラウザプラグイン

ブラウザプラグインは、ワークフローと効率を大幅に改善するポテンシャルを秘めている。そこで、グーグルクロームのプラグインを幾つか紹介し、高度な使い方も幾つか伝授していく。

このセクションでは、サイトのアクセシビリティおよびインデクセーションを最適する上で役に立つプラグインを取り上げる。

以下にリストを掲載する。

  1. Broken Link Checker - https://chrome.google.com/webstore/detail/ojkcdipcgfaekbeaelaapakgnjflfglf
  2. Web Developer - http://chrispederick.com/work/web-developer/
  3. Redirect Path Checker - https://chrome.google.com/webstore/detail/aomidfkchockcldhbkggjokdkkebmdll
  4. SEOmoz Toolbar - https://chrome.google.com/webstore/detail/eakacpaijcpapndcfffdgphdiccmpknp
  5. Chrome Sniffer - https://chrome.google.com/webstore/detail/homgcnaoacgigpkkljjjekpignblkeae
  6. Google Analytics Debugger - https://chrome.google.com/webstore/detail/jnkmfdileelhofjcijamephohjechhna
  7. Microformats for Chrome - https://chrome.google.com/webstore/detail/oalbifknmclbnmjlljdemhjjlkmppjjl
  8. Rulers Guides and Eyedropper Color Picker - https://chrome.google.com/webstore/detail/bjpngjgkahhflejneemihpbnfdoafoeh
  9. Word Count - https://chrome.google.com/webstore/detail/kmndjoipobjfjbhocpoeejjimchnbjje
  10. Source Kit - https://chrome.google.com/webstore/detail/iieeldjdihkpoapgipfkeoddjckopgjg?hl=en-US

次に、高度な利用方法を紹介する。

Broken Links Checker

このプラグインは、リンク切れを手っ取り早く確認することが出来るだけでなく、リンクの構築および獲得に関するアイデアを得るため、他のサイトに利用する手もある。

例えば、競合者のウェブサイトのサイトマップでこのプラグインを実行してみよう。手順は以下の通りだ:

1. 競合者のHTML sitemapを探す。例えば、ランダムに www.bizchair.comを取り上げ、サイトマップを探し出してみる: http://www.bizchair.com/site-map.html

2. Link Checkerを実行する

エクステンションのアイコンをクリックする

リンク切れが見つかるまで待つ – この例では、多くのリンク切れが見つかった。

特に目立つのは、“resources” ページである。リソースのコンテンツを再現する、または、リンクを得るために利用することが出来る。

Chrome Sniffer

このプラグインは、ウェブサイトが利用しているCMS、または、スクリプトのライブラリを自動的に表示する。例えば、ワードプレスのサイトのオーナーのみに接触したい際に、とても便利である。

ウェブを閲覧している際に、利用されているCMSやライブラリに合わせて、URLの右端のアイコンが変化する。

例えば、私のサイトはワードプレスで構築されていることが分かる

そして、ドルーパルで構築されているサイトの場合このように変化する

Redirect Path Checker

このプラグインは、リダイレクトでページに移動される際に自動的に警告を発する。ウェブを閲覧している際に、内部(または外部)で期限切れのURLにリンクを張っている場合、非常に役に立つ。

例えば、私は、たった今、Gizmodo 302リダイレクトにリンクを張っていることに気づいた:

このプラグインが302を通知してくれたため、リダイレクトに気づいたのだ。

アイコンをクリックすると、ブラウザがページに向かう上で経由したリダイレクト(または一連のリダイレクト)を表示する。

SEOmoz Toolbar & Plugin

Mozのプラグインは、様々な用途で利用することが可能である。より高度な方法を幾つか紹介する:

followedとnofollowedのリンクを早く発見する

ウェブサイトの国またはIPアドレスを発見する

上級者向けSEOガイドの記事一覧はこちらから


この記事は、Quick Sproutに掲載された「Chapter 1: Indexation and Accessibility」を翻訳した内容です。

圧巻の質と量を誇る記事でした。英語圏のツールを中心に紹介されていましたが、大半が日本語でも問題なく使えるものばかりですし(というか、日本で使える同種のツールは余りないですし)、日本のウェブマスターにも十分に役立つ内容だったと思います。ここまで徹底してSEOに取り組んでいるサイトも余り無いと思いますし、全てを行う必要があるわけでもないとは思いますが、ここという時に参考になる情報が満載でした。 — SEO Japan [G+]