無料で使えて便利すぎる29のウェブマーケティングツール

29という具体的&多目の数入り、さらには「無料」という言葉まで入る最強の釣り記事タイトルですが、タイトルで敬遠して読まない人は勿体ない!と思わずにいられないような、きっとあなたも知らなかった数々の無料ウェブマーケティングツールが紹介されている記事をThe Next Webから。Twitter、Facebook、LinkedIn、ウェブサイトなどジャンル毎に整理されており、かつシンプルに使えるツールが多く、ちょっと便利なツールが満載です。英語圏のツールですが、ほぼ日本語のサイトでも活用できそうなものばかり、是非お試しあれ。 — SEO Japan

他の人達が遠回りする中、ショートカットを使うと、タスクを楽々こなし、数ステップ飛ばすことが可能になり、賢明な措置を講じた気分になる。

マーケッターが毎日実施しなければならない様々なタスクを考慮すると、良質なマーケティング用のショートカットを見つけたくなる。

そこで、様々なマーケティングのカテゴリーにおける無料の優れたマーケティングツールを探してみた。これから紹介する ?- すぐに使いこなすことが出来る — ツールは、リサーチ、文章作成、評価、そして、分析等、マーケティングの取り組みをクローズアップしている。是非、完璧なショートカットを見つけてもらいたい。

リサーチツール

順番に沿ってツールを紹介していく。まずは、トピック、サイト、そして、アイデアをリサーチするためのツールをリストアップしていく。

1. Google Scholar

Google Scholarは、もっと注目されてもいいはずだ。科学分野の記事をリサーチし、新しい研究を調べる際に私はこのツールを愛用している。このツールは、学術系の出版社、職業団体、インターネット上のコレクション、大学、その他のタイプのウェブサイトに掲載されている、記事、論文、書籍、抜粋、裁判所の見解に限定している。

Google Alertと一緒に使うと、興味のあるトピックのリサーチの情報を受信箱に運んでもらえる。

Screen Shot 2014 02 07 at 6.43.54 PM 520x356 29 free Internet tools to improve your marketing starting today

2. Open Site Explorer

リンクの検索エンジンとも言えるOpen Site Explorer は、自分のサイト — もしくは別のサイト — にリンクを張っているサイトをリストアップしてくれる。

リンクはSEOにプラスの影響を与える。また、同類のサイトと良好な関係を構築する上でも、あるいは、競合するサイトを監視する上でも、このツールは有効である。

Screen Shot 2014 02 09 at 4.59.55 PM 520x301 29 free Internet tools to improve your marketing starting today

3. Google トレンド

Google トレンドを使えば、世界のインターネットユーザーが何を検索しているのか、そして、時間の経過と共にコンセプトにおける興味がどのように変化しているのか、把握することが出来る。

「Growth Hacker」や「Growth Hacking」等のワードを最近よく耳にするようになった気がする。このワードをGoogle トレンドに入力してみたところ、やはり、このコンセプトに対する関心が急に高まっていることが判明した。

Screen Shot 2014 02 07 at 6.49.01 PM 520x294 29 free Internet tools to improve your marketing starting today

アイデアを探すためのツール

4. Blog Topic Generator

アイデアが枯渇しているなら、HubspotのBlog Topic Generatorでコンテンツの分野を表現する名刺を幾つか入力してみよう。すると、1週間分の記事のアイデアが続々と出てくる。
Screen Shot 2014 02 07 at 5.06.55 PM 520x191 29 free Internet tools to improve your marketing starting today

「social media」(ソーシャルメディア)、「content marketing」(コンテンツマーケティング)、「aardvarks」(ツチブタ)を入力したところ、次のようなアイデアを提供してもらえた:

  • ソーシャルメディアに投資するべき10の兆候
  • コンテンツマーケティングをマスターしたと思うなら、この問いに答えてみよう
  • マイリー・サイラスとツチブタ: 10点の意外な共通点
  • ソーシャルメディアに関するブログ トップ 15
  • 100年後のコンテンツマーケティング

悪くはない。どの記事を読みたくなっただろうか?

5. Content Idea Generator

キーワードを入力して、遊び感覚の、適当な提案をPortentのContent Idea Generatorに要請してみよう。

Screen Shot 2014 02 07 at 5.13.01 PM 520x189 29 free Internet tools to improve your marketing starting today

メモ: The Next Web カンファレンスヨーロッパをチェックして、マーケティングとソーシャルメディアの最新の情報を仕入れよう。

リーディング & ライティングツール

このタイプのツールは、読みやすさ、キーワードの密度、そして、スペルや文法をチェックしてくれる。

6. Readability

Readabilityブックマークレットをツールバーにドラッグすると、ウェブ上のコンテンツを、シンプルで、読みやすい形式に変換することが出来る。しかも、所要時間を教えてもらえる。また、長いコンテンツをKindleに送って、後で読む機能を含む、その他のオプションもチェックするべきである。

Screen Shot 2014 02 07 at 3.55.40 PM 520x161 29 free Internet tools to improve your marketing starting today

7. Hemingway

誰もがシンプルで、明確な文章を目指して、努力している。自信がなくなったら、Hemingwayに少し手を貸してもらおう。このアプリに文章を貼り付けると、当該の文章に対する分析が行われ、過剰に難解な句、不要な副詞等の問題点を指摘してもらえる。

Screen Shot 2014 02 07 at 2.18.46 PM 1 520x187 29 free Internet tools to improve your marketing starting today

8. Onpage Optimization Tool

Internet Marketing Ninjasが無料で提供するオンページの最適化ツールは、サイトの特定のページの状況を一目で把握することが出来る。URLを入力すると、キーワードの密度、内部リンクおよび外部リンクの本数等のスタッツが表示される。

Screen Shot 2014 02 07 at 6.30.56 PM 520x192 29 free Internet tools to improve your marketing starting today

9. After the Deadline

Chromeのエクステンション、After the Deadlineは、閲覧しているウェブページのスペル、スタイル、そして、グラマーをチェックする。

Screen Shot 2014 02 07 at 7.44.22 PM 520x352 29 free Internet tools to improve your marketing starting today

10. Readability Test Tool

Readability Test Toolにウェブページのアドレス、または、テキストの塊を入力すれば、コンテンツの分かりやすい分析データが生成される。このツールは、様々な「読みやすさ」のスコアを計測し、それぞれの項目を分かりやすく説明してくれる。

Screen Shot 2014 02 08 at 2.09.32 PM 520x505 29 free Internet tools to improve your marketing starting today

Twitterのツール

Twitterのツールは、タイミング、共有、そして、分析に至るまで、Twitterでの存在感を最大限に高める上で有効である。

11. Save Publishing

Save Publishingを使って、140文字以内の句を手っ取り早く探そう。Save Publishingは、ツイート可能な一句をスクリーン上でハイライトする便利なブックマークレットである。ワンクリックで、Twitterに投稿することが出来る点も嬉しい(もしくは、句をハイライトして、Bufferのエクステンションをクリックすれば、Bufferさせることも可能だ)。

Screen Shot 2014 02 07 at 2.21.29 PM 520x210 29 free Internet tools to improve your marketing starting today

12. Followerwonk

Followerwonkは、優れたソーシャルメディアデータを提供するBufferのパートナーの1つである。Twitterのタイミングに関する非常に有益なデータを数多く提供するだけでなく、Followerwonkは、異なるアカウントのフォロワーの人数を比較する機能等、実用的な機能を多数提供している。

Screen Shot 2014 02 07 at 4.21.47 PM 520x183 29 free Internet tools to improve your marketing starting today

13. Latest.is

Latest.isは、最新のニュースでもなければ、意味のないハッシュタグでもない。Latest.isは、「誰よりも早く良質なリンクを常にツイートするユーザー」に焦点を絞ったアルゴリズムを介して浮かび上がった、注目に値するリンクを自動的にリストアップしてくれる(ただし、ユーザーの詳しい情報を得られるわけではない)。

Screen Shot 2014 02 09 at 5.16.20 PM 520x218 29 free Internet tools to improve your marketing starting today

14. Tweriod

Tweriodは、アカウントを分析して、より多くのTwitterユーザーに見てもらい、より多くのリプライを得るための最高のタイミングを教えてくれる。その上、ピークの時間に到達したら、Bufferのアカウントと同期させることも出来る。

Screen Shot 2014 02 09 at 5.46.18 PM 520x301 29 free Internet tools to improve your marketing starting today

15. Must Be Present

Sprout Socialが提供する無料ツールのMust Be Presentは、Twitter上のコメント、そして、質問に返信する頻度と早さを計算する(このツールを使うには、eメールとその他の情報を少し提供する必要がある)。

Screen Shot 2014 02 07 at 2.25.25 PM 520x360 29 free Internet tools to improve your marketing starting today

Facebookのツール

これから紹介するツールは、Facebookのページを分析して、アクティビティに関するデータやレポートを提供する — Facebookは常に変化するため、重要なツールだと言えるだろう。

16. Conversation Score

Facebook ページの影響力、エンゲージメント(参加を介した交流)、そして、パフォーマンスをConversation Scoreを使って把握しよう。

Screen Shot 2014 02 06 at 9.57.00 PM 29 free Internet tools to improve your marketing starting today

17. Wolfram Alpha Facebook report

自分のFacebookのアカウントを分析して、つながり、利用する言語、投稿する時間等の多数の興味深いデータを取得したいなら、Wolfram Alpha’s Facebook reportを試してみると良い。

Screen Shot 2014 02 07 at 4.16.36 PM 520x508 29 free Internet tools to improve your marketing starting today

18. LikeAlyzer

LikeAlyzerは、存在、会話、アクション、そして、情報を基に、Facebookでの企業の存在感に関する提案とフィードバックを提供する。

Screen Shot 2014 02 06 at 10.06.52 PM 29 free Internet tools to improve your marketing starting today

19. Fanpage Karma

Fanpage Karmaは、競合に焦点を絞っているツールである。名前やIDを使って、2つのファンページを比較すると、どちらが優れているのか教えてもらえる。

Screen Shot 2014 02 06 at 10.09.07 PM 520x346 29 free Internet tools to improve your marketing starting today

20. Facebook Page Barometer

Agora PulseのFacebook Page Barometerは、Facebookのパフォーマンスを記録し、6000を超えるページの平均値と比較する。
Screen Shot 2014 02 06 at 10.04.27 PM 520x255 29 free Internet tools to improve your marketing starting today

LinkedInのツール

LinkedInのツールは、LinkedInのコネクションと存在感を視覚化し、最大限に活用する上で効果がある。

21. SimplyMeasured LinkedIn Analysis

SimplyMeasuredのLinkedIn Company Analysisを使って、– 最もアクティブな投稿、活発な日時等、LinkedInの企業ページのアクションを視覚化しよう。SimplyMeasuredは、その他にもチェックしてもらいたい無料ツールを多数提供している。

Screen Shot 2014 02 06 at 9.58.54 PM 520x288 29 free Internet tools to improve your marketing starting today

22. LinkedIn Maps

LinkedInのつながりが、どのようにお互いに関連しているのか、そして、重複しているのか知りたいなら、LinkedIn Mapsを使って、新たな図を入手しよう。関係を理解し、強化する上で役に立つかもしれない。

Screen Shot 2014 02 07 at 2.28.13 PM 520x341 29 free Internet tools to improve your marketing starting today

ウェブサイトの分析ツール

以下のツールは、サイトやマーケティング戦略の各種の領域の全体像を把握する上で有効である。

23. Quicksprout

QuickSproutは、総合的なウェブサイトの評価、ソーシャルメディア分析、そして、競合者分析を一箇所で提供してくれる。

Screen Shot 2014 02 07 at 2.44.44 PM 520x336 29 free Internet tools to improve your marketing starting today

24. Marketing Grader

HubspotのMarketing Graderは、QuickSproutと同様の機能を提供しており、複数のカテゴリーでマーケティングの取り組みの状況を確認することが出来る。
Screen Shot 2014 02 07 at 7.38.03 PM 520x234 29 free Internet tools to improve your marketing starting today

25. SharedCount

自分の(あるいは他人の)コンテンツがウェブで広がっていく様子を見たいだろうか?ソーシャルメディアのシェアボタンがクリックされた回数を表示していないなら、SharedCountにウェブサイトのアドレスを貼り付けよう。あるいは、複数のURLのダッシュボードを使って、様々なウェブアドレスを入力し、簡素なレポートをエクスポートする手もある。
Screen Shot 2014 02 09 at 5.21.53 PM 520x231 29 free Internet tools to improve your marketing starting today

関係のツール

このタイプのツールは、新たなユーザーとの関係構築、そして、既存のつながりとの関係強化に焦点を絞っている。

26. Newsle

動向を追いたいソートリーダー(新たな考えを提示することが出来る人物)や業界のインフルエンサーがいるなら、Facebook、または、LinkedInを介して、Newsleに登録しよう。すると、Facebookの友達、LinkedInのつながりを追跡し、話題になった際にeメールで伝えてもらえるようになる。

Screen Shot 2014 02 10 at 8.37.38 AM1 520x209 29 free Internet tools to improve your marketing starting today

27. Rapportive

Rapportiveをインストールして、eメールにもっと働いてもらおう。このChromeのエクステンションは、写真、仕事、会社、LinkedInのプロフィール、さらには、最新のツイートを表示するため、相手をより良く知ることが出来るようになる。

rapportive example 520x409 29 free Internet tools to improve your marketing starting today

28. MentionMapp

MentionMappを使えば、Twitterのユーザーが、他のユーザーとどのようにつながっているのかが分かる。このツールは、つながりを視覚化するため、理解しやすく、そして、調べやすくなる。

Screen Shot 2014 02 09 at 4.29.52 PM 520x380 29 free Internet tools to improve your marketing starting today

その他のツール

29. Down For Everyone Or Just Me?

ダウンしたのが、インターネット接続なのか、もしくは、自分(あるいは接触を試みている人)のサイトなのか、分からないことがある。そんな時は、このシンプルなウェブサイトにサイトのURLを入力しよう:

Screen Shot 2014 02 07 at 2.31.00 PM 520x181 29 free Internet tools to improve your marketing starting today

すると、ダウンしているのが、インターネット接続なのか、自分のサイトなのかが分かる。

Screen Shot 2014 02 07 at 2.31.17 PM 520x118 29 free Internet tools to improve your marketing starting today

私が見過ごしている便利なツールがあるなら、コメント欄で教えてもらいたい。このリストをさらに有益にしてもらえると嬉しい。


この記事は、The Next Webに掲載された「29 free Internet tools to improve your marketing starting today」を翻訳した内容です。

私自身も知らなかった、ちょっと時間がある時に試したくなるようなツールが色々と紹介されていました。お昼休みに早速私も遊んでみたいと思います。。。 — SEO Japan [G+]

3分で分かるAPI経済の仕組み

APIが様々なプラットフォームで提供され、様々なサービスで活用される今日。そんなAPI経済の状況をわかりやすくまとめてくれた記事をThe Next Webから。 — SEO Japan


152122658

アダム・ドゥヴァンダーは、SendGridでディベロッパーコミュニケーション部門を統括する、「開発」のスペシャリストである。過去には、Wired、Webmonkeyに記事を寄稿し、また、APIのリソースとして名高いProgrammableWebで編集に携わった経験を持つ。


数年前、アプリケーション・プログラミング・インターフェース(API)は、楽に、そして、機能的にアプリケーションを連動させるための手段、つまり、デジタル版の接着剤と認識されることが多かった。しかし、現在、APIの価値は、単なる橋渡し以上の役目に進化している。

多くの開発者にとって、APIは、ビジョンを明らかにすることが可能な基礎的な構造の役目を担っている。ここで、効果の80%は20%の原因によって引き起こされると説くパレートの法則について考えてもらいたい — アプリとクラウドのサービスは、アプリが必要とする作業の80%を既に実施しているため、この環境を活かして、自分ならではの20%の「魔法」に力を入れれば良い。

過去を振り返る

「API」と言う用語は以前から使われているが、現代の、ウェブに接続するAPIのバージョンが勢いをつけ始めたのは、AmazonのStore APIが登場した2000年代の前半であった。このAPIによって、どんなウェブサイトでもサイト上にAmazonを掲載することが可能になった。

例えば、小規模な小売業者がAmazonのStore APIを統合すると、別にEコマースの機能を開発することなく、ウェブサイトから商品を販売し、配送することが可能になる。中小規模の業者にとって、今までとは全く異なる新しいチャンネル(そして、経済)が登場したと言えるだろう。

FacebookとTwitterも独自のオープン API戦略を用いて、Amazonの後に続いた。Facebook、または、TwitterのログインAPIを統合したウェブパブリッシャーは、ウェブサイトを訪問している人、閲覧している人、そして、コメントを投稿している人に関するデータを集めて、理解することが可能になり、その結果、広告スポンサーにより良い製品とサービスを売ることが出来るようになった。

この頃から、APIは大幅に成長し、採用するサイトは増加していった。APIを公開してとりわけ大きな成功を得た企業の一つが、Salesforce.comである。同社は、第三者アプリのエコシステムで300万近いアプリに利用され、サイトのトラフィックの大半は、APIによってもたらされている。

APIは、ビジネスを早く確立し、成功に導くモデルとして、インターネット全体に影響を与えている。インターネットは、様々な事業体によって所有され、運営されるウェブページのネットワークから、オープン API、そして、アプリケーションが連動して、新たなアプリケーション、新たなビジネス、そして、新たな協力関係を築く手段を作り出すエコシステムへと姿を変えつつある。

APIを活用するべき理由

APIには明確なビジネス上のメリットがあるものの、運用の面でも幾つかメリットをもたらす(その多くはビジネスの成長 & 成功に関連する)。現在、ウェブアプリの開発者は、多数のAPIを利用することが出来る。Facebook、Google、そして、Salesforce等の一流のテクノロジーブランドがAPIを提供している。

また、政府機関、教育機関、金融機関、さらには、大型の小売業者等、一風変わった業界からも多くのAPIが提供されている。

APIから得られるメリットを幾つか挙げていく:

APIは余計な作業を減らす。 APIを利用することにより、運用およびインフラの一部をその領域のプロにアウトソースすることが可能になる。

APIは知識を得る上で役に立つ。 アプリのインフラの一部をエキスパートに対応してもらうことで、プロから学ぶ機会を得られる。

APIはより幅広いアプリのエコシステムに接触することが可能になる。 アプリのインフラの一部をエキスパートに委託する機会が増えると、エキスパートとのつながりも増える。

APIは新製品を作り & テストする上で役に立つ。 独自のAPIを公開すると、顧客& パートナーのエコスシテムが活用するビジネスを公開することになり、新たなビジネスの機会が生まれる可能性がある。

要するに、APIの消費者になると、アプリケーションやビジネスの構築を簡素化することが可能になる。オープン APIを統合して、インフラを管理し、運営上の懸念を拭い去ると — たとえ解決策が分かっていることでも — 最も重要なこと、つまり製品に集中する余裕が生まれる。当該の領域を専門にするエキスパートにアウトソースすることで、不要な作業を回避することが可能になるのだ。

現代の一般的な開発者にこのパターンを当てはめてみよう。大半の開発者は、様々な API コール & サービスを利用して、アプリをデザインし、開発している。例えば、SMSや音声にはTwilioを、ログインにはFacebookやTwitterを、モバイルアプリのデータおよび分析にはParseを、そして、eメールにはSendGridを利用している可能性がある。

事実、アプリの大半の必要とされる機能は、誰か、または、どこかの会社によって既に解決策が提示されている。また、このようなサービスの多くを当初は無料で利用し、規模を拡大する中で、徐々に出費を増やしていくことになる。

このPareto-As-A-Service(サービス型パレート)モデルにより、既存のAPIのエコシステムを基盤として活用し、マーケットにもたらすことが可能な固有の価値、能力、そして、ビジョンに力を入れられるようになるのだ。

API経済に還元する

APIのエコシステムを使って、アプリを作ったら、今度は自分のアプリのオープン APIを提供することで、他の開発者が自分のプラットフォームをベースとしてアプリを構築することが出来るようになり、エコシステム(そして自らのビジネス)に還元する機会が生まれる。すると、パートナーにプラスに働き、また、エコシステムに貢献して、シームレスなアプリ間のUXを提供することで、成功を収めることが可能になる。

APIの統合は、ビジネスを推進させるツールとして定着しており、多くの企業がAPI限定のビジネスを立ち上げるようになった。例えば、WePayは、先日、Eコマース、クラウドソーシング、そして、零細企業のソフトウェアプラットフォームを統合するために構築されたオンライン支払いシステムのAPIに事業を一本化している。その結果、過去の1年のみで、WePayのAPIビジネスは600%増加し、先日、1500万ドルの資金を調達していた。

どのようなルートを選ぶにせよ、パレートの法則を指針にするべきである。素晴らしいアプリを作り、良質なUXを提供することに集中しよう – その他の作業はAPIに任せておけば良い。


この記事は、The Next Webに掲載された「The rise of the API economy and consumer-led ecosystems」を翻訳した内容です。

3分で分かるだけにポイントを簡潔にまとめた内容、新しい発見があるわけではありませんでしたが、そういうことだよね、という納得感はありました。私もたまたま今API主体の新サービスを手掛けているだけに、早くこのAPI経済に飛び込んで(いつもはユーザーとして利用させてもらっている側ですが)、その世界で自由に泳いでみたいです。この記事を参考に、途中で溺れないように・・・。 — SEO Japan [G+]

SEO作業を効率化するためのツールセット

一週間ご無沙汰してしまったので今週はSEOの記事を大目にいきたいと思います。まずは米国でもトップレベルのSEOエキスパート、ロス・ハッジスによるSEOの作業を効率化するための各種ツールの紹介を。この手のツール、日本でも米国でも相当な数がありますが、その存在を知らずに無駄な手動作業に時間をかけているケースも意外とあったりするかもしれません。英語圏のツールではありますが、日本でも使えるものも多いと思いますし中級者以上の方の参考程度に。 — SEO Japan

様々なレベルの技能によって、 「優秀」なSEOのプロの称号を得られる。才能は関係ない。優秀なインハウス、エージェンシー、リンク構築、あるいは、コンピュータ科学の学位を保持するSEOのエキスパートは、その他の検索業界のエキスパートよりも深くアルゴリズムのことを理解している。

この傾向は10年が経過しても、ほとんど変わっていないだろう。上位30位からトップ 3を切り離す持ち味が、この全ての要素に詰まっている。しかし、他にもこれから変化する – そして、変化を続ける – ものはある。この要素は、現在、上位と中位の違いになっている。 それは、SEOの弱点を除去するスキルである。

規模の経済

SEOのあらゆるプロセスにおいて、データを入力するタイプのタスクに時間を費やさなければならなくなる時がある – ハッキリ言ってしまうと、考えなくても出来る作業のことだ。しかし、検索の分野の規模はあまりにも大きいため、少数派に属するプログラミングの苦手なSEOのプロ、そして、比較的若い世代にとっては、この作業は弱点の一つになり得る。また、この弱点は、許容できる範囲に収まっていないと言えるだろう。

SEOの担当者によって、このような弱点には差がある – 一部のSEOのスタッフはテキストブローカー等のツールの存在すら知らず、オープンサイトエクスプローラやアーティクルスピニング用のソフトウェアを利用していないが、一流のSEO業者は、遥かに低い価格でアウトソースすることが出来る時は、eメールの収集等のデータを集めるタスクを外注している。

SEO業界の大勢の仲間に話を聞いたところ、このような知名度の高い、スケーラブル(拡大縮小可能)で時間を節約することが可能なツールの知識が、人によってまちまちである点に私は気づいた。ニーズがないために、生産性の欠点を抱えていることが多い – 例えば、質を優先したリンク獲得戦略を策定しているなら、Raven SEOを使って、リンクのレポートを自動化する手法は、絶対に必要だとは思えないのだろう – ただし、確実に時間は増えていく。同じように、eメールのリンク構築が、当該の分野では現実的ではないなら、Mechanical TurkELance等のサイトを活用する戦略により、必要としている適当な300本のeメールを苦労することなく集めることが出来ると言われても、いまいちピンとこないだろう。

このような小さな差が、様々なプロセスで生じている – 今後、弱点が発生する穴を見つけることで、あらゆるSEOのエキスパートが、メリットを見出し – 解決に乗り出すようになるだろう。

今後、“優秀な”SEOになるには

現在、このような弱点 – そして、弱点を除去するスキル – は、検索結果に大きな影響を与える可能性がある。この類のデータ入力のタスクは、多くのSEOのプロセスを遅らせている – インターンにeメールの収集させるとしても、大きな変化をもたらすハイパーテキストを生成する他の作業に、インターンを当たらせることが出来るかもしれないのだ。

SEOのツールは日々進化している。このツールの役目は、弱点を除去することだ。5-10年以内に、SEOの弱点の問題は解決されるだろう – そのため、生産性を最大化することで得られる競争上のメリットは、少なくなる。しかし、現時点では、このメリットは実在する。大きな違いをもたらすことが出来るはずだ。一ヵ月に得るリンクの本数が100本から150本に、200本に、そして、300本に増やすことが可能だ。長期的な視点で考えると、プロセスのタイムロスを探し出し、除去し、取り組みを拡大し、より多くの時間をリンクの獲得に費やす方針は、絶対に必要である。

多くのエージェンシーや会社が、独自のテクノロジーを使って、このような弱点の多くを克服している。しかし、その多くは流出するか、あるいは、公開されているツールに取って代わる運命を迎えることになるだろう。 そのため、待つのではなく、今のうちに答えを出しておくことで、今後の競争力を確保する効果が見込める。

私の“弱点”のプロセスにも確実に幾つか穴がある – 皆さんにも同じことが言えるのではないだろうか。以下に、すぐに特定することが可能なSEOの弱点に有効に作用するツールを紹介していく。 また、現在の弱点も挙げていく – これには、皆さんに救済策を教えてもらう、または、SEO業界が解決する必要があるとアピールする意味もある。ジレンマの多くは、実は高度なエクセルの数式で解決することが出来る可能性がある – 解決策を知っているなら、是非、知らせてもらいたい。もちろん、効率/使いやすさを考慮して、ウェブアプリを作ってくれても構わない。

他にもプロセスがあるなら、あるいは、私が見過ごしているなら、指摘してほしい – その時点でリストに加え、また、希望する人には、リンクジュースを少し提供する。

サイトの評価

サイトの作成

競合者リサーチ

リンク構築

メンテナンス/レポート

このリストには幾つか問題がある – まず、もっと効率良く上記のプロセスを実行するツールが他にもある可能性がある点だ。また、皆さんがSEOの担当者として経験している可能性がある、あるいは、実際に経験したことがある弱点を見過ごしているかもしれない。いずれかのケースに思い当たる点があるなら、是非、連絡を取ってもらいたい。私は時間をかけてこのリストを拡大/改善していくつもりであり、今後、SEOの弱点に遭遇する度に更新していく。

「苦労なくして、苦労はない」と言う格言があったような気がする。

イメージ: The New Yorker


この記事は、Ross Hudgensに掲載された「Scaling SEO by Eliminating Pain Points」を翻訳した内容です。

若干、リンク寄りの記事ですが(スミマセン、記事も少し古いです)、あなたの知らなかった・使えそうなツールはあったでしょうか?ツールを使うかどうかはともかく、作業プロセスの整理にもなる記事でした。 — SEO Japan [G+]

これだけでGoogle検索の達人になれる便利すぎる検索演算子ベスト10

パーソナライゼーションやアルゴリズムの進化で検索者の考えていることを勝手にある程度予想して答えを出してくれるようになってきたGoogle、一昔前のGoogleと比べてもローカル検索からGoogle Nowまで超絶な進化を遂げています。検索時のちょっとしたテクニック的な技は進化するGoogleの前にその必要性も失われつつありますが、特定用途の検索をしたい時にはまだまだ使えるテクニックも多数存在します。今回は改めて代表的な検索演算子をまとめた記事を紹介します。とりあえずこれだけ覚えておけば、あなたも一端の検索マスターは名乗れるかも。 — SEO Japan

グーグルは、全力で検索を改善する取り組みを行っている。あまりにも見事であるため、一般のユーザーが、この点に気づいているようには思えない。パーソナイゼーションローカリゼーション、そして、カスタマイゼーションを次々に導入し、その一方で、一般のユーザーに関する大量のデータを入手している。有益(尚且つ直感的な)な検索を作り出すために、どれほどグーグルが努力しているのか、見過ごされることが多い。

一般のユーザーは、グーグル、あるいは、グーグルの実際の仕組みすらも理解していない。

しかし、グーグル製品が改善されているにも関わらず、あるいは、この改善のせいで、グーグル内で高度な検索を行う力を失いつつあるように思える — とりわけ、検索マーケッターなら、効率よく、そして、効果的にウェブを移動する上で、この力は絶対に欠かせない。

事実、グーグルは、先日、主要なアップデートのニュースをリリースしていた — それは、複雑な検索においてユーザーを支援するために作られたハミングバード(日本語)である。

欲しい情報を得る

この背景、そして、コンテキストを理解する力が進化している点を考慮すると、グーグルから、望む情報を引き出すことは今まで以上に重要なっていると言えるだろう。

グーグルのためにサイトを最適化する方法は、頻繁に取り上げられているものの、ブランドがウェブでどのように表されているかを探るため、あるいは、競合者が何をしているかを探るため、マーケッターにとっては、検索を巧みに利用することは、非常に重要である。幸いにも、高度な検索は、簡単に実施することが出来る — 10点のシンプルな検索演算子を理解し、賢く検索に適用するだけで、検索のプロになることが出来ると私は考えている。

それでは、権限を諦め、グーグルを信頼する代わりに(アドワーズキャンペーンを実施する際に、グーグルの言うことを鵜呑みにしたりはしないはずだ)、検索コマンド トップ 10、そして、高度な検索を効率よく実施する方法を確認してもらいたい。

Search Modifiers

検索演算子の一覧

以下に、検討してもらいたい10点の検索演算子を挙げていく。

  1. “クエリ”
  2. -クエリ
  3. クエリ AND クエリ
  4. クエリ OR クエリ
  5. Site:example.com
  6. Inurl:クエリ
  7. Intitle:クエリ
  8. Filetype:クエリ
  9. Related:クエリ
  10. Inpostauthor:クエリ

ここからは、高度な検索演算子を理解する上で必要なツールを提供し、本当に欲しい情報を入手するために、合理的な検索を実施する方法を伝授していく。ただし、その前に、高度な検索が消えつつある理由を探っていこう。

高度な検索が消えつつある理由

数年前に、[ガソリンスタンド]等の検索を実施しようものなら、笑われていた。ほとんど役に立たない結果が返ってくるからだ — 大きな石油会社、そして、ガソリンスタンドの定義を説明する情報ベースのサイト(ウィキペディア等)が、10本のリンクを介して、提供されるだけである。

当時のグーグル検索は、技に近かった。望ましい結果を得るためには、どのワードを使うべきか、なぜか、そして、どのような効果があるのかを理解しなければならなかった。

検索には、テクノロジーに精通している、つまりテクノロジーを深く理解している必要があったのだ。

しかし、現在、見知らぬ地域でガソリンスタンドを探している場合、ラップトップであれ、スマートフォンであれ、あるいは、借り物のデスクトップであれ、[ガソリンスタンド]と単純に入力する。

ラップトップを使い、グーグルのアカウントからサインアウトし、シークレットモードを使った状態で得た結果を以下に掲載する:

Gas Station Search

以前の10本の青いリンクがだけが表示される画面とは、大きく異なる — 最初の5本のリンクは、現在地と関連しており、私が都合良く、そして、お手頃価格でガソリンを買うことが出来る場所に導いている。さらに、周辺の地図が、ガソリンスタンドに印がつけられた状態で掲載されている。また、上部にはナレッジグラフのカルーセルが用意されている。

現在、[ガソリンスタンド]の検索は、明らかに実用的なオプションに進化している。

スマートフォンを介して検索するユーザーは、このような広範なクエリ検索を行う可能性が高い。同じ検索をスマートフォンを使い、同じ地域で行った際のスクリーンショットを幾つか掲載する:

Gas Station Mobile

ご覧のとおり、リッチスニペットに関しては、ほぼ同じだが(ナレッジグラフのカルーセルはなし)、より細かい情報が提供されており、距離で特定した7つのガソリンスタンドへのルートを知ることが出来る。5位までの結果は、ランキングは若干異なるものの、ラップトップの結果と同じである。

Distilledのウィル・クリッチロー氏は、White Board Fridayで、今後のユーザーの行動を分かりやすく説明していた。このプレゼンで、クリッチロー氏は、進化する検索行動のコンセプトを、素晴らしい実例を交えて、見事に解説していた。

グーグルの検索テクノロジーは、利便性が高いレベルに達しており、ユーザーは、検索の仕組みを考えることも、分析することも、さらには、理解することもしなくなった。うまくいくと思い込んでおり、実際に、必要な結果を得ることが出来る。

これは、実際に起きているトレンドであり、今後も続く可能性は高い。グーグルナウが良い例だ — グーグルナウでは、検索をすることなく、必要としている結果を得られ、ユーザーはさらに結果を絞り込むことが出来る。グーグルグラスもまた、このトレンドを継承している。グラスは、高度な検索に対応しておらず — 恐らく、急速に拡大/a>するナレッジグラフを基に、短く、的確な答えを提供する。

しかし、グーグルは完璧ではない。特に、淀んだウェブを移動するために検索エンジンを使うユーザーに対して、改善すべき点はまだまだある。

そのため、グーグルは改善を続けているものの、高度且つ合理的な検索のニーズは消えていない。

検索演算子とその使い方

1. “クエリ” — 完全一致の検索

仕組み: クオテーションマーク、または、“クエリ” を入力すると、クエリと全く同じ記述を探す。完全一致検索とも呼ばれる。

例: “Page One Power link building”

Exact Match Search

利用: 完全に一致する情報を探し出す。シリアルナンバー、モデルナンバー、曖昧な名前等を探す際に便利である。基本中の基本だが、高度な検索において、非常に重要度が高い。他の検索演算子と組み合わせて、具体的な結果を得る上で、特に有効である。

2. -クエリ — クエリを除外するコマンド

仕組み: 引き算の演算子は、検索結果に盛り込みたくないクエリを全て除外する。

例: “Jon Ball” -”Page One Power”

Minus Search

利用: 検索結果から余分なリスティングを刈り取る。具体的な情報を探している場合、または、避けたい用語やフレーズが結果に含まれている場合、このコマンドを使えば、検索結果から除外することが可能だ。

3. クエリ AND クエリ — クエリの組み合わせ

仕組み: 「AND」を利用すると、両方のクエリを持つページが検索結果に表示されるようになる。

例: “Jon Ball” AND “Page One Power”

And Search

利用: 用語を組み合わせるだけで、テーマを絞り込むことが出来る。ANDオペレータを利用しないで検索を行うと、Jon BallとPage One Powerの双方を持つページではなく、どちらかを持つページが返される。

注記: 大文字を利用しない場合、オペレータではなく、フレーズだと勘違いされる可能性がある。

4. クエリ OR クエリ — 同様のクエリの検索

仕組み: 複数の用語を検索することが出来る。

例: “Jon Ball” CEO OR Founder OR Owner OR Partner

Or Search

利用: 複数/同様のフレーズとワードを単一の結果で検索する。通常、ORオペレータは、– 例えば、CEO/設立者/オーナー/パートナー — 同様のアイデアを表現する複数のワードに対して、用いられることが多い。

5. Site:サイト名 — 具体的なサイトを検索する

仕組み: Site:サイト名は、グーグルの検索を単一のウェブサイトに絞り込む効果がある。

例: Site:pageonepower.com “Jon Ball”

Site Search

利用: 具体的なウェブサイトで情報を探す時に用いられる。別の検索コマンドと組み合わせて用いられることが多い。TLDに絞り込むことも可能である(.gov, .com, .edu)。

6. Inurl:クエリ — 具体的なURLの検索

仕組み: クエリがURLに含まれているウェブページのみを返す。

例: inurl:Jon Ball

In URL Search

利用: この検索演算子には、様々な用途がある。個人の名前を介して、当該の人物が持つ様々なネット上のプロフィールを探す、もしくは、特定のページを探す(ゲスト投稿、リンクのリスト、インフォグラフィック、フォーラム等)を上で有効であり、また、Site:と組み合わせると、より効果的である。

7. Intitle:クエリ — 具体的なタイトルの検索

仕組み: 検索コマンドintitle:クエリは、クエリがタイトルに組み込まれたページのみに結果を絞り込む。

例: intitle:jon ball

In Title Search

利用: inurl:クエリと同じように、インターネット上のプロフィール、各種のページ、そして、検索に関する一般的な情報を探す上で効果が期待できる(タイトル内のフレーズやワードを持っているため)。

8. Filetype:クエリ — 具体的なファイルを探す検索

仕組み: 特定のタイプのファイルを持つページのみを検索する。

例: site:pageonepower.com filetype:pdf

File Type Search

利用: 具体的なトピックに関する具体的なファイルを探す。また、スクリーンショットを見れば分かるように、特定のサイトで特定のタイプのコンテンツに絞り込む際にも大活躍する。

9. Related:クエリ — 関連する結果の検索

仕組み: クエリに関連する検索結果を返す。注記: site:検索と同じように、その他の関連するウェブサイトを盛り込むため、クエリにサイト名を利用することが出来る。しかし、有名なサイトではない場合、何も見つけられない可能性が高い。

例: Related:reddit.com

Related Search

利用: ウェブサーフィン、クエリに関連するページの発見、そして、人気の高いサイトに似ている知名度の低いサイトの発見に向いている。

10. Inpostauthor:クエリ — ブログの作者の検索

仕組み: Inpostauthor:、別名、ブログの作者検索は、作者を限定して、ブログの記事を検索する。

例: inpostauthor:Jon Ball

In Post Author Search

利用: 数多くの作品を投稿するブロガーを追跡する。この検索演算子は、とりわけ、作者の名前が平凡な場合、割と広範な結果を返すことに注意してもらいたい。

捻りを加える — 複数の検索演算子を使った高度な検索

以上、とりわけ重要な検索演算子を10点紹介した。次に、創造力を発揮し、賢く検索を行う方法を伝授していく。

検索演算子を個別に利用した場合でも、多少、質の高い結果を得ることが出来る。しかし、組み合わせて、– 検索の文字列を組み立て — ピンポイントの検索を作成することで、本領を発揮する。

Mozのドクター. ピート・マイヤーズ氏は、「グーグルのsite:オペレータ 25点の強力な組み合わせ」の中で、site:検索に関する高度な検索を分かりやすく説明している。時間を割いて、この記事に目を通してもらいたい。様々なオペレータを組み合わせて、ターゲットを絞った検索を行い、正確な結果を得る上で、お手本になるはずだ。

それでは、幾つか例を挙げていく:

1. 競合者のゲスト投稿キャンペーンを把握する

考えられる検索:

  • Inpostauthor:“名字 名前” -site:競合するサイトの名前
  • Inurl:ゲスト投稿 “名字 名前” -site:競合するサイトの名前
  • Intitle:ゲスト投稿 “名字 名前” -site:競合するサイトの名前
  • “Author: 名字 名前” -site:競合するサイトの名前
  • “Written by 名字 名前” -site:競合するサイトの名前
  • “Author Profile” “名字 名前”
  • “About the Author” “名字 名前”
  • “Author Bio” “名字 名前”
  • Inurl:Author “名字 名前”

この2つを組み合わせるだけで、個々に利用するよりも、遥かに正確な結果を得ることが出来る。

ゲスト投稿に関しては、私自身は、Inurl:author “名前 名字”を特に気に入っている。このとてもシンプルな検索の文字列は、質の高いゲスト投稿を探す上で、絶大な効果を発揮する。質の高いサイトは、Author(作者)のページを用意している傾向があり、その多くがURLに「author」を盛り込んでいるためだ。

author bioも忘れずにチェックしてもらいたい — bio(経歴)に対する完全一致の検索を可能にして、作品を突き止めてもらうため、ライターの大方は、bioをほとんど変えていない。

2. ブランドの言及

当然ながら、この検索を行う際に、グーグルアラートFresh Web Explorer、そして、Mention.net等、役に立つツールが存在する。

しかし、ブランドの言及を検索するために、グーグル検索を活用する手もある。通常、上述したツールほどの効果は見込めないものの、自分で探したい人達、または、高度な検索を学んでいる人達には、楽しい作業になるはずだ。

幾つか例を挙げていく:

  • -site:pageonepower.com -site:facebook.com -site:twitter.com “Page One Power” OR “pageonepower.com” OR “http://pageonepower.com/” OR “http://www.pageonepower.com/
  • -site:pageonepower.com -site:facebook.com -site:twitter.com “Jon Ball” OR “Jonathan Ball” OR “CEO of Page One Power” OR “Founder of Page One Power”.

まず、自分のサイトとソーシャルメディアのプロフィールは除くべきである。その後、重要なブランドの用語、製品、そして、社内の人物名に狙いを絞り込もう。ORオペレータを利用すると、複数の用語を一度に検索することが出来る。最近まで、グーグルは波型ダッシュ(~)を類義語のオペレータとして採用していたが、残念ながら、撤廃されてしまった。

3. 不明瞭なファイルを探す

グーグルの検索スキルに磨きをかけるのは、見つかりそうもない情報を検索するためである。

この例では、先日参加したカンファレンスのプレゼンを探していると仮定する。

カンファレンスやプレゼンが終わると、プレゼンターは、カンファレンスのウェブサイトが、頻繁にページを更新/削除するため、自分でプレゼンをウェブに投稿することが多い。

プレゼンターは、様々方法で、この取り組みを行うことが出来る — 自分のサイトで、第三者のサイトで(スライドシェア等)、あるいは、ソーシャルメディアを介して。

いちいち複数のサイトをチェックしていくのではなく、次のような高度なグーグル検索を試してもらいたい:

  • “名字 名前” filetype:pdf “カンファレンスの名前” -site:カンファレンスのサイト
  • “名字 名前” “カンファレンスの名前” プレゼンテーション OR ファイル OR 動画 OR パワーポイント -site:カンファレンスのサイト
  • “カンファレンスの名前” “プレゼンのタイトル” -site:カンファレンスのサイト
  • “カンファレンスの名前” AND “名字 名前” プレゼンテーション OR ファイル OR スライド OR 動画 -site:カンファレンスのサイト

役に立つ組み合わせが、必ず幾つか存在するはずである。検索コマンドを利用する際は、結果に応じて検索を変え、検索をさらに絞り込むことが肝要だ。

まとめ

高度な検索は、極めて重要度が高い。グーグルは、先日、ハミングバードアップデートを実行に移した。ハミングバードは、音声検索で用いられる確率が高い、複雑な検索を改善することを目標に掲げている。

グーグル検索は、15年前にリリースされて以来、大幅に改善を遂げてきた。事実、あまりにも改善の度合いが大きいため、過去の検索を思い出すことが出来ない人の方が多いのではないだろうか。しかし、継続的に改善されるものの、グーグルに依存すると、効率的、そして、効果的に検索を行う力を自ら弱めてしまう。

そのため、グーグルの検索テクノロジーに必要以上に頼るべきではない。今回紹介した10通りのシンプルな検索演算子を覚えれば、プロのように検索を実施することが出来るようになる。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「Top 10 Search Modifiers: Why They Matter, What They Are & How To Use Them」を翻訳した内容です。

前半の基本はおさらい編としても、後半の応用編はナルホドと思わせる具体的な活用事例もありました。誰にでもすぐ簡単に使えるGoogle検索ですが、ちょっとしたテクニックを知っているだけで検索にかかる時間を圧倒的に減らすことができることもありますよね。あなたの検索ライフに活用できるティップスは何か見つかったでしょうか? — SEO Japan [G+]

上級者向けSEOガイド5/9 : データ&リサーチ

SEOの上級者向けガイドのシリーズ第5弾は、高度なデータ取得やリサーチ方法について解説した記事を。英語圏でしか使えなさそうなものもありますが、網羅度が幅広いですし、読んでいけばあなたの日々のデータ収集活動を効率化する発見があるはず。いきなりGoogle DocsのImportxmlの活用方法など戸惑う人も多いかもしれませんが、読んでみるとその便利さを感じられるはず。後半はツイッターの高度なリサーチ方法についても書かれているのでソーシャルメディアマーケティングにも参考になりそうです。 — SEO Japan

チャプター 4を終える頃には、強固なウェブサイトが出来あがっているはずである。しかし、SEOは、スピードインデクセーション、そして、メタデータだけではない。

チャプター 5では、ImportXMLを用いたオフサイトSEOから説明していく。


1. ImportXMLとは

ImportXMLとは、html、xml、csv等のファイルの種類から、xpathを使って情報を引き出す手段である。

グーグルドキュメントのスプレッドシートに直接インポートすることが出来るため、外部サイトの情報を取得し、調達する上で大いに役立つ。また、高度な検索を実施して、他の方法では取得することが難しい情報を得ることも可能である。

ImportXMLを使った例を紹介していく。

基本的なシンタックス

ImportXMLはエクセルやグーグルドキュメントの数式と同じであり – 割とシンプルなシンタックスを利用する:

=importXML(URL, Query)

URL = 取得するURL

Query = URLで実行するxpathクエリ

基礎の例 – クイックスプラウトのH1タグを取得する

新しいグーグルドキュメントのスプレッドシートを作成する。

URLを設定する。

基本のxpathの関数を作成して、ページのH1を取得する(スクリーミングフロッグ、または、サイトのクロールを介して同じ作業を行うことが出来るが、分かりやすい例を紹介するため、この方法に拘っていく)。

importxml関数をセルB2に加える。

URLが存在するA2を参照している点に注目してもらいたい。

クエリは引用符で囲まれる。

次にxpathは返されるファイルの部分を特定する。//h1は、ページのh1を含む全てのコンテンツを返す(これは“//”のパーツによる命令であり – どれだけレベルが深くても、あるいは、どれだけネストされていても、全てのh1“path”を求めることが出来る)。

次のアイテムが返される:

これで投稿のH1をグーグルドキュメントに引き出すことに成功した。次に、グーグルドキュメントのimportxmlにおいて、有意義な例を幾つか挙げていく。


2. ImportXML – クオラ/ツイッター

次にクオラを使って、ツイッターのURLにおいて影響力の強い、あるいは、権力を持つ可能性のあるユーザーを調達する方法を伝授する。

以下に最終的な結果を表示する。この結果を目指して、これから作業を進めることになる:

ステップ 1 – グループまたはトピックを探す

この例ではブログのトピックを取り上げる - http://www.quora.com/Blogging/followers

ステップ 2 – カラムAにクオラのURLを入力する

カラムBで実行されている関数の中で、このセルを参照する。

ステップ 3 – importxmlの関数を作って、ユーザー名を取得する

関数を以下に挙げる:

=importxml(A2, “//h2/a/@href”)

コードを理解し、作りやすいように、関数を分解していく。

  1. =importxml()          空の関数
  2. A2                  クオラのURLを参照する“URL”フィールド
  3. //h2                 このURLの全てのh2を参照する
  4. /a                 h2内にネストされたタグを参照する
  5. /@href         アンカータグに含まれるリンクのみを参照する

ご覧のように、この関数はブログのトピックの上位20名のユーザーをリストアップする。

ステップ 4 – 完全なURLを作成する

既にお気づきかもしれないが、クオラは相対URLを使ってリンクを張るため、絶対URLにコンバートする必要がある。

シンプルにconcatenate関数を利用する:

因みにconcatenate関数を念のために掲載しておく:

=CONCATENATE(“http://quora.com”,B2)

このコードも分解していく。

  1. =CONCATENATE()                空のconcatenate関数(複数の文字列を一つにまとめる)
  2. “http://quora.com”                クオラURLの出だし(別のセルを参照しない場合、すべて引用符で囲う必要がある)
  3. B2                                 不完全なユーザーのURLを持つセルを参照する

この作業を終えたら、今度は数式を掴み、カラムの残りに引き下げていく:

ステップ 5 – ツイッターのURLを取得する

最後の仕上げとして、ツイッターのURLを取得する。

以下に関数を掲載する。長いので区切って一つずつ説明していく:

=ImportXML(C2,"//div[contains(@class,'profile_action_links_section')]//a[contains(@href,'twitter.com')]/@href")

  1. =importxml()                                空のimportxml関数
  2. C2                                        参照している完全なクオラのプロフィール
  3. //div                                        HTML内のdivタグを参照する
  4. [contains()]                                divタグを絞り込む
  5. (@class,’profile_action_links_section’)          ここではclassの要素を選択している

HTML内のクオラのコードのスクリーンショット:

  1. //a[contains(@href,’twitter.com’)]        ツイッターへのリンクを含むアンカーテキストを選択する
  2. /@href                                        アンカーテキスト内のリンクを実際に取得する

忘れずに数式をつかみ、カラムの残り全てに引き下げよう。

これで、20名のツイッターのユーザーを1度に取得することが出来るようになった。これは技術的なガイド(How To)であり、このリストをどのように使うかに関しては、皆さんの判断に任せる。きっと様々な用途が浮かび上がるはずだ :-)


3. キーワードのアイデアを得るために Ubersuggestを取得する

  1. グーグルドキュメントのスプレッドシートを新たに作成する。
    Create > Spreadsheetの順にクリックする。
  2. セルA1で、Ubersuggestで質問したいことを入力する。
    この例では、“how to …”を入力し、クエリを始めている。
  3. セルA2に次の数式を入力し、Enterを押す。
    =ImportXML("http://ubersuggest.org/?query="&A1& "&format=html&language=English%2FUSA&source=web&submit=Suggest", "//li/span")

    スプレッドシートがUbersuggestの答えで埋まる:

4. ウェブページのリストでHTMLを探す

一度に100(または100以上)の候補のサイトを手っ取り早く探し出す方法をこれから紹介する。高額なリンク発見ツールを使って、この取り組みを行うことも出来るが、予算が少ないなら、または、ツールの数を減らしたいなら、この方法は大いに役に立つだろう。しかも、とても簡単であり、また、楽しいと言うメリットもある。

この方法は、コンテンツの一部ではないリスト – つまりコードでHTMLを探している際に役に立つ。この例では、‘rel=author’タグを探していく – この作業には2つの意図がある。まず、ウェブサイトのオーナーは、わざわざ時間を割いてこのタグを設定するくらいなら、マーケティングの観点から見て、出来るだけ上の方に陣取ろうとするはずである。次に、ウェブサイトのオーナー(または助っ人)はある程度の技術的なスキルを持っていると考えられ – 協力を容易に要請することが出来る可能性がある。

これから挙げていくステップに従ってもらいたい:

1. グーグル検索を幾つか考える。

2. 結果を取得する。

3. スクリーミングフロッグを使って、リストの特定のコードを探す。

ステップ 1. グーグル検索

リンクを獲得することが出来る可能性のあるサイトのリストを手に入れたい。ここでは、食べ物をテーマにブログを運営しており、ゲスト投稿を行うため、他のブログを探していると仮定する。次のような検索を実行することが考えられる:

food inurl:blog intitle:submit post

food inurl:blog intitle:contribute post

あるいは、キーワードを使ってさらに具体的な検索を行う手もある:

gourmet food inurl:blog intitle:submit post

eclectic desserts inurl:blog intitle:submit post

良質な検索を実施すると、結果内に複数のサイトの候補が表示されるはずである – 多過ぎても良くない。例えば:

手始めに上のクエリから取り掛かることを薦める。

2. グーグルの結果からURLを取得する

グーグルの結果をテキストドキュメントにまとめ、スクリーミングフロッグを実行する準備を整える必要がある。

1. 準備段階として、1つのページにつき100点の結果を返すようにグーグルを設定する。

検索の設定にアクセスする。

ページあたりの表示件数を100に設定する

グーグルに戻り、再び検索結果を表示させる。

次にSERP Redux ブックマークレットを使う – リンクをクリックする。

URLのリストをクリップボードにコピーする。

テキストエディタに貼り付ける。

.txtファイルとして保存する。

3. スクリーミングフロッグを介してURLを絞り込む

1. スクリーミングフロッグをリストモードに設定する。

2. テキストファイルを選び、開く。

3. Custom設定にアクセスする。

4. 絞り込むHTMLを入力する。

この作業を実施する方法が鍵を握っている。

次の4つのリストを作成する:

  1. rel=authorを含む
  2. rel=authorを含まない
  3. rel=meを含む
  4. rel=meを含まない

5. カスタムの結果を見る。

‘custom’タブをクリックする – すると、フィルター1-4を選択することが出来るようになる。

このケースでは、リストにはrel=authorを持つブログは1つしか存在しなかった。それで問題はない。と言うよりも、むしろその方が良い。全ての結果を確認して、オーサーシップを持つ結果を探す作業を想像してもらいたい。これで、ターゲットが絞られた候補のサイトを1つ手に入れたことになる – このプロセスを実施して、さらに多くの候補のサイトを見つけることが可能だ。


5. Citation Finderを使って、リンクを張る機会を探す

このセクションでは、有料ツールの利用方法を紹介する。無料バージョンも用意されているものの、全ての機能を利用することが出来るわけではない。ただし、このセクションで取り上げている作業に関しては、恐らく、無料バージョンでも足りるだろう。因みに、私はこのツールのアフィリエイトに参加しているわけではない。

作業を始める前に、 - https://www.whitespark.ca/local-citation-finder/にアクセスし、無料版または有料版のアカウントの登録を行う。

パート 1 – 検索(プロジェクトなし)

一つ目のタブをクリックし、個人情報をフィールドに入力していく。

数分間待つ:

レポートの準備が整うと、eメールの通知が送られてくる:

すると次のようなレポートを見ることが出来るようになる。「compare citations for these businesses」をクリックする。

その後、csvとしてレポートをエクスポートする。

エクセルファイルとして開き、保存することが出来るようになる – これから、どのサイトが最もサイテーションを得ているのかを容易に判断することが出来るように、少しカスタマイズを加えていく。

次のエクセルの数式を利用する:

=COUNTIF(A2:A111,"*Y*")

このように表示される(カラムBにカーソルを合わせている場合):

全てのアイテムをカウントするため、横方向にドラッグする:

もちろん、オートフィルタをかけ、YまたはNだけを見ることも出来る:

パート 2

パート 1は、一般的な候補を探す上では役に立つが、レポートに含まれていない場合はどうすればいいのだろうか?「search by phone number」機能を利用すればよい。

自分の電話番号、または、会社の名称(電話番号が最も有効であり、肩書きによる検索は難しい)を利用することが出来る。

情報を入力していく。このレポートをプロジェクトに加える:

忘れずにプロジェクトを作成してもらいたい。

生成されるレポートには、キーワードにとらわれないサイテーションのソースが全てリストアップされる。

小さな+をクリックすると、サイテーション(通常は電話番号を意味する)付きのページを見ることが出来る。

データのエクスポートに関しては、複数の選択肢が用意されている:

Re-run and append – 同じレポートを再び実施し、以前見つからなかった新しい結果を加える。

Export CSV – データをエクスポートする。ウェブサイトの名前のみが表示され、URLは表示されない。

Export CSV w/URLs – フルレポートでURL(+をクリックすると表示される)が表示された状態でエクスポートする。


6. eメールアドレスを取得する

データ取得のこのセクションでは、Citation Labs Contact Finderを利用する - http://citationlabs.com/tools/ - 始める前にアカウントを作成する必要がある。

候補のURLのリストを持っている場合、このツールはとても役に立つ – 接触する上で必要なeメールアドレスを速やかに手に入れることが出来る。

パート 1 – URLを集める

(このガイドを参考にして)候補のURLリストを持っているか、あるいは、リストを要領よく手に入れられる方法を心得ていると仮定して、話を進めていく。

この例では、取得したグーグルのURLのリストを利用する – 私が食べ物をテーマに取り上げるブロガーであり、レシピを投稿する機会を狙っていると仮定する。その場合、次のような検索をかけることが考えられる:

recipe inurl:submit

検索を実行したら、Contact Finderにアクセスする。

次にフォームに記入する。

通常のエクスプレッション(regex)を使って、結果を調整することが出来る。例えば、このエクスプレッションは:

^(Contact|About|Email|Submit)

contact、about、email、または、submitで始まる結果を求める。

私ならアンカーテキストをワード数で限定しないようにする。

Contactsタブをクリックして、結果を取得する(処理に数分間要することもある)。

ご覧のように、幾つかの種類の結果が存在する:

  1. Emails – 見つかったeメールアドレス。
  2. Forms – 見つかった投稿用フォーム
  3. Contact Pages – eメールアドレスが存在しない連絡先の情報を持つページ。
  4. Empty – 該当ゼロ。

次に、個別のレポートまたは全てのレポートをCSVにダウンロードすることが出来る。

ご覧のように、100本のURLの中から、次のアイテムを獲得している。

  1. 38点のeメール
  2. フォームを持つ47本のURL
  3. 7つのコンタクトページ
  4. 該当ゼロは8本ページのみ

7. ソーシャルリスニング – ツイッターの高度なデータ収集

別のツールで検索を設定する前に、まずはフォローするべき高度な検索のリストを策定する必要がある。

インテリアの装飾をテーマに取り上げていると仮定する – その場合、出来るだけ多くのバリエーションを持たせるべきである – キーワードリサーチと基本的にほとんど変わりはない。

  1. interiordecorating
  2. interior decorating
  3. #interiordecorating
  4. interiordesign
  5. interior design
  6. #interiordesign

こののワードが中心的なワードになる。次に意図を判断するためのワードのリストを手に入れる:

  1. need(必要)
  2. help(助け)
  3. trouble(問題)
  4. looking for
  5. tips(アドバイス)
  6. question(質問)

特定の場所をターゲットにする場合:

  1. Los Angeles
  2. CA
  3. California
  4. LA

ブランドも忘れずに(私の場合):

  1. Quicksprout
  2. neil patel
  3. kissmetrics
  4. kiss metrics
  5. crazy egg
  6. crazyegg
  7. i’m kind of a big deal

このようなキーワード、そして、検索の組み合わせを行うと、キーワードの言及を全て拾い集めることが出来る。具体的なユーザーをモニタリングする方法は後ほど紹介する。

次のURLで自分で検索を作成し、テストすることが可能だ: https://twitter.com/#!/search-advanced

過去12-24時間以内の複数の結果を入手することを目標にしよう。

IFTTTのレシピを作成する

次に、モニタリングしたい検索が見つかったら、IFTTTのレシピを作り、実行させることが出来る。IFTTTの長所は、様々なプラットフォーム全体で通知を受けることが出来る点である。それでは、アラートが動作する際にeメールまたはテキストメッセージを送信する設定を紹介していく。

注記: 結果の頻度が少ない場合、とりわけ有効である。

アカウントを作成し(無料)、新しいレシピを作成する。

「trigger」としてツイッターを利用する。

「New tweet from search」を選択する。

検索のフィールドに記入する – 単純な検索なら、プレーンテキストを利用することも可能だが、高度なオペレータを利用する必要があるケースが考えられる。

「Action」チャンネルとして、eメールまたはGメールを選択する。

フィールドに記入し、必要に応じてカスタマイズする。

テキストメッセージを受信したい場合:

「Action」としてSMSを選択する。

フィールドを設定する。

後はeメールが届くのを待つだけだ。

おまけ: eメールのフィルターを設定する

情報収集の取り組みGメールのフィルタリング機能を使って、さらにレベルアップさせることが出来る。フィルターを作成し、フォルダーに全てのアラートを送信する:

高度なツイッター検索のシンタックス

幸いにも、ツイッターの高度な検索を生成するツールを利用すると、代わりに検索を考えてもらえる:

次のURLにアクセスし: https://twitter.com/#!/search-advanced 検索を実行する – 結果にはオペレータ付きの検索シンタックスが含まれるはずだ:

ツイッターでインフルエンサーの声に耳を傾ける

インテリアデザインの分野の例を再び取り上げる。今回は、ブログを運営しているインテリアデザイナーとのつながりを増やしたいと仮定する。いつ、助けを必要としているのかを把握しておきたいところだ。

まず – followerwonk等のツールを使って、情報を集めることが出来るユーザーを探し出す: http://followerwonk.com

次に、手を貸すことが出来る点を誰かがメンションすることを考慮し、高度な検索を作成する。コンピュータのエキスパートなら、次のような検索を利用することが出来るのではないだろうか:

ターゲットの人物は、1年に1度しかツイートを投稿していないかもしれないが、大物とのつながりを作ろうとしているなら、IFTTTのレシピを作成し、テキストメッセージを介して、当該の人物が助けを必要としている時に、通知してもらう価値はあるはずだ。

ここでも、ツイッターの検索ページで検索を実行すると、検索に対するシンタックスを提供してもらえる。

Monitterを使って追跡する

Monitterは、特定のキーワードが含まれる大量のツイートをチェックすることが出来る、優れた無料のツールである。ツイッターのリアルタイムモニターと言っても過言ではない。

 http://monitter.com にアクセスし、アカウントを作成する。

検索の用語を使って、カラムを作成する。

ここでは、4つのインテリアデザインの検索に対して、それぞれストリームを用意した:

次に特定の場所からのツイートを追跡する高度な設定を行う。

返信するべきツイートを見つけたら、Monitterから直接行動を起こすことが出来る。

その他のツイッター用ツール

他にもツイッターをモニタリングするためのツールは数多く開発されている。

http://ifttt.com - 複数のオンラインプラットフォームを一つにまとめ、作業を自動化する。

http://monitter.com/ - 複数のカラムを設定し、ツイッターの検索をリアルタイムで追跡する。

http://tweetmeme.com/ - 共有されることが多い、人気の高い記事を調べる。

http://trendsmap.com/ - 特定の場所でトレンドになっているアイテムを確認する – 役に立つビジュアルツール

http://tweetbeep.com/ - ブランド、自分、または、他の何かに関する全てのメンションをeメールで通知する(IFTTTに似ている)。

http://www.ubervu.com/ (有料)

http://needium.com/ - 検索とメンションをモニタリングする。


8. ブラウザ用プラグイン

ブラウザプラグインは、作業をスピードアップし、効率を高める上で大いに役に立つ。このセクションでは、グーグルクローム用のプラグインを幾つか紹介し、また、プラグインの高度な利用方法を少し指南する。

ブラウザプラグインのセクションでは、サイトのアクセシビリティ & インデクセーションの最適化に貢献するプラグインを紹介する。

まず、プラグインのリストを提供する。

  1. Broken Link Checker - https://chrome.google.com/webstore/detail/ojkcdipcgfaekbeaelaapakgnjflfglf
  2. Web Developer - http://chrispederick.com/work/web-developer/
  3. Redirect Path Checker - https://chrome.google.com/webstore/detail/aomidfkchockcldhbkggjokdkkebmdll
  4. SEOmoz Toolbar - https://chrome.google.com/webstore/detail/eakacpaijcpapndcfffdgphdiccmpknp
  5. Chrome Sniffer - https://chrome.google.com/webstore/detail/homgcnaoacgigpkkljjjekpignblkeae
  6. Google Analytics Debugger - https://chrome.google.com/webstore/detail/jnkmfdileelhofjcijamephohjechhna
  7. Microformats for Chrome - https://chrome.google.com/webstore/detail/oalbifknmclbnmjlljdemhjjlkmppjjl
  8. Rulers Guides and Eyedropper Color Picker - https://chrome.google.com/webstore/detail/bjpngjgkahhflejneemihpbnfdoafoeh
  9. Word Count - https://chrome.google.com/webstore/detail/kmndjoipobjfjbhocpoeejjimchnbjje
  10. Source Kit - https://chrome.google.com/webstore/detail/iieeldjdihkpoapgipfkeoddjckopgjg?hl=en-US

これから、幾つかのプラグインの高度な利用法を伝授していく。

Broken Links Checker

このプラグインは、自分のサイトのリンク切れを発見することが出来るだけでなく、創造力を発揮して、他の人のサイトで実行し、リンク構築 & リンク候補の調査においてアイデアを得ることも可能である。

例えば、競合者のウェブサイトのサイトマップでこのプラグインを実行してみる。以下にその方法を紹介する:

1. 競合者のサイトのHTMLサイトマップを探す。この例では、適当に www.bizchair.com を利用した。サイトマップは次の通りである –  http://www.bizchair.com/site-map.html

2. Link Checkerを実行する

エクステンショのアイコンをクリックする。

リンク切れが見つかるまで待つ – この例では、多くのリンク切れが見つかった。

「resource」ページにすぐに気がつくはずだ。楽にリソースのコンテンツを再現し、リンクを獲得するためにこのプラグインを利用することが出来る。

Chrome Sniffer

このプラグインは、自動的にウェブサイトが利用しているCMSまたはスクリプトのライブラリを表示する。例えば、ワードプレスのサイトのオーナーのみに接触したい場合、非常に便利である。

ウェブを閲覧していると、URLの右側のアイコンが利用されているCMSまたはスクリプトのライブラリに応じて変化する。

例えば、私のサイトはワードプレスで構築されていることが分かる。

このサイトはドルーパルをベースにしている。

Redirect Path Checker

このプラグインは、リダイレクトに遭遇すると、ユーザーに通知する。特に自分のサイトを閲覧している時に利用すると、古いURL(または外部のサイト)に内部リンクを張っている際に教えてもらえるため、とても便利である。

例えば、私のサイトでは、ギズモードの302リダイレクトにリンクを張っているリンクを発見した:

なぜ分かったかと言うと、プラグインから302に関する通知を受けたためだ。

このアイコンをクリックすると、ブラウザが当該のページに導く上で利用したリダイレクト(あるいは一連のリダイレクト)を表示する。

SEOmoz ツールバー & プラグイン

Mozのプラグインは様々な用途に利用することが出来る。その中でもより高度な方法を幾つか紹介していく:

リンクがfollowedかnofollowedかを速やかに特定する。

または、ウェブサイトの国およびIPアドレスを見つける。


9. プロキシの利用

プロキシとは何だろうか?また、なぜプロキシを利用するべきなのだろうか?

プロキシは、ユーザーとサーバーの間の仲介役のような存在である。要するに、プロキシを使って、ウェブ上で匿名で行動することが出来る。自分のIPアドレスではなく、プロキシのIPアドレスが表示されるためだ。これは、Rank Tracker等のローカルのソフトウェアを使ってランクキングをチェックしている場合、とりわけ有用である。自動でグーグル検索を何度も行い、当該のロケーションのランキングをチェックしていると、グーグルに危険信号を送ってしまうリスクを背負うことになる。プロキシを非倫理的な方法で利用している人達がいるが、私はこのような方法を推奨しているわけではない。しかし、自分のIPアドレスから、普段とは異なるアクティビティをグーグルに送ることなく、ランキングをチェックする方法として、うってつけである。

それでは、プロキシを利用する方法を伝授していく。多くの無料のプロキシアドレスを一度に見つけるあまり知られていない方法を私はマスターしている。

ステップ 1: 次のURLにアクセスする: http://www.rosinstrument.com/proxy/

無料の公開されたIPアドレスのリストが表示される。このリストは頻繁に変わるため、しばらくこの画面を開いていたなら、更新する必要がある。

ステップ 2: プロキシをScrapeboxにコピペし、テストする:

これは魔法のような効果をもたらす。プロキシのアドレスは、すぐに、そして、頻繁に利用することが出来なくなるため、全てのアドレスを一つずつチェックしていると時間を無駄に使ってしまうことになる。

「Manage」、次に「Test」をクリックする。数分後、プロキシのテストが終了する。続いての手順では、無駄のないリストを作成し、プロキシを選択していく。

ステップ 3: 良質なプロキシをメインのリストに戻す

「Export」の下の「Transfer Good Proxies to Main List」を選択する。すると、有効な無駄のないプロキシのリストが表示される。

ステップ 4: プロキシのアドレスをランキングをチェックするソフトウェアにコピーする

Rank Trackerでは、次のようにプロキシのアドレスを入力することが出来る:

しばらくするとアドレスは利用することが出来なくなるため、リストを再びテストし、次のURLからさらにコピペすることを薦める: http://www.rosinstrument.com/proxy/

おまけ: プロキシの代案

上述した方法は無料であり、それが最大のメリットである。しかし、もっと安定した取り組みを求めている場合は、バーチャルプライベートサーバー(VPS)を手に入れるとよい。大半のウェブホスティングサービスは、VPSを用意しているはずだ。これは、自分専用のIPアドレスを持つようなものだ。多少の料金を毎月求められる可能性もあるが、公開されているプロキシよりも強固であり、手に入れる価値はあるかもしれない。


既に究極のデータ収集マニアになっているはずである。しかし、まだ続きはある。次のチャプターでは、あまり利用されていないキーワードリサーチの方法を紹介する。

上級者向けSEOガイドの記事一覧はこちらから


この記事は、Quick Sproutに掲載された「Chapter 5: Advanced Data Research」を翻訳した内容です。

スクリーミングフロッグ(シリーズ記事第一弾の2番目で詳細に解説しています)で検索上位データを引っこ抜く、というのはナルホドでした。ツイッターのリサーチ方法も良くここまで考えたと唸ってしまう各種ツールの使いこなしぶり・・・筆者の本領発揮な記事でしたね! — SEO Japan [G+]

上級者向けSEOガイド1/9 : インデクセーションとアクセシビリティの深い関係

米国のカリスマウェブマーケッター、ニール・パテルが書き下ろした上級者向けのSEOガイドを今日から一章ずつ紹介していきたいと思います。どの記事もその辺のSEO関連書籍を凌駕しかねない充実の内容ばかり。第一回目は検索エンジンにクロールされるための究極のサイト作りと手法についてページネーションから.htaccess、サイトの正しい移行方法から各種ツールの使い方まで徹底解説。 — SEO Japan

上級者向けSEOガイド チャプター 1へようこそ。このチャプターでは、インデクセーションおよびアクセシビリティを考慮してウェブサイトを評価 & 最適化する上級者向けの手法を伝授していく。

ただし、検索エンジンに対するアクセシビリティだけでなく、実際のユーザーに対するアクセシビリティにも配慮する。要するに、このチャプターには、エンジンとユーザーに対するベストプラクティスが網羅されていることになる – まるで、グーグル翻訳をインストールして、AJAXをクロール可能にするようなものだ。

このチャプターで取り上げた手法をウェブサイトに必要に応じて適用すると、並外れてクロール可能 & アクセス可能なウェブサイトに生まれ変わるだろう。

1. 検索エンジンのようにサイトを閲覧する

SEO目的でサイトを最適化する際、検索エンジンの視点に立って考えるべきではないだろうか?また、検索エンジンが見ているように、サイトを見るべきである。ご存知のように“ソース”を閲覧して、ブラウザ向けのHTMLソースを見ることが可能である。しかし、検索エンジンの視点でサイトを閲覧し、技術的なSEOの穴を見つける上で効果が高く、すぐに利用することが可能なメソッドを私は発見した。

ステップ 1: プラグインをインストールする

ここではファイヤーフォックスが便利である。以下にプラグインを挙げる:

ウェブディベロッパー - https://addons.mozilla.org/en-US/firefox/addon/web-developer/

ユーザーエージェントスウィッチャー - https://addons.mozilla.org/en-US/firefox/addon/user-agent-switcher/

ステップ 2: ファイヤーフォックスでJavaScriptを無効にする

「preferences」 & 「content」にアクセスし、「Enable JavaScript」のチェックを外す。

メニュー、リンク、そして、ドロップダウン等のアイテムをJavaScriptを使わずにグーグルボットに提供する必要があるため、この作業を実施する。JavaScriptに埋められていると、グーグルはクロールすることが出来ないのだ。

ステップ 3: ウェブディベロッパープラグインを使ってCSSを無効にする

グーグルボットがHTMLの順番でコンテンツをクロールするため、CSSを無効にする必要がある。CSSのスタイリングは、コンテンツの順序を曖昧にしてしまうことがあるためだ。

ステップ 4: ユーザーエージェントをグーグルボットに設定する

ステップ 5: ウェブサイトを立ち上げ、閲覧する

クイックスプラウトはグーグルボットの目にはどのように見えているのだろうか?

これはページの上部のみである(すべてページを掲載すると、とても長くなってしまう)。しかし、クリック可能なリンクとしてメニューが表示されており、その他のテキストやリンクはグーグルボットに全て公開されている点は伝わるはずだ。

このようにして、ウェブサイトを閲覧すると、思わぬ発見をすることがある。

チェックするべきポイントを幾つか挙げていく:

  1. メニューのリンクはすべて表示されているだろうか(ドロップダウンも)?
  2. すべてのメニューアイテムとリンクは、プレーンテキストとして表示されているだろうか?
  3. すべてのリンクはクリック可能だろうか?
  4. この手法を利用することにより、以前は隠されていたテキストが表示されるだろうか(隠されたテキストは、グーグルボットに警告を送る。悪意があって隠しているわけではなくても、グーグルボットから隠すべきではないはずだ)?
  5. サイドバーやウィジェットのコンテンツは、上部に掲載されているだろうか?忘れないでもらいたいことがある。特に重要なリンクやコンテンツは、HTMLの上部に掲載されているべきである。この点は、大規模なサイトにとっては特に重要である。

それでは、問題のあるサイトの例を以下に掲載する。

このサイトの問題点は、メニューのテキストが実際にはテキストではなく、イメージである点である。要するに、グーグルボットに与えるテキストのシグナルが存在しないのだ。被リンクに対するアンカーテキストの重要性は皆さんもご存知のはずである。内部リンクにとってもテキストは同じように重要である。上のウェブサイトでは、ホームページから注がれるリンクジュースの価値を余すところなく受けている内部のページは存在しないことになる。

検索エンジンの視点でオンサイトの調査を実施したら、次にウェブスパイダーを使ってサイトをクロールする段階に移る。


2. スクリーミングフロッグを使ってサイトをクロールする

スクリーミングフロッグとは?

スクリーミングフロッグ SEO スパイダーを利用すると、ウェブサイトをクロールし、見るだけで、サイトを今までよりも遥かに簡単に且つ素早く構築する方法に関して、重要な情報を得ることが出来るようになる。数分後には、サイトの見え方に関して新たな見解を得ているはずである。

これは実践ガイドであるため、自分のウェブスパイダーを利用するメリットの詳細を知りたいなら、次のスクリーミングフロッグの文書を参考にしてもらいたい:

http://www.screamingfrog.co.uk/seo-spider/

注記: スクリーミングフロッグは無料で1度に500ページまでクロールすることが可能である。そのため、500ページ以上持つ大きなサイトでこのツールを利用する場合、年間ライセンスを購入する必要がある。ここでとっておきの次善策を紹介しよう。サブディレクトリを入力してクロールさせることが出来る – 例えば http://www.quicksprout.com/2012/では、2012年の投稿のみを対象にしている。 複数のサブディレクトリでこの作業を実施すると、少しずつではあるが、サイト全体をクロールすることが出来る。

ステップ 1: サイトをクロールする

ステップ 2: クロールを保存する

ステップ 3: ページレベルをチェックする

ステップ 4: クロールのエラーを確認する

ステップ 5: 長いタイトルを探し、修正する

ステップ 6: 長いデスクリプションを探し、修正する

ステップ 7: インデクセーションの設定を確認する

おまけのアドバイス: 何らかのHTMLを持つ全てのページを見つける方法

ステップ 1: サイトをクロールする

スクリーミングフロッグを立ち上げ、サイトでクロールを実施する。

このタスクには、サイトの大きさに応じて、2 – 20分間を要する。

ステップ 2: クロールを保存する

ファイルフォーマット.seospiderでサイトのクロールの結果を保存するべきである。こうすることで、プログラムを閉じてしまった場合、または、後に見直したい場合でも、再びクロールを行わなくても済む。ただし、サイトに大きな変更を加えたら、再びクロールする必要がある点を忘れないでもらいたい。いずれにせよ、このデータがあれば、クロールを記録しておくことが出来る。

ステップ 3: ページレベルをチェックする

これはあくまでも上級者向けのガイドであり、SEOを確実に改善する、本当の意味での変化をウェブサイトにもたらすことを目標に掲げている。そのため、サイトに適用することが可能なスクリーミングフロッグの情報を獲得する取り組みに焦点を絞って説明させてもらう。

ウェブサイトの奥深くに埋められたページを持っているなら、ユーザーにとっても、SEOにとっても、マイナスに働いてしまう。そのため、スクリーミングフロッグを使って、簡単にこのようなページを見つけ、行動を起こすことが出来るようにリストアップする方法を紹介する。

クロールを行った後、サイトの内部で集められた全てのデータを表示するメインの「Internal」ページに移動する。

ドロップダウンメニューの下のHTMLを選択する。

右端までスクロールする。

「level」をクリックして、ページレベルごとにコンテンツをソートする。

クイックスプラウトでさえ、4-7ページの深さにある過去の投稿が幾つか存在する。

因みに、crosslinker(http://wordpress.org/extend/plugins/cross-linker/ )等のワードプレス用のプラグインの利用を検討してもらいたい。内部でリンクを張り、投稿をリンクで結ぶ上で役に立つためだ。

スクロールして左端に戻ると、新しい投稿を作成する際に、優先的にリンクを張っておきたいページのリストが完成しているはずだ。

リストをCSVフォーマットにエクスポートする:

これで、エクセルから直接、新しい投稿でリンクを張ることが可能な、優れた実用的なURLのリストを手に入れたことになる。

また、リンクを張る際は、当該のリファレンスが、関連しており、有益であり、そして、記述的なキーワードが豊富に詰まったアンカーテキストである点を確認してもらいたい。

ステップ 4: クロールのエラーを確認する

次に、上部のメニューのその他の項目を調べていく。スクリーミングフロッグには多くの掘り出し物が眠っているものの、探し出す方法を知らなければ宝の持ち腐れである – これからその方法を伝授する。

もちろん、グーグルウェブマスターツールでもクロールのエラーに関するデータを得ることが可能だが、データが不完全、または、古い可能性がある。また、この方法は、リンクを張っている全てのリンク切れを起こしている外部 リンクを見つけることも出来る。加えて、自分のツールでサイトをクロールする度に、最新の正確なリストを得られるメリットがある。

  1. 「Response Codes」をクリックする
  2. フィルタードロップダウンメニューから「Client Error 4xx」を選択する
  3. CSVでエクスポートする

こうすることで、400レベルのエラー(通常は404)を返すページのみのリストを得ることが可能になる。

ステップ 5: 長いタイトルを探し、修正する

タイトルタグとメタディスクリプションには、推奨される長さがあることは、皆さんもご存知のはずである。やはり、ウェブマスターツールからこの類のデータを手に入れることが出来る。

スクリーミングフロッグで入手可能なデータは完全であり、ソート & フィルターすることが可能である。

  1. 上部のメニューで「Page Titles」をクリックする。
  2. メニューから「Over 70 Characters」を選択する。
  3. CSVにエクスポートする。

CSVファイルを開く。

アドバイス: すぐに「名前を付けて」保存することを薦める。さもなければフォーマットにより変更を失う可能性がある。

このエクセル文書で、新しいタイトルに対して新たにカラムを作成しておこう。また、長さに対するカラムも作成するべきである。

エクセルで、新しいタイトルタグを作る度に、自動的に文字数をカウントする容易な手段が欲しいだろうか?それなら、このシンプルな数式を「new length」のカラムに加えよう。

=LEN(E3)

当然だが、新しいタイトルを入力したセルを参照する必要がある。

次に

  1. 数式のセルを選択する。
  2. 数式のセルの右下にカーソルを合わせる。
  3. カーソルが十字型に変化するまで待つ。
  4. スクエアをコラム全体に下方向にドラッグする。

これで全ての新しいタイトルタグの長さをカウントしてもらえるうようになる。

ステップ 6: 長いデスクリプションを探し、修正する

長いデスクリプションを探し、修正する作業は、一つ前の作業に似ている。

デスクリプションのメニューにアクセスする。

フィルタードロップダウンメニューから「Over 156 Characters」を選択する

CSVにエクスポートする

新しいタイトルタグと同じように、エクセスで新しいディスクリプションの作成に取り掛かることが可能だ。ここでも、新しいカラムを作り、数式 =LEN(E2) を使って、自動的に新しいデスクリプションタグの長さをカウントさせよう。

ステップ 7: インデクセーションの設定を確認する

「meta and canonical」メニューにアクセスして、インデクセーションの設定を確認する必要がある。次のようなエラーを探すべきである:

  1. カノニカルタグの欠如
  2. 誤ったカノニカルタグ(異なるページに向けられている等)
  3. インデックスされるべきなのにも関わらず、「noindex」タグがつけられているページ。
  4. インデックスされるべきではないにも関わらず、メタタグが欠けている、あるいは「index」がつけられているページ。

おまけのアドバイス: 何らかのHTMLを持つ全てのページを見つける方法

さらにテクニカルな内容に踏み込む。特定のHTMLを持つ全てのページを探し出したい状況を想像してもらいたい。例えば、クイックスプラウトで、新しいタブやウィンドウで開くリンクを持つページを全て見つける必要があると仮定する。

1: Configurationメニューから「Custom」を選択する

2: 探したいHTMLを「Filter 1」に入力する。

注記: 入力したHTMLを含まないページを探すことも可能だ。最高で5つのフィルターを入力することが出来る。

3: サイトを再びクロールする

4: メニューで「Custom」を選ぶ

5: フィルタードロップダウンメニューから「Filter One」を選択する

これで、新しいタブまたはウィンドウで開くリンクを持つページが全て判明したことになる。

このメソッドは、何も変わらないなら、既存のサイトにとって大きくプラスに働く。しかし、サイトのデザイン変更を準備している場合はどうすればいいのだろうか?それなら、デザイン変更に備えて、自己評価するべきである。


3. サイトのデザイン変更を自己評価

次にサイトのデザイン変更を行う際の評価プロセスを、手順を追って説明していく。これは、ウェブサイトを進化させる上で、そして、オンラインでのオーソリティをアピールする上で重要なステップとなる。また、このステップでも、トラフィックを取り逃さないことを心掛けてもらう。

上級者向けSEOガイドのこのセクションが対象にしているのは、新しいサイトを作りながら、次のようなベストプラクティスに従っている人達である:

  1. クロール可能なことを確かめる
  2. 新しいXMLサイトマップを投稿する
  3. 301リダイレクトを導入する

進捗状況を確認するためのスプレッドシートを作成する

以下に、新しいサイトを立ち上げる際に、このようなメトリクスを測定する方法を示すモデルのスプレッドシートを掲載する。


日付

インデックスされたページ数

キャッシュの日付

PR

DA

WMTのエラー

注記

4/1/2012

4,200

3/23/2012

6

71

525

新しいサイトを立ち上げる

4/8/2012

3,750

4/7/2012

5

67

679

新しいサイトのキャッシュが行われる

4/15/2012

4,150

4/12/2012

6

70

482

エラーの修正作業を開始

インデックスされたページ数を測定

グーグルの site: searchを利用する

キャッシュの日時を測定する

グーグルのcache:sitename.com検索をここでも利用する。

キャッシュの日時は、アルゴリズムでグーグルがサイトのどのバージョンを利用しているのかを判断する上で、最も役に立つ。

ページランクを測定する

PRはメトリクスとして重要視されているわけではないが、今でもサイトの価値の目安を得る上では有効である。

SEOquakeのツールバーは、ページランクを手っ取り早くチェックすることが可能である。次のURLからインストールしてもらいたい: http://www.seoquake.com/

SEOmozのドメインオーソリティーを測定する

このメトリクスは、SEOmozがリンクスケープのインデックスをアップデートするタイミングによって、遅延が生じることがある。それでも測定する価値はある – ツールバーは次のURLで入手することが可能だ:: http://www.seomoz.org/seo-toolbar

DAのオーソリティでは次のポイントに注目してもらいたい

「not found」エラーを測定する

ウェブマスターツールを利用し、「not found」のエラーを確認し、スタッツを入手する。

このツールおよびステップを介して、出来るだけサイトをスムーズに移行することが可能になる。  


4. 公開する前に新しいサイトをテストする

このチュートリアルでは、URLを入力すると、テストウェブサイトに向かうようにコンピュータを設定し、本当のURLを使って、サイトを公開する前にテストすることが出来る状態を作っていく。

  1. 新しいウェブサイトのIPアドレスを取得する。 
    ウェブサイトをホスティングしている場所によって、方法は大幅に変わるが、基本的に、管理者パネルのどこかに掲載されているはずである。見つけられなかったら、ホスティングサービスに電話して、尋ねよう。
  2. ホストのファイルを編集して、IPアドレスに向ける
    Macを利用しているなら:

    A. Application folder > Utilities > Terminalの順にアクセスしていく

  1. terminalアップの中で、「sudo nano /etc/hosts」と入力する。
    ユーザー名とパスワードを必要に応じて入力する。
  2. ファイルの最後に、以下の列を入力する:
    111.222.333.444 www.newdomain.com
    111.222.333.444をステップ 1で入手した実際のIPアドレスに、www.newdomain.comを新しいドメインに置き換える。
    Control-Oを押し、エンターを押す。

    E. Control-Xを押し、エディターを終了する。 

    F.

    terminalウィンドウを閉じる

    ウィンドウズのコンピュータを利用しているなら:

    A. Startをクリックし、「notepad&quot」を検索ボックスに入力し、スタートメニューでノートパッドを表示させる

    B. ノートパッドで右クリックし、「run as administrator」を左クリックする。
    許可を求められたら、「はい」を選択する

    C.

    ファイルをクリックし、開く

    D. ファイル名のボックスで、「\windows\system32\driver\etc」を入力し、Enterを押す。sp;

    E. ファイルのタイプのプルダウンを「text file」から「all files」に変更する。

    F. 「hosts」をダブルクリックする。

    G. ファイルの最後に、次の列を入力する:
    111.222.333.444 www.newdomain.com
    111.222.333.444をステップ 1で入手した実際のIPアドレスに、 www.newdomain.comを新しいドメインに置き換える。
  3. ブラウザを開いて、ウェブサイトをテストし、思い通りに表示されているかどうか確認する。新しいウェブサイトに対するURLを入力する。すると、hosts fileエディターは、テストのサイトにアクセスさせるようになる。
  4. テストを行ったら、ステップ 2で加えた変更を戻す必要がある。単純に、ファイルに戻り、加えた列を削除するだけでよい。

5. ダウンタイムなしで新しいサイトに移行する

警告: 何か誤るとサイトをダウンさせる可能性があるので、細心の注意が必要である。

新しいウェブサイトに移行する際は、以下のガイドラインに従い、ダウンタイムを出すことなく、安全な移行を心掛けてもらいたい。アップデートされたIPを世界中のサーバーが入手するには約1日を要するため、少なくとも、新しいサイトの運営を開始してから1週間は新旧のサーバーを両方とも稼働させる計画を立てておこう。

  1. 新しいドメインのTTLを5分間に設定する
    方法はホスティングサービスやドメイン登録サービスによって異なる。通常は、ドメインのコントロールパネルに設定が用意されているはずだが、見つからなかったら、ドメイン登録サービスに連絡し、サポートを要請しよう。

    GoDaddyを利用しているなら:

    A) GoDaddyのウェブサイトにログインする

    B) My Accountをクリックする。Domainsを探し、Launchをクリックする

    C) ドメインの1つをクリックする

    D) DNS Managerまで下にスクロールし、Launchをクリックする

    E) ホストの下で「@」を探し、「TTL」の下にある鉛筆のアイコンをクリックする

    F) メニューをプルダウンして、最短の時間(1/2時間)を選択する

    CNAMEがつけられた「www」を持っているなら、同じように1/2時間に変更しておくべきである。

  2. ドメインのDNSの設定を見つける
    これでサイトのテストの実施 & TTLの変更を終えたことになる。次に、ドメイン名のDNSの設定を変える作業に移る。

    まず、現在のドメイン登録サービスにアクセスし、現在のDNSの設定を探す。次に、新しいホスティングサービスにアクセスし、現在のドメイン登録サービスに入力する必要のある新しいDNSの設定をメモする。

    手続きはホスティングサービスによって、そして、ドメイン登録サービスによって異なる。

    通常は、ドメインのコントロールパネルに設定が用意されているはずだが、見つからなかったら、ドメイン登録サービスに連絡を取り、テクニカルサポートを要請しよう。

  3. 現在のドメインのDNSの設定を変更する。
    双方の登録機関の設定を新しいホスティングサービスでメモしたDNSのアドレスにしたら、どこを変えればいいのかは検討がつくはずだ。既にステップ 3で見つけている。
  4. ステップ 1で加えた列を削除して、hosts ファイルを解除する。
    元々加えた列を削除する作業以外は、基本的にステップ 1の手順に従ってもらいたい。
  5. 5分間待ってから、新しいウェブサイトにアクセスしてみよう。
    ブラウザのキャッシュとクッキーをクリアする必要があるかもしれない。新しいウェブサイトがアップしたら、これで完了。アップしなかったら、ステップ 4の作業をリバースし、古いウェブサイトに戻そう。

6. クロール可能なAJAX(JQuery GETを利用)

この例では、jQueryのpostメソッドを使って、クロール可能なAJAXを作る方法を紹介する。このチュートリアルでは、「XMLHttpRequest POST」メソッドを利用する。

このベストプラクティスに関する詳細は次のURLで確認してもらいたい:

http://googlewebmastercentral.blogspot.com/2011/11/get-post-and-safely-surfacing-more-of.html

  1. HTMLテンプレートを作成する。

  2. jQueryをサイトに加える
    この例では、列 4が加えられている。

  3. 「DIV」タグを固有のIDと共に、本文の動的なコンテンツが向かう場所に加える。
    この例では、列 8が加えられている。

  4. サイトに「DIV」タグにコンテンツを読み込むJavaScriptを追加する。
    この例では、列 10-15が加えられている。

  5. PHP スクリプトを作成する。
    例のコードは、例のブログの投稿をアウトプットする。
  6. ウェブサーバーでスクリプトを試す。
    次のようなページが表示されるはずである:

  7. ページのソースを確認する。
    このHTMLテンプレートと同じようなソースになるはずである。
  8. Inspect Elementをチェックする。
    DOMに動的なコンテンツが読み込まれているはずである。次のようなソースが表示されるはずだ:

7. クロール可能なAJAX(ハッシュなし)

このチュートリアルは、更新することなく、動的なコンテンツを読み込むものの、URLを変更するウェブサイトを対象にしている。グーグルは、HTMLのスナップショットに対するクエリの文字列内で、ルーティング「_escaped_fragment_」を推奨している。HTMLをグーグルボットに、JavaScriptをユーザーに表示するためだ。

同じ成果をもたらす方法は他にも多くある。方法はウェブサイトの設定に左右される。この例では、PHPを使って、何を表示するべきかを判断する。

次のようなURLを持っているなら: “http://www.example.com/index.php” スピードアップを図るため、コンテンツを動的に、そして、非同期的に読み込むJavaScriptでページを作るPHPが理想である。

次のようなURLを持っているなら: “http://www.example.com/index.php?_escaped_fragment_” インデックス & クロール可能な通常のHTMLのページを作るPHPが必要である。

この方法のベストプラクティスに関する詳細は次のページで確認しよう: https://developers.google.com/webmasters/ajax-crawling/docs/getting-started

  1. まず、ヘッダーに適切な「meta」タグを加えるPHPスクリプトを作成する.  
    こうすることで、クエリの文字列「_escaped_fragment_」を用いて、ページをクロールすることが可能な点を検索スパイダーに伝えられる。この例では、「head」タグ全体を生成する関数を作成した。 

    注記:  列 10に、スパイダーに「espcaped fragment」を使ってクロールするよう伝えるメタタグが記されている。
  2. 次に、ページを表示させる関数を作成する。
    この例では、「render_post」は因数「$render_snapshot」を持つ。デフォルトの状態では、このページは通常のページをユーザーに対して表示する。「render_snapshot」が正しい場合、グーグルボットに対して同じコンテンツのHTMLページを表示する。

    注記:
    このPHPの列 25は、ページがHTMLか動的かの判断を行う。
    列 26-29は、コンテンツを取得し、DIVタグ内にHTMLを返す。
    列 31-37は、jQueryを使ってコンテンツを返し、動的にHTMLをDIVタグ内に加える。


  3. 次に、「escapted fragment」のクエリの文字列を処理するコードを加えていく
    この例では、_escaped_fragment_が見つかった場合、HTMLを使って投稿を表示する。

  4. 次に、content.phpファイルを作成する。
    この例では、コードはJSONをHTMLに変換する。
  5. 最後に、ajax_crawling.jsonを作る。
    これはあくまでもデモに過ぎないが、複雑な設定のウェブサイトにもこの原則を当てはめることが出来る。通常、コンテンツはデータベースから届けられる。このデモでは、単一のファイルである。

  6. ユーザーによってレンダリングされるページをテストする:
    次のようなページが表示されるはずだ:
  7. view sourceを確認する
    コンテンツはJavaScriptを使って動的に加えられているため、表示されていないはずである。

  8. Inspect Elementsのビューを確認する。
    Inspect Elementのビューでは、JavaScriptが実行された後のHTMLに似ているため、コンテンツは表示されている。


  9. ボットのビューを「_escaped_fragment_」をURLの最後に加えてチェックする。
    ダイナミックなページと同じページが表示される:

  10. ボットのビューを確認しよう。
    JavaScriptのない通常のHTMLのようなソースが表示されるはずである。

8. クロスドメイン Rel=canonical

いつクロスドメインを利用するべきか

これは大勢の人達が混乱するポイントであり、実装する前に、このタグを利用するべきタイミングについてを説明していく。

  1. 古いサイトのコンテンツ、または、重複するコンテンツを新しいサイトにを動かす必要がある時 – そして、古いサイトがサーバーサイドのリダイレクトを提供していない時。
  2. ただし、出来るだけ古いサイトでオンサイトの重複を削減した後、利用するように心掛けてもらいたい。
  3. 代わりに301リダイレクトを実装することが可能であり、ユーザーエクスペリエンスの面で好まれるなら、301リダイレクトを利用しよう。
  4. また、ページでrel = canonicalとnoindexを併用するべきではない。このページは、リダイレクトを拾ってもらうため、インデックス可能でなければならないためだ。
  5. 両方のページでコンテンツが同じ場合、または違いが僅かな場合に利用しよう。

実装する方法

通常のcanonicalタグを実装する方法と基本的に同じである。

1. ページを準備する

2. (オリジナルの)1つ目のページでソースコードを編集可能な状態にする

3. 古いページの「head」セクションにタグを加え、新しいページに向かわせる:

        <link rel="canonical" href="http://www.example.com/example-page-name/>

「example-page-name」は新しいページのURLである。

以下のインフォグラフィックの投稿をクイックスプラウトから…

http://www.quicksprout.com/2012/06/11/5-ways-to-get-your-infographic-to-go-viral/

…KISSmetricsに移動するケースを想定する。現実的ではないかもしれないが、とりあえず、移動することにする。次のURLに移動するプロセスを説明する:

http://blog.kissmetrics.com/5-ways-to-get-your-infographic-to-go-viral

その他のアドバイス

  1. リンクをrelativeではなくabsoluteにする(http:// etcを丸ごと含む)
  2. 301と同じように、canonicalの連続を避ける
  3. これは絶対的なルールではなく、あくまでもグーグルに対するヒントであるため、グーグルのインデックスとウェブマスターツールでグーグルがこのタグに従っているかどうかを確認しておきたいところだ。

9. httpsの重複するコンテンツのエラーを修正

皆さんもご存知だとは思うが、httpsとはプロトコルであり、ページをワールドワイドウェブに安全に転送する規約である。ショッピングカート等のページ、ログインページ、そして、その他の安全なページには、httpsのアドレスを設定するべきである。しかし、この取り組みでは、URLに「s」を加えるため、コンテンツの重複を生む可能性がある。

通常は、httpsは、インデックスに含めるべきではない。基本的には公開しないページであり、検索結果に返す必要がないからだ。

クロールレポートやサイト評価で、httpsを持つURLがサイトで重複していることが明らかになったなら、この問題を解決するために以下の3つの手順を踏んでもらいたい:

1. インデックスされているページを特定する

2. インデックスされている理由を診断する

3a. 存在するべきではなページを301リダイレクトする

3b. 存在するべきではないなら、インデックスから削除する

ステップ 1 – インデックスされているhttpsのページを探す

httpsを持つ、インデックスされているページを探し出す次のグーグル検索を実施する

  1. site:yourdomain.com inurl:https

crazyeggのウェブサイトは何の問題もないように思える。flash loaderを除けば、htttpsのページはインデックされていない。

KissMetricsはインデックスにhttpsが存在するサイトの典型的な例である。

この2つ目のページは通常のブログの投稿であり、インデックスされるべきではない(このページで3つ目)。

また次のページは、httpsを利用するべきではあるものの、インデックスに含まれるべきではないページである

それでは、インデックスされるべきではないページを発見したら、どのように対処すればいいのだろうか?インデックスから削除したい、不要な古いページと同じように、そもそもなぜインデックスに含まれたのかを解明する必要がある。

ステップ 2 – インデックスに含まれた理由を診断する

例として上のブログの投稿を利用する。それでは、ページを詳しく見ていこう。

グーグルクロームは、URLにhttpsが存在するものの、このページが安全が保証されていないことを指摘している。これは、当該のページが、このこのような方法でインデックスに含まれるべきではない点を裏付けている。

内部または外部からリンクが張られたことが原因でインデックスに含まれた可能性が高い。そこで、複数のツールを使って、リンクのソースを発見する試みを行う。

まずは、スクリーミングフロッグを利用する。サイトを完全にクロールする必要があるためだ。

スクリーミングフロッグで、ウェブサイトのルートドメインを入力する(なぜなら、KissMetricsのように、中にはwww/blog等異なるサブドメインで運営しているサイトもあるからだ – ウェブサイト全体が完全にクロールされている点を確かめる必要がある)。

サイトをクロールする際は、当該のページのURLを検索し、表示されるまで待つ。

その後、クロールが完了するまで待ち、「In Links」を精査する。

「to」カラムをチェックし、「https://」を利用しているリンクがあるかどうか確認する

この例では、ページのhttps://版に向けられる内部リンクは見つからなかった。

内部リンクが見つかったら、内部リンクを変更し、httpsバージョンをhttpバージョンに301リダイレクトする必要がある。

内部リンクが見つからなくても、外部リンクが見つかる可能性がある。この場合、必ずしも設定を変える権限を持っているとは限らない。そのため、httpバージョンに301リダイレクトする。すると、ユーザーをhttpバージョンにリダイレクトし、最終的に、httpsバージョンをインデックスから削除/置き換えることが出来る。

ステップ 3a – 内部リンクを修正する

ベストプラクティスとして、常にサイトで「absolute」の内部リンクを利用してもらいたい。

例えば、次のURLにリンクを張る代わりに: /2012/04/30/6-ways-to-generate-more-traffic-out-of-your-images/

私なら次のURLにリンクを張る: http://www.quicksprout.com/2012/04/30/6-ways-to-generate-more-traffic-out-of-your-images/

http://を含むURLのパス全体が含まれている点に注意してもらいたい。

ワードプレスを利用しているなら、自動的にこの作業は行われるはずである。しかし、一部のカスタムサイトまたは他のCMSのサイトでは、自動的に修正してもらえない可能性があるので、自分で修正しなければならない。

エラーを修正する

httpsのリダイレクトに関する指南については、「htaccess hacks」のセクションを参照にしてもらいたい。


10. Rel=nextを用いるページネーション

ページネーションは、オンページのSEOおよびアーキテクチャにおいて、処理が最も難しい取り組みの一つに数えられる。しかし、現在、グーグルは、「next」および「prev」の利用を認めており、一連のページを持っていることを伝えやすくなっている。

ワードプレスのようなCMSを利用している場合、Yoast SEO等、様々なプラグインが提供されている。しかし、自分でサイトを作った人のために、あるいは、ピュア HTMLで自力でコーディングしたサイトを運営している人のために、上述した新しいタグを使って、ページネーションを是正する方法を紹介する。実は割と簡単である。インターネットでは最高のリソースを見つけるのは難しいが、ここでは万全の対策を伝授する。

ステップ 1 – 一連のページを特定する

Zapposを例に説明していく。以下に男性用のスニーカーのページ 1を掲載する。

メニューでページ 2、3等が確認できるため、一連のページ数が振られたページの中で、このページが1ページ目であることを特定した。

以下にページ 1のURLを記載する

http://www.zappos.com/mens-sneakers-athletic-shoes~dA

続いてページ2、ページ3のURLを記載する

http://www.zappos.com/mens-sneakers-athletic-shoes~dB

http://www.zappos.com/mens-sneakers-athletic-shoes~dC

注記: ページを変更するため、Zapposは文字(a、b、c)を利用している。

ステップ 2 – rel=”next”を1ページ目に加える

このように、一連のページを特定すると、ページ 1のみに「next」タグがつけられているはずである。なぜなら、一連のページの最初のページだからだ。そのため、ページ 1に対して、「head」セクションで次のコードを加える:

<link rel="next" href="http://www.zappos.com/mens-sneakers-athletic-shoes~dB”>

ステップ 3 – 中間のページにrel=”next” とrel=”prev”を加える

1ページ目と最後のページを除く全てのページに「next」と「prev」タグが必要である。前後のページが存在するためだ。ページ 2(mens-sneakers-athletic-shoes~dB)に次のタグを加えることが出来る。

<link rel="prev" href="http://www.zappos.com/mens-sneakers-athletic-shoes~dA”>

<link rel="next" href="http://www.zappos.com/mens-sneakers-athletic-shoes~dC”>

ステップ 4 – rel=”prev”を最後のページに加える

一連のページの最後のページには、そのページの一つ前のページのみを参照すればよいため、次のタグを加える:

<link rel="next" href="http://www.zappos.com/mens-sneakers-athletic-shoes~dY”>

Zが最後のページであると仮定している。

注記

cannonicalタグをnext/prevと関連させて含めることが出来る。

absoluteまたはrelativeのURLを利用することも可能だが、個人的には出来る限りabsoluteの利用を薦める。


11. .htaccessを使ってエラーページをリダイレクトする

以下のプロセスに従う必要がある:

1. エラーページを作成する – このページには特別なスクリプトを与える。

2. .htaccessファイルを設定し、エラーページへリダイレクトする。

ステップ 1 – エラーページを作成する

エラーが返されるページを作成する – 名称は何でも構わない – error.phpを薦める。

このページで、上部に次のコードを加える:

<?php
switch($_SERVER["REDIRECT_STATUS"]){
        case 400:
                $title = "400 Bad Request";
                $description = "The request can not be processed due to bad syntax";
        break;
        case 401:
                $title = "401 Unauthorized";
                $description = "The request has failed authentication";
        break;
        case 403:
                $title = "403 Forbidden";
                $description = "The server refuses to response to the request";
        break;
        case 404:
                $title = "404 Not Found";
                $description = "The resource requested can not be found.";
        break;
        case 500:
                $title = "500 Internal Server Error";
                $description = "There was an error which doesn't fit any other error message";
        break;
        case 502:
                $title = "502 Bad Gateway";
                $description = "The server was acting as a proxy and received a bad request.";
        break;
        case 504:
                $title = "504 Gateway Timeout";
                $description = "The server was acting as a proxy and the request timed out.";
        break;
}
?>

このPHPコードは、それぞれのタイプ別に異なるタイトルを作成する。こうすることで、異なるファイルを大量に作らなくても済む。すべて一つのファイルで実施することが出来る。

この例では、それぞれのエラーページに対して、固有のタイトルとディスクリプションを一つだけ作成している。しかし、変数を加えて、好きな固有のコンテンツを作成することが出来る。

ステップ 2 – .htaccessを設定する

多くのエラーコードをエラーページにリダイレクトしなければならない。以下の列を.htaccessに加えてもらいたい。

ErrorDocument 400 /error.php
ErrorDocument 401 /error.php
ErrorDocument 403 /error.php
ErrorDocument 404 /error.php
ErrorDocument 500 /error.php
ErrorDocument 502 /error.php
ErrorDocument 504 /error.php


12. RSS フィードを最適化する

RSS フィードはブログで大きな役割を担っている。しかし、このフィードを最適化することで得られるメリットの大きさを見過ごしてしまうことがたまにある。以下の実践的なアドバイスに従ってもらえば、RSS フィードを最大限まで活用することが出来るようになるだろう。

ここではフィードバーナーを利用していると仮定する。

ヘッダーでデフォルトのRSS フィードを置き変える

フィードバーナーを利用していると仮定した場合、ウェブサイト上の全てのリンクは適切なフィードに向けられているだろうか?クイックスプラウトのヘッダーセクションは、フィードバーナーのフィードに向けられている。

この作業を実施していないなら、header.phpファイル(ワードプレスの場合)、または、利用しているCMSが認める場所で、フィードのURLを変更する必要がある。

header.phpファイルでRSSのリンクを見つける

フィードバーナーのフィードのURLに置き換える

フィードバーナーでは早さが命

フィードバーナーには簡単に有効にすることが出来る機能が幾つか存在する。全て利用していることを確認してもらいたい。

Activate SmartFeed

SmartFeedは、あらゆるリーダーとの互換性を確立させる上で便利である。

Optimize->Smartfeedの順にクリックする

Activateをクリックする

FeedFlareを有効にする

Feedflareはリンクをフィードの下に掲載し、フェイスブックでの共有、eメール、deliciousでのブックマーク等の行動をユーザーに要請する手段である。

これは、あらゆるRSSフィードにとって絶対に欠かせないアイテムである。

Optimizeタブで、FeedFlareをクリックする。

表示したいリンクを選択する。 フィードは、フィードをウェブサイトに送信した際に、RSS フィードに表示されるアイテムを意味する。サイトは、ウェブサイトに表示されるアイテムを意味する。

Activateボタンは見にくい位置に掲載されているので注意してもらいたい。一番下に用意されている。

次に、「パーソナル」なフレアを幾つか加えていく。これは、ユーザーが作成したクエリであり、一連のデフォルトのフレアのセットには存在しない。

「Browse the Catalog」をクリックする。

利用可能なフレアを閲覧する。好きなフレアを見つけ、「Link」をクリックする。

するとこのフレアのタブが開く。URLをコピーする。

最初のスクリーンに戻る。フレアのURLを貼り付ける。次に「Add New Flare」をクリックする。

フレアが上に表示される。表示する場所を選ぶ(フィード、サイト、または、その双方)。

下でフレアのプレビューを見ることが出来る。アイテムをドラッグ & ドロップして順番を整えることが出来る。

忘れずに「Save」をクリックすること。 見過ごしやすいので注意してもらいたい。

PingShotを有効にする

PingShotは、アップデートが発生するとフィードバーナーに通知する機能である。PingShotにはフィードの提供をスピードアップする効果が見込める。

Publicize->PingShotの順にアクセスし、「Activate」をクリックする。

フィードのオリジナルのソースにリンクを張る

RSSフィードが許可なく利用され、別のサイトで重複する事態に直面したことはあるだろうか?(このガイドの恩恵を受け)人気の高いサイトを運営しているなら、常にこの問題を抱えているはずだ。グーグルボット、またはユーザーは、どちらがオリジナルのソースなのか分からず混乱している可能性がある。

そのため、これからRSSフィードの下に「自分」こそがコンテンツのオリジナルのソースである点を伝えるリンクを加える方法を伝授する。この手法を実行すると、検索エンジンとユーザーにとって格好の判断材料になるだけでなく、被リンクを得られる可能性がある。

1. RSS ソースリンクをブロガー(ブログスポット)に追加する

Settings -> Site Feedの順にアクセスする

以下のコードを加える:

<hr />
<a href="http://www.myblog.com">My Blog Name</a>

2. RSS ソースリンクをワードプレスに追加する

Appearance -> Editor -> functions.phpの順にアクセスする

次のコードを加える:

function embed_rss($content) {
 if(is_feed())
    $content .= "<p><a href='". get_permalink() ."'>'";
    $content .= get_the_title() ."</a></p>";
 return $content;
 }
add_filter('the_content', 'embed_rss');

これでコンテンツのオリジナルのソースに対するリファレンスをRSSフィードに用意することが出来る。それでは、いつものように正しく表示されているかテストしよう。

Thank Youを作成する

パーソナライゼーション、そして、読者への感謝のメッセージは大いに効果がある。以下にシンプルなメッセージをフィードに設定する方法を紹介していく。

Optimize->BrowserFriendly->Content Optionsの順にアクセスする

‘enable’をクリックして、個人的なメッセージを入力する。

RSSのeメールを送るタイミングを決める

送信する時間を管理して、より多くのRSSのeメールを開けてもらう。

Publicize->Email Subscriptions->Delivery Optionsにアクセスする

時間帯、オーディエンスにとって最善の時間を選択する。午前9-11時を薦める。

ワードプレスのRSSをフィードバーナーにリダイレクトする

ワードプレスに内蔵されている標準のRSSフィードを利用している人がいてもおかしくはない。そのRSSフィードを購読している人がいる可能性もある。「フィードバーナーリダイレクト」と言うプラグインを利用すると、すべてのフィードがフィードバナーを経由するように設定することが出来る。

プラグインは次のURLで手に入れることが可能だ - http://wordpress.org/extend/plugins/tentbloggers-feedburner-rss-redirect-plugin/

1. ワードプレスのセットアップでインストールする。

2. 有効にする。

双方のフィールドにフィードバーナーのURLを入力する。これで完了。


13. 動画のサイトマップ

動画をサイトまたはブログに投稿しているなら、とりわけ、メタデータでマークアップしているなら、動画のサイトマップを用意するべきである。こうすることで、グーグルやビングが動画のコンテンツに気づき、処理し、インデックスするプロセスが大幅にスピードアップする。

オプション A – 自力で作成する

サイトの規模が小さく、投稿する動画が2、3本しか存在せず、また、たまに投稿する程度なら、自分で動画のXMLサイトマップを容易に作成することが可能である。/span>

まず、XML構造のスケルトンのテンプレートを提供する。後はデータを加えていけばよい。

これは必要なフィールドを持つだけの最もベーシックなテンプレートである。

ステップ 1: 空のXMLファイルを作成する

  1. ファイルを作成する。名前は何でも構わないが、個人的に好きなファイル名を挙げておく: sitemap_video.xml
  2. 次に以下のようにルートディレクトリに保存する: http://www.quicksprout.com/sitemap_video.xml

先程も申し上げた通り、ファイル名、そして、保存場所は何でも構わないが、サイトマップをウェブマスターツールに投稿する際にこの情報が必要なので忘れないように気をつけてもらいたい。

ステップ 2: 次のコードをXMLファイルに貼り付ける

<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9"

       xmlns:video="http://www.google.com/schemas/sitemap-video/1.1">

 

  <url>

    <loc></loc>

    <video:video>

      <video:thumbnail_loc></video:thumbnail_loc>

      <video:title></video:title>

      <video:description></video:description>

      <video:content_loc></video:content_loc>

      <video:player_loc allow_embed="yes" autoplay="ap=1"></video:player_loc>

    </video:video>

  </url>

</urlset>

上のコードを説明しておく:

テンプレート内のプロパティの大半は任意だが、とりあえず全てを紹介したかったので掲載しておいた :-)

必要なフィールド

  1. ページのURL
  2. 動画ファイルのURLまたはプレイヤーのURL
  1. タイトル
  2. ディスクリプション
  3. サムネイル

それでは、例のテンプレートに情報を記入していく。このテンプレートでは、その他のプロパティは省略し、必要な要素に絞る:

動画1本に対するXML動画サイトマップの基本的なコード

<url>

<loc>http://www.quicksprout.com/videos/neil-patel-video-1.html</loc>

<video:video>         <video:thumbnail_loc>http://www.quicksprout.com/thumbs/thumbnail.jpg</video:thumbnail_loc>

<video:title>Advanced SEO for Bloggers</video:title>

<video:description>An exclusive video with SEO expert Neil Patel. Drive ridiculous amounts of leads to your blog and learn the 7 secrets of conversion rate optimization.</video:description>

<video:content_loc>http://www.quicksprout.com/video.flv</video:content_loc>

</video:video>

</url>

その他のプロパティを追加する

次のように、動画のサイトマップに追加することが可能なプロパティが数多く存在する:

<video:duration>

<video:expiration_date>

<video:rating>

<video:view_count>

<video:publication_date>

<video:tag>

<video:tag>

<video:category>

<video:restriction>

<video:restriction>

<video:restriction>

<video:gallery_loc>

<video:gallery_loc>

<video:price>

<video:requires_subscription>

<video:uploader>

<video:uploader>

<video:platform>

<video:platform>

<video:platform>

<video:live>

例のテンプレートに上のプロパティを幾つか加え、動作を確認しよう。

 <url>

    <loc>http://www.quicksprout.com/videos/neil-patel-video-1.html</loc>

    <video:video>

      <video:thumbnail_loc>http://www.quicksprout.com/thumbs/thumbnail.jpg</video:thumbnail_loc>

      <video:title>Advanced SEO for Bloggers</video:title>

      <video:description>An exclusive video with SEO expert Neil Patel. Drive ridiculous

                      amounts of leads to your blog and learn the 7 secrets of

                      conversion rate optimization.</video:description>

      <video:content_loc>http://www.quicksprout.com/video.flv</video:content_loc>

      <!–optional properties–>

      <video:duration>750</video:duration>

      <video:rating>4.1</video:rating>

      <video:view_count>54321</video:view_count>    

      <video:publication_date>2012-04-01T19:20:30+08:00</video:publication_date>

      <video:family_friendly>yes</video:family_friendly>  

      <video:restriction relationship="allow">IE GB US CA</video:restriction>

      <video:requires_subscription>no</video:requires_subscription>

      <video:live>no</video:live>

    </video:video>

  </url>

これは一目見れば分かる類のプロセスである。認められている個別のフィールドの詳細は、グーグルの文書で確認してもらいたい。

ステップ 3: グーグルウェブマスターツールにサイトマップを投稿する

オプション A – ウェブマスターツールに直接投稿する

グーグルにXMLサイトマップを投稿する手法としては、この手法を薦める。

- ウェブマスターツールにサインインする

- ウェブサイトのプロフィールを見る

- Site Configuration->Sitemapsにアクセスする

- 右隅の“Add/Test a Sitemap”をクリックする

- サイトマップの名前を入力し、投稿する。

オプション B – robots.txtファイルに以下の列を加える -

サイトマップ: http://www.example.com/sitemap_video.xml

あらゆるXMLのサイトマップに共通することだが、robots.txtファイルが適切に設定されていると、グーグルはrobot.txtの情報を基に動画を発見し、処理していく。


14. .htaccessのテクニック

これから紹介するアドバイスは、クライアントがApacheを利用している場合のみ有効である。ウィンドウズ IISを利用しているなら、IISのテクニックを参照すること。

  1. サーバーで.htaccessファイルを探し出す。
    (“サーバーで.htaccessを探す方法”を参照)
  2. .htaccessを見つけたら、テキストエディタを使ってファイルを編集する。
    ウィンドウズを利用しているなら、 Notepadを薦める。Macを利用しているなら、  TextWrangler等の無料のテキストエディタをダウンロードしよう。
  3. .htaccessファイルで何をしたいのかを決め、コードの列を加える:

自分で404ページを作るには

“ErrorDocument”を利用し、最後にオリジナルの404ページへのURLを加える。例:

ErrorDocument 404 http://www.example.com/my-custom-404-page.html

フォルダーをパスワードで保護するには

A. まず、htpasswdファイルを作成する。オンラインツールを利用すると簡単に作成することが出来る: http://www.tools.dynamicdrive.com/password/

B. 左側に希望するユーザー名を、そして、当該の人物に与えたいパスワードを右側に入力する。

C. “path to .htpasswd”ボックスで、公開しないフォルダーを記入する。通常は、次のように、ホームのディレクトリを入力すると安全である:“/home/myusername”

D. submitをクリクし、ダウンロードした.htpasswdファイルを“/home/myusername”に置く。

E. 次にこの情報を.htaccessファイルに入力する。

AuthUserFile /home/myusername/.htpasswd

AuthName EnterPassword

AuthType Basic

require user some_users_name

some_users_name”をこのフォルダで許可されるユーザーネームと置き換える。

IPアドレスでユーザーをブロックするには

次の4つの列を.htaccessファイルに入力する:

Order allow, deny

Deny from 111.222.333.444

Deny from 555.666.777.888

Allow from all

“deny from,”の列で、例のIPアドレス“111.222.333.444”をブロックしたいIPアドレスに置き換える。

リファラーでユーザーをブロックしたいなら

以下の3つの列を.htaccessファイルに加える:

RewriteEngine On

RewriteCond %{HTTP_REFERER} somedomain\.com [NC]

RewriteRule .* – [F]

複数のリファラーをブロックしたいなら、次のようにRewriteCondの列を増やす必要がある:

RewriteEngine On

RewriteCond %{HTTP_REFERER} somedomain\.com [NC,OR]

RewriteCond %{HTTP_REFERER} anotherdomain\.com [NC,OR]

RewriteCond %{HTTP_REFERER} 3rdDomain\.com [NC]

RewriteRule .* – [F]

最後の列を除く全ての列が“[NC,OR]”で終わっている点に注目しよう。

index.html以外をデフォルトのページに指定するには

“home.html”をデフォルトのページに指定したいと仮定する。その場合、次の列を.htaccessファイルに利用してもらいたい:

DirectoryIndex. home.html

古いドメインを新しいドメインに301リダイレクトするには

以下の列をhtaccessファイルに加える。

RewriteEngine on

RewriteCond %{HTTP_HOST} ^olddomain.com [NC,OR]

RewriteCond %{HTTP_HOST} ^www.olddomain.com [NC]

RewriteRule ^(.*)$ http://www.newdomain.com/$1 [R=301,NC]

"olddomain.com"を古いドメイン名に置き換える。すると、古いドメインからWWWで始まる新しいドメインにリンクを301リダイレクトするようになる。

ウェブサイト上のリソースへの直リンクを防ぐには

次の列を.htaccessファイルに加える:

RewriteEngine on

RewriteCond %{HTTP_REFERER} !^$

RewriteCond %{HTTP_REFERER} !^http://(www\.)?mydomain.com/.*$ [NC]

RewriteRule \.(gif|jpg|js|css)$ – [F]

mydomain.comをドメイン名に置き換える。この列によって、GIF、JPG、JS、そして、CSSファイルへの直リンクを阻止することが可能になる。

HTTPS://からHTTP://へ全てのページをリダイレクトするには

次の列を.htaccessファイルに加える:

RewriteEngine on

RewriteCond %{SERVER_PORT} !^80$

RewriteRule ^(.*)$ https://www.domain.com/$1 [NC,R=301,L]

domain.comを実際のドメインに置き換える。

HTTP://からHTTPS://へ全てのページをリダイレクトするには

.htaccessファイルに次の列を加える:

RewriteEngine on

RewriteCond %{SERVER_PORT} !^443$

RewriteRule ^(.*)$ http://www.domain.com/$1 [NC,R=301,L]

domain.comを実際のドメインに置き換える。

1つのURLをHTTPS://からHTTP://にリダイレクトするには

URLがhttp://www.domain.com/mypage.htmlだと仮定する

RewriteEngine on

RewriteCond %{HTTP_HOST} !^80$

RewriteCond %{HTTP_HOST} ^www.domain.com/mypage.html [NC]

RewriteRule ^(.*)$ http://www.domain.com/mypage.html [NC,R=301,L]


15. グーグルボットを検知する

ユーザーエージェントとしてグーグルボットを検知しておくべきである。その理由は数多くあるが、皆さんの想像に任せておく。 :)

1.  次のコードを文書の「body」のどこかに切り取り & 貼り付けする

if(strstr(strtolower($_SERVER['HTTP_USER_AGENT']), "googlebot"))

{

   // what to do

}

2. Replace with your content

“// what to do”を好きな指示に置き換える。

アドバイス: To make it HTML

次のコードを加える:

if(strstr(strtolower($_SERVER['HTTP_USER_AGENT']), "googlebot"))

{?>

          <h1>Put your HTML here</h1>

<p>anything you’d normally do</p>

<?php

}

PHPの各パーツを分ける。

if(condition){} - this is just a simple function that says “if x is true, do y”.

次にネスト化したステートメントの内側から作業する。

‘HTTP_USER_AGENT’ - これはブラウザ特有のIDの文字列を引き出す

$_SERVER – これはヘッダー、パス、スクリプトのロケーション等、ウェブサーバーによって生成される情報を持つ配列である

strtolower – 全てのアルファベットを小文字に変えた状態で文字列を返す

strstr – 最初のneedleの発生からhaystackの最後までを含むhaystackの文字列の一部を返す

{

        // what to do

}

フォワードスラッシュ // はコメントを残すためだけに用いられる。つまり、波括弧の間に望む動作を挟めばよい。

ビジュアルを好むなら – このコードは分かりやすい:


16. サイトにカスタム検索エンジンを加える

グーグルのカスタム検索エンジンは強力なツールになり得るものの、このツールを利用していないサイトは意外と多い。それでは、サイトにカスタム検索エンジンをインストールする手順を説明していく。

- http://www.google.com/cseにアクセスする

ステップ 1: タイトルとディスクリプションを作成する

ステップ 2: 検索に含めるサイトを加える

ここでちょっとしたテクニカルなノウハウが役に立つ。

サイトのURLをただ単に加えるのではなく – アスタリスク (*) をURLの後ろに加えて(例

http://www.quicksprout.com/*)サイト全体を検索することが出来るようにしなければならない。

ステップ 3: Editionを選択して、確認する

この作業を完了すると、カスタム検索エンジンをサイトに実際にインストールする前に試す機会が得られる。

Let’s check it out!

カスタム検索エンジンで[twitter tips]を検索すると、良質な検索結果が表示された。また、エンジン内のサイトのバラエティも申し分ない(プレミアム版を購入しない限り、広告が表示される点に注意)。

それでは、これからサイトにインストールするプロセスを説明する。

カスタム検索エンジンをサイトにインストールする

このタイプのインストールは、新しいページか新しい投稿のいずれかに行うことになる。例では新しいページを利用するが、新しい投稿にも同じ方法を用いることが可能である。

ステップ 1: “new page”にアクセスする

ステップ 2: HTMLモードで編集する

JavaScriptのコードをページに貼り付けるため、HTMLモードで編集を行う。

ステップ 3: コードを貼り付ける

プレビューを見る


17. 複数の言語のマークアップとグーグル翻訳

グーグル翻訳をインストールして、別の言語を話すビジターにもサイトを楽しんでもらう方法をこれから伝授する。これは割と新しいテクニックであり、利用している人はまだ少ない。そのため、早い段階で導入しておくことを薦める。

 http://translate.google.com/translate_toolsにアクセスする

段階 I – コードを取得する

翻訳をサイトに実装するため、まずはオプションを選択し、コードのスニペットを生成する。

ステップ 1: ページ全体またはページの一部を翻訳するかを決める

大抵、ページ全体を翻訳したいのではないだろうか。しかし、一部のテキストを異なる言語に翻訳したい場合でも、ページの一部のみを翻訳する選択肢があるので心配しないでもらいたい。

ステップ 2: ウェブページの言語を選択する

大抵の場合、英語を選択することになる。

ステップ 3: Optional Settingsを表示させる

十字マークをクリックして、optional settingsを開く。

optional settingsを使って、サイトの翻訳を完全にカスタマイズすることを私は薦める。

翻訳される言語を選択することが出来る。

翻訳ボックスの表示方法を選択することが出来る。個人的には、「inline」と「dropdown only」が良いと思う。

さらに上級者向けの設定も用意されている。ここでは、ページを翻訳する必要がある読者に自動的にバナーを表示する。また、グーグルアナリティクスで利用を追跡する。

アドバイス: グーグルアナリティクスのIDを早く見つける方法

1. 自分のウェブページにアクセスする

2. ソースを見る

3. Control F(クロームの場合)を押して、テキストを探す

4. “ua-”(ダッシュ付き)を検索する

選択を終えたら、完成したスニペットのコードが表示されるはずだ。

ページのプレビューを見る

コードをコピーして、サイトに加える前に、翻訳ボタンのプレビューを見ることが出来る。

段階 II – コードをサイトにインストールする

これでコードの準備が整ったので、これからサイトに実際にインストールしていく。ワードプレスのようなコンテンツ管理システムを利用しているなら、割と簡単にインストールすることが可能だ。ここでは、コードを挿入するスポットを探す作業のみ説明する。

ステップ 1: 翻訳ボックスを表示する場所を決める

翻訳ボックスをインストールする基本的な場所は次の2つである。

オプション A – クイックスプラウトのように、ヘッダーのどこかに表示する:

オプション B – クックスプラウトのこのページのようにサイドバーのどかに表示する:

ステップ 2(オプション A): コードをヘッダーにインストールする

再びソースコードを確認すると、コードを挿入する必要のある場所が見えてくる:

検索ボックスとロゴの間に挿入する必要がある。

1. ワードプレスにログインする

2. 「editor」にアクセスする

3. 「Header」を選択する

4. header.phpファイルの翻訳コードを貼り付ける

翻訳ボックスを表示させる場所をコードで探し出し、header.phpファイル内でスニペットを貼り付け、保存する。

ステップ 2(オプション B): サイドバーにコードをインストールする

新しいテキストのウィジェットを作成することが出来るため、このオプションの方が少し難易度は低い。

1. ウィジェットにアクセスする

2. サイドバーに新しい「Text Widget」を加える

3. 翻訳コードをウィジェットに貼り付ける

これで完了。今後は異なる言語のユーザーにもサイトを楽しんでもらえる。


18. 悪意のある、または害をもたらす可能性のあるリンクをブロックする

時折、ハッカー、または、悪意のない経験の浅い人達が、クエリパラメータを最後に加えたリンクを送ってくることがある。例を以下に挙げる:

http://www.quicksprout.com/?neilpatelscam

(このような方法でリンクを張ってもらいたくない)

また、悪意のあるクエリの文字列が異なるページに向かわせてしまうこともある:

http://www.quicksprout.com/page/2/?neilpatelscam

http://www.quicksprout.com/page/3/?neilpatelscam

このページはそのままインデックスされ、本物のページをインデックスで置き換えてしまう可能性がある。可能性こそ低いものの、万が一の時は、修正する必要がある。以下に、そのための.htaccessのコードを掲載する:

# FIX BAD LINKS
<ifModule mod_rewrite.c>
RewriteCond %{QUERY_STRING} querystring [NC]
RewriteRule .* http://example.com/$1? [R=301,L]
</ifModule>

単純に次の手順に従ってもらいたい:

1. .htaccessがルートディレクトリに存在することを確認する。

2. このコードを.htaccessファイルの一番下に掲載する。

3. “querystring” を利用されている悪意のあるクエリ文字列と置き換える。

4. example.comをサイトのURLと置き換える。

5. 複数のクエリ文字列を加えるには、“pipes” ( | )を“or”を表現するために用いる:    

           例えば、neilpatelscam|quicksproutripoff|badblogger

6. 最後に1週間後または2週間後にグーグルで、次のようなsite: queryを実行して、インデックスから削除されている点を確認する:

        site:quicksprout.com/?neilpatelscam


19. オンサイト分析向けのブラウザプラグイン

ブラウザプラグインは、ワークフローと効率を大幅に改善するポテンシャルを秘めている。そこで、グーグルクロームのプラグインを幾つか紹介し、高度な使い方も幾つか伝授していく。

このセクションでは、サイトのアクセシビリティおよびインデクセーションを最適する上で役に立つプラグインを取り上げる。

以下にリストを掲載する。

  1. Broken Link Checker - https://chrome.google.com/webstore/detail/ojkcdipcgfaekbeaelaapakgnjflfglf
  2. Web Developer - http://chrispederick.com/work/web-developer/
  3. Redirect Path Checker - https://chrome.google.com/webstore/detail/aomidfkchockcldhbkggjokdkkebmdll
  4. SEOmoz Toolbar - https://chrome.google.com/webstore/detail/eakacpaijcpapndcfffdgphdiccmpknp
  5. Chrome Sniffer - https://chrome.google.com/webstore/detail/homgcnaoacgigpkkljjjekpignblkeae
  6. Google Analytics Debugger - https://chrome.google.com/webstore/detail/jnkmfdileelhofjcijamephohjechhna
  7. Microformats for Chrome - https://chrome.google.com/webstore/detail/oalbifknmclbnmjlljdemhjjlkmppjjl
  8. Rulers Guides and Eyedropper Color Picker - https://chrome.google.com/webstore/detail/bjpngjgkahhflejneemihpbnfdoafoeh
  9. Word Count - https://chrome.google.com/webstore/detail/kmndjoipobjfjbhocpoeejjimchnbjje
  10. Source Kit - https://chrome.google.com/webstore/detail/iieeldjdihkpoapgipfkeoddjckopgjg?hl=en-US

次に、高度な利用方法を紹介する。

Broken Links Checker

このプラグインは、リンク切れを手っ取り早く確認することが出来るだけでなく、リンクの構築および獲得に関するアイデアを得るため、他のサイトに利用する手もある。

例えば、競合者のウェブサイトのサイトマップでこのプラグインを実行してみよう。手順は以下の通りだ:

1. 競合者のHTML sitemapを探す。例えば、ランダムに www.bizchair.comを取り上げ、サイトマップを探し出してみる: http://www.bizchair.com/site-map.html

2. Link Checkerを実行する

エクステンションのアイコンをクリックする

リンク切れが見つかるまで待つ – この例では、多くのリンク切れが見つかった。

特に目立つのは、“resources” ページである。リソースのコンテンツを再現する、または、リンクを得るために利用することが出来る。

Chrome Sniffer

このプラグインは、ウェブサイトが利用しているCMS、または、スクリプトのライブラリを自動的に表示する。例えば、ワードプレスのサイトのオーナーのみに接触したい際に、とても便利である。

ウェブを閲覧している際に、利用されているCMSやライブラリに合わせて、URLの右端のアイコンが変化する。

例えば、私のサイトはワードプレスで構築されていることが分かる

そして、ドルーパルで構築されているサイトの場合このように変化する

Redirect Path Checker

このプラグインは、リダイレクトでページに移動される際に自動的に警告を発する。ウェブを閲覧している際に、内部(または外部)で期限切れのURLにリンクを張っている場合、非常に役に立つ。

例えば、私は、たった今、Gizmodo 302リダイレクトにリンクを張っていることに気づいた:

このプラグインが302を通知してくれたため、リダイレクトに気づいたのだ。

アイコンをクリックすると、ブラウザがページに向かう上で経由したリダイレクト(または一連のリダイレクト)を表示する。

SEOmoz Toolbar & Plugin

Mozのプラグインは、様々な用途で利用することが可能である。より高度な方法を幾つか紹介する:

followedとnofollowedのリンクを早く発見する

ウェブサイトの国またはIPアドレスを発見する

上級者向けSEOガイドの記事一覧はこちらから


この記事は、Quick Sproutに掲載された「Chapter 1: Indexation and Accessibility」を翻訳した内容です。

圧巻の質と量を誇る記事でした。英語圏のツールを中心に紹介されていましたが、大半が日本語でも問題なく使えるものばかりですし(というか、日本で使える同種のツールは余りないですし)、日本のウェブマスターにも十分に役立つ内容だったと思います。ここまで徹底してSEOに取り組んでいるサイトも余り無いと思いますし、全てを行う必要があるわけでもないとは思いますが、ここという時に参考になる情報が満載でした。 — SEO Japan [G+]

Googleアナリティクスとワードプレスを使ってエンゲージメントを計測する方法

ユーザーのエンゲージメント(ちょうど良い日本語訳が見つからないのですが、ユーザーの参加レベルのような意味合いでしょうか)に関する記事はSEO Japanでもたまに取り上げていますが、今回は実際に自身のサイトにおけるユーザーエンゲージメントの度合いを探りたいあなたのためのエンゲージメントに特化した測定指標と測定方法について紹介します。ワードプレスとGoogleアナリティクスという組み合わせとしてはトップクラスのツールを元にした記事となっており参考になるウェブマスター、ブロガー酸も多いのでは? — SEO Japan

ブログを運営し、優れたコンテンツを配信している自信があっても、エンゲージメントには手が届かないように思える。良質な記事を作成すると、高く評価してもらい、ツイートしてもらい、共有してもらい、そして、+1してもらえる – しかし、実際にコンテンツはどのぐらい読んでもらえているのだろうか?

グーグルアナリティクスで、キーワードがコンテンツにビジターを導く仕組みにおける、検索およびキーワードの領域を理解したら、次の段階に進むべきだえる。ページから検索結果へすぐに戻るユーザーの行動(直帰)は、グーグルにマイナスのイメージを与えると考える人達は多い。当該のユーザーは、事実上、サイトにマイナス票を投じ、「クエリを入力した際、このページを求めていたわけではない」と発言していることになるためだ。

この考えが正しく、また、私も同意すると仮定すると、ユーザーの行動を調査して、直帰率を削減する取り組みは、特定のフレーズに対して上にランク付けしてもらう確率を高める方法として、有効だと言えるだろう。上位のランクとユーザーを満足させるコンテンツを合わせると、目標達成につながる。次のようなサイクルで、この取り組みを実施することが出来る。

SEL_4-2_content_ranking_cycle

ビジターはどれだけの間ページにとどまり、実際にどの程度スクロールしているのだろうか?今回は、コンテンツのページに関するビジターのエンゲージメントを計測する上で、私が持っているアイデアを幾つか検証していきたい。

まず、優れたコンテンツを持っている必要がある。3-4つのキーワードフレーズを含む300ワードのコンテンツを作ることに苦戦し、ユーザーがページに到達した後の行動などどうでもいいと考えているなら、優れたコンテンツを重要視しているとは言えない。一方、読者を没頭させ、読者や顧客としてビジターを維持することを考慮して、コンテンツを作成しているなら、この記事を読み進めていってもらいたい。

グーグルアナリティクス

グーグルアナリティクスを使って、ページのエンゲージメントを測定する方法には、簡単な方法と難しい方法がある。最も容易なのが、イベントの測定である。しかし、求めるイベントを実装し、発動する方法には、簡単な方法と複雑な方法の2種類がある。

スクロールの深さ

ユーザーがスクロールする、または、特定のポイントを通過することで、イベントを発動するように設定することが可能である。確かに素晴らしいアイデアだが、私自身は、ワードプレスのプラグインを使わずに、この方法を実施したことはない。だからと言って、不可能と言うわけではい。私のようなコーディングの初心者が実装するには複雑過ぎるだけである。

このタイプの計測をワードプレス以外のサイトに実装したいなら、ジャスティン・カトロニ氏が投稿した記事 ? そして、Savio.noのこの記事に目を通してもらいたい。この2本の記事は、手順ごとに設定方法を説明している。一方、ワードプレスを利用しているなら、運が良いと言える。その訳をこれから説明する。

イベントの評価

シンプルなサムズアップ、または、サムズダウンによる評価を行うボタン(駐:親指を上げている・下げている評価ボタン)をコンテンツの最後に加えるのは、良いアイデアだと思う。星評価システムを加える手もある。読者がボタンまでスクロールダウンし、いずれかのボタンをクリックした場合、グーグルアナリティクスのダッシュボードでイベントがトリガーされる。こうすることで、少なくともページをスクロールダウンした点は分かるようになる。

また、読者が気に入ったコンテンツと気に入らなかったコンテンツを知る上でも役に立つ。ただし、この評価を得るのは容易ではなく、総合的なサンプルの票を得られるように、十分な量のトラフィックが必要になる。

コンテンツのページネーション

これは、コンテンツを提供する方法の中で、個人的に一番嫌いな方法かもしれない。多くの大規模なニュース/マガジンサイトは、この方法を採用している。この方法は、直帰率が低く、「1回の訪問当たりのページ数」が多いことをアピールして、広告料金を高く設定するために用いられているはずである。とは言ったものの、記事の「ページ 2」にイベントの計測を設定することで、ページ 1の一番下まで、何人のビジターが目を通したのかを把握する上で目安になる。

ページ解析

この機能は、グーグルアナリティクスのヘビーユーザーの間でもあまり利用されていない気がする。確かに初めて公開された際、ページ解析機能は質が低く、あまり役に立たなかった。当時と比べると、この機能は大幅に進化している。ただし、注意するべき奇妙なポイントがまだ幾つか残っている – 見ているページから、複数本のリンクが同じページに向かっていると、このページへの全てのリンクが同じ数字を報告する。

例えば、- ホームボタン、ワードプレスの管理者バーのホームボタン、そして、ヘッダーのロゴは全て私のホームページにリンクを張っているが、それぞれ異なるアプローチで利用されている。しかし、グーグルはユーザーの8.3% – 全て同じ確率 – が、全てのルートを辿ってホームページにアクセスしているとレポートしている。これは、正しい情報ではない。この3つのアイテムが同じページに向かっているため、グーグルは、クリック数を合計しているだけである。この点に関しては修正してもらう必要があるが、それだけでこのツールを役立たず呼ばわりするべきではない。

SEL_4-2_no_use

例えば、ページ解析のおかげで、ページの右上のソーシャルメディアリンクが全く利用されていないことが分かった。そのため、エンゲージメントを促すために、この要素のデザインを変更する必要がある。クリックされていないと言うことは、誰も利用していない。そのため、対策を講じる必要があるのだ。

ワードプレス

ブログを作成し、アップデートするために利用することが可能な様々なプラグインやコンテンツ管理システムが存在するものの、私はワードプレスのみを利用している。ドルーパルやジュームラを利用しているなら、申し訳ないが、これから提供するアドバイスは役に立たない。私はコンテンツエンゲージメントを計測する上で有効な優れたワードプレスのプラグインを発見した。そのうちの幾つかは、グーグルアナリティクスのイベントセクションで計測値をレポートしてくれる。しかも、全て無料で利用することが出来る。

グーグルアナリティクススイート

グーグルアナリティクススイートプラグインは、グーグルアナリティクスとグーグルアドセンスのアカウントを結びつけ、ページビュー、スクロール量、ページ速度、ダウンロード、そして、アドセンスのリンクをイベントとしてレポートする。簡単に設定することが可能であり、グーグルアナリティクスのカウントに容易に引っ張り込むことが可能だ。

以下のイメージには、このプラグインをインストールした数時間後のイベント計測のスクロールに関する情報が掲載されている。これで、読者がページをどこまでスクロールダウンしているかが分かる。また、このデータをリアルタイムで閲覧することも可能である。

SEL_4-2-13_scroll_depth

グーグルアナリティクスプラグイン- Yoast

Yoast de Valk氏が開発したこのグーグルアナリティクスのプラグインを私は愛用している。インストールおよび設定が容易であり、様々なイベントのレポートを提供してくれるからだ。ジャスティン・カトロニ氏は、ブログの中で、このプラグインを使って、スクロール量をイベントに実装することが出来ると指摘しているが、今のところその証拠はつかめていない。

このプラグインの長所は、外部へのリンクとアフィリエイトリンクを追跡することが可能な点である。多くのサイトにリンクを張っているなら、「exit page」- ビジターが消えただけ – ではなく「exit link」として計測することが出来る。これはインデックスツール/ヤフー!ウェブアナリティクスがかつて得意にしていた分野であり、グーグルが不得手としている分野である。

また、外部サイトへのクリックをページビューとして計測し、アナリティクスのダッシュボード内の「サイトのコンテンツ」と「すべてのページ」で容易に区別することが出来る。

SEL_4-2_outbound

ユーザーがページをどのように利用しているかを把握することは、ユーザーがページにアクセスしている点を把握することと同じぐらい重要である。レシピを紹介しているのであれ、コンピュータを販売しているのであれ、ユーザーがサイトのページに到達した後、どのような行動を取っているのかを理解すると、ニーズを満たすコンテンツを作成する上で大いに役立つ。

分析せずにユーザーの行動を把握することは出来ない。自分のサイトに合う方法が見つかるまで、上述したメソッドを幾つか、または全て試してもらいたい。ユーザーが没頭するコンテンツのタイプ、そして、ユーザーが読む確率が高いコンテンツの形式を理解したら、より効率良くコンテンツを作成することが出来るようになるはずだ。

PS: コメント欄の指摘によると、私はツールの価値をさらに高める設定のステップを幾つかスキップしていたようだ。

Yoastのプラグインはとても便利だが、本人が、ページビューではなく、外部クリックをイベントとして設定することを薦めている。プラグインの設定で、Advanced Settingsにアクセスし、「Track Outbound Links as Pageviews」(アウトバウンドリンクをページビューとして計測する)ボックスのチェックを外す必要がある。因みに私がインストールした際は、このチェックは外されていた。

また、ページ解析に関して、グーグルは、ランディングページではなく、リンクでアトリビューションを設定する修正を行ったと発表した。そのため、アナリティクスのコードを少し変更する必要がある – このブログの投稿で分かりやすい説明が提供されている。

最後に、この記事で正確な情報を提供する上で貢献して頂いた、SearchEngineManおよびポール・トンプソン氏に感謝の意を伝えたい。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「How To Measure Content Engagement And Effectiveness With Analytics & WordPress」を翻訳した内容です。

予想以上にシンプルな内容でしたが、グーグルアナリティクススイートプラグインというのは気になりますね。SEO Japanもワードプレス+アナリティクス(+アドセンス)で運用していますし、早速導入してみたいと思います! — SEO Japan [G+]

Google Readerから乗り換えを検討したいRSSリーダー一覧

来てしまいました、ついにこの日が。RSSリーダーとしては圧倒的存在だったGoogle Readerが今年の7月でサービス終了するそうです。日米、ブログ界隈はこの話題で持ちきりですが、個人的にはブロガーは日々情報収集のためRSSリーダーを使っている人が多そうですし、この盛り上がりぶりは若干バイアスかかった状況な感じもしなくはないです。しかしかつてはRSSの可能性を信じ、本を2冊も出してしまった私としては、今回の決定に思う所は色々あります。とはいえ、日々SEO Japanのネタ発見用にGoogleリーダーを愛用していただけに、代替リーダーを至急見つける必要もあるわけですが。。。と、思っていたら早速The Next Webが乗り換え用のRSSリーダー一覧表を作ってくれたのでここに紹介します。 — SEO Japan

 

GoogleがGoogle Readerを打ち切りにする。この製品は徐々に先細ってはいるが猛烈なロイヤルユーザーベースがあり(私や他のTNWスタッフを含む)、たくさんの関連RSSサービスがこのReader APIコードを頼りにしている。それは、このサービスの停止が幅広いインターネットユーザーに影響を与えることを意味し、多くのサービスが落胆した人達をかき集めるためにあちこち動き回っている。

Feedly―フィードを雑誌のようなレイアウトに変えるブラウザ・プラグイン―は、Google Reader APIのクローンを作るためにそのプロジェクトを詳細に練り上げ、人気ソーシャルアグリゲーターFlipboardは、“あなたのRSSフィードの備えをした”と言い、オープンソースNewsblurはReaderインポートに対処するためにもっと多くのサーバーを追加している。そして、Reeder―これもGoogleに依存している―は、“Google Readerと共に死ぬつもりはない”

恐らく、Googleからのニュースの後に、生き残るために慌てている他のサービスもある。

Feedlyは、以前からこのサービス停止を予期していたし、不吉な前兆があったことは事実であるため、そのプロジェクト―ReaderからのRSS購読の移行―は、現在進行中であると言っている。TechCrunchが詳しく話しているように、GoogleはReaderに対する取り組みとリソースを着実に削減してきたが―ついには去年の2日間の停止があった―、多くの人が気付いていないかもしれないのは、Readerが他の数多くのサービスに動力を供給していることだ。

Instapaper創設者のMarco Armentは、この件について面白い見解を持っている。

Google製品からの開発の欠如が“デスクトップRSSクライアントの市場を破壊した”と主張して、Armentは、デスクトップとモバイル両方におけるRSSクライアントおよびリーダーは、短期的に苦しむかもしれないが、この打ち切りは“実質的なイノベーション”をもたらすことになると言う。

優れた代替品が成熟して幅広くサポートされるようになるまでは、一時的に最悪かもしれないが、長い目で見ると、大丈夫、これは素晴らしいニュースなのだ。

‘Google Readerを維持する’請願書(Googleがそれをオープンソース化するという望みがある)はすでに2,000以上のデジタル署名を獲得している。Feedly.comNewsblur.comがダウンすること―恐らく膨大な量のトラフィックを経て―、そして、この件について書いた数えきれないほどのブログ投稿が生じたことを考えると、Readerの終了は多くの人に穴を残すだろう。

もしあなたも代わりを探しているのなら、Lifehackerが代替物に目を向けた役に立つ記事を書いている。以下はその一部だ:

- Feedly: ブラウザ・プラグイン、iOS、Android

- Reeder:: iOS、Mac

- Netvibes: デスクトップ、iOS、Android

- FeedDemon: Windows?[修正:創設者によると、FeedDemonは公式に終了した。]

- Flipboard: Android、iOS

- Newsbar-app: Mac

- Taptu: Android、iOS、BlackBerry、Nook

- NewsBlur: Web、iOS、Android

- HiveMined: 近日中

その他の提案がある場合、またはあなたがRSSアプリに取り組んでいる(特にGoogle Reader機能を再現したもの)場合は、教えて欲しい。

面白いことに、MediafedTaptuを所有するRSS界の大手―が1月の終わりにQriusをローンチした。この製品は、ソーシャル時代におけるRSSの試みであり、最初は非公開の試用期間で、今年の終わりに公開する予定だ。Readerニュースがその計画を促進させることがない限りは。

アップデート:ホワイトハウスに請願することもできる―こちら

見出しの画像:brittgow / Flickr


この記事は、The Next Webに掲載された「As Google Reader is killed off, Flipboard, Feedly and others step up with RSS alternatives」を翻訳した内容です。

英語版サービスの紹介だけで恐縮ですが、日本の場合はLivedoor ReaderかMy Yahoo!なんですかね。私も夏までにどこかに落着けないといけないですが(選んだツール次第ではSEO Japanの更新に大きく影響が出そうですし)、その一方、実は私も現在、ニュースリーダーを夏までにリリースすべく開発している最中であり、チームの仲間と早速「RSSリーダー機能をつけるべきか」のディスカッションをした所です。結論からいうと、フォロワービジネスをしても限界があるし、RSSリーダーに代わるニュースリーダーとして他にない機能開発に特化して勝負しよう、、という結論に達したのですが、さてさて。

記事にもありますが、今回のGoogle Readerの終了が新しいニュースリーダー時代の幕開けになることは間違いないかなという気もしています。既存のRSSリーダーの延長線上で進化したツールになるのか、それか新しい種類のニュースリーダーが新時代の情報収集ツールとして普及するのか、興味はつきませんし、その分野で新サービスを提供しようとしている私にとっては、久々にエキサイティングすぎるニュースでもありました。 — SEO Japan [G+]